miércoles, 30 de enero de 2019

El futuro de la mente: Cómo la inteligencia artificial podría remodelar la mente humana y crear mentes sintéticas alternativas

Vía la web edge.org dejo traducida una conversación con Susan Schneider.

En el siguiente enlace podréis encontrar el original tanto en versión texto como en versíon de vídeo con la entrevistada, aquí no puedo insertar dicho vídeo.


How AI Technology Could Reshape the Human Mind and Create Alternate Synthetic Minds




EL FUTURO DE LA MENTE



Pienso en la naturaleza fundamental de la mente y la naturaleza del yo. Últimamente, he estado pensando en estos temas en relación con las tecnologías emergentes. En particular, he estado pensando en el futuro de la mente y en cómo la tecnología de la IA podría reformar la mente humana y crear mentes sintéticas. A medida que la IA se hace más sofisticada, una cosa en la que he estado muy interesada es en si los seres que podríamos crear podrían tener experiencias conscientes.

Cuando ves los ricos matices de una puesta de sol o cuando hueles el aroma de tu café matutino, estás teniendo una experiencia consciente. La experiencia consciente es muy familiar para ti. De hecho, no hay un momento de tu vida en el que no seas un ser consciente.

Si tenemos inteligencia general artificial, inteligencia capaz de conectar flexiblemente ideas a través de diferentes ámbitos y tal vez lográsemos tener una experiencia sensorial, querría saber si sería consciente o simplemente computar en la oscuridad, comprometiéndose en cosas como las tareas de reconocimiento visual desde una perspectiva computaciona, pero no siendo verdaderamente consciente.

A diferencia de muchos filósofos, de muchas personas que están en los medios de comunicación y de los transhumanistas, tiendo a tomar un enfoque de "esperar y ver" sobre la conciencia de la máquina. Por un lado, rechazo una línea totalmente escéptica. Ha habido filósofos conocidos en el pasado que han sido escépticos sobre la posibilidad de la conciencia de la máquina -por ejemplo, el filósofo John Searle- pero creo que es demasiado pronto para saberlo. Hay muchas variables que determinan si habrá máquinas conscientes.

Por otra parte, tenemos que preguntarnos si es compatible con las leyes de la naturaleza crear máquinas que sean conscientes. Simplemente no sabemos si la conciencia puede ser algo que se implementa en otros sustratos. No sabemos cuáles serán los microchips más rápidos, así que no sabemos de qué estaría hecha una inteligencia general artificial. Así que, hasta ese momento, es difícil para nosotros decir que algo que es altamente inteligente es o no consciente.

Probablemente lo más seguro en este momento es abrir una brecha conceptual entre la idea de la inteligencia sofisticada, por un lado, y la conciencia, por otro. Lo que necesitamos es mantener una mente abierta y sospechar que puede ser, por lo que sabemos actualmente, que las inteligencias más sofisticadas no serán conscientes. Hay muchos hechos que determinarán si las máquinas conscientes son posibles. Supongamos por un minuto que es posible, al menos en principio, construir una inteligencia artificial consciente. ¿Quién querría hacerlo? Piensen en los debates que están teniendo lugar ahora mismo sobre los derechos de los androides, por ejemplo.

Supongamos que todos esos androides japoneses que están siendo diseñados para cuidar de los hogares de las personas y cuidar de los ancianos resultan ser conscientes. ¿No habría preocupación por forzar a las criaturas a trabajar para otros cuando son seres conscientes? ¿No sería eso similar a la esclavitud? No estoy tan seguro de que a las empresas de inteligencia artificial les convenga producir seres conscientes. De hecho, pueden decidir hacer ingeniería para eliminar la conciencia. Por supuesto, no sabemos si la conciencia puede ser diseñada dentro o fuera de una máquina. Por lo que sabemos ahora mismo, puede que no sea compatible con las leyes de la naturaleza producirlo. Por el contrario, podría ser un subproducto inevitable del cálculo sofisticado, y entonces tendremos que estar muy preocupados por los derechos de los androides y otros IAs.

Si las máquinas resultan ser conscientes, no sólo aprenderemos sobre las mentes de las máquinas, sino también sobre nuestras propias mentes. Podríamos aprender más sobre la naturaleza de la experiencia consciente, lo que podría llevarnos a reflexionar como cultura sobre lo que es ser un ser consciente. Los humanos ya no serían especiales en el sentido de ser capaces de pensar intelectualmente. Estaríamos compartiendo esa posición con seres sintéticos que ni siquiera están hechos de las mismos materiales que nosotros.

A medida que las civilizaciones se vuelven más inteligentes, pueden llegar a ser post-biológicas. Por lo tanto, la inteligencia sintética podría resultar ser una consecuencia natural de las civilizaciones tecnológicas exitosas. En un tiempo relativamente corto, hemos logrado crear inteligencias artificiales interesantes y sofisticadas. Ahora estamos volviendo la inteligencia artificial hacia adentro en términos de construir prótesis neuronales para mejorar el cerebro humano. Ya vemos a gurús de la tecnología como Ray Kurzweil y Elon Musk hablando de mejorar la inteligencia humana con chips cerebrales, no sólo para ayudar a las personas con trastornos cerebrales, sino también para ayudar a las personas a vivir más tiempo y a ser más inteligentes. Puede ser el caso que las civilizaciones a través del universo se volviersen post-biológicas y mejoraron su inteligencia para convertirse en seres sintéticos ellos mismos.

Comencé mi vida académica como economista y luego tropecé en una clase con Donald Davidson, el eminente filósofo. Descubrí que me gustaba la filosofía angloamericana y me puse a trabajar con Jerry Fodor, un famoso filósofo de la mente que era un crítico de las ideas que ahora han dado lugar al deep learning.

Fodor y yo pasábamos horas discutiendo sobre el alcance y los límites de la inteligencia artificial. No estaba de acuerdo con él sobre sus puntos de vista acerca del deep learning. Fodor afirmaba que el cerebro no es computacional, y que la inteligencia artificial probablemente no tendría éxito cuando llegase al nivel de la inteligencia artificial general porque había alguna característica especial sobre la mente humana que no es computacional. Es decir, se refería a lo que él llamaba "los sistemas centrales", las áreas del cerebro que van más allá de las funciones mentales altamente compartimentadas, aquello que da lugar a la creatividad y cognición humanas.

Argumenté que el cerebro era computacional hasta la médula. Mientras trabajaba con Fodor, leí mucho acerca de la neurociencia computacional. Insistí en que el cerebro puede ser un sistema híbrido que podría describirse en términos del enfoque de red neuronal que se ve en la neurociencia computacional, pero en el que estas descripciones de nivel superior que se ven en la psicología cognitiva hacen referencia al formato del pensamiento al que personas como Jerry Fodor apelan: el lenguaje del pensamiento, que sostiene que el cerebro es un dispositivo de procesamiento de símbolos que manipula los símbolos de acuerdo con las reglas.

Hubiera sido divertido hablar con Fodor sobre sistemas de aprendizaje profundo. Me imagino que todavía sería bastante escéptico sobre la posibilidad de que estos sistemas se desarrollen más allá de lo que algunas personas llaman inteligencia general artificial. No estoy sugiriendo en absoluto que los recursos actuales puedan dar lugar a algo tan sofisticado. Sin embargo, creo que con todo el dinero que se invierte en inteligencia artificial, con la velocidad de la computación mejorando año tras año, encontrando microchips cada vez mejores y más rápidos, la posibilidad de que la computación cuántica se desarrolle de una manera seria, nos encamina hacia una inteligencia artificial que progresivamente mejore.

Viendo el éxito de Deep Mind empecé a ser más optimista acerca de la creación de una IA más sofisticada. No sólo crearemos robots inteligentes, sino que también nos meteremos a la IA en la cabeza y cambiaremos la mente humana. Entonces empecé a preocuparme de cómo esto podría transformar la sociedad.

Veo muchos malentendidos en las discusiones actuales sobre la naturaleza de la mente, como la suposición de que si creamos una IA sofisticada, inevitablemente será consciente. También existe la idea de que deberíamos "fusionarnos con la IA", es decir, que para que los seres humanos puedan seguir el desarrollo de la IA y no sucumbir a la hostilidad de las IA superinteligentes o al desempleo tecnológico basado en la IA, necesitaremos mejorar nuestros propios cerebros con la tecnología de la IA.

Una cosa que me preocupa de todo esto es que no creo que las compañías dedicadas al desarrolo de las IAs deban resolver asuntos relacionados con la naturaleza de la mente. El futuro de la mente debe ser una decisión cultural y una decisión individual. Muchos de los temas en juego aquí involucran problemas filosóficos clásicos que no tienen soluciones fáciles. Pienso, por ejemplo, en teorías sobre la naturaleza del yo en el campo de la metafísica. Supón que insertas un microchip para mejorar tu memoria, y luego años después agregas otro microchip para integrarte con Internet, y sigues añadiendo mejoras. ¿En qué momento serás tú? Cuando piensas en mejorar el cerebro, la idea es mejorar tu vida para hacerte más inteligente, o más feliz, tal vez incluso para vivir más tiempo, o tener un cerebro más agudo a medida que envejeces, pero ¿qué pasa si esas mejoras nos cambian de manera tan drástica que ya no somos la misma persona?



Estos son temas en los que filósofos como Hume, Locke, Nietzsche y Parfit han estado pensando durante años en el contexto de los debates sobre la naturaleza de la mente. Ahora que tenemos la oportunidad de esculpir nuestras propias mentes, creo que necesitamos dialogar con estas posiciones filosóficas clásicas sobre la naturaleza del yo.

Estoy preocupada por la obsesión con la tecnología. Me considero una tecnoprogresista en el sentido de que quiero que la tecnología se utilice para mejorar las vidas humanas, pero debemos tener cuidado con la aceptación inquebrantable de esta idea de fusionarnos con IAs o incluso tener una Internet de las cosas a nuestro alrededor en todo momento.

Lo que tenemos que hacer ahora que se están desarrollando estas tecnologías de mejora neuronal es mantener un diálogo público sobre esto. Es necesario que participen todas las partes interesadas, desde las personas que investigan estas tecnologías hasta los políticos, pasando por los ciudadanos de a pie, especialmente los jóvenes, para que, a medida que tomen decisiones sobre la mejora del cerebro, puedan hacerlo con mayor escrutinio. Aquí entran en juego las cuestiones filosóficas clásicas sobre la naturaleza del yo y la naturaleza de la conciencia.

Los consejos de ética de la IA en las compañías más grandes son importantes, pero en cierto modo, es el zorro el que cuida el gallinero. La única manera de que tengamos un futuro positivo en lo que respecta al uso de las tecnologías de IA para crear mentes sintéticas y mejorar la mente humana es acercar estos temas directamente al público, razón por la cual me importa mucho la participación pública y asegurarme de que todas las partes interesadas estén involucradas.

¿Cómo podemos saber si una máquina es consciente? He sugerido que no podemos asumir que la inteligencia artificial sofisticada será consciente. Además, puede ser que la conciencia sólo se desarrolle en ciertos programas de IA o con ciertos sustratos, ciertos tipos de microchips y no otros. Por lo que sabemos ahora mismo, tal vez los sistemas basados en el silicio pueden ser conscientes, pero los sistemas que utilizan nanotubos de carbono no puedan. Simplemente no lo sabemos. Es una pregunta empírica. Por lo tanto, sería útil hacerse pruebas.

La parte difícil es que incluso hoy en día no podemos decir exactamente qué están haciendo los sistemas de aprendizaje profundo. El problema de la caja negra de la IA versa sobre cómo podemos saber cuáles son los cálculos en los sistemas de aprendizaje profundo.

En lugar de mirar bajo el capó la arquitectura de la IA, la manera más productiva de determinar la conciencia en las máquinas es doble. Lo primero que hay que hacer es una prueba basada en el comportamiento, que he desarrollado en el Instituto de Estudios Avanzados con el astrofísico, Edwin Turner. Es una prueba simple. Un hecho de que somos seres conscientes es que podemos entender los experimentos de pensamiento que involucran a la mente. Puede que hayas visto la película Freaky Friday, sobre una madre y su hija que intercambiaban sus cuerpos. ¿Por qué tenía sentido para nosotros? Tenía sentido para nosotros porque podemos imaginar que la mente abandona el cuerpo. Ahora, no estoy diciendo que la mente abandona el cuerpo, pero podemos visualizar situaciones, al menos a grandes rasgos, que involucran una vida después de la muerte, la reencarnación, experimentos de pensamiento filosófico.

Lo que tenemos que hacer entonces es buscar IAs que sean capaces de imaginar este tipo de situaciones. Hay una objeción a esto ya que podemos programar una IA para que actúe como si fuera consciente. Ya hoy en día hay IAs que te hablarán y actuarán como si estuvieran teniendo una vida mental. Considere a Sophia de Hanson Robotics. Ella habla contigo, y la prensa incluso habla de ella como si fuera un ser consciente.  Incluso le ofrecieron la ciudadanía en Arabia Saudita, lo que es interesante.

Si no le das a la inteligencia artificial conocimiento sobre la neurociencia y la conciencia humana y ves comportamientos anómalos cuando la examinas para experimentarla conscientemente, hazle experimentos de pensamiento y mira cómo reacciona. Pregúntale simplemente: "¿Te imaginas existir más allá de la destrucción de tus partes?"

Turner y yo hemos escrito varias preguntas, una especie de prueba de Turing para la conciencia de la máquina, diseñada para provocar comportamientos en las máquinas con la finalidad de asegurarnos de que no obtengamos falsos positivos. Dicho esto, no creo que la prueba sea la única manera de acercarse a la conciencia de la máquina. Es lo que los filósofos llaman una "condición suficiente" para la conciencia de la máquina. Así que si la pasa tenemos razones para creer que es consciente. Pero si algo falla, otras pruebas podrían determinar que, a pesar de todo, sigue siendo consciente.

Permítanme hablar sobre la segunda forma de determinar si las máquinas pueden ser conscientes, porque se trata de un camino sensato dado el desarrollo actual de los chips cerebrales. A medida que usamos neuroprótesis o chips cerebrales en partes del cerebro que subyacen a la experiencia consciente en los seres humanos, si esos chips tienen éxito y si no observamos déficits de conciencia, entonces tenemos razones para creer que ese microchip hecho de un material en particular, digamos, silicio, podría respaldar la conciencia cuando se encuentra en el entorno arquitectónico correcto.

Eso sería importante si determináramos que otro material, cuando se pone en el cerebro humano, no cambiaría la calidad de nuestra experiencia consciente cuando está en las áreas del cerebro que creemos que son responsables de la conciencia. Eso significaría que, en principio, tal vez podríamos desarrollar una conciencia sintética. Incluso podríamos hacerlo simplemente reemplazando gradualmente el cerebro humano por componentes artificiales hasta que al final del día tengamos un ser que sea una IA completa.

Me encanta la intersección entre filosofía y ciencia, o la parte donde la ciencia se vuelve turbia y uno tiene que pensar en las implicaciones. Ejemplos de esto serían las teorías de la emergencia del espacio-tiempo en la física, donde se formulan teorías matemáticas y luego se sacan conclusiones sobre la naturaleza del tiempo. Cuestiones como ésta implican un delicado equilibrio entre las consideraciones matemáticas o empíricas y las cuestiones filosóficas. Ahí es donde me gusta intervenir e involucrarme.

Estoy interesada en el alcance y límite de lo que podemos conocer como humanos.  Puede ser que a medida que mejoremos nuestros cerebros, encontremos respuestas a algunos de estos problemas filosóficos clásicos. ¿Quién sabe? Por ahora, si desarrollamos la tecnología de la inteligencia artificial sin pensar cuidadosamente en temas relacionados con la naturaleza de la conciencia o la naturaleza del ser, veremos que las tecnologías de la inteligencia artificial pueden no hacer lo que la gente que las desarrolla pretende que hagan, que es mejorar nuestras vidas y promover el florecimiento humano.

Tenemos que tener cuidado de saber si estamos creando seres conscientes y sabremos si mejorar radicalmente nuestros cerebros es compatible con la supervivencia de la persona, de lo contrario estas tecnologías conducirán a la explotación y el sufrimiento de los seres conscientes en lugar de mejorar la vida de las personas.

Me gusta vivir en ese espacio de humildad donde chocamos con un muro epistemológico porque nos enseña los límites de lo que los humanos pueden entender. A veces es importante recordar en estos tiempos de innovaciones tecnológicas, que siempre habrá cuestiones a las que no podemos dar respuestas definitivas. Un buen ejemplo de esto es la pregunta de si somos cerebros en cubetas, viviendo nuestras vidas dentro de simulaciones por computadora. Se trata de cuestiones epistemológicas, cuestiones relacionadas con la naturaleza del conocimiento que no tienen respuestas fáciles.







Asombrado cotidiano ante las manifestaciones de la bizarra realidad, ejerzo como detective liminal e investigador de percepciones extra-consensuales, convierto la “caca de la vaca” en oro, emulo al sastrecillo del cuento del traje nuevo del emperador, y siento que el espíritu de Don Quijote me ha poseído.

3 comentarios :

  1. ¿Cómo sabes cuando ya no eres tú, con tantas mejoras cognitivas? Los cambios y avances serían relativamente rápidos, pero yo me pregunto, ¿cuántos de vosotros recordáis cómo erais cuando teniaís cinco años? Se podría decir que yo era un niño y no sabía y tenía las experiencias de vida que tengo ahora. Con los avances cognitivos creo que cambiaremos en un marco de tiempo más corto. Dicho esto, no sé las implicaciones a globales y a largo plazo, pero los humanos nos adaptaremos o nos extinguiremos.

    ResponderEliminar
  2. Acabo de encontrar un vídeo en youtube de Susan Schneider, la autora de este artículo, está en inglés pero podéis poner los subtitulos en ese idioma y os será más facil entenderlo si tenéis nociones, en este vídeo habla de algunas de las ideas expuestas en esta entrada:

    https://www.youtube.com/watch?v=k7M4b_9PJ-g

    ResponderEliminar
  3. En mi opinión todos estos malentendidos acerca de la IA y si las máquinas nos dominarán o si pueden llegar a hacerse conscientes se producen por una mala comprensión sobre los cuerpos sutiles de los seres humanos y el hecho de que el cerebro humano no es un procesador sino más bien una radio a la que llegan desde los planos sutiles las frecuencias operacionales.
    Los investigadores serios de la IA los que trabajan en ello y no los filosofos publicistas de futuros distópicos a sueldo de los tarados astrales que se pasan los dias proyectando futuros infernales y vendiendonoslos, esos saben perfectamente bien que con la tecnología actual o futura basada en 1/0 no es posible que una máquina se vuelva consciente debido a que lo máximo que se puede hacer es computar millones de datos y a base de patrones o algoritmos sacar conclusiones ayudados esos sí de la potencia de calculo de las máquinas pero todo ello no es ni de lejos más inteligente que un niño pequeño recogiendo una manzana del suelo.
    Es ingente el trabajo que hay que realizar para que una máquina haga tareas que un niño pequeño puede realizar de forma innata y si se variara una sola linea de computación la máquina no sabría que hacer.Habría que reprogramarla completamente.No hay creatividad en las máquinas más que la que ha sido puesta por su programador.Puede haber apariencia de creatividad si los programadores han hecho bien su trabajo pero la inteligencia supone salir de situaciones no esperadas proyectando al futuro soluciones basadas en experiencia pasada PERO con un enfoque diferente que permita saltar los obstáculos.Eso Por mucho Big Data que se tenga y buena programación no deja de ser una respuesta predefinida a una entrada dada previamente pero en el caso de los seres humanos es más bien la sintonización de una nueva forma de enfocar el problema que llega de los planos sutiles y es puesto en práctica por nuestro cerebro en el presente.

    Ahora bien, lo que algunos llaman IA ya está aquí pero no en la forma y manera en que la venden y menos aún asociandola a la patética tecnología actual que es de pura risa comparada con tecnologías pasadas y futuras y que nos ha sido dada por su inocuidad y al mismo tiempo por su capacidad de condicionarnos, es facilmente desmantelable y subproducto de los programas secretos de control mental a nivel planetario que consisten basicamente en programar ahora sí la IA de la masa humana inconsciente contra si misma y mantenerla en un estado de fácil control.

    Por lo tanto el Incosciente Colectivo es la IA de la que hablan todos estos promulgadores del trashumanismo que no es más que otra de las ideas dadas desde el otro lado como forma de control y distracción sobre el potencial interno de los seres humanos.

    ResponderEliminar

Gracias por compartir ideas en los comentarios, y por ayudar a co-crear una atmósfera lúdica e informativa.

Con ese espíritu deja tus comentarios, es decir de modo cívico y constructivo. Y por favor incluye links!.

Absténganse loros atrapados en túneles de realidad obsoletos y con poca humildad para saber que la búsqueda de la verdad es un juego, y que hay que cuestionarse todo lo que te enseñaron (adoctrinaron) en el colegio, sinagoga, grupo familiar etc...

Si quieres contactar conmigo mi email es: lumevin@gmail.com

Con los nuevos cambios que implementé ya puedes dejar imágenes sin necesidad de código, únicamente pegando la url de la imagen, lo mismo con vídeos de youtube o vimeo, que saldrán directamente..