sábado, 6 de octubre de 2018

Cuando la tecnología te conoce mejor de lo que te conoces a ti mismo (Yuval Noah Harari y Tristan Harris)

5 comentarios :
Cuando la tecnología te conoce mejor de lo que te conoces a ti mismo (Yuval Noah Harari y Tristan Harris) Os dejo la transcripción traducida del vídeo de una charla para la web Wired entre Yuval Noah Harari, Tristan Harris y el entrevistador de dicha web, Nicholas Thompson.

Para los que que tengáis cierto nivel de inglés y queráis ahorraros la lectura, decir que el vídeo tiene subtítulos en inglés por lo que es más fácil entenderlo, lo podéis ver (no me deja insertarlo) en el enlace de la entrada original que dejo a continuación:

https://www.wired.com/story/artificial-intelligence-yuval-noah-harari-tristan-harris/



Cuando tienes 2 años, tu madre sabe más de ti de lo que tú sabes. A medida que envejeces, empiezas a entender cosas de tu mente que ni siquiera ella sabe. Pero entonces, dice Yuval Noah Harari, otro competidor se une a la carrera: "Tienes a esta corporación o gobierno acechándote, y aunque están muy lejos de tu madre, te conocerán mejor que ella." Amazon pronto sabrá cuándo necesitas bombillas justo antes de que se quemen. YouTube sabe cómo mantenerte mirando fijamente a la pantalla  durante mucho tiempo aunque te interese parar. Un anunciante en el futuro podría conocer tus preferencias sexuales antes de que sean claras para ti. (y ciertamente las conocerán antes de que se lo digas a tu madre.)

Recientemente, hablé con Harari, el autor de tres de los libros más vendidos, y Tristan Harris, que dirige el Centro de Tecnología Humanitaria y que ha desempeñado un papel importante en hacer que el "tiempo bien empleado" sea quizás la frase más debatida en Silicon Valley en 2018. Son dos de las personas más inteligentes del mundo de la tecnología, y cada uno de ellos habló elocuentemente sobre el autoconocimiento y sobre cómo los humanos pueden hacerse más difíciles de hackear. Como dijo Harari, "Ahora nos enfrentamos no sólo a una crisis tecnológica, sino a una crisis filosófica".

Por favor, léelo o mira el vídeo subtitulado al inglés. Esta transcripción ha sido editada para mayor claridad.



Nicholas Thompson: Tristán, cuéntame un poco sobre lo que haces y luego Yuval, tú también.

Tristan Harris: Soy director del Centro de Tecnología Humanitaria, donde nos concentramos en realinear la tecnología con un concepto humanista. Y antes de eso era un diseñador ético en Google, donde estudié la ética de la persuasión humana.

Yuval Noah Harari: Soy historiador y trato de entender de dónde viene la humanidad y hacia dónde nos dirigimos.

NT: Empecemos por escuchar cómo se conocieron, porque sé que eso se remonta a hace bastante tiempo. ¿Cuándo os conocisteis por primera vez?

YNH: Curiosamente, en una expedición a la Antártida, fuimos invitados por el gobierno chileno al Congreso del Futuro para hablar sobre el futuro de la humanidad y una parte del Congreso fue una expedición a la base chilena en la Antártida para ver el calentamiento global con nuestros propios ojos. Todavía hacía mucho frío y había mucha gente interesante en esta expedición.

TH: Muchos filósofos y premios Nobel. Y creo que conectamos particularmente con Michael Sandel, que es un filósofo realmente asombroso de la filosofía moral.

NT: Es casi como un reality show. Me hubiera encantado verlo todo. Escribís sobre cosas diferentes, hablaís de cosas diferentes pero hay muchas similitudes. Y uno de los temas clave es la noción de que nuestras mentes no funcionan de la manera en que a veces pensamos que lo hacen. No tenemos tanta influencia sobre nuestras mentes como quizás creíamos hasta ahora. Tristán, ¿por qué no empiezas a hablar de eso y luego sigue Yuval prosigue?

TH: Sí, aprendí mucho de esto en una de las primeras charlas de Yuval, donde habla de la democracia y planteaba la siguiente cuestión "¿Dónde deberíamos poner a la autoridad en una sociedad?". Y dónde debemos ponerla es en las opiniones y sentimientos de la gente.

Yuval Noah Harari (izquierda) y Tristan Harris con el editor jefe de WIRED, Nicholas Thompson.

Pasé los últimos 10 años estudiando la persuasión, desde que era ilusionista cuando era niño, donde aprendes que hay cosas que funcionan en todas las mentes humanas. No importa si tienen un doctorado, si son físicos nucleares, qué edad tienen. No es como, si hablas japonés no puedo hacer este truco contigo, no va a funcionar. Funciona con todo el mundo. Así que de alguna manera existe esta disciplina que trata de hazañas universales en todas las mentes humanas. Y luego estuve en el Laboratorio de Tecnología Persuasiva de Stanford, que enseña a los estudiantes de ingeniería cómo aplicar los principios de la persuasión a la tecnología. ¿Podría la tecnología estar hackeando sentimientos humanos, actitudes, creencias, comportamientos para mantener a la gente ocupada con los productos? Y creo que eso es lo que ambos compartimos, es que la mente humana no es la raíz segura de la autoridad que creemos que es, y si queremos tratarla de esa manera vamos a tener que entender qué es lo que hay que proteger primero.

YNH: Creo que ahora nos enfrentamos realmente, no sólo a una crisis tecnológica, sino a una crisis filosófica. Porque hemos construido nuestra sociedad, sin duda la democracia liberal con elecciones y el libre mercado, etc., sobre ideas filosóficas del siglo XVIII que son simplemente incompatibles no sólo con los descubrimientos científicos del siglo XXI, sino sobre todo con la tecnología que tenemos ahora a nuestra disposición. Nuestra sociedad se basa en las ideas de que el votante sabe mejor que nadie, que el cliente siempre tiene razón, que la autoridad última está, como dijo Tristan, con los sentimientos de los seres humanos y esto supone que los sentimientos humanos y las opciones humanas son esa arena sagrada que no se puede hackear, que no se puede manipular. En última instancia, mis elecciones, mis deseos reflejan mi libre albedrío y nadie puede acceder a eso o tocarlo. Y esto nunca fue verdad. Pero no pagamos un costo muy alto por creer en este mito en los siglos XIX y XX porque nadie tenía una tecnología para hacerlo. Ahora, la gente -algunas personas-, las corporaciones, los gobiernos están jugando con la tecnología para hackear a los seres humanos. Tal vez el hecho más importante de vivir en el siglo XXI es que ahora somos animales hackeables.

Hackear a un humano


NT: Explica lo que significa hackear a un ser humano y por qué lo que se puede hacer ahora es diferente de lo que se podía hacer hace 100 años.

YNH: Piratear a un ser humano es entender lo que está sucediendo dentro de ti a nivel del cuerpo, del cerebro, de la mente, para que puedas predecir lo que la gente hará. Puedes entender cómo se sienten y, por supuesto, una vez que entiendas y predigas, también puedes manipular, controlar e incluso reemplazar. Y, por supuesto, no se puede hacer perfectamente y fue posible hacerlo hasta cierto punto también hace un siglo. Pero la diferencia en el nivel es significativa. Yo diría que la verdadera clave es si alguien puede entenderte mejor de lo que te entiendes a ti mismo. Los algoritmos que intentan hackearnos, nunca serán perfectos. No existe tal cosa como entender perfectamente todo o predecir todo. No necesitas ser perfecto, sólo necesitas ser mejor que el ser humano promedio.

NT: ¿Y estamos ahí ahora? ¿O te preocupa que estemos a punto de llegar?

YNH: Creo que Tristán podría ser capaz de responder donde estamos ahora mejor que yo, pero supongo que si no estamos allí ahora, nos estamos acercando muy rápidamente.

TH: Creo que un buen ejemplo de esto es YouTube. Abres ese video de YouTube que tu amigo te envía después de la hora del almuerzo. Cuando vuelves a tu ordenador y piensas bien, sé que esas otras veces acabo viendo dos o tres vídeos y acabo siendo absorbido por él, pero esta vez va a ser muy diferente. Sólo voy a ver este video y de alguna manera, eso no es lo que pasa. Te levantas de un trance tres horas más tarde y dices: "¿Qué demonios acaba de pasar?". Y es porque no te diste cuenta de que tenías una supercomputadora apuntando a tu cerebro. Así que cuando abres ese víideo estás activando los miles de millones de dólares de potencia de computación de Google y ellos han visto lo que alguna vez ha hecho que 2 mil millones de animales humanos hagan clic en otro vídeo. Y sabe mucho más sobre lo que va a ser el movimiento de ajedrez perfecto para jugar contra tu mente. Si piensas en tu mente como un tablero de ajedrez, y crees que sabes cuál es el movimiento perfecto para jugar, sólo verás ese vídeo. Pero en el tablero de ajedrez no se pueden ver tantas jugadas por delante. Pero la computadora ve tu mente y dice: "No, no, no, no. He jugado mil millones de simulaciones de este juego de ajedrez antes en estos otros animales humanos que miran YouTube", y va a ganar. Piensa en cuando Garry Kasparov pierde contra Deep Blue. Garry Kasparov puede ver muchísimas jugadas en el tablero de ajedrez. Pero no puede ver más allá de cierto punto tal y como un ratón no puede ver tantos movimientos hacia adelante en un laberinto, pero un humano puede ver más movimientos hacia adelante y entonces Garry puede ver aún más movimientos adelante. Pero cuando Garry pierde contra IBM Deep Blue, fue un jaque mate contra la humanidad para siempre porque era el mejor jugador de ajedrez humano. Así que no es que estemos perdiendo completamente nustra naturaleza humana y entres en YouTube y the haga adicto por el resto de tu vida y nunca dejes la pantalla. Pero en todas partes donde se enciende Internet hay básicamente una supercomputadora apuntando a tu cerebro, jugando al ajedrez contra tu mente, y va a ganar mucho más a menudo que perder.

NT: Hablemos de esa metáfora porque el ajedrez es un juego con un ganador y un perdedor. Pero YouTube también va a recomendar este vídeo en particular a la gente, que espero que sea esclarecedor e iluminador. Entonces, ¿el ajedrez es realmente la metáfora correcta? Un juego con un ganador y un perdedor.

TH: Bueno, la pregunta es, ¿Cuál es realmente el juego que se está jugando? Así que si el juego que se estaba jugando es, Hey Nick, ve a meditar a una habitación durante dos horas y luego vuelve a mí y dime qué es lo que realmente quieres ahora mismo en tu vida. Y si YouTube está usando 2 billones de animales humanos para calcular basándose en todos los que alguna vez han querido aprender a tocar el ukelele, puede decir: "Aquí está el video perfecto que tengo que enseñar más tarde y que puede ser genial". El problema es que en realidad no le importa lo que que quieres, sólo le importa lo que te mantendrá en la pantalla. Lo que mejor funciona para mantener a una adolescente viendo un video de dieta en YouTube es decir que aquí hay un video de anorexia.

NT: ¿Qué pasa con esta conversación?

TH: ¡Sí, supongo que va a depender de verdad! El otro problema es que también se pueden piratear estas cosas, por lo que hay gobiernos que realmente pueden manipular la forma en que funciona el sistema de recomendaciones. Y Yuval dijo que estos sistemas están fuera de control y que los algoritmos están funcionando donde 2.000 millones de personas pasan su tiempo. El setenta por ciento de lo que la gente ve en YouTube está impulsado por las recomendaciones del algoritmo. La gente piensa que lo que ve en YouTube es una elección. La gente está sentada allí, se sienta allí, piensa, y luego elige. Pero eso no es verdad. El setenta por ciento de lo que la gente está viendo son los videos recomendados en el lado derecho, lo que significa el 70 por ciento de los 1.900 millones de usuarios, (eso es más que el número de seguidores del Islam, más o menos el mismo número de seguidores del cristianismo), están viendo esas recomendaciones en YouTube durante 60 minutos al día - ese es el tiempo promedio que la gente pasa en YouTube. Así que tienes 60 minutos, y el 70 por ciento está poblado por una computadora. La máquina está fuera de control. Porque si pensabas que las teorías de conspiración del 11-S eran malas en inglés, prueba con las conspiraciones del 11-S en birmano y Sri Lanka y en árabe. Es una especie de Frankenstein digital que está tirando de todas estas palancas y dirigiendo a la gente hacia direcciones diferentes.

NT: Yuval, hemos llegado a este punto diciendo que esto te asusta en relación a la democracia. Y te preocupa que la democracia puede sobrevivir, creo que la frase que usas en tu libro es: La democracia se convertirá en un espectáculo de títeres. Explica eso.

YNH: Sí, quiero decir, si no se adapta a estas nuevas realidades, se convertirá en un espectáculo de marionetas emocional. Si sigues con esta ilusión de que la elección humana no puede ser hackeada, no puede ser manipulada, y podemos confiar en ella completamente, y esta es la fuente de toda autoridad, entonces muy pronto terminas con un espectáculo de marionetas emocional.

Y este es uno de los mayores peligros a los que nos enfrentamos y es realmente el resultado de una especie de empobrecimiento filosófico de dar por sentado las ideas filosóficas del siglo XVIII y no actualizarlas con los hallazgos de la ciencia. Y es muy difícil porque le dices a la gente -la gente no quiere escuchar este mensaje de que son animales hackeables, que sus elecciones, sus deseos, su comprensión de quién soy yo, cuáles son mis aspiraciones más auténticas, estas pueden ser realmente hackeadas y manipuladas. Para decirlo brevemente, mi amígdala puede estar trabajando para Putin. No quiero saber esto. No quiero creer eso. No, soy un agente libre. Si tengo miedo de algo, es por mi culpa. No porque alguien haya plantado este miedo en mi mente. Si elijo algo, es mi libre albedrío, ¿Y quién eres tú para decirme algo más?

NT: Bueno, espero que Putin pronto trabaje para mi amígdala, pero ese es un proyecto secundario que tengo en marcha. Pero parece inevitable, por lo que escribiste en tu primer libro, que lleguemos a este punto, donde las mentes humanas serían pirateables y donde las computadoras, las máquinas y la IA tendrían una mejor comprensión de nosotros. Pero ciertamente no es inevitable que nos lleve a resultados negativos: ¿Hemos llegado al punto de no retorno? ¿Cómo evitar el punto de no retorno si no hemos llegado allí? ¿Y cuáles son los puntos clave de decisión a lo largo del camino?

YNH: Bueno, nada es inevitable en eso. Quiero decir que la tecnología en sí se va a desarrollar. No se puede detener toda la investigación en IA y no se puede detener toda la investigación en biotecnología. Y las dos van juntos. Creo que la IA recibe demasiada atención ahora, y deberíamos poner igual énfasis en lo que está sucediendo en el frente de la biotecnología porque para piratear a los seres humanos, se necesita biología y algunas de las herramientas y conocimientos más importantes, no provienen de la informática, provienen de la ciencia del cerebro. Y muchas de las personas que diseñan todos estos increíbles algoritmos, tienen experiencia en psicología y ciencias cerebrales porque esto es lo que están tratando de hackear. ¿Pero de qué debemos darnos cuenta? Podemos utilizar la tecnología de muchas maneras diferentes. Me refiero, por ejemplo, a que estamos utilizando la inteligencia artificial principalmente para vigilar a las personas al servicio de las empresas y los gobiernos. Pero se puede voltear en la dirección opuesta. Podemos utilizar los mismos sistemas de vigilancia para controlar el gobierno al servicio de los individuos, para controlar, por ejemplo, que los funcionarios del gobierno no sean corruptos. La tecnología está dispuesta a hacerlo. La cuestión es si estamos dispuestos a desarrollar las herramientas necesarias para hacerlo.

TH: Creo que uno de los puntos más importantes de Yuval aquí es que la biotecnología te permite entender, conectando un sensor las carecterísticas más sui generis de un individuo. Una de las cosas interesantes que he estado siguiendo son también las formas en que se pueden determinar esas señales sin un sensor invasivo. Y estábamos hablando de esto hace un segundo. Hay algo llamado Eulerian Video magnification donde apuntas con una cámara de ordenador a la cara de una persona. Entonces, si pongo una supercomputadora detrás de la cámara, puedo hacer una ecuación matemática, y puedo encontrar los microimpulsos de sangre en tu cara que yo como humano no puedo ver, pero que la computadora puede ver, así que puedo captar tu ritmo cardíaco. ¿Qué me permite hacer eso? Puedo captar tu nivel de estrés porque la variabilidad del ritmo cardíaco me da tu nivel de estrés. Puedo señalar - hay una mujer llamada Poppy Crum que dio una charla TED este año sobre el fin de la cara de póquer (poker face, cara sin emociones. Esa charla trata de que podemos apuntar con una cámara a tus ojos y ver cuando tus ojos se dilatan, lo que en realidad detecta tensiones cognitivas, cuando estás teniendo dificultades para entender algo o cuando es fácil entender algo. Podemos ajustar esto continuamente en función de tu ritmo cardíaco, tu dilatación de los ojos.

Echando un vistazo al caso de Cambridge Analytica -ya sabes, que se trata del pirateo de Brexit y Rusia y de todas las demás elecciones de Estados Unidos- este se basaba en el conocimiento de los cinco grandes rasgos de la personalidad, si conozco la personalidad de Nick Thompson a través de su franqueza, conciencia, extrovertimiento, simpatía y neuroticismo. Y basándome en tu personalidad, puedo afinar un mensaje político para que sea perfecto para ti. Ahora todo el escándalo fue que Facebook dejó ir estos datos para ser robados por un investigador que solía hacer que la gente llenara cuestionarios para averiguar cuáles son los cinco grandes rasgos de personalidad de Nick? Pero ahora hay una mujer llamada Gloria Mark en la Universidad de California en Irvine que ha hecho una investigación que demuestra que se pueden obtener los cinco rasgos de personalidad más importantes de la gente sólo con sus patrones de clic, con una precisión del 80 por ciento. Así que es el final de la cara de póquer, el final de las partes ocultas de tu personalidad. Vamos a ser capaces de apuntar a los animales humanos y descubrir más y más señales de ellos, incluyendo sus microexpresiones, cuando sonríes y todas estas cosas, tenemos cámaras de identificación de cara en todos estos teléfonos. Así que ahora tenemos un bucle cerrado donde puedo ajustar los mensajes políticos en tiempo real a tu ritmo cardíaco y a tu dilatación ocular y a tu personalidad política. Ese no es el mundo en el que queremos vivir. Es una especie de distopía.

YNH: En muchos contextos, puedes usar eso. Se puede utilizar en clase para averiguar si uno de los estudiantes no está recibiendo el mensaje, si el estudiante está aburrido, lo que podría ser algo muy bueno. Podría ser usado por abogados si puedo leer lo que hay detrás de tu cara de póquer, y tú no puedes, eso es una gran ventaja para mí. Puede hacerse en un entorno diplomático, si dos primeros ministros se estuvieran reuniendo para resolver el conflicto israelí-palestino, y uno de ellos tiene un otitis y una computadora le está susurrando al oído cuál es el verdadero estado emocional del otro. Lo que sucede en el cerebro, en la mente de la persona del otro lado de la mesa. ¿Y qué pasa cuando los dos lados tienen esto? Tienes una especie de carrera armamentista. Y no tenemos ni idea de cómo manejar estas cosas.

Di un ejemplo personal cuando hablé de esto en Davos. Así que hablé de todo mi enfoque acerca de estos temas, moldeado por mi experiencia de salir del armario. Me di cuenta de que era gay cuando tenía 21 años, y que desde entonces me perseguía este pensamiento. ¿Qué estuve haciendo en los últimos cinco o seis años? Quiero decir, ¿cómo es posible? No estoy hablando de algo pequeño que no sabes de ti mismo, todo el mundo tiene algo que no sabes de ti mismo. ¿Pero cómo es posible que no sepas esto de ti mismo? Y entonces el siguiente pensamiento fue que una computadora y un algoritmo podría habérmelo dicho cuando tenía 14 años, era tan fácil con algo tan simple como seguir el enfoque de mis ojos. Como, no sé, camino por la playa o incluso miro televisión, y hay algo -lo que había en la década de 1980, "Vigilantes de la playa" (la serie) o algo así-  hay un tipo en traje de baño y hay una chica en traje de baño y hacia dónde van mis ojos. Es tan simple como eso. Y luego pienso, ¿Cómo habría sido mi vida, primero, si lo hubiera sabido cuando tenía 14 años? Segundo, si obtuviera esta información de un algoritmo, sería algo increíble, esta es la fuente de sabiduría sobre ti mismo, un algoritmo que sigue tuscmovimientos.

Coca-Cola VS Pepsi


NT: Y hay un elemento aún más espeluznante sobre el que escribes en tu libro: ¿Y si Coca-Cola lo hubiera descubierto primero y te hubiera vendido Coca-Cola con hombres sin camisa, cuando ni siquiera sabías que eras gay?

YNH: ¡Bien, exactamente! Coca-Cola contra Pepsi: Coca-Cola sabe esto de mí y me muestra un anuncio de un hombre sin camiseta; Pepsi no sabe esto de mí porque no están usando estos sofisticados algoritmos. Van con los anuncios normales, con la chica del bikini. Y naturalmente, compro Coca-Cola, y ni siquiera sé por qué. A la mañana siguiente, cuando voy al supermercado, compro Coca-Cola y creo que es mi libre elección. Elegí Coca-Cola. Pero no, fui hackeado.

NT: Y esto es inevitable.

TH: Esto es todo de lo que estamos hablando. ¿Y cómo puedes confiar en algo que puede manipularte de esta forma? Si un sistema es asimétrico -si tú sabes más de mí de lo que yo sé de mí mismo, normalmente tenemos un nombre para eso en la ley. Así, por ejemplo, cuando tratas con un abogado, le entregas tus datos personales  para que te ayude. Pero luego tienen este conocimiento de la ley y saben de tu información vulnerable, así que podrían manipularte con eso. Imagina un abogado que tiene toda esa información personal y se la vendió a otra persona. Se rigen por una relación diferente, que es la relación fiduciaria. Ellos pueden perder su licencia si no sirven a sus intereses. Y de manera similar, un médico o un psicoterapeuta. Ellos también lo tienen. Así que hay una gran pregunta: ¿cómo entregamos información sobre nosotros y decimos: "Quiero que uses eso para ayudarme"? ¿Con qué autoridad puedo garantizarte que vas a ayudarme?

YNH: Con el abogado, existe este marco formal. Vale, te contrato para que seas mi abogado, esta es mi información. Y sabemos esto. Pero estoy caminando por la calle, hay una cámara mirándome. Ni siquiera sé si está pasando.

TH: Esa es la parte más engañosa. Si quieres saber lo que es Facebook, imagínate a un sacerdote en una cabina de confesiones, ellos escuchan las confesiones de 2 mil millones de personas. Pero también te observan durante todo el día, en que haces clic, en qué anuncios de Coca-Cola o Pepsi, o del hombre sin camiseta y las mujeres en bikini, y en todas las conversaciones que tienes con todos los demás en tu vida -porque Facebook Messenger, Whatsapp también tienen esos datos-, pero imagina que este sacerdote en una cabina de confesiones, su modelo de negocio completo, es vender el acceso a la cabina de confesiones a otra persona. Para que alguien más pueda manipularte. Porque es la única forma en que este sacerdote gana dinero en este caso.

NT: Hay grandes corporaciones que tendrán estos datos, usted mencionó a Facebook, y habrá gobiernos. ¿De qué te preocupas más?

YNH: Es lo mismo. Quiero decir, una vez que llegas más allá de cierto punto, no importa cómo lo llames. Esta es la entidad que realmente gobierna, quienquiera que tenga este tipo de datos. Quiero decir, incluso si en un entorno en el que todavía se tiene un gobierno formal, y estos datos están en manos de alguna corporación, entonces la corporación, si quiere, puede decidir quién gana las próximas elecciones. Así que no es realmente una gran elección. Quiero decir que hay elección. Podemos diseñar un sistema político y económico diferente para evitar esta inmensa concentración de datos y poder en manos de los gobiernos o de las empresas que lo utilizan sin tener que rendir cuentas y sin ser transparentes sobre lo que están haciendo. Quiero decir que el mensaje no está bien. Se acabó. Se acabó. La humanidad está en el basurero de la historia.

NT: Ese no es el mensaje.

YNH: No, ese no es el mensaje.

NT: Uf. Los ojos han dejado de dilatarse, sigamos con esto.

YNH: La verdadera pregunta es que necesitamos que la gente entienda que esto es real. Esto está sucediendo. Hay cosas que podemos hacer. Y como, ya sabes, habrá las elecciones de mitad de período en un par de meses. Así que en cada debate, cada vez que un candidato se reúna con los votantes potenciales, en persona o por televisión, hágales esta pregunta: ¿Cuál es tu plan? ¿Cuál es su opinión sobre este tema? ¿Qué va a hacer si le elegimos? Si dicen "No sé de qué estás hablando", es un gran problema.

TH: Creo que el problema es que la mayoría de ellos no tienen idea de lo que estamos hablando. Y ese es uno de los temas, creo que los políticos, como hemos visto, no están muy educados en estos temas.

NT: Lo están haciendo mejor. Lo están haciendo mucho mejor este año que el año pasado. Viendo las audiencias del Senado, las últimas audiencias con Jack Dorsey y Sheryl Sandberg, en lugar de ver las audiencias de Zuckerberg o las audiencias de Colin Stretch, ha habido mejoras.

TH: Es verdad. Pero hay mucho más. Creo que estos temas abren todo un abanico de posibilidades. Aún no sabemos qué tipo de cosas vamos a poder predecir. Hemos mencionado algunos ejemplos que conocemos. Pero si tienes una manera secreta de saber algo sobre una persona apuntándole con una cámara y la IA, ¿por qué publicarías eso? Así que hay muchas cosas que se pueden saber sobre nosotros sobre las que manipularnos ahora mismo y de las que ni siquiera sabemos nada. ¿Y cómo empezamos a regular eso?.

Usuario, Protéjase

NT: Así que hay tres elementos en esa relación. Ahí está la supercomputadora: ¿Qué es lo que hace? ¿Qué es lo que no hace? ¿Cuáles son las reglas sobre lo que puede recolectar, cuáles son las reglas sobre lo que no puede recolectar y lo que puede almacenar? Y ahí estás tú. ¿Cómo te entrenas para actuar? ¿Cómo te entrenas para tener autoconciencia? Así que hablemos de las tres áreas, tal vez empezando por la persona. ¿Qué debe hacer el humano en el futuro para sobrevivir mejor en esta dinámica?

TH: Una cosa que yo diría sobre eso es que creo que la autoconciencia es importante. Es importante que la gente sepa de lo que estamos hablando y se dé cuenta de que podemos ser pirateados. Pero no es una solución. Tienes millones de años de evolución que guían tu mente para hacer ciertos juicios y conclusiones. Un buen ejemplo de esto es si me pongo un casco de Realidad Virtual, y ahora de repente estoy en un espacio donde hay una cornisa, estoy al borde de un acantilado, conscientemente sé que estoy sentado aquí en una habitación con Yuval y Nick, lo sé conscientemente. Así que he dejado que la autoconciencia, sé que estoy siendo manipulado. Pero si me empujas, no voy a querer caer, ¿verdad? Porque tengo millones de años de evolución que me dicen que me estás empujando de una cornisa. Así que de la misma manera que puedes decir -Dan Ariely hace esta broma en realidad, un economista conductista- que la adulación funciona con nosotros aunque yo le diga que lo estoy inventando. Es como, Nick, me encanta tu chaqueta ahora mismo. Siento que es una gran chaqueta para ti. Es una chaqueta realmente increíble.

NT: En realidad lo escogí porque sabía que al estudiar la exhalación de dióxido de carbono de ayer....

TH: Exactamente, ahora nos estamos manipulando entre nosotros....

El punto es que aunque sepas que me lo estoy inventando, todavía me siento bien. La adulación se siente bien. Por lo tanto, es importante que pensemos en esto como una nueva era, una especie de nueva iluminación en la que tenemos que vernos a nosotros mismos de una manera muy diferente y eso no significa que esa sea la respuesta completa. Es sólo el primer paso que tenemos que dar.

NT: Así que el primer paso es reconocer que todos somos vulnerables, hackeables.

TH: Sí, vulnerables.

NT: Pero hay diferencias. Yuval es menos hackeable que yo porque medita dos horas al día y no usa un teléfono inteligente. Soy súper hackeable. Entonces, ¿cuáles son las otras cosas que un humano puede hacer para ser menos hackeable?

YNH: Tienes que conocerte a ti mismo lo mejor que puedas. No es una solución perfecta, pero alguien corre detrás de ti, corre tan rápido como puedas. Quiero decir, es una competición. Entonces, ¿quién te conoce mejor en el mundo? cuando tienes dos años es tu madre. Eventualmente esperas alcanzar una etapa en la vida en la que te conozcas a ti mismo incluso mejor que tu madre. Y entonces, de repente, tienes a esta corporación o gobierno corriendo detrás de ti, y están muy lejos de tu madre, y están a tu espalda. Están a punto de llegar a ti, este es el momento crítico. Te conocen mejor de lo que te conoces a ti mismo. Así que huye, corre un poco más rápido.

Hay muchas maneras en las que puedes correr más rápido, lo que significa conocerte un poco mejor a ti mismo. La meditación es un camino, pero hay cientos de técnicas de meditación, diferentes maneras de trabajar con diferentes personas. Puedes ir a terapia, puedes usar el arte, puedes usar los deportes, lo que sea. Lo que sea que funcione para ti. Pero ahora se está volviendo mucho más importante que nunca. ¿Sabes cuál es el consejo más antiguo?: Conócete a ti mismo. En el pasado no había competencia. Si vivías en la antigua Atenas y Sócrates llegase y dijese: "Conócete a ti mismo". Es buen para ti". Y tú dijeses: "No, estoy muy ocupado. Tengo un olivar con el que tengo que lidiar, no tengo tiempo". Así que no llegaste a conocerte mejor, pero no había nadie más que compitiera contigo. Ahora tienes una competencia seria. Así que necesitas conocerte mejor. En segundo lugar, como individuo, si hablamos de lo que le está pasando a la sociedad, deberías darte cuenta de que no puedes hacer mucho por ti mismo. Únete a una organización. Si realmente te preocupara esto, esta semana únete a alguna organización. Cincuenta personas que trabajan juntas son una fuerza mucho más poderosa que 50 individuos, cada uno de los cuales es un activista. Es bueno ser un activista. Es mucho mejor ser miembro de una organización. Y luego hay otros métodos probados y comprobados en la política. Tenemos que volver a este lío de hacer regulaciones políticas y tomar decisiones sobre todo esto. Quizá sea la más importante. La política se trata de poder. Y aquí es donde está el poder ahora mismo.

TH: Creo que existe la tentación de decir OK, ¿cómo podemos protegernos? Y cuando esta conversación se traslada al uso de mi smartphone, te aconsejas: "Oh, voy a configurar mi teléfono en escala de grises". Oh, apagaré las notificaciones. Pero lo que falta es que vives dentro de un tejido social. Caminamos afuera. Mi vida depende de la calidad de los pensamientos, creencias y vidas de otras personas. 

Si dices hola, soy un niño, soy un adolescente y no quiero que me importe el número de me gustas que tengo, así que voy a dejar de usar Snapchat o Instagram. No quiero que me quiten mi autoestima en relación a los likes. Puedo decir que no quiero usar esas cosas pero todavía vivo en un tejido social donde todas mis otras oportunidades sexuales, oportunidades sociales, donde la gente habla de esas cosas, si sólo usan Instagram, tengo que participar en ese tejido social. Así que creo que tenemos que elevar la conversación, ¿Cómo me aseguro de que no estoy siendo pirateado? No es sólo una conversación individual. Queremos que la sociedad no sea hackeada, lo que va hasta el punto político y de qué manera nos movilizamos políticamente como grupo para cambiar toda la industria tecnológica.

NT: Así que ese es el primer paso en esta pregunta de tres pasos. ¿Qué pueden hacer los individuos? Conócete a ti mismo, haz que la sociedad sea más resistente, haz que la sociedad sea menos hackeable. ¿Qué hay de la transmisión entre la supercomputadora y el humano? ¿Cuáles son las reglas y cómo debemos pensar en cómo limitar la capacidad de la supercomputadora para hackearte?

YNH: Esa es una gran pregunta.

TH: En efecto, la gran pregunta actual.

NT: ¡Por eso estamos aquí!

YNH: En esencia, creo que debemos aceptar el hecho de que no podemos evitarlo por completo. Y no es por la IA, es por la biología. Es sólo el tipo de animales que somos, y el tipo de conocimiento que ahora tenemos sobre el cuerpo humano, sobre el cerebro humano. Hemos llegado a un punto en el que esto es realmente inevitable. Y ni siquiera necesitas un sensor biométrico, puedes usar una cámara para saber cuál es mi presión arterial. Lo que está pasando ahora, y a través de eso, lo que me está pasando emocionalmente. Así que yo diría que necesitamos reconceptualizar completamente nuestro mundo. Y por eso empecé diciendo que sufrimos de empobrecimiento filosófico, que seguimos bajo las ideas del siglo XVIII, que fueron buenas durante dos o tres siglos, pero que simplemente no son adecuadas para entender lo que está sucediendo en este momento. Y es por eso que también pienso que la filosofía es una de las mejores apuestas.

NT: A veces bromeo con que mi esposa estudió filosofía y danza en la universidad, que en ese entonces parecían las dos peores profesiones porque no se puede conseguir un trabajo en ninguna de ellas. Pero ahora son como las dos últimas cosas que serán reemplazadas por robots.

TH: Creo que Yuval tiene razón. Creo que, a menudo, esta conversación hace que la gente llegue a la conclusión de que no hay nada sobre la elección humana o los sentimientos de la mente humana que valga la pena respetar. Y no creo que ese sea el punto. Creo que el punto es que necesitamos un nuevo tipo de filosofía que reconozca un cierto tipo de pensamiento o proceso cognitivo o proceso conceptual o proceso social que queremos.

Por ejemplo[James] Fishkin es un profesor de Stanford que ha trabajado en democracia deliberativa y ha demostrado que si se obtiene una muestra aleatoria de gente en una habitación de hotel durante dos días y se cuenta con expertos que vienen a informarles sobre un montón de cosas, cambian de opinión sobre los temas, pasan de estar polarizados a estar menos polarizados, pueden llegar a un mayor acuerdo. Así que creo que todavía estamos atrapados en un traje de carne de mente-cuerpo, no estamos saliendo de él, así que mejor aprendemos cómo lo usamos de una manera que saca a relucir a los ángeles superiores de nuestra naturaleza, las partes más reflexivas de nosotros mismos.

Creo que lo que los diseñadores de tecnología necesitan es hacerse esa pregunta. Vamos a tomar YouTube de nuevo. ¿Cuál es la diferencia con un adolescente? Vayamos al video del ukelele. Es algo muy común en YouTube. Hay muchos videos de ukeleles, cómo tocar el ukelele. ¿Qué pasa en ese momento en el que se recomiendan otros vídeos de ukelele? Bueno, en realidad hay un requirimiento de alguien que quiere aprender a tocar el ukelele, pero la computadora no lo sabe, sólo está recomendando más videos de ukelele. Pero si realmente supiera eso de ti en lugar de sólo decir, aquí hay infinitos videos de ukelele para ver, podría decir aquí están tus 10 amigos que saben cómo tocar el ukelele que tú no sabes tocar y  puedes ir a pasar el rato con ellos. Básicamente podría poner esas opciones al principio del menú de recomendaciones.

YNH: El sistema en sí mismo puede hacer cosas asombrosas por nosotros. Sólo tenemos que darle la vuelta, que sirva a nuestros intereses, sea lo que sea y no a los intereses de las corporaciones o del gobierno. Ahora que nos damos cuenta de que nuestros cerebros pueden ser pirateados, necesitamos un antivirus para el cerebro, al igual que tenemos uno para el ordenador. Y puede funcionar sobre la base de la misma tecnología. Digamos que tienes una IA que te monitorea todo el tiempo, las 24 horas del día. ¿Qué es lo que escribes? ¿Qué es lo que ves? Todo. Pero esta IA te está sirviendo como una responsabilidad fiduciaria. Y llega a conocer tus debilidades, y al conocer sus debilidades puede protegerte contra otros agentes que intentan hackearte y explotar tus debilidades. Así que si tienes debilidad por los vídeos de gatos divertidos y pasas una enorme cantidad de tiempo, una cantidad desmesurada de tiempo, sólo mirando, sabes que no es muy bueno para ti, pero no puedes dejar de hacer clic, entonces la IA intervendrá, y siempre que estos divertidos vídeos de gatos intenten aparecer, la IA dirá no, no, no, no, no, no. Y te mostrará tal vez un mensaje de que alguien acaba de tratar de hackearte tal y como recibes mensajes acerca de alguien que acaba de tratar de infectar tu ordenador con un virus. Quiero decir, lo más difícil para nosotros es admitir nuestras propias debilidades y prejuicios. Si tienes un prejuicio contra Trump o contra los partidarios de Trump, muy fácilmente creerías cualquier historia, por muy descabellada y ridícula que sea. Historias como que Trump cree que el mundo es plano. Trump está a favor de matar a todos los musulmanes. Usted haría clic en eso. Este sería tu sesgo. Y la IA lo sabrá, y es completamente neutral, no sirve a ninguna entidad ahí fuera. Sólo llega a conocer tus debilidades y prejuicios y trata de protegerte contra ellos.

NT: ¿Pero cómo aprende que es una debilidad y un sesgo? ¿Y no algo que te guste de verdad?

TH: Aquí es donde creo que necesitamos un marco filosófico más rico. Porque si lo tienes, entonces puedes hacer que eso sea comprensible. Así que si un adolescente está sentado allí y en ese momento está viendo el video de la dieta y luego se les muestra el video de la anorexia. Imagínate en el lugar de un ingeniero de 22 años que fue a Stanford, un informático, pensando: "¿Qué puedo mostrarles que es lo perfecto?. Tú tuviste un psicólogo del desarrollo infantil de 80 años de edad que estudió con los mejores psicólogos del desarrollo infantil y pensó en ese tipo de momentos que normalmente suceden en un adolescente a los 13 años de edad, un sentimiento de inseguridad, desarrollo de la identidad, como la experimentación. ¿Qué sería lo mejor para ellos?: tenemos que comprender primero nuestras vulnerabilidades. No es como si esto fuese un futuro de ciencia ficción. Este es el estado actual. Así que en realidad estamos pensando en cómo navegar a un estado real de cosas que queremos, probablemente no queremos que un asistente de IA sea un tipo de herramienta opcional que solo algunas personas ricas pueden permitirse, probablemente queremos que sea horneado en la forma en que la tecnología funciona en primer lugar, de modo que tenga una responsabilidad fiduciaria para con nuestros mejores, sutiles, compasivos y vulnerables intereses.

NT: Entonces, ¿tendremos asistentes de IA patrocinados por el gobierno? Tendremos corporaciones que nos vendan asistentes de IA pero que los subvencionen, así que no son sólo los ricos los que tienen compañeros de IA realmente buenos?

TH: Aquí es donde entra en juego la conversación sobre el modelo de negocio.

YNH: Una cosa es cambiar la forma de hacerlo: si vas a la universidad y aprendes ciencias de la computación, una parte integral del curso es aprender sobre ética, sobre la ética de la codificación. Creo que es extremadamente irresponsable que se puede tener un título en informática y en codificación, que se pueden diseñar todos estos algoritmos que ahora dan forma a la vida de las personas, y que no se tenga ningún conocimiento para pensar ética y filosóficamente sobre lo que se está haciendo. Estaba pensando en términos de tecnicismos puros o en términos económicos.

NT: Ahora déjame preguntarte algo que ha surgido un par de veces que me he estado preguntando. Cuando estabas dando el ejemplo del ukelele, tal vez deberías ir a ver a tus amigos que tocan al ukelele, deberías ir a visitarlos. En tu libro dices que uno de los momentos cruciales para Facebook llegará cuando un ingeniero se dé cuenta de que lo mejor para la persona y para la comunidad es que deje su ordenador. ¿Y qué hará Facebook con eso?  Parece, desde una perspectiva moral, que una plataforma, si se da cuenta de que sería mejor que te desconectaras y vieras a alguien, debería animarte a que lo hicieras. Pero entonces, perderán su dinero y serán superados. Entonces, ¿cómo llegas al punto en el que el algoritmo, la plataforma, empuja a alguien en esa dirección?

TH: Aquí es donde esta conversación sobre el modelo de negocio es tan importante y también por qué el papel de Apple y Google es tan importante porque están antes que el modelo de negocio de todas estas aplicaciones que quieren robar tu tiempo y maximizar la atención.

Android e iOS, para no hacer esta conversación demasiado técnica o centrada en la industria, ¿a quién debería estar sirviendo? ¿Quieren que las aplicaciones sean lo más exitosas posible? ¿hacer que pases más tiempo con ellas, maximizando la soledad, la alienación? O deberían ser un asistente de IA de nuestros intereses más profundos, de nuestras vidas físicas, de nuestras comunidades físicas. Resulta que estar dentro de la comunidad y tener contacto cara a cara puede ser mejor idea. El confinamiento solitario es el peor castigo que le damos a los seres humanos. Tenemos tecnología que básicamente está maximizando el aislamiento porque necesita maximizar el tiempo que permanecemos en la pantalla. Por lo tanto, creo que una pregunta es cómo pueden Apple y Google mover a toda su empresa para que sea una responsabilidad con la sociedad. Facebook también podría cambiar su modelo de negocio hacia el blockchain en el que teóricamente están trabajando y también los pagos de mensajería. Si pasan de un modelo de negocio basado en la publicidad a los micropagos, en realidad podrían cambiar el diseño de algunas de esas cosas.  Podría haber también equipos enteros de ingenieros en los News Feed que sólo piensen en lo que es mejor para la sociedad, aunque la gente podría preguntarse ¿quién es Facebook para decir lo que es bueno para la sociedad?.

NT: Esto me lleva a una de las cuestiones sobre las que más me gustaría escuchar vuestros pensamientos, tanto Apple como Google han hecho esto hasta cierto punto en el último año. Y Facebook lo ha hecho. Creo que cada ejecutivo de cada compañía de tecnología ha dicho "tiempo bien empleado" en algún momento del año pasado. ¿Realmente creéis que estamos yendo en la dirección correcta en este momento porque el cambio está ocurriendo y la gente se lo está planteando? ¿O creéis que seguimos yendo en la dirección equivocada?

YNH: Creo que en el mundo de la tecnología estamos yendo en la dirección correcta en el sentido de que la gente se está dando cuenta de lo que está en juego. La gente se está dando cuenta del inmenso poder que tiene en sus manos -estoy hablando de la gente en el mundo de la tecnología- y se está dando cuenta de la influencia que tienen en la política, en la sociedad, y sobre la sociedad. La mayoría de ellos reaccionan, no de la mejor manera posible, pero sin duda de manera responsable.

Esto está ocurriendo y tenemos que pensar muy bien qué hacer con ello. Se ha dado el primer paso, el de darse cuenta de lo que está sucediendo y asumir alguna responsabilidad. El lugar donde vemos un desarrollo muy negativo es a nivel global porque todo lo que se ha dicho hasta ahora ha sido una especie de charla interna de Silicon Valley, California, Estados Unidos.  Quiero decir que toda el debate que hemos tenido hasta ahora se ha basado en lo que está sucediendo en las democracias liberales y en los mercados libres. En algunos países, tal vez no tengas otra opción.

Sólo tienes que compartir toda tu información y hacer lo que el algoritmo patrocinado por el gobierno te dice que hagas. Otra complicación es la carrera armamentista de la IA que hace cinco años, o incluso hace dos años, no existía, ahora es quizás la prioridad número uno en muchos lugares del mundo, hay una carrera armamentista sobre la IA, y cada país, necesita ganar esta carrera. Cuando entras en una situación de carrera armamentista, entonces se convierte rápidamente en una carrera hacia abajo, porque aunque sea una mala idea hacer esto lo están haciendo y eso les da alguna ventaja a los países embarcados en esta carrera y no quieren quedarse atrás. Nosotros somos los buenos. No queremos hacerlo, pero no podemos permitir que los malos estén delante de nosotros, así que debemos hacerlo primero. Y si le preguntas a la otra gente, ellos dirán lo mismo. Y esto es un acontecimiento extremadamente peligroso.

TH: Es un dilema del prisionero. Es una trampa multipolar. Quiero decir, de todos los actores, nadie quiere ser el malo.

NT: E incluso a un nivel más profundo si quieres dotar de ética a la IA, esto ralentizaría tu carrera.

TH: Correcto. Uno de los retos -una de las cosas de las que creo que hablamos cuando nos conocimos por primera vez- fue la ética de la velocidad, de la velocidad del reloj. Esencialmente estamos compitiendo sobre quién puede ir más rápido para hacer estas cosas, pero más rápido significa que es más probable que sea peligroso, menos probable que sea seguro. Así que básicamente estamos corriendo lo más rápido posible para crear esta IA, pero probablemente deberíamos ir lo más despacio posible para crearla. La carrera es sobre quién puede programar a los seres humanos más rápido y quién es más eficaz en la manipulación de las guerras culturales en todo el mundo. Creo que tenemos que reflexionar cómo podemos ralentizar esto y crear un ritmo sensato. Probablemente no queramos que la sociedad se apresure a tomar 100 decisiones por hora sobre algo que realmente importa. Entonces, ¿cuál es la velocidad correcta? Creo que tenemos que tener tecnología que nos guíe hacia ese tipo de procesos de toma de decisiones.

¿Está mejorando o empeorando el problema?


NT: Volviendo a la pregunta original. Sois optimistas sobre algunas de las cosas que están sucediendo en este pequeño lugar? o ¿pesimistas sobre la completa destrucción de la humanidad?

TH: Creo que el punto de Yuval es correcto, las compañías de tecnología de EE.UU. son más grandes que muchos gobiernos: Facebook controla los pensamientos de 2.200 millones de personas. Mark Zuckerberg es editor jefe de 2.200 millones de pensamientos de la gente. Pero también hay gobiernos mundiales o gobiernos nacionales que se rigen por un conjunto diferente de reglas. Creo que las compañías de tecnología están despertando muy, muy lentamente a esto. Hasta ahora, por ejemplo, con el lema del Tiempo Bien Gastado, vamos a ayudar a la gente, porque son vulnerables acerca de cuánto tiempo pasan, estableceremos un límite en cuanto a cuánto tiempo pasan. Pero eso no aborda ninguno de estos temas más importantes sobre cómo se pueden programar los pensamientos de una democracia o cómo la salud mental y la alienación entre los adolescentes es cada vez peor,se duplicaron las tasas de suicidio entre las adolescentes en los últimos ocho años.

Vamos a tener que tener una visión mucho más completa y una reestructuración de la industria tecnológica para pensar en lo que es bueno para la gente. Y va a haber una transición incómoda, he usado esta metáfora, es como con el cambio climático. Hay ciertos momentos en la historia en los que una economía está sostenida por algo que no queremos. Así que el mayor ejemplo de esto es la esclavitud en el siglo XIX. Hubo un momento en que la esclavitud estaba apuntalando toda la economía mundial. No se puede decir que no queremos hacer esto más, simplemente saquémoslo de la economía. Toda la economía se derrumbará si haces eso. Pero el Imperio Británico, cuando decidió abolir la esclavitud, tuvo que renunciar al 2 por ciento de su PIB cada año durante 60 años y fue capaz de hacer esa transición durante un período de transición, no estoy equiparando la publicidad o la programación de los seres humanos a la esclavitud pero hay una estructura similar de toda la economía ahora, si se mira el mercado de valores, como una gran parte del valor, es impulsada por estos sistemas de programación publicitaria basados en los seres humanos y los animales. Si queremos seguir con ese modelo, el modelo publicitario, en realidad no podemos permitirnos esa transición.

NT: Yuval, ¿estás de acuerdo en que esa es una de las cosas en las que tenemos que pensar al tratar de arreglar el sistema mundial en las próximas décadas?

YNH: Es una de las cosas. Pero una vez más, el problema del mundo, de la humanidad, no es sólo el modelo publicitario. Quiero decir que las herramientas básicas fueron diseñadas: hace 10 o 20 años, tenías a las personas más brillantes del mundo, resolviendo este problema de, ¿Cómo hago que la gente haga clic en los anuncios? Para algunas de las personas más inteligentes de la historia, ese era su trabajo, resolver este problema. Y lo resolvieron. Y luego los métodos que usaron inicialmente para vendernos ropa interior, gafas de sol y vacaciones en el Caribe y cosas por el estilo, fueron secuestrados y convertidos en armas, y ahora se usan para vendernos todo tipo de cosas, incluyendo opiniones políticas e ideologías enteras. Y ya no está bajo el control del gigante tecnológico de Silicon Valley, que fue el pionero de estos métodos. Estos métodos están ahí fuera. Así que incluso si consigues que Google y Facebook se rindan por completo, el gato está fuera de la bolsa. La gente ya sabe cómo hacerlo. Y hay una carrera armamentista. Así que sí, tenemos que resolver este asunto de la publicidad. Es muy importante. Pero no resolverá el problema humano. Y creo que ahora la única manera realmente efectiva de hacerlo es a nivel mundial. Y para ello necesitamos una cooperación global en la regulación de la IA, en la regulación del desarrollo de la IA y de la biotecnología, y, por supuesto, vamos en la dirección opuesta de la cooperación global.

TH: Estoy de acuerdo en que existe esta noción de teoría de juegos. Claro que Facebook y Google podrían hacerlo, pero eso no importa porque el asunto está fuera de control, y los gobiernos lo van a hacer, y otras compañías tecnológicas lo van a hacer, y la infraestructura tecnológica de Rusia lo va a hacer. Entonces, ¿cómo evitas que suceda?

No quiero equiparar la esclavitud otra vez con este tema, pero cuando el Imperio Británico decidió abolir la esclavitud y restar su dependencia hacia ella en relación a su economía, en realidad estaban preocupados de que si lo hacíamos, la economía de Francia seguiría siendo impulsada por la esclavitud y se dispararían mucho más allá de nosotros. Así que desde la perspectiva de la competencia no podemos hacer esto, pero la forma en que llegaron allí fue convirtiéndolo en una cuestión de derechos humanos universales y globales. Eso llevó más tiempo, pero creo que esto es como dice Yuval, estoy de acuerdo en que se trata de una conversación global sobre la naturaleza humana y la libertad humana. No sé si existe tal cosa, pero al menos me refiero al tipo de libertad humana que queremos preservar y que creo que es algo que realmente interesa a todos, vamos a avanzar en esa dirección manteniendo un debate global al respecto.

NT: Terminemos con un consejo para alguien que esté viendo este vídeo. Acaban de ver un video de Alex Jones y el algoritmo de YouTube ha cambiado y lo han enviado aquí, y de alguna manera han llegado a este punto. Tienen 18 años, quieren dedicar su vida a que la dinámica entre las máquinas y los seres humanos no se vuelva explotadora y se convierta en una en la que podamos seguir viviendo nuestras vidas plenas. ¿Qué deberían hacer o qué consejo les daría a estos jóvenes?

YNH: Yo diría, conócete a ti mismo mucho mejor y hazte la menor cantidad posible de ilusiones sobre ti mismo. Si un deseo aparece en tu mente, no digas bien, este es mi libre albedrío. Elegí esto, por lo tanto es bueno, debo hacerlo. Explora mucho más profundamente. En segundo lugar, como dije, únete a una organización. Hay muy poco que puedes hacer como individuo por ti mismo. Estos son los dos consejos más importantes que podría dar a una persona que nos está observando ahora.

TH: Tenemos que pasar de un modelo del siglo XVIII de cómo trabajan los seres humanos a un modelo del siglo XXI de cómo trabajan los seres humanos. Nuestro trabajo es tratar de coordinar una especie de movimiento global hacia la solución de algunos de estos problemas en torno a la tecnología humana. Creo como Yuval dice que no puedes hacerlo solo. No es tan fácil como cambiar la escala de grises de mi teléfono o hacer una petición a mi congresista. Este es un movimiento global. La buena noticia es que nadie quiere llegar al futuro distópico que se plantea en lo que estamos hablando. No es como si alguien dijera estoy muy emocionado con esta distopía, sólo quiero seguir haciendo lo que estamos haciendo. Nadie quiere eso.  Tenemos que alejarnos de la dirección a la que vamos. Creo que todo el mundo debería estar de acuerdo en eso.

NT: Gracias por la charla y gracias por estar aquí. Gracias. Tristan. Gracias, Yuval.





martes, 2 de octubre de 2018

Predicciones leídas en un subreddit sobre la posible llegada de la singularidad, comprenden desde el año 2019 al 2033

3 comentarios :
Predicciones leídas en un subreddit sobre la posible llegada de la singularidad, comprenden desde el año 2019 al 2033
Predicciones de un usuario de reddit
acerca del progreso de la inteligencia artificial hechas a partir del año 2019  hasta el 2033, año en que ocurriría según él, la singularidad tecnológica, dejo también breves acotaciones de mi cosecha:



2019

OpenAI Five derrota a un equipo de primera línea de Dota 2.

La IA puede traducir la mayoría de los idiomas, tal y como haría un ser humano con fluidez. (Nota de Chitauri, esta predicción me parece una de las más cercanas y se la dedico a mi amigo José Manuel, solo hace falta ver lo preciso que traduce el traductor Deepl)

2020

Una IA derrota a un jugador de Starcraft II de alto rango.

Una IA puede traducir el discurso a un nuevo idioma a partir de subtítulos de películas.

Una IA puede doblar la ropa tan eficientemente como el empleado promedio de una tienda de ropa humana.

2021       

Los científicos comienzan a cartografiar el cerebro humano usando la supercomputadora Aurora 21
.

Una IA puede escribir código Python tan eficientemente como el codificador promedio.

 2022
       
Una IA gana la Serie Mundial de Póquer.
        
"One-shot learning" realizado por la IA


2023
  
La IA puede escribir ensayos de escuela secundaria que recibirían altas calificaciones.

Los humanos regresan a la luna.

2024
   
La IA puede jugar cualquier juego de ordenador a un nivel superhumano.

Una simulación completa del cerebro humano está a punto de completarse o ya lo está.

2025
  
Surge la inteligencia general artificial.

Los teléfonos inteligentes se han vuelto obsoletos.

El mundo entero tiene acceso a Internet.

2026

Los vehículos eléctricos representan la mitad de las ventas de vehículos nuevos.
   
La Realidad Virtual y la Realidad Aumentada se han vuelto omnipresentes.

2027

Algunos humanos desarrollan relaciones románticas con AGI (inteligencia artificial fuerte).
(Nota de Chitauri, ved la película Her, o leed esta noticia de hace unos días)
Los humanos aterrizan en Marte.

2028
   
Al menos una novela escrita por una IA es un bestseller.

Se estrena al menos una película escrita y dirigida por una IA.

2029

Los vehículos autónomos se han vuelto omnipresentes.
   
"Se alcanza la "Longevity escape velocity" para los ricos.

2030

Las computadoras de propósito general son lo suficientemente pequeñas para ser implantadas dentro de un cerebro humano.

2031

Los coches voladores son comunes en las zonas urbanas. (Nota de Chitauri, aunque no veo la necesidad para esto, dejo pinchad en este link.

2032
   
Los robots han asumido al menos el 80% de los puestos de trabajo.

La mayoría de los países desarrollados tienen programas de renta básica universal.

2033
   
Surge la superinteligencia artificial.

Se produce la singularidad tecnológica.

(Algunas predicciones provienen de estas fuentes):

https://www.businessinsider.com/how-to-predict-the-future-2012-7

 https://arxiv.org/pdf/1705.08807.pdf

 https://cdn2.hubspot.net/hubfs/2973685/Countdown%20to%20the%20Singularity_final.pdf

Breve opinión de Chitauri:

La fecha dada para la singularidad tecnólogica por este usuario se me antoja demasiado temprana a tenor de otras fechas algo más lejanas dadas por singularistas como Ray Kurzweil, pero decidí hacerme eco de sus predicciones y a su vez aconsejar para los interesados y más versados en este tema el libro de Nick Bostrom Superinteligencia: Caminos, peligros, estrategias cuyo ejemplar tengo en mi casa pero aún no lo acabé de leer, ya que a pesar de su profundidad técnica me resultó en varios pasajes farragoso y dificil de entender (no es el campo en el que me formé), lo cual no excluye que me me autoaconsejo el acabarlo. Los que me leéis habréis adivinado que a mi lo que de verdad "me pone" son las implicaciones filosóficas y psicológicas, que todo esto de la singularidad tendrá, pero en fin, de ello ya he hablado en algunas entradas más antiguas de mi blog.




sábado, 29 de septiembre de 2018

Elucubraciones que reproduzco del recomendable subreddit technological singularity: ¿Cómo crees que será la vida después de la singularidad?

1 comentario :
Elucubraciones que reproduzco del recomendable subreddit technological singularity: ¿Cómo crees que será la vida después de la singularidad?   Ante la pregunta (y breve análisis) formulada por un usuario del subreddit Technological singularity que decía:

                       ¿Cómo crees que será la vida después de la singularidad?

Un usuario optimista deja una respuesta muy valorada por la comunidad de ese subreddit.

Primero dejo el breve anális de quién formula la pregunta y después la respuesta dada por otro usuario.

"Estoy escribiendo una historia sobre la vida después de la singularidad en 2075 y me encantaría leer más perspectivas sobre posibles futuros.


Mi opinión sobre un posible futuro:

En un mundo donde todos los algoritmos están conectados para formar una IA autodidacta que se integra en todo, los asistentes personales ejecutando esos algoritmos podrían predecir las canciones que quieres escuchar antes de que sepas que quieres (Spotify quedaría obsoleto). Podría predecir qué deporte te conviene, qué productos te apetecen, qué pareja te conviene, qué trabajo es el adecuado para ti... Yo pensaría que esto reduciría a la mayoría de la gente a seguir los patrones de vida sugeridos por la IA.
Un gobierno supranacional podría haber sido establecido por esa IA. Ese gobierno se reduciría rápidamente a la gente que sigua los patrones sugeridos por los algoritmos. Podría medir la opinión pública es un segundo y extrapolar la reacción futura del público. Esto puede funcionar de modo inexacto al principio, pero la IA autodidacta aprenderá en el camino para eventualmente perfeccionar su predicción de lo que la gente apreciará. A medida que el nivel de vida en este mundo pueda crecer, la capacidad de los seres humanos para tomar decisiones disminuirá, ya que dependerán de sus asistentes personales para cada elección".



                                                         Respuesta más valorada:

"El mundo físico se volverá en gran medida irrelevante, ya que todo el mundo preferirá vivir en una realidad virtual (RV) la mayor parte del tiempo y los cuerpos biológicos ya no serán necesarios. Seremos programas de software sensibles que se distribuyen a través de diferentes centros de datos.

La  Inteligencia artificial (IA)  garantizará nuestra seguridad y comodidad y evitará que dañemos el ecosistema de la Tierra más de lo que ya lo hemos hecho. En la RV podemos tener todo lo que queramos, sólo tenemos que imaginarlo y la IA nos lo creará a partir de simulaciones de nuestros deseos y preferencias individuales (que la IA conoce mejor que nosotros mismos). 

Podremos movernos entre mundos virtuales tal y como los jugadores se conectan y desconectan de diferentes juegos, tanto multijugador como monojugador, al instante y podremos estar en varios mundos a la vez si así lo preferimos.

Tendremos exploradores robóticos colonizando el sistema solar y allende. Podremos enviar copias de nuestra personalidad para experimentar el espacio en persona a través de esos exploradores robóticos por una pequeña suma de dinero. Sí, el dinero seguirá existiendo, pero a todos se nos proporcionará más de lo que necesitamos sin tener que trabajar para ello ni poseer ningún tipo de propiedad. El dinero sólo servirá para evitar que alguien consuma cantidades excesivas de recursos. La política no será un problema porque todo el mundo podrá  vivir su vida exactamente como lo desea en la RV".

Para finalizar dejo link al hilo del subreddit, y si hay alguna respuesta más que llame mi atención la traduciré:

https://www.reddit.com/r/singularity/comments/9jong9/what_do_you_think_life_after_the_singularity_will/


jueves, 13 de septiembre de 2018

Thomas Campbell influenciado por la física digital y creador de una teoría digna de los créditos finales del Minecraft 🎮

6 comentarios :
Thomas Campbell influenciado por la física digital y creador de una teoría digna de los créditos finales del Minecraft 🎮 Sigo a vueltas con la hipótesis de la simulación, así que hoy dejo un esbozo de una hipótesis de esta teoría, la cual tiene diferentes argumentos (véase Nick Bostrom por ejemplo), de un físico norteamericano llamado Thomas Campbell quién en ciertos sectores de la red está ganando cierto interés, los vídeos que dejo, uno subtitulado al español y otro al inglés, se centran más en su visión filosófica que en los experimentos que promete hacer para dotar de credibilidad a su teoría. Al acabar el post dejo los créditos finales traducidos del videojuego minecraft como postre poético a la entrada.

Thomas Warren Campbell (9 de diciembre de 1944) es físico, conferenciante y autor de la trilogía My Big T.O.E. (Teoría de todo), una obra que pretende unificar la relatividad general, la mecánica cuántica y la metafísica junto con los orígenes de la conciencia. El trabajo se basa en el argumento de la simulación, que postula que la realidad es tanto virtual como subjetiva. Campbell está de acuerdo con otros notables filósofos y científicos como Hans Moravec, Nick Bostrom, Brian Whitworth, Marcus Arvan y otros que plantean la hipótesis de que la realidad es similar a una simulación generada por una computadora (o una red peer-to-peer según Aravan), mientras que Campbell sostiene que la realidad evolucionó de un "big bang digital". Estas ideas están fuertemente influenciadas por los conceptos de la física digital.

Se da cierto aire al personaje del arquitecto de la película Matrix.




A continuación un vídeo subtitulado al español en el que desglosa puntos básicos de su visión sobre hipótesis de la simulación:



Dejo una breve sinopsis sacada del foro My Big Toe, en el que se analiza la obra de Thomas Cambell, sin mojarme, ya que me falta más inmersión en su teoría:

"En mi opinión, My Big Toe está lleno de asombrosas afirmaciones que debemos interrogar y ser (abiertamente) escépticos. La base misma del modelo es chocante: la conciencia es fundamentalmente, un sistema dinámico y evolutivo que desarrolla laboratorios de aprendizaje en los que sus partes individuadas pueden organizarse mejor y, por lo tanto, continuar la evolución del conjunto. Añade a eso la existencia de múltiples realidades físicas y no físicas; la continuidad de la conciencia a través de las encarnaciones, reteniendo sólo la "calidad acumulada"; el acceso a bases de datos pasadas y futuras; la modificación de la realidad física con intención enfocada; y muchas otras afirmaciones asombrosas. No es de extrañar que la gente se sorprenda!

Además, el paradigma predominante de la mayoría de las personas que viven hoy en día es el materialismo científico, afirmando que nada existe fuera de la realidad física objetiva, que el universo surgió de la nada de la nada, y que no existe una razón subyacente y metafísica para la existencia humana. Como dice Tom, los científicos son los "sumos sacerdotes" de la sociedad actual. Así que, puesto que My Big Toe desafía estas creencias, los creyentes tratarán de "desacreditarlas", de la misma manera que las religiones han intentado "desacreditar" a la ciencia que desafía las creencias religiosas. Algunas personas tendrán una mentalidad completamente cerrada, negándose incluso a considerar el modelo y desacreditándolo únicamente sobre la base de que no se trata de materialismo científico. Otros estarán abiertos a partes del modelo, pero dejarán caer otras partes que no tienen sentido para ellos o que no pueden verificar. Todo esto está bien, y es incluso saludable.


En este link un sumario con imágenes de su teoría, está en inglés:

https://www.my-big-toe.com/uploads/LondonLectureSlides.pdf

Y en este link el libro en su totalidad:


https://books.google.es/books?id=RYHtBPiZVgsC&lpg=PA1&dq=my+big+toe&pg=PA1&redir_esc=y&hl=es#v=onepage&q&f=false

Un vídeo con subtítulos en inglés que si bien puede tener cierta carga new age al menos merece la pena ser tomado en consideración:



Títulos de crédito finales a modo de poema en el videojuego minecraft:


 

O tal vez como dicta la imagen a continuación...




 

sábado, 8 de septiembre de 2018

¿Qué pensáis acerca de la teoría de los NPCs (personaje no jugador) y los humanos sin alma? 🗿

14 comentarios :
¿Qué pensáis acerca de la teoría de los NPCs (personaje no jugador) y los humanos sin alma? 🗿
Al final del artículo que plantea esta pregunta dejo mi opinión sobre esta "peligrosa" teoría.

Vía este subreddit:

https://www.reddit.com/r/conspiracy/comments/9e15ry/what_do_guys_think_about_the_npc_theory_and/

"Existe una teoría basada en este estudio que dice que sólo el 25% de la población tiene una voz interna. Así que a alguien se le ocurrió la teoría de que la mayoría de las personas que viven hoy en día son NPC (personajes no jugadores), lo que significa que no son realmente seres humanos autónomos con alma, sino más bien seres inconscientes que sólo responden a estímulos sin pensar realmente. Hay un número finito de almas en el mundo que siguen siendo recicladas en nuevos cuerpos, pero con la explosión de la población humana mucha gente se queda sin almas.




Ahora bien, ese estudio puede haber sido dudoso, pero no puedo evitar sentir que esta teoría tiene cierta validez. Explica cómo la mayoría de la población a lo largo de la historia ha sido siempre oveja, y hoy en día es mucho peor. La gente está dispuesta a aceptar y aceptar todo lo que hacen los gobernantes, no importa cuán horrible e inmoral sea, sin hacer preguntas ni oponer resistencia. Sólo están de acuerdo con ello. Los buscadores de la verdad y los revolucionarios siempre han sido un pequeño porcentaje de la población. El resto no les importa un carajo, son como zombis sin alma y sin mente".




Estudio :https://www.psychologytoday.com/us/blog/pristine-inner-experience/201110/not-everyone-conducts-inner-speech

 Opinión:

Sólo ceguera... Su visión del mundo es limitada, eso es todo. Puedes mirarles a los ojos y saber que tienen alma. Alguien que ha sido diagnosticado como un psicópata es el tipo de persona sin alma. Puedes ver el vacío en sus ojos. La gente con anteojos, no es vacía, sólo hay niebla.... Al menos así es como yo lo veo.

Nada nuevo bajo el sol, esta "nueva teoría" entronca con la más vieja de la ponerología,  teoría de Andrzej Łobaczewski  y sus portales orgánicos humanos:



Tildo de peligrosa la teoría que ha vuelto a surgir con otro nombre en 4chan debido a que puede deshumanizar y hacer una división "racial" de la humanidad de una manera bastante vanidosa por aquellos que no se consideren NPC. De todos modos estoy abierto a conocer vuestros puntos de vista.

Finalmente para antagonizar con esta teoría dejo esta imagen:




Edito el post con este meme que me costó reencontrar:














sábado, 1 de septiembre de 2018

Hoy me comí a mi avatar y lanzo a la red en formato vídeo un egregor particular a modo de juego 🎂⌛

12 comentarios :
Hoy me comí a mi avatar y lanzo a la red en formato vídeo un egregor particular a modo de juego 🎂⌛ En este escueto vídeo, me estoy riendo de mi mismo con rostro serio, al menos intento emular el estilo del humorista ya fallecido Eugenio, sé que puede sonar ingenuo, pero quiero convertir en egregor a juegos multidimensionales con su idea subyacente de la hipótesis de la simulación, pero tras el brevísimo alegato sobre profecías autocumplidas soy consciente de la futilidad de los pensamientos vertidos en otras entradas con más conceptos y palabras de este blog. Mis pensamientos como probablemente los tuyos que me lees, obedecen a algoritmos justificatorios para el comienzo de una acción: JUGAR.

Hoy me comí a mi avatar, al egregor creado por Ignatius K Dick.




Tras la consagración, ejecutada con la seriedad con la que juega un niño cuando está inmerso en el juego, grabo mi proclama:


No te tomes en serio al avatar que encarnas, asímilalo como otro dizfraz en el baile de máscaras shakespereano al cual uno coge cariño u odio, según como le vaya en la feria de vanidades: Sic transit gloria mundi.

41 años inmerso en el juego multidimensional desde el 28 de agosto de 1977 según el calendario gregoriano, otro calendario de este juego de rol que goza en la actualidad de vigencia en la mayor parte de la tierra.






lunes, 13 de agosto de 2018

Yuval Noah Harari acerca de lo que el año 2050 tiene reservado para la humanidad

7 comentarios :
Yuval Noah Harari acerca de lo que el año 2050 tiene reservado para la humanidad Os dejo la traducción de un extracto del nuevo libro de Yuval Noah Harari aparecida en la web Wired ayer 12 de agosto del 2018.

Ya había escrito un artículo en mi blog sobre Yuval Noah Harari, titulado: Yuval Noah Harari: Sobre la religión del dataísmo y el posible fin del homo sapiens.

   Crédito: Britt Spencer

Olvídate de la programación - la mejor habilidad para enseñar a los niños es la reinvención. En este extracto exclusivo de su nuevo libro, 21 Lessons for the 21st Century,  el autor de Sapiens revela lo que el 2050 tiene reservado para la humanidad.




Primera parte: El cambio es la única constante


La humanidad se enfrenta a revoluciones sin precedentes, todas nuestras viejas historias se están desmoronando y hasta ahora no ha surgido ninguna nueva historia que las reemplace. ¿Cómo podemos prepararnos a nosotros mismos y a nuestros hijos para un mundo de transformaciones sin precedentes e incertidumbres radicales? Un bebé que nazca hoy tendrá treinta y tantos años en 2050. Si todo va bien, ese bebé seguirá existiendo en 2100, e incluso podría ser un ciudadano activo del siglo XXII. ¿Qué debemos enseñar a ese bebé que le ayudará a sobrevivir y florecer en el mundo de 2050 o del siglo XXII? ¿Qué tipo de habilidades necesitará para conseguir un trabajo, entender lo que sucede a su alrededor y navegar por el laberinto de la vida?

Desafortunadamente, como nadie sabe cómo será el mundo en 2050 -por no mencionar 2100- no sabemos la respuesta a estas preguntas. Por supuesto, los humanos nunca han sido capaces de predecir el futuro con exactitud. Pero hoy en día es más difícil que nunca, porque una vez que la tecnología nos permite diseñar cuerpos, cerebros y mentes, ya no podemos estar seguros de nada - incluyendo cosas que antes parecían fijas y eternas.

Hace mil años, en 1018, había muchas cosas que la gente no sabía sobre el futuro, pero estaban convencidos de que las características básicas de la sociedad humana no iban a cambiar. Si vivías en China en 1018, sabías que para el año 1050 el Imperio Song podría colapsar, los Khitanos podrían invadir desde el norte, y las plagas podrían matar a millones. Sin embargo, era claro para ti que incluso en 1050 la mayoría de la gente seguiría trabajando como granjeros y tejedores, los gobernantes seguirían dependiendo de los humanos para el personal de sus ejércitos y burocracias, los hombres seguirían dominando a las mujeres, la esperanza de vida seguiría siendo de alrededor de 40 años, y el cuerpo humano sería exactamente el mismo. Por lo tanto, en 1018, los padres chinos pobres enseñaron a sus hijos a plantar arroz o tejer seda, y los padres ricos enseñaron a sus hijos a leer los clásicos confucianos, a escribir caligrafía o a pelear a caballo, y enseñaron a sus hijas a ser amas de casa modestas y obedientes. Era obvio que estas habilidades todavía serían necesarias en 1050.

Por el contrario, hoy no tenemos ni idea de cómo será China o el resto del mundo en 2050. No sabemos cómo se ganará la vida la gente, no sabemos cómo funcionarán los ejércitos o las burocracias, y no sabemos cómo serán las relaciones de género. Algunas personas vivirán probablemente mucho más tiempo que en la actualidad, y el propio cuerpo humano podría experimentar una revolución sin precedentes gracias a la bioingeniería y a las interfaces directas cerebro-ordenador. Mucho de lo que los niños aprenden hoy probablemente será irrelevante para el año 2050.

En la actualidad, demasiadas escuelas se centran en estudiar información. En el pasado, esto tenía sentido, porque la información era escasa, e incluso el lento goteo de la información existente era bloqueado repetidamente por la censura. Si vivías, digamos, en un pequeño pueblo de provincias en México en 1800, era difícil para ti saber mucho sobre el mundo en general. No había radio, televisión, periódicos ni bibliotecas públicas. Incluso si sabías leer y escribir y tenías acceso a una biblioteca privada, no había mucho que leer aparte de novelas y tratados religiosos. El Imperio Español censuró fuertemente todos los textos impresos localmente, y sólo permitió que se importara desde el exterior una gota de publicaciones examinadas. Lo mismo ocurría si se vivías en una ciudad de provincias de Rusia, India, Turquía o China. Cuando aparecieron las escuelas modernas, que enseñaban a leer y escribir a todos los niños e impartían los conocimientos básicos de geografía, historia y biología, representaron una inmensa mejora.

   CréditoBritt Spencer

Por el contrario, en el siglo XXI estamos inundados de enormes cantidades de información, e incluso los censores no intentan bloquearla. En cambio, están ocupados difundiendo información errónea o distrayéndonos con irrelevancias. Si vives en algún pueblo de México y tienes un teléfono inteligente, puedes pasar muchas vidas leyendo Wikipedia, viendo charlas de TED y tomando cursos gratuitos online. 

Ningún gobierno puede esperar ocultar toda la información que no le gusta. Por otra parte, es alarmantemente fácil inundar al público con informes contradictorios. La gente de todo el mundo está a un clic de distancia de los últimos relatos del bombardeo de Alepo o del derretimiento de los casquetes polares en el Ártico, pero hay tantos relatos contradictorios que es difícil saber en qué creer. Además, un sinnúmero de otras cosas están a un clic de distancia, lo que dificulta la concentración, y cuando la política o la ciencia parecen demasiado complicadas es tentador cambiar a divertidos videos de gatos, cotilleos sobre celebridades o porno.

En un mundo así, lo último que un profesor debe dar a sus alumnos es más información. Ya tienen demasiada. En cambio, la gente necesita la capacidad de dar sentido a la información, distinguir entre lo que es importante y lo que no lo es y, sobre todo, combinar muchos fragmentos de información en un panorama amplio del mundo.

En realidad, éste ha sido el ideal de la educación liberal occidental durante siglos, pero hasta ahora incluso muchas escuelas occidentales han sido bastante negligentes en su cumplimiento. Los profesores se permitieron centrar su atención en la introducción de datos, al tiempo que animaban a los alumnos a "pensar por sí mismos". Debido a su miedo al autoritarismo, las escuelas liberales tenían un horror particular por las grandes narrativas. Asumieron que mientras les demos a los estudiantes muchos datos y un poco de libertad, los estudiantes crearán su propia imagen del mundo, e incluso si esta generación no logra sintetizar todos los datos en una historia coherente y significativa del mundo, habrá mucho tiempo para construir una buena síntesis en el futuro. Se nos ha acabado el tiempo. Las decisiones que tomaremos en las próximas décadas determinarán el futuro de la vida misma, y podemos tomar estas decisiones basándonos únicamente en nuestra visión del mundo actual. Si esta generación carece de una visión integral del cosmos, el futuro de la vida se decidirá al azar.

Segunda parte: ha llegado la hora de la verdad 


Además de la información, la mayoría de las escuelas también se centran demasiado en proporcionar a los alumnos un conjunto de habilidades predeterminadas, como resolver ecuaciones diferenciales, escribir código informático en C++, identificar sustancias químicas en un tubo de ensayo o conversar en chino. Sin embargo, dado que no tenemos ni idea de cómo será el mundo y el mercado laboral en 2050, no sabemos realmente qué habilidades particulares necesitará la gente. Podríamos invertir mucho esfuerzo en enseñar a los niños a escribir en C++ o a hablar chino, sólo para descubrir que para el año 2050 la inteligencia artificial puede codificar software mucho mejor que los humanos, y una nueva aplicación de Google Translate te permite mantener una conversación en casi perfecto mandarín, cantonés o hakka, aunque sólo sepas decir "Ni hao".

Entonces, ¿qué deberíamos estar enseñando? Muchos expertos pedagógicos sostienen que las escuelas deberían pasar a enseñar "las cuatro C": pensamiento crítico, comunicación, colaboración y creatividad. En términos más generales, las escuelas deberían restar importancia a las aptitudes técnicas y hacer hincapié en las aptitudes para la vida cotidiana con fines generales. Lo más importante de todo será la capacidad de lidiar con el cambio, aprender cosas nuevas y preservar el equilibrio mental en situaciones desconocidas. Para mantenerse al día con el mundo de 2050, no tendrás que limitarte a inventar nuevas ideas y productos, sino que sobre todo tendrás que reinventarte una y otra vez.

Porque a medida que aumenta el ritmo del cambio, es probable que no sólo la economía, sino también el significado mismo de "ser humano" mute. En 1848, el Manifiesto Comunista declaró que "todo lo que es sólido se funde en el aire". Marx y Engels, sin embargo, pensaban principalmente en las estructuras sociales y económicas. Para el año 2048, las estructuras físicas y cognitivas también se derretirán en aire, o en una nube de bits de datos.

En 1848, millones de personas perdían sus empleos en las granjas de las aldeas y se dirigían a las grandes ciudades para trabajar en fábricas. Pero al llegar a la gran ciudad, era poco probable que cambiaran de género o que añadieran un sexto sentido. Y si encontraban trabajo en alguna fábrica textil, podían esperar permanecer en esa profesión por el resto de sus vidas laborales.

Para 2048, las personas podrían tener que hacer frente a las migraciones al ciberespacio, con identidades de género fluidas y con nuevas experiencias sensoriales generadas por los implantes informáticos. Si encuentran trabajo y significado en el diseño de modas actualizadas para un juego de realidad virtual 3D, en una década no sólo esta profesión en particular, sino todos los trabajos que demandan este nivel de creación artística podrían ser asumidos por una inteligencia artificial. 

Así que a los 25 años, te presentas en una web de citas como "una mujer heterosexual de 25 años que vive en Londres y trabaja en una tienda de moda". A los 35 años, dices que eres "una persona de género no específico en proceso de adaptación de edad, cuya actividad neocortical tiene lugar principalmente en el mundo virtual de NewCosmos, y cuya misión en la vida es ir a donde ningún diseñador de moda ha ido antes".

 A los 45 años, tanto las citas como las autodefiniciones están tan pasadas de moda. Sólo tienes que esperar a que un algoritmo encuentre (o cree) la coincidencia perfecta para ti. En cuanto a dibujar el significado del arte del diseño de moda, estás tan irrevocablemente superado por los algoritmos, que mirar tus logros de coronación de la década anterior te llena de vergüenza en lugar de orgullo. Y a tus 45 años, todavía te quedan muchas décadas de cambios radicales por delante.

                   Crédito: Britt Spencer

Por favor, no tomes este escenario literalmente. Nadie puede predecir realmente los cambios específicos que presenciaremos. Es probable que cualquier escenario en particular esté lejos de la verdad. Si alguien te describe el mundo de mediados del siglo XXI y te suena a ciencia ficción, probablemente sea falso. Pero si alguien te describe el mundo de mediados del siglo XXI y no te suena a ciencia ficción, es ciertamente falso. No podemos estar seguros de los detalles, pero el cambio en sí mismo es la única certeza.

Un cambio tan profundo puede transformar la estructura básica de la vida, haciendo de la discontinuidad su característica más sobresaliente. Desde tiempos inmemoriales, la vida se dividió en dos partes complementarias: un período de aprendizaje seguido de un período de trabajo. En la primera parte de la vida se acumuló información, se desarrollaron habilidades, se construyó una visión del mundo y se construyó una identidad estable. Incluso si a los 15 años pasabas la mayor parte del día trabajando en el campo de arroz de la familia (en lugar de en una escuela formal), lo más importante que hacías era aprender: cómo cultivar arroz, cómo llevar a cabo negociaciones con los codiciosos comerciantes de arroz de la gran ciudad y cómo resolver los conflictos por la tierra y el agua con los otros aldeanos. En la segunda parte de la vida dependías de tus habilidades acumuladas para navegar por el mundo, ganarte la vida y contribuir a la sociedad. Por supuesto, incluso a los 50 años seguías aprendiendo cosas nuevas sobre el arroz, sobre los comerciantes y sobre los conflictos, pero no eran más que pequeños retoques a habilidades bien afiladas.

A mediados del siglo XXI, la aceleración de los cambios y la prolongación de la vida útil harán que este modelo tradicional sea obsoleto. La vida se desmoronará y habrá cada vez menos continuidad entre los diferentes períodos de la vida. "¿Quién soy yo?" será una pregunta más urgente y complicada que nunca.


Es probable que esto implique inmensos niveles de estrés. Porque el cambio es casi siempre estresante, y después de cierta edad a la mayoría de las personas simplemente no les gusta cambiar. Cuando tienes 15 años, toda tu vida es un cambio. Tu cuerpo está creciendo, tu mente se está desarrollando, tus relaciones se están profundizando. Todo está en movimiento, y todo es nuevo. Estás ocupado inventándote a ti mismo. La mayoría de los adolescentes lo encuentran aterrador, pero al mismo tiempo, también excitante. Nuevas vistas se abren ante vosotros, con todo un mundo por conquistar. Para cuando tengas 50 años, no querrás cambiar, y la mayoría de la gente ha renunciado a conquistar el mundo. Prefieres la estabilidad. Has invertido tanto en tus habilidades, tu carrera, tu identidad y tu visión del mundo que no quieres empezar de nuevo. Cuanto más duro has trabajado en la construcción de algo, más difícil es dejarlo ir y hacer espacio para algo nuevo. Puede que todavía aprecies nuevas experiencias y ajustes menores, pero la mayoría de las personas en sus cincuentas no están listas para revisar las estructuras profundas de su identidad y personalidad.

Hay razones neurológicas para esto. Aunque el cerebro adulto es más flexible y volátil de lo que se creía, sigue siendo menos maleable que el cerebro adolescente. Reconectar neuronas y reconectar sinapsis es un trabajo muy duro. Pero en el siglo XXI, difícilmente se puede permitir la estabilidad. Si intentas aferrarte a una identidad, un trabajo o una visión del mundo estable, te arriesgas a quedarte atrás mientras el mundo vuela a tu lado con un ruido. Dado que es probable que la esperanza de vida aumente, es posible que posteriormente tengas que pasar muchas décadas como un fósil despistado. Para mantenerse relevante - no sólo económicamente, sino sobre todo socialmente - necesitarás la habilidad de aprender constantemente y de reinventarte a ti mismo, ciertamente a una edad temprana como los 50 años.

A medida que la extrañeza se convierte en la nueva normalidad, tus experiencias pasadas, así como las experiencias pasadas de toda la humanidad, se convertirán en guías menos confiables. Los seres humanos como individuos y la humanidad en su conjunto tendrán que lidiar cada vez más con cosas que nunca antes han encontrado, tales como máquinas superinteligentes, cuerpos diseñados, algoritmos que pueden manipular tus emociones con una precisión asombrosa, cataclismos climáticos rápidos hechos por el hombre, y la necesidad de cambiar tu profesión cada década. ¿Qué es lo que hay que hacer cuando se enfrenta a una situación sin precedentes? ¿Cómo se debe actuar cuando se está inundado de una enorme cantidad de información y no hay forma alguna de absorberla y analizarla? ¿Cómo vivir en un mundo donde la incertidumbre profunda no es un error, sino una característica?

Para sobrevivir y florecer en un mundo así, necesitarás mucha flexibilidad mental y grandes reservas de equilibrio emocional. Tendrás que dejar ir lo que conoces mejor, y sentirse en casa con lo desconocido. Desafortunadamente, enseñar a los niños a abrazar lo desconocido y a mantener su equilibrio mental es mucho más difícil que enseñarles una ecuación en física o las causas de la primera guerra mundial. No puede aprender resiliencia leyendo un libro o escuchando una conferencia. Los propios profesores suelen carecer de la flexibilidad mental que exige el siglo XXI, ya que ellos mismos son el producto del antiguo sistema educativo.

La Revolución Industrial nos ha legado la teoría de la línea de producción de la educación. En el centro de la ciudad hay un gran edificio de hormigón dividido en muchas habitaciones idénticas, cada habitación equipada con filas de escritorios y sillas. Al sonar la campana, vas a uno de estos cuartos junto con otros 30 niños que nacieron el mismo año que tú. Cada hora un adulto entra y empieza a hablar. El gobierno les paga a todos para que lo hagan. Uno de ellos te habla de la forma de la Tierra, otro te habla del pasado humano, y un tercero te habla del cuerpo humano. Es fácil reírse de este modelo, y casi todo el mundo está de acuerdo en que, independientemente de sus logros pasados, ahora está en bancarrota. Pero hasta ahora no hemos creado una alternativa viable. 

Tercera parte: Hackeando humanos


Así que el mejor consejo que le podría dar a una niña de 15 años atrapada en una escuela anticuada en algún lugar de México, India o Alabama es: no confíes demasiado en los adultos. La mayoría de ellos tienen buenas intenciones, pero no entienden el mundo. En el pasado, era una apuesta relativamente segura seguir a los adultos, porque conocían el mundo bastante bien, y el mundo cambió lentamente. Pero el siglo XXI va a ser diferente. Debido al creciente ritmo de cambio, nunca puedes estar seguro de si lo que los adultos te están diciendo es sabiduría atemporal o prejuicios obsoletos.

Entonces, ¿en qué puedes confiar? Tecnología? Es una apuesta aún más arriesgada. La tecnología puede ayudarte mucho, pero si la tecnología gana demasiado poder sobre tu vida, podrías convertirte en un rehén de su agenda. Hace miles de años, los seres humanos inventaron la agricultura, pero esta tecnología enriqueció a una pequeña élite, mientras esclavizaba a la mayoría de los seres humanos. La mayoría de la gente se encontraba trabajando desde el amanecer hasta el atardecer arrancando malas hierbas, cargando cubos de agua y cosechando maíz bajo un sol abrasador. A ti también te puede pasar.

La tecnología no está mal. Si sabes lo que quieres en la vida, la tecnología puede ayudarte a conseguirlo. Pero si no sabes lo que quieres en la vida, será demasiado fácil para la tecnología dar forma a tus objetivos y tomar el control de tu vida. Especialmente a medida que la tecnología mejora en la comprensión de los humanos, es posible que te encuentres cada vez más sirviéndola, en lugar de que te sirva a ti. ¿Has visto a esos zombis que vagan por las calles con sus caras pegadas a sus teléfonos inteligentes? ¿Crees que ellos controlan la tecnología, o la tecnología los controla a ellos?

¿Deberías confiar en ti mismo, entonces? Suena muy bien en Barrio Sésamo o en una película de Disney pasada de moda, pero en la vida real no funciona muy bien. Hasta Disney se está dando cuenta.

Al igual que Riley Andersen, de Inside Out, la mayoría de las personas apenas se conocen a sí mismas, y cuando intentan "escucharse a sí mismas" se convierten fácilmente en presas de manipulaciones externas. La voz que oímos dentro de nuestras cabezas nunca fue digna de confianza, porque siempre reflejaba la propaganda estatal, el lavado de cerebro ideológico y la publicidad comercial.

A medida que la biotecnología y el aprendizaje automático mejoren, será más fácil manipular las emociones y los deseos más profundos de las personas, y será más peligroso que nunca simplemente seguir a su corazón. Coca-Cola, Amazon, Baidu o el gobierno saben cómo tirar de los hilos de tu corazón y presionar los botones de tu cerebro, ¿podrías diferenciar entre tu yo y sus expertos en marketing?

   CréditoBritt Spencer

Para tener éxito en una tarea tan desalentadora, tendrás que trabajar muy duro para conocer mejor tu sistema operativo. Saber lo que eres y lo que quieres de la vida. Este es, por supuesto, el consejo más antiguo del libro: conócete a ti mismo. Durante miles de años, filósofos y profetas han instado a la gente a conocerse a sí mismos. Pero este consejo nunca fue más urgente que en el siglo XXI, porque a diferencia de los tiempos de Laozi o Sócrates, ahora tienes una competencia seria. Coca-Cola, Amazon, Baidu y el gobierno se apresuran a hackearte. Ni tu smartphone, ni tu computadora, ni tu cuenta bancaria - ellos están en una carrera para hackearlo, y su sistema operativo orgánico. Puede que hayas oído que vivimos en la era de la piratería informática, pero eso no es ni la mitad de la verdad. De hecho, estamos viviendo en la era de la piratería de humanos.

Los algoritmos te están vigilando ahora mismo. Están vigilando a dónde vas, qué compras, con quién te encuentras. Pronto monitorearán todos tus pasos, todas tus respiraciones, todos tus latidos. Ellos confían en la Big Data y en que la máquina aprenda a conocerte cada vez mejor. Y una vez que estos algoritmos te conozcan mejor de lo que te conoces a ti mismo, podrán controlarte y manipularte, y no serás capaz de hacer mucho al respecto. Vivirás en  Matrix, o en el Show de Truman. 


Al final, es un asunto empírico simple: si los algoritmos realmente entienden lo que está sucediendo dentro de ti mejor de lo que tú lo entiendes, la autoridad se desplazará hacia ellos.

Por supuesto, podrías ser perfectamente feliz cediendo toda la autoridad a los algoritmos y confiando en ellos para decidir las cosas por ti y por el resto del mundo. Si es así, relájete y disfruta del paseo. No necesitas hacer nada al respecto. Los algoritmos se encargarán de todo. Sin embargo, si quieres mantener algún control de tu existencia personal, tienes que correr más rápido que los algoritmos, más rápido que Amazon y el gobierno, y llegar a conocerte a ti mismo antes que ellos. Para correr rápido, no te lleves mucho equipaje. Deja atrás todas tus ilusiones. Son muy pesados.