sábado, 6 de octubre de 2018

Cuando la tecnología te conoce mejor de lo que te conoces a ti mismo (Yuval Noah Harari y Tristan Harris)

Os dejo la transcripción traducida del vídeo de una charla para la web Wired entre Yuval Noah Harari, Tristan Harris y el entrevistador de dicha web, Nicholas Thompson.

Para los que que tengáis cierto nivel de inglés y queráis ahorraros la lectura, decir que el vídeo tiene subtítulos en inglés por lo que es más fácil entenderlo, lo podéis ver (no me deja insertarlo) en el enlace de la entrada original que dejo a continuación:

https://www.wired.com/story/artificial-intelligence-yuval-noah-harari-tristan-harris/



Cuando tienes 2 años, tu madre sabe más de ti de lo que tú sabes. A medida que envejeces, empiezas a entender cosas de tu mente que ni siquiera ella sabe. Pero entonces, dice Yuval Noah Harari, otro competidor se une a la carrera: "Tienes a esta corporación o gobierno acechándote, y aunque están muy lejos de tu madre, te conocerán mejor que ella." Amazon pronto sabrá cuándo necesitas bombillas justo antes de que se quemen. YouTube sabe cómo mantenerte mirando fijamente a la pantalla  durante mucho tiempo aunque te interese parar. Un anunciante en el futuro podría conocer tus preferencias sexuales antes de que sean claras para ti. (y ciertamente las conocerán antes de que se lo digas a tu madre.)

Recientemente, hablé con Harari, el autor de tres de los libros más vendidos, y Tristan Harris, que dirige el Centro de Tecnología Humanitaria y que ha desempeñado un papel importante en hacer que el "tiempo bien empleado" sea quizás la frase más debatida en Silicon Valley en 2018. Son dos de las personas más inteligentes del mundo de la tecnología, y cada uno de ellos habló elocuentemente sobre el autoconocimiento y sobre cómo los humanos pueden hacerse más difíciles de hackear. Como dijo Harari, "Ahora nos enfrentamos no sólo a una crisis tecnológica, sino a una crisis filosófica".

Por favor, léelo o mira el vídeo subtitulado al inglés. Esta transcripción ha sido editada para mayor claridad.



Nicholas Thompson: Tristán, cuéntame un poco sobre lo que haces y luego Yuval, tú también.

Tristan Harris: Soy director del Centro de Tecnología Humanitaria, donde nos concentramos en realinear la tecnología con un concepto humanista. Y antes de eso era un diseñador ético en Google, donde estudié la ética de la persuasión humana.

Yuval Noah Harari: Soy historiador y trato de entender de dónde viene la humanidad y hacia dónde nos dirigimos.

NT: Empecemos por escuchar cómo se conocieron, porque sé que eso se remonta a hace bastante tiempo. ¿Cuándo os conocisteis por primera vez?

YNH: Curiosamente, en una expedición a la Antártida, fuimos invitados por el gobierno chileno al Congreso del Futuro para hablar sobre el futuro de la humanidad y una parte del Congreso fue una expedición a la base chilena en la Antártida para ver el calentamiento global con nuestros propios ojos. Todavía hacía mucho frío y había mucha gente interesante en esta expedición.

TH: Muchos filósofos y premios Nobel. Y creo que conectamos particularmente con Michael Sandel, que es un filósofo realmente asombroso de la filosofía moral.

NT: Es casi como un reality show. Me hubiera encantado verlo todo. Escribís sobre cosas diferentes, hablaís de cosas diferentes pero hay muchas similitudes. Y uno de los temas clave es la noción de que nuestras mentes no funcionan de la manera en que a veces pensamos que lo hacen. No tenemos tanta influencia sobre nuestras mentes como quizás creíamos hasta ahora. Tristán, ¿por qué no empiezas a hablar de eso y luego sigue Yuval prosigue?

TH: Sí, aprendí mucho de esto en una de las primeras charlas de Yuval, donde habla de la democracia y planteaba la siguiente cuestión "¿Dónde deberíamos poner a la autoridad en una sociedad?". Y dónde debemos ponerla es en las opiniones y sentimientos de la gente.

Yuval Noah Harari (izquierda) y Tristan Harris con el editor jefe de WIRED, Nicholas Thompson.

Pasé los últimos 10 años estudiando la persuasión, desde que era ilusionista cuando era niño, donde aprendes que hay cosas que funcionan en todas las mentes humanas. No importa si tienen un doctorado, si son físicos nucleares, qué edad tienen. No es como, si hablas japonés no puedo hacer este truco contigo, no va a funcionar. Funciona con todo el mundo. Así que de alguna manera existe esta disciplina que trata de hazañas universales en todas las mentes humanas. Y luego estuve en el Laboratorio de Tecnología Persuasiva de Stanford, que enseña a los estudiantes de ingeniería cómo aplicar los principios de la persuasión a la tecnología. ¿Podría la tecnología estar hackeando sentimientos humanos, actitudes, creencias, comportamientos para mantener a la gente ocupada con los productos? Y creo que eso es lo que ambos compartimos, es que la mente humana no es la raíz segura de la autoridad que creemos que es, y si queremos tratarla de esa manera vamos a tener que entender qué es lo que hay que proteger primero.

YNH: Creo que ahora nos enfrentamos realmente, no sólo a una crisis tecnológica, sino a una crisis filosófica. Porque hemos construido nuestra sociedad, sin duda la democracia liberal con elecciones y el libre mercado, etc., sobre ideas filosóficas del siglo XVIII que son simplemente incompatibles no sólo con los descubrimientos científicos del siglo XXI, sino sobre todo con la tecnología que tenemos ahora a nuestra disposición. Nuestra sociedad se basa en las ideas de que el votante sabe mejor que nadie, que el cliente siempre tiene razón, que la autoridad última está, como dijo Tristan, con los sentimientos de los seres humanos y esto supone que los sentimientos humanos y las opciones humanas son esa arena sagrada que no se puede hackear, que no se puede manipular. En última instancia, mis elecciones, mis deseos reflejan mi libre albedrío y nadie puede acceder a eso o tocarlo. Y esto nunca fue verdad. Pero no pagamos un costo muy alto por creer en este mito en los siglos XIX y XX porque nadie tenía una tecnología para hacerlo. Ahora, la gente -algunas personas-, las corporaciones, los gobiernos están jugando con la tecnología para hackear a los seres humanos. Tal vez el hecho más importante de vivir en el siglo XXI es que ahora somos animales hackeables.

Hackear a un humano


NT: Explica lo que significa hackear a un ser humano y por qué lo que se puede hacer ahora es diferente de lo que se podía hacer hace 100 años.

YNH: Piratear a un ser humano es entender lo que está sucediendo dentro de ti a nivel del cuerpo, del cerebro, de la mente, para que puedas predecir lo que la gente hará. Puedes entender cómo se sienten y, por supuesto, una vez que entiendas y predigas, también puedes manipular, controlar e incluso reemplazar. Y, por supuesto, no se puede hacer perfectamente y fue posible hacerlo hasta cierto punto también hace un siglo. Pero la diferencia en el nivel es significativa. Yo diría que la verdadera clave es si alguien puede entenderte mejor de lo que te entiendes a ti mismo. Los algoritmos que intentan hackearnos, nunca serán perfectos. No existe tal cosa como entender perfectamente todo o predecir todo. No necesitas ser perfecto, sólo necesitas ser mejor que el ser humano promedio.

NT: ¿Y estamos ahí ahora? ¿O te preocupa que estemos a punto de llegar?

YNH: Creo que Tristán podría ser capaz de responder donde estamos ahora mejor que yo, pero supongo que si no estamos allí ahora, nos estamos acercando muy rápidamente.

TH: Creo que un buen ejemplo de esto es YouTube. Abres ese video de YouTube que tu amigo te envía después de la hora del almuerzo. Cuando vuelves a tu ordenador y piensas bien, sé que esas otras veces acabo viendo dos o tres vídeos y acabo siendo absorbido por él, pero esta vez va a ser muy diferente. Sólo voy a ver este video y de alguna manera, eso no es lo que pasa. Te levantas de un trance tres horas más tarde y dices: "¿Qué demonios acaba de pasar?". Y es porque no te diste cuenta de que tenías una supercomputadora apuntando a tu cerebro. Así que cuando abres ese víideo estás activando los miles de millones de dólares de potencia de computación de Google y ellos han visto lo que alguna vez ha hecho que 2 mil millones de animales humanos hagan clic en otro vídeo. Y sabe mucho más sobre lo que va a ser el movimiento de ajedrez perfecto para jugar contra tu mente. Si piensas en tu mente como un tablero de ajedrez, y crees que sabes cuál es el movimiento perfecto para jugar, sólo verás ese vídeo. Pero en el tablero de ajedrez no se pueden ver tantas jugadas por delante. Pero la computadora ve tu mente y dice: "No, no, no, no. He jugado mil millones de simulaciones de este juego de ajedrez antes en estos otros animales humanos que miran YouTube", y va a ganar. Piensa en cuando Garry Kasparov pierde contra Deep Blue. Garry Kasparov puede ver muchísimas jugadas en el tablero de ajedrez. Pero no puede ver más allá de cierto punto tal y como un ratón no puede ver tantos movimientos hacia adelante en un laberinto, pero un humano puede ver más movimientos hacia adelante y entonces Garry puede ver aún más movimientos adelante. Pero cuando Garry pierde contra IBM Deep Blue, fue un jaque mate contra la humanidad para siempre porque era el mejor jugador de ajedrez humano. Así que no es que estemos perdiendo completamente nustra naturaleza humana y entres en YouTube y the haga adicto por el resto de tu vida y nunca dejes la pantalla. Pero en todas partes donde se enciende Internet hay básicamente una supercomputadora apuntando a tu cerebro, jugando al ajedrez contra tu mente, y va a ganar mucho más a menudo que perder.

NT: Hablemos de esa metáfora porque el ajedrez es un juego con un ganador y un perdedor. Pero YouTube también va a recomendar este vídeo en particular a la gente, que espero que sea esclarecedor e iluminador. Entonces, ¿el ajedrez es realmente la metáfora correcta? Un juego con un ganador y un perdedor.

TH: Bueno, la pregunta es, ¿Cuál es realmente el juego que se está jugando? Así que si el juego que se estaba jugando es, Hey Nick, ve a meditar a una habitación durante dos horas y luego vuelve a mí y dime qué es lo que realmente quieres ahora mismo en tu vida. Y si YouTube está usando 2 billones de animales humanos para calcular basándose en todos los que alguna vez han querido aprender a tocar el ukelele, puede decir: "Aquí está el video perfecto que tengo que enseñar más tarde y que puede ser genial". El problema es que en realidad no le importa lo que que quieres, sólo le importa lo que te mantendrá en la pantalla. Lo que mejor funciona para mantener a una adolescente viendo un video de dieta en YouTube es decir que aquí hay un video de anorexia.

NT: ¿Qué pasa con esta conversación?

TH: ¡Sí, supongo que va a depender de verdad! El otro problema es que también se pueden piratear estas cosas, por lo que hay gobiernos que realmente pueden manipular la forma en que funciona el sistema de recomendaciones. Y Yuval dijo que estos sistemas están fuera de control y que los algoritmos están funcionando donde 2.000 millones de personas pasan su tiempo. El setenta por ciento de lo que la gente ve en YouTube está impulsado por las recomendaciones del algoritmo. La gente piensa que lo que ve en YouTube es una elección. La gente está sentada allí, se sienta allí, piensa, y luego elige. Pero eso no es verdad. El setenta por ciento de lo que la gente está viendo son los videos recomendados en el lado derecho, lo que significa el 70 por ciento de los 1.900 millones de usuarios, (eso es más que el número de seguidores del Islam, más o menos el mismo número de seguidores del cristianismo), están viendo esas recomendaciones en YouTube durante 60 minutos al día - ese es el tiempo promedio que la gente pasa en YouTube. Así que tienes 60 minutos, y el 70 por ciento está poblado por una computadora. La máquina está fuera de control. Porque si pensabas que las teorías de conspiración del 11-S eran malas en inglés, prueba con las conspiraciones del 11-S en birmano y Sri Lanka y en árabe. Es una especie de Frankenstein digital que está tirando de todas estas palancas y dirigiendo a la gente hacia direcciones diferentes.

NT: Yuval, hemos llegado a este punto diciendo que esto te asusta en relación a la democracia. Y te preocupa que la democracia puede sobrevivir, creo que la frase que usas en tu libro es: La democracia se convertirá en un espectáculo de títeres. Explica eso.

YNH: Sí, quiero decir, si no se adapta a estas nuevas realidades, se convertirá en un espectáculo de marionetas emocional. Si sigues con esta ilusión de que la elección humana no puede ser hackeada, no puede ser manipulada, y podemos confiar en ella completamente, y esta es la fuente de toda autoridad, entonces muy pronto terminas con un espectáculo de marionetas emocional.

Y este es uno de los mayores peligros a los que nos enfrentamos y es realmente el resultado de una especie de empobrecimiento filosófico de dar por sentado las ideas filosóficas del siglo XVIII y no actualizarlas con los hallazgos de la ciencia. Y es muy difícil porque le dices a la gente -la gente no quiere escuchar este mensaje de que son animales hackeables, que sus elecciones, sus deseos, su comprensión de quién soy yo, cuáles son mis aspiraciones más auténticas, estas pueden ser realmente hackeadas y manipuladas. Para decirlo brevemente, mi amígdala puede estar trabajando para Putin. No quiero saber esto. No quiero creer eso. No, soy un agente libre. Si tengo miedo de algo, es por mi culpa. No porque alguien haya plantado este miedo en mi mente. Si elijo algo, es mi libre albedrío, ¿Y quién eres tú para decirme algo más?

NT: Bueno, espero que Putin pronto trabaje para mi amígdala, pero ese es un proyecto secundario que tengo en marcha. Pero parece inevitable, por lo que escribiste en tu primer libro, que lleguemos a este punto, donde las mentes humanas serían pirateables y donde las computadoras, las máquinas y la IA tendrían una mejor comprensión de nosotros. Pero ciertamente no es inevitable que nos lleve a resultados negativos: ¿Hemos llegado al punto de no retorno? ¿Cómo evitar el punto de no retorno si no hemos llegado allí? ¿Y cuáles son los puntos clave de decisión a lo largo del camino?

YNH: Bueno, nada es inevitable en eso. Quiero decir que la tecnología en sí se va a desarrollar. No se puede detener toda la investigación en IA y no se puede detener toda la investigación en biotecnología. Y las dos van juntos. Creo que la IA recibe demasiada atención ahora, y deberíamos poner igual énfasis en lo que está sucediendo en el frente de la biotecnología porque para piratear a los seres humanos, se necesita biología y algunas de las herramientas y conocimientos más importantes, no provienen de la informática, provienen de la ciencia del cerebro. Y muchas de las personas que diseñan todos estos increíbles algoritmos, tienen experiencia en psicología y ciencias cerebrales porque esto es lo que están tratando de hackear. ¿Pero de qué debemos darnos cuenta? Podemos utilizar la tecnología de muchas maneras diferentes. Me refiero, por ejemplo, a que estamos utilizando la inteligencia artificial principalmente para vigilar a las personas al servicio de las empresas y los gobiernos. Pero se puede voltear en la dirección opuesta. Podemos utilizar los mismos sistemas de vigilancia para controlar el gobierno al servicio de los individuos, para controlar, por ejemplo, que los funcionarios del gobierno no sean corruptos. La tecnología está dispuesta a hacerlo. La cuestión es si estamos dispuestos a desarrollar las herramientas necesarias para hacerlo.

TH: Creo que uno de los puntos más importantes de Yuval aquí es que la biotecnología te permite entender, conectando un sensor las carecterísticas más sui generis de un individuo. Una de las cosas interesantes que he estado siguiendo son también las formas en que se pueden determinar esas señales sin un sensor invasivo. Y estábamos hablando de esto hace un segundo. Hay algo llamado Eulerian Video magnification donde apuntas con una cámara de ordenador a la cara de una persona. Entonces, si pongo una supercomputadora detrás de la cámara, puedo hacer una ecuación matemática, y puedo encontrar los microimpulsos de sangre en tu cara que yo como humano no puedo ver, pero que la computadora puede ver, así que puedo captar tu ritmo cardíaco. ¿Qué me permite hacer eso? Puedo captar tu nivel de estrés porque la variabilidad del ritmo cardíaco me da tu nivel de estrés. Puedo señalar - hay una mujer llamada Poppy Crum que dio una charla TED este año sobre el fin de la cara de póquer (poker face, cara sin emociones. Esa charla trata de que podemos apuntar con una cámara a tus ojos y ver cuando tus ojos se dilatan, lo que en realidad detecta tensiones cognitivas, cuando estás teniendo dificultades para entender algo o cuando es fácil entender algo. Podemos ajustar esto continuamente en función de tu ritmo cardíaco, tu dilatación de los ojos.

Echando un vistazo al caso de Cambridge Analytica -ya sabes, que se trata del pirateo de Brexit y Rusia y de todas las demás elecciones de Estados Unidos- este se basaba en el conocimiento de los cinco grandes rasgos de la personalidad, si conozco la personalidad de Nick Thompson a través de su franqueza, conciencia, extrovertimiento, simpatía y neuroticismo. Y basándome en tu personalidad, puedo afinar un mensaje político para que sea perfecto para ti. Ahora todo el escándalo fue que Facebook dejó ir estos datos para ser robados por un investigador que solía hacer que la gente llenara cuestionarios para averiguar cuáles son los cinco grandes rasgos de personalidad de Nick? Pero ahora hay una mujer llamada Gloria Mark en la Universidad de California en Irvine que ha hecho una investigación que demuestra que se pueden obtener los cinco rasgos de personalidad más importantes de la gente sólo con sus patrones de clic, con una precisión del 80 por ciento. Así que es el final de la cara de póquer, el final de las partes ocultas de tu personalidad. Vamos a ser capaces de apuntar a los animales humanos y descubrir más y más señales de ellos, incluyendo sus microexpresiones, cuando sonríes y todas estas cosas, tenemos cámaras de identificación de cara en todos estos teléfonos. Así que ahora tenemos un bucle cerrado donde puedo ajustar los mensajes políticos en tiempo real a tu ritmo cardíaco y a tu dilatación ocular y a tu personalidad política. Ese no es el mundo en el que queremos vivir. Es una especie de distopía.

YNH: En muchos contextos, puedes usar eso. Se puede utilizar en clase para averiguar si uno de los estudiantes no está recibiendo el mensaje, si el estudiante está aburrido, lo que podría ser algo muy bueno. Podría ser usado por abogados si puedo leer lo que hay detrás de tu cara de póquer, y tú no puedes, eso es una gran ventaja para mí. Puede hacerse en un entorno diplomático, si dos primeros ministros se estuvieran reuniendo para resolver el conflicto israelí-palestino, y uno de ellos tiene un otitis y una computadora le está susurrando al oído cuál es el verdadero estado emocional del otro. Lo que sucede en el cerebro, en la mente de la persona del otro lado de la mesa. ¿Y qué pasa cuando los dos lados tienen esto? Tienes una especie de carrera armamentista. Y no tenemos ni idea de cómo manejar estas cosas.

Di un ejemplo personal cuando hablé de esto en Davos. Así que hablé de todo mi enfoque acerca de estos temas, moldeado por mi experiencia de salir del armario. Me di cuenta de que era gay cuando tenía 21 años, y que desde entonces me perseguía este pensamiento. ¿Qué estuve haciendo en los últimos cinco o seis años? Quiero decir, ¿cómo es posible? No estoy hablando de algo pequeño que no sabes de ti mismo, todo el mundo tiene algo que no sabes de ti mismo. ¿Pero cómo es posible que no sepas esto de ti mismo? Y entonces el siguiente pensamiento fue que una computadora y un algoritmo podría habérmelo dicho cuando tenía 14 años, era tan fácil con algo tan simple como seguir el enfoque de mis ojos. Como, no sé, camino por la playa o incluso miro televisión, y hay algo -lo que había en la década de 1980, "Vigilantes de la playa" (la serie) o algo así-  hay un tipo en traje de baño y hay una chica en traje de baño y hacia dónde van mis ojos. Es tan simple como eso. Y luego pienso, ¿Cómo habría sido mi vida, primero, si lo hubiera sabido cuando tenía 14 años? Segundo, si obtuviera esta información de un algoritmo, sería algo increíble, esta es la fuente de sabiduría sobre ti mismo, un algoritmo que sigue tuscmovimientos.

Coca-Cola VS Pepsi


NT: Y hay un elemento aún más espeluznante sobre el que escribes en tu libro: ¿Y si Coca-Cola lo hubiera descubierto primero y te hubiera vendido Coca-Cola con hombres sin camisa, cuando ni siquiera sabías que eras gay?

YNH: ¡Bien, exactamente! Coca-Cola contra Pepsi: Coca-Cola sabe esto de mí y me muestra un anuncio de un hombre sin camiseta; Pepsi no sabe esto de mí porque no están usando estos sofisticados algoritmos. Van con los anuncios normales, con la chica del bikini. Y naturalmente, compro Coca-Cola, y ni siquiera sé por qué. A la mañana siguiente, cuando voy al supermercado, compro Coca-Cola y creo que es mi libre elección. Elegí Coca-Cola. Pero no, fui hackeado.

NT: Y esto es inevitable.

TH: Esto es todo de lo que estamos hablando. ¿Y cómo puedes confiar en algo que puede manipularte de esta forma? Si un sistema es asimétrico -si tú sabes más de mí de lo que yo sé de mí mismo, normalmente tenemos un nombre para eso en la ley. Así, por ejemplo, cuando tratas con un abogado, le entregas tus datos personales  para que te ayude. Pero luego tienen este conocimiento de la ley y saben de tu información vulnerable, así que podrían manipularte con eso. Imagina un abogado que tiene toda esa información personal y se la vendió a otra persona. Se rigen por una relación diferente, que es la relación fiduciaria. Ellos pueden perder su licencia si no sirven a sus intereses. Y de manera similar, un médico o un psicoterapeuta. Ellos también lo tienen. Así que hay una gran pregunta: ¿cómo entregamos información sobre nosotros y decimos: "Quiero que uses eso para ayudarme"? ¿Con qué autoridad puedo garantizarte que vas a ayudarme?

YNH: Con el abogado, existe este marco formal. Vale, te contrato para que seas mi abogado, esta es mi información. Y sabemos esto. Pero estoy caminando por la calle, hay una cámara mirándome. Ni siquiera sé si está pasando.

TH: Esa es la parte más engañosa. Si quieres saber lo que es Facebook, imagínate a un sacerdote en una cabina de confesiones, ellos escuchan las confesiones de 2 mil millones de personas. Pero también te observan durante todo el día, en que haces clic, en qué anuncios de Coca-Cola o Pepsi, o del hombre sin camiseta y las mujeres en bikini, y en todas las conversaciones que tienes con todos los demás en tu vida -porque Facebook Messenger, Whatsapp también tienen esos datos-, pero imagina que este sacerdote en una cabina de confesiones, su modelo de negocio completo, es vender el acceso a la cabina de confesiones a otra persona. Para que alguien más pueda manipularte. Porque es la única forma en que este sacerdote gana dinero en este caso.

NT: Hay grandes corporaciones que tendrán estos datos, usted mencionó a Facebook, y habrá gobiernos. ¿De qué te preocupas más?

YNH: Es lo mismo. Quiero decir, una vez que llegas más allá de cierto punto, no importa cómo lo llames. Esta es la entidad que realmente gobierna, quienquiera que tenga este tipo de datos. Quiero decir, incluso si en un entorno en el que todavía se tiene un gobierno formal, y estos datos están en manos de alguna corporación, entonces la corporación, si quiere, puede decidir quién gana las próximas elecciones. Así que no es realmente una gran elección. Quiero decir que hay elección. Podemos diseñar un sistema político y económico diferente para evitar esta inmensa concentración de datos y poder en manos de los gobiernos o de las empresas que lo utilizan sin tener que rendir cuentas y sin ser transparentes sobre lo que están haciendo. Quiero decir que el mensaje no está bien. Se acabó. Se acabó. La humanidad está en el basurero de la historia.

NT: Ese no es el mensaje.

YNH: No, ese no es el mensaje.

NT: Uf. Los ojos han dejado de dilatarse, sigamos con esto.

YNH: La verdadera pregunta es que necesitamos que la gente entienda que esto es real. Esto está sucediendo. Hay cosas que podemos hacer. Y como, ya sabes, habrá las elecciones de mitad de período en un par de meses. Así que en cada debate, cada vez que un candidato se reúna con los votantes potenciales, en persona o por televisión, hágales esta pregunta: ¿Cuál es tu plan? ¿Cuál es su opinión sobre este tema? ¿Qué va a hacer si le elegimos? Si dicen "No sé de qué estás hablando", es un gran problema.

TH: Creo que el problema es que la mayoría de ellos no tienen idea de lo que estamos hablando. Y ese es uno de los temas, creo que los políticos, como hemos visto, no están muy educados en estos temas.

NT: Lo están haciendo mejor. Lo están haciendo mucho mejor este año que el año pasado. Viendo las audiencias del Senado, las últimas audiencias con Jack Dorsey y Sheryl Sandberg, en lugar de ver las audiencias de Zuckerberg o las audiencias de Colin Stretch, ha habido mejoras.

TH: Es verdad. Pero hay mucho más. Creo que estos temas abren todo un abanico de posibilidades. Aún no sabemos qué tipo de cosas vamos a poder predecir. Hemos mencionado algunos ejemplos que conocemos. Pero si tienes una manera secreta de saber algo sobre una persona apuntándole con una cámara y la IA, ¿por qué publicarías eso? Así que hay muchas cosas que se pueden saber sobre nosotros sobre las que manipularnos ahora mismo y de las que ni siquiera sabemos nada. ¿Y cómo empezamos a regular eso?.

Usuario, Protéjase

NT: Así que hay tres elementos en esa relación. Ahí está la supercomputadora: ¿Qué es lo que hace? ¿Qué es lo que no hace? ¿Cuáles son las reglas sobre lo que puede recolectar, cuáles son las reglas sobre lo que no puede recolectar y lo que puede almacenar? Y ahí estás tú. ¿Cómo te entrenas para actuar? ¿Cómo te entrenas para tener autoconciencia? Así que hablemos de las tres áreas, tal vez empezando por la persona. ¿Qué debe hacer el humano en el futuro para sobrevivir mejor en esta dinámica?

TH: Una cosa que yo diría sobre eso es que creo que la autoconciencia es importante. Es importante que la gente sepa de lo que estamos hablando y se dé cuenta de que podemos ser pirateados. Pero no es una solución. Tienes millones de años de evolución que guían tu mente para hacer ciertos juicios y conclusiones. Un buen ejemplo de esto es si me pongo un casco de Realidad Virtual, y ahora de repente estoy en un espacio donde hay una cornisa, estoy al borde de un acantilado, conscientemente sé que estoy sentado aquí en una habitación con Yuval y Nick, lo sé conscientemente. Así que he dejado que la autoconciencia, sé que estoy siendo manipulado. Pero si me empujas, no voy a querer caer, ¿verdad? Porque tengo millones de años de evolución que me dicen que me estás empujando de una cornisa. Así que de la misma manera que puedes decir -Dan Ariely hace esta broma en realidad, un economista conductista- que la adulación funciona con nosotros aunque yo le diga que lo estoy inventando. Es como, Nick, me encanta tu chaqueta ahora mismo. Siento que es una gran chaqueta para ti. Es una chaqueta realmente increíble.

NT: En realidad lo escogí porque sabía que al estudiar la exhalación de dióxido de carbono de ayer....

TH: Exactamente, ahora nos estamos manipulando entre nosotros....

El punto es que aunque sepas que me lo estoy inventando, todavía me siento bien. La adulación se siente bien. Por lo tanto, es importante que pensemos en esto como una nueva era, una especie de nueva iluminación en la que tenemos que vernos a nosotros mismos de una manera muy diferente y eso no significa que esa sea la respuesta completa. Es sólo el primer paso que tenemos que dar.

NT: Así que el primer paso es reconocer que todos somos vulnerables, hackeables.

TH: Sí, vulnerables.

NT: Pero hay diferencias. Yuval es menos hackeable que yo porque medita dos horas al día y no usa un teléfono inteligente. Soy súper hackeable. Entonces, ¿cuáles son las otras cosas que un humano puede hacer para ser menos hackeable?

YNH: Tienes que conocerte a ti mismo lo mejor que puedas. No es una solución perfecta, pero alguien corre detrás de ti, corre tan rápido como puedas. Quiero decir, es una competición. Entonces, ¿quién te conoce mejor en el mundo? cuando tienes dos años es tu madre. Eventualmente esperas alcanzar una etapa en la vida en la que te conozcas a ti mismo incluso mejor que tu madre. Y entonces, de repente, tienes a esta corporación o gobierno corriendo detrás de ti, y están muy lejos de tu madre, y están a tu espalda. Están a punto de llegar a ti, este es el momento crítico. Te conocen mejor de lo que te conoces a ti mismo. Así que huye, corre un poco más rápido.

Hay muchas maneras en las que puedes correr más rápido, lo que significa conocerte un poco mejor a ti mismo. La meditación es un camino, pero hay cientos de técnicas de meditación, diferentes maneras de trabajar con diferentes personas. Puedes ir a terapia, puedes usar el arte, puedes usar los deportes, lo que sea. Lo que sea que funcione para ti. Pero ahora se está volviendo mucho más importante que nunca. ¿Sabes cuál es el consejo más antiguo?: Conócete a ti mismo. En el pasado no había competencia. Si vivías en la antigua Atenas y Sócrates llegase y dijese: "Conócete a ti mismo". Es buen para ti". Y tú dijeses: "No, estoy muy ocupado. Tengo un olivar con el que tengo que lidiar, no tengo tiempo". Así que no llegaste a conocerte mejor, pero no había nadie más que compitiera contigo. Ahora tienes una competencia seria. Así que necesitas conocerte mejor. En segundo lugar, como individuo, si hablamos de lo que le está pasando a la sociedad, deberías darte cuenta de que no puedes hacer mucho por ti mismo. Únete a una organización. Si realmente te preocupara esto, esta semana únete a alguna organización. Cincuenta personas que trabajan juntas son una fuerza mucho más poderosa que 50 individuos, cada uno de los cuales es un activista. Es bueno ser un activista. Es mucho mejor ser miembro de una organización. Y luego hay otros métodos probados y comprobados en la política. Tenemos que volver a este lío de hacer regulaciones políticas y tomar decisiones sobre todo esto. Quizá sea la más importante. La política se trata de poder. Y aquí es donde está el poder ahora mismo.

TH: Creo que existe la tentación de decir OK, ¿cómo podemos protegernos? Y cuando esta conversación se traslada al uso de mi smartphone, te aconsejas: "Oh, voy a configurar mi teléfono en escala de grises". Oh, apagaré las notificaciones. Pero lo que falta es que vives dentro de un tejido social. Caminamos afuera. Mi vida depende de la calidad de los pensamientos, creencias y vidas de otras personas. 

Si dices hola, soy un niño, soy un adolescente y no quiero que me importe el número de me gustas que tengo, así que voy a dejar de usar Snapchat o Instagram. No quiero que me quiten mi autoestima en relación a los likes. Puedo decir que no quiero usar esas cosas pero todavía vivo en un tejido social donde todas mis otras oportunidades sexuales, oportunidades sociales, donde la gente habla de esas cosas, si sólo usan Instagram, tengo que participar en ese tejido social. Así que creo que tenemos que elevar la conversación, ¿Cómo me aseguro de que no estoy siendo pirateado? No es sólo una conversación individual. Queremos que la sociedad no sea hackeada, lo que va hasta el punto político y de qué manera nos movilizamos políticamente como grupo para cambiar toda la industria tecnológica.

NT: Así que ese es el primer paso en esta pregunta de tres pasos. ¿Qué pueden hacer los individuos? Conócete a ti mismo, haz que la sociedad sea más resistente, haz que la sociedad sea menos hackeable. ¿Qué hay de la transmisión entre la supercomputadora y el humano? ¿Cuáles son las reglas y cómo debemos pensar en cómo limitar la capacidad de la supercomputadora para hackearte?

YNH: Esa es una gran pregunta.

TH: En efecto, la gran pregunta actual.

NT: ¡Por eso estamos aquí!

YNH: En esencia, creo que debemos aceptar el hecho de que no podemos evitarlo por completo. Y no es por la IA, es por la biología. Es sólo el tipo de animales que somos, y el tipo de conocimiento que ahora tenemos sobre el cuerpo humano, sobre el cerebro humano. Hemos llegado a un punto en el que esto es realmente inevitable. Y ni siquiera necesitas un sensor biométrico, puedes usar una cámara para saber cuál es mi presión arterial. Lo que está pasando ahora, y a través de eso, lo que me está pasando emocionalmente. Así que yo diría que necesitamos reconceptualizar completamente nuestro mundo. Y por eso empecé diciendo que sufrimos de empobrecimiento filosófico, que seguimos bajo las ideas del siglo XVIII, que fueron buenas durante dos o tres siglos, pero que simplemente no son adecuadas para entender lo que está sucediendo en este momento. Y es por eso que también pienso que la filosofía es una de las mejores apuestas.

NT: A veces bromeo con que mi esposa estudió filosofía y danza en la universidad, que en ese entonces parecían las dos peores profesiones porque no se puede conseguir un trabajo en ninguna de ellas. Pero ahora son como las dos últimas cosas que serán reemplazadas por robots.

TH: Creo que Yuval tiene razón. Creo que, a menudo, esta conversación hace que la gente llegue a la conclusión de que no hay nada sobre la elección humana o los sentimientos de la mente humana que valga la pena respetar. Y no creo que ese sea el punto. Creo que el punto es que necesitamos un nuevo tipo de filosofía que reconozca un cierto tipo de pensamiento o proceso cognitivo o proceso conceptual o proceso social que queremos.

Por ejemplo[James] Fishkin es un profesor de Stanford que ha trabajado en democracia deliberativa y ha demostrado que si se obtiene una muestra aleatoria de gente en una habitación de hotel durante dos días y se cuenta con expertos que vienen a informarles sobre un montón de cosas, cambian de opinión sobre los temas, pasan de estar polarizados a estar menos polarizados, pueden llegar a un mayor acuerdo. Así que creo que todavía estamos atrapados en un traje de carne de mente-cuerpo, no estamos saliendo de él, así que mejor aprendemos cómo lo usamos de una manera que saca a relucir a los ángeles superiores de nuestra naturaleza, las partes más reflexivas de nosotros mismos.

Creo que lo que los diseñadores de tecnología necesitan es hacerse esa pregunta. Vamos a tomar YouTube de nuevo. ¿Cuál es la diferencia con un adolescente? Vayamos al video del ukelele. Es algo muy común en YouTube. Hay muchos videos de ukeleles, cómo tocar el ukelele. ¿Qué pasa en ese momento en el que se recomiendan otros vídeos de ukelele? Bueno, en realidad hay un requirimiento de alguien que quiere aprender a tocar el ukelele, pero la computadora no lo sabe, sólo está recomendando más videos de ukelele. Pero si realmente supiera eso de ti en lugar de sólo decir, aquí hay infinitos videos de ukelele para ver, podría decir aquí están tus 10 amigos que saben cómo tocar el ukelele que tú no sabes tocar y  puedes ir a pasar el rato con ellos. Básicamente podría poner esas opciones al principio del menú de recomendaciones.

YNH: El sistema en sí mismo puede hacer cosas asombrosas por nosotros. Sólo tenemos que darle la vuelta, que sirva a nuestros intereses, sea lo que sea y no a los intereses de las corporaciones o del gobierno. Ahora que nos damos cuenta de que nuestros cerebros pueden ser pirateados, necesitamos un antivirus para el cerebro, al igual que tenemos uno para el ordenador. Y puede funcionar sobre la base de la misma tecnología. Digamos que tienes una IA que te monitorea todo el tiempo, las 24 horas del día. ¿Qué es lo que escribes? ¿Qué es lo que ves? Todo. Pero esta IA te está sirviendo como una responsabilidad fiduciaria. Y llega a conocer tus debilidades, y al conocer sus debilidades puede protegerte contra otros agentes que intentan hackearte y explotar tus debilidades. Así que si tienes debilidad por los vídeos de gatos divertidos y pasas una enorme cantidad de tiempo, una cantidad desmesurada de tiempo, sólo mirando, sabes que no es muy bueno para ti, pero no puedes dejar de hacer clic, entonces la IA intervendrá, y siempre que estos divertidos vídeos de gatos intenten aparecer, la IA dirá no, no, no, no, no, no. Y te mostrará tal vez un mensaje de que alguien acaba de tratar de hackearte tal y como recibes mensajes acerca de alguien que acaba de tratar de infectar tu ordenador con un virus. Quiero decir, lo más difícil para nosotros es admitir nuestras propias debilidades y prejuicios. Si tienes un prejuicio contra Trump o contra los partidarios de Trump, muy fácilmente creerías cualquier historia, por muy descabellada y ridícula que sea. Historias como que Trump cree que el mundo es plano. Trump está a favor de matar a todos los musulmanes. Usted haría clic en eso. Este sería tu sesgo. Y la IA lo sabrá, y es completamente neutral, no sirve a ninguna entidad ahí fuera. Sólo llega a conocer tus debilidades y prejuicios y trata de protegerte contra ellos.

NT: ¿Pero cómo aprende que es una debilidad y un sesgo? ¿Y no algo que te guste de verdad?

TH: Aquí es donde creo que necesitamos un marco filosófico más rico. Porque si lo tienes, entonces puedes hacer que eso sea comprensible. Así que si un adolescente está sentado allí y en ese momento está viendo el video de la dieta y luego se les muestra el video de la anorexia. Imagínate en el lugar de un ingeniero de 22 años que fue a Stanford, un informático, pensando: "¿Qué puedo mostrarles que es lo perfecto?. Tú tuviste un psicólogo del desarrollo infantil de 80 años de edad que estudió con los mejores psicólogos del desarrollo infantil y pensó en ese tipo de momentos que normalmente suceden en un adolescente a los 13 años de edad, un sentimiento de inseguridad, desarrollo de la identidad, como la experimentación. ¿Qué sería lo mejor para ellos?: tenemos que comprender primero nuestras vulnerabilidades. No es como si esto fuese un futuro de ciencia ficción. Este es el estado actual. Así que en realidad estamos pensando en cómo navegar a un estado real de cosas que queremos, probablemente no queremos que un asistente de IA sea un tipo de herramienta opcional que solo algunas personas ricas pueden permitirse, probablemente queremos que sea horneado en la forma en que la tecnología funciona en primer lugar, de modo que tenga una responsabilidad fiduciaria para con nuestros mejores, sutiles, compasivos y vulnerables intereses.

NT: Entonces, ¿tendremos asistentes de IA patrocinados por el gobierno? Tendremos corporaciones que nos vendan asistentes de IA pero que los subvencionen, así que no son sólo los ricos los que tienen compañeros de IA realmente buenos?

TH: Aquí es donde entra en juego la conversación sobre el modelo de negocio.

YNH: Una cosa es cambiar la forma de hacerlo: si vas a la universidad y aprendes ciencias de la computación, una parte integral del curso es aprender sobre ética, sobre la ética de la codificación. Creo que es extremadamente irresponsable que se puede tener un título en informática y en codificación, que se pueden diseñar todos estos algoritmos que ahora dan forma a la vida de las personas, y que no se tenga ningún conocimiento para pensar ética y filosóficamente sobre lo que se está haciendo. Estaba pensando en términos de tecnicismos puros o en términos económicos.

NT: Ahora déjame preguntarte algo que ha surgido un par de veces que me he estado preguntando. Cuando estabas dando el ejemplo del ukelele, tal vez deberías ir a ver a tus amigos que tocan al ukelele, deberías ir a visitarlos. En tu libro dices que uno de los momentos cruciales para Facebook llegará cuando un ingeniero se dé cuenta de que lo mejor para la persona y para la comunidad es que deje su ordenador. ¿Y qué hará Facebook con eso?  Parece, desde una perspectiva moral, que una plataforma, si se da cuenta de que sería mejor que te desconectaras y vieras a alguien, debería animarte a que lo hicieras. Pero entonces, perderán su dinero y serán superados. Entonces, ¿cómo llegas al punto en el que el algoritmo, la plataforma, empuja a alguien en esa dirección?

TH: Aquí es donde esta conversación sobre el modelo de negocio es tan importante y también por qué el papel de Apple y Google es tan importante porque están antes que el modelo de negocio de todas estas aplicaciones que quieren robar tu tiempo y maximizar la atención.

Android e iOS, para no hacer esta conversación demasiado técnica o centrada en la industria, ¿a quién debería estar sirviendo? ¿Quieren que las aplicaciones sean lo más exitosas posible? ¿hacer que pases más tiempo con ellas, maximizando la soledad, la alienación? O deberían ser un asistente de IA de nuestros intereses más profundos, de nuestras vidas físicas, de nuestras comunidades físicas. Resulta que estar dentro de la comunidad y tener contacto cara a cara puede ser mejor idea. El confinamiento solitario es el peor castigo que le damos a los seres humanos. Tenemos tecnología que básicamente está maximizando el aislamiento porque necesita maximizar el tiempo que permanecemos en la pantalla. Por lo tanto, creo que una pregunta es cómo pueden Apple y Google mover a toda su empresa para que sea una responsabilidad con la sociedad. Facebook también podría cambiar su modelo de negocio hacia el blockchain en el que teóricamente están trabajando y también los pagos de mensajería. Si pasan de un modelo de negocio basado en la publicidad a los micropagos, en realidad podrían cambiar el diseño de algunas de esas cosas.  Podría haber también equipos enteros de ingenieros en los News Feed que sólo piensen en lo que es mejor para la sociedad, aunque la gente podría preguntarse ¿quién es Facebook para decir lo que es bueno para la sociedad?.

NT: Esto me lleva a una de las cuestiones sobre las que más me gustaría escuchar vuestros pensamientos, tanto Apple como Google han hecho esto hasta cierto punto en el último año. Y Facebook lo ha hecho. Creo que cada ejecutivo de cada compañía de tecnología ha dicho "tiempo bien empleado" en algún momento del año pasado. ¿Realmente creéis que estamos yendo en la dirección correcta en este momento porque el cambio está ocurriendo y la gente se lo está planteando? ¿O creéis que seguimos yendo en la dirección equivocada?

YNH: Creo que en el mundo de la tecnología estamos yendo en la dirección correcta en el sentido de que la gente se está dando cuenta de lo que está en juego. La gente se está dando cuenta del inmenso poder que tiene en sus manos -estoy hablando de la gente en el mundo de la tecnología- y se está dando cuenta de la influencia que tienen en la política, en la sociedad, y sobre la sociedad. La mayoría de ellos reaccionan, no de la mejor manera posible, pero sin duda de manera responsable.

Esto está ocurriendo y tenemos que pensar muy bien qué hacer con ello. Se ha dado el primer paso, el de darse cuenta de lo que está sucediendo y asumir alguna responsabilidad. El lugar donde vemos un desarrollo muy negativo es a nivel global porque todo lo que se ha dicho hasta ahora ha sido una especie de charla interna de Silicon Valley, California, Estados Unidos.  Quiero decir que toda el debate que hemos tenido hasta ahora se ha basado en lo que está sucediendo en las democracias liberales y en los mercados libres. En algunos países, tal vez no tengas otra opción.

Sólo tienes que compartir toda tu información y hacer lo que el algoritmo patrocinado por el gobierno te dice que hagas. Otra complicación es la carrera armamentista de la IA que hace cinco años, o incluso hace dos años, no existía, ahora es quizás la prioridad número uno en muchos lugares del mundo, hay una carrera armamentista sobre la IA, y cada país, necesita ganar esta carrera. Cuando entras en una situación de carrera armamentista, entonces se convierte rápidamente en una carrera hacia abajo, porque aunque sea una mala idea hacer esto lo están haciendo y eso les da alguna ventaja a los países embarcados en esta carrera y no quieren quedarse atrás. Nosotros somos los buenos. No queremos hacerlo, pero no podemos permitir que los malos estén delante de nosotros, así que debemos hacerlo primero. Y si le preguntas a la otra gente, ellos dirán lo mismo. Y esto es un acontecimiento extremadamente peligroso.

TH: Es un dilema del prisionero. Es una trampa multipolar. Quiero decir, de todos los actores, nadie quiere ser el malo.

NT: E incluso a un nivel más profundo si quieres dotar de ética a la IA, esto ralentizaría tu carrera.

TH: Correcto. Uno de los retos -una de las cosas de las que creo que hablamos cuando nos conocimos por primera vez- fue la ética de la velocidad, de la velocidad del reloj. Esencialmente estamos compitiendo sobre quién puede ir más rápido para hacer estas cosas, pero más rápido significa que es más probable que sea peligroso, menos probable que sea seguro. Así que básicamente estamos corriendo lo más rápido posible para crear esta IA, pero probablemente deberíamos ir lo más despacio posible para crearla. La carrera es sobre quién puede programar a los seres humanos más rápido y quién es más eficaz en la manipulación de las guerras culturales en todo el mundo. Creo que tenemos que reflexionar cómo podemos ralentizar esto y crear un ritmo sensato. Probablemente no queramos que la sociedad se apresure a tomar 100 decisiones por hora sobre algo que realmente importa. Entonces, ¿cuál es la velocidad correcta? Creo que tenemos que tener tecnología que nos guíe hacia ese tipo de procesos de toma de decisiones.

¿Está mejorando o empeorando el problema?


NT: Volviendo a la pregunta original. Sois optimistas sobre algunas de las cosas que están sucediendo en este pequeño lugar? o ¿pesimistas sobre la completa destrucción de la humanidad?

TH: Creo que el punto de Yuval es correcto, las compañías de tecnología de EE.UU. son más grandes que muchos gobiernos: Facebook controla los pensamientos de 2.200 millones de personas. Mark Zuckerberg es editor jefe de 2.200 millones de pensamientos de la gente. Pero también hay gobiernos mundiales o gobiernos nacionales que se rigen por un conjunto diferente de reglas. Creo que las compañías de tecnología están despertando muy, muy lentamente a esto. Hasta ahora, por ejemplo, con el lema del Tiempo Bien Gastado, vamos a ayudar a la gente, porque son vulnerables acerca de cuánto tiempo pasan, estableceremos un límite en cuanto a cuánto tiempo pasan. Pero eso no aborda ninguno de estos temas más importantes sobre cómo se pueden programar los pensamientos de una democracia o cómo la salud mental y la alienación entre los adolescentes es cada vez peor,se duplicaron las tasas de suicidio entre las adolescentes en los últimos ocho años.

Vamos a tener que tener una visión mucho más completa y una reestructuración de la industria tecnológica para pensar en lo que es bueno para la gente. Y va a haber una transición incómoda, he usado esta metáfora, es como con el cambio climático. Hay ciertos momentos en la historia en los que una economía está sostenida por algo que no queremos. Así que el mayor ejemplo de esto es la esclavitud en el siglo XIX. Hubo un momento en que la esclavitud estaba apuntalando toda la economía mundial. No se puede decir que no queremos hacer esto más, simplemente saquémoslo de la economía. Toda la economía se derrumbará si haces eso. Pero el Imperio Británico, cuando decidió abolir la esclavitud, tuvo que renunciar al 2 por ciento de su PIB cada año durante 60 años y fue capaz de hacer esa transición durante un período de transición, no estoy equiparando la publicidad o la programación de los seres humanos a la esclavitud pero hay una estructura similar de toda la economía ahora, si se mira el mercado de valores, como una gran parte del valor, es impulsada por estos sistemas de programación publicitaria basados en los seres humanos y los animales. Si queremos seguir con ese modelo, el modelo publicitario, en realidad no podemos permitirnos esa transición.

NT: Yuval, ¿estás de acuerdo en que esa es una de las cosas en las que tenemos que pensar al tratar de arreglar el sistema mundial en las próximas décadas?

YNH: Es una de las cosas. Pero una vez más, el problema del mundo, de la humanidad, no es sólo el modelo publicitario. Quiero decir que las herramientas básicas fueron diseñadas: hace 10 o 20 años, tenías a las personas más brillantes del mundo, resolviendo este problema de, ¿Cómo hago que la gente haga clic en los anuncios? Para algunas de las personas más inteligentes de la historia, ese era su trabajo, resolver este problema. Y lo resolvieron. Y luego los métodos que usaron inicialmente para vendernos ropa interior, gafas de sol y vacaciones en el Caribe y cosas por el estilo, fueron secuestrados y convertidos en armas, y ahora se usan para vendernos todo tipo de cosas, incluyendo opiniones políticas e ideologías enteras. Y ya no está bajo el control del gigante tecnológico de Silicon Valley, que fue el pionero de estos métodos. Estos métodos están ahí fuera. Así que incluso si consigues que Google y Facebook se rindan por completo, el gato está fuera de la bolsa. La gente ya sabe cómo hacerlo. Y hay una carrera armamentista. Así que sí, tenemos que resolver este asunto de la publicidad. Es muy importante. Pero no resolverá el problema humano. Y creo que ahora la única manera realmente efectiva de hacerlo es a nivel mundial. Y para ello necesitamos una cooperación global en la regulación de la IA, en la regulación del desarrollo de la IA y de la biotecnología, y, por supuesto, vamos en la dirección opuesta de la cooperación global.

TH: Estoy de acuerdo en que existe esta noción de teoría de juegos. Claro que Facebook y Google podrían hacerlo, pero eso no importa porque el asunto está fuera de control, y los gobiernos lo van a hacer, y otras compañías tecnológicas lo van a hacer, y la infraestructura tecnológica de Rusia lo va a hacer. Entonces, ¿cómo evitas que suceda?

No quiero equiparar la esclavitud otra vez con este tema, pero cuando el Imperio Británico decidió abolir la esclavitud y restar su dependencia hacia ella en relación a su economía, en realidad estaban preocupados de que si lo hacíamos, la economía de Francia seguiría siendo impulsada por la esclavitud y se dispararían mucho más allá de nosotros. Así que desde la perspectiva de la competencia no podemos hacer esto, pero la forma en que llegaron allí fue convirtiéndolo en una cuestión de derechos humanos universales y globales. Eso llevó más tiempo, pero creo que esto es como dice Yuval, estoy de acuerdo en que se trata de una conversación global sobre la naturaleza humana y la libertad humana. No sé si existe tal cosa, pero al menos me refiero al tipo de libertad humana que queremos preservar y que creo que es algo que realmente interesa a todos, vamos a avanzar en esa dirección manteniendo un debate global al respecto.

NT: Terminemos con un consejo para alguien que esté viendo este vídeo. Acaban de ver un video de Alex Jones y el algoritmo de YouTube ha cambiado y lo han enviado aquí, y de alguna manera han llegado a este punto. Tienen 18 años, quieren dedicar su vida a que la dinámica entre las máquinas y los seres humanos no se vuelva explotadora y se convierta en una en la que podamos seguir viviendo nuestras vidas plenas. ¿Qué deberían hacer o qué consejo les daría a estos jóvenes?

YNH: Yo diría, conócete a ti mismo mucho mejor y hazte la menor cantidad posible de ilusiones sobre ti mismo. Si un deseo aparece en tu mente, no digas bien, este es mi libre albedrío. Elegí esto, por lo tanto es bueno, debo hacerlo. Explora mucho más profundamente. En segundo lugar, como dije, únete a una organización. Hay muy poco que puedes hacer como individuo por ti mismo. Estos son los dos consejos más importantes que podría dar a una persona que nos está observando ahora.

TH: Tenemos que pasar de un modelo del siglo XVIII de cómo trabajan los seres humanos a un modelo del siglo XXI de cómo trabajan los seres humanos. Nuestro trabajo es tratar de coordinar una especie de movimiento global hacia la solución de algunos de estos problemas en torno a la tecnología humana. Creo como Yuval dice que no puedes hacerlo solo. No es tan fácil como cambiar la escala de grises de mi teléfono o hacer una petición a mi congresista. Este es un movimiento global. La buena noticia es que nadie quiere llegar al futuro distópico que se plantea en lo que estamos hablando. No es como si alguien dijera estoy muy emocionado con esta distopía, sólo quiero seguir haciendo lo que estamos haciendo. Nadie quiere eso.  Tenemos que alejarnos de la dirección a la que vamos. Creo que todo el mundo debería estar de acuerdo en eso.

NT: Gracias por la charla y gracias por estar aquí. Gracias. Tristan. Gracias, Yuval.





23 comentarios :

  1. Llega a España un aparato para medir la atención de los niños.
    Una alianza entre Harvard+MIT+Progrentis que es capaz de medir la capacidad de atención y concentración de los niños en respuesta a diferentes estímulos cognitivos.

    https://www.meneame.net/story/aparato-medir-atencion-ninos-quiere-revolucionar-clases

    ResponderEliminar
  2. «Podría argumentarse que la Segunda Guerra Mundial fue realmente una batalla entre Marlene Dietrich cantando 'Lili Marleen' y Vera Lynn cantando 'The White Cliffs of Dover'».

    Interesante respuesta de Ramsey Dukes a Yuval Noah Harari »

    https://www.youtube.com/watch?v=R855WzlZ7Zg

    ResponderEliminar
  3. Le voy a seguir la pista a Poppy, transhuman girl.

    Sus vídeos se caracterizan por ser inquietantes y muchas veces ilógicos, tratándose de una chica robotizada, cuya vida se contiene en el mundo virtual, dando a entender su inexistencia en el mundo físico.

    https://www.youtube.com/watch?v=WdWStfMaFyI

    ResponderEliminar
  4. Parece que hay una historia turbia detrás:

    Poppy fue proyecto creado por Titanic Sinclar para burlarse de su ex novia Mars Argo. Titanic robó ideas de Mars y la personalidad de ella para "crear" a Poppy. Mars demandó a Titanic no solo por copyright sino por abuso doméstico. El tipo la golpeó en la cara, la acosó, se metió en su departamento, la esperaba fuera de su puerta a la media noche, hackeó sus cuentas y también le robó cosas (de hecho la chaqueta de leopardo que muestra Poppy en este video es de Mars) Poppy (Moirah) también acosó a Mars y está demandada. Todo el concepto de Poppy es siniestro porque es una extensión del abuso de este tipo hacía su ex novia. El vídeo de Poppy con la doble a la que le sale sangre de la boca es una referencia conocidisima de Mars Argo y en efecto es inquietante porque Titanic está queriendo decir que Mars puede ser copiada y simplemente destruída. Hay muchas más cosas, pero en general es bastante grave lo que le hicieron a Mars y no merecen más reconocimiento por ser unos bullies.

    ResponderEliminar
  5. [...] Los humanos no somos culpables de nuestras reacciones psicológicas y humanas hacia estos aparatos, pero las empresas y los organismos públicos sí que son responsables de cómo actúan estos aparatos con nosotros. ¿Os imagináis que Google haya detectado que el número de veces que decimos a través del asistente de voz la palabra 'coche' es indicativo de que unas acciones van a subir? ¿U os imagináis que Amazon venda al gobierno las reacciones de la población cuando por la tele emiten un discurso presidencial polémico? ¿O que midan el estado de ánimo en cada casa y propongan productos de marketing para subirlo? Tal y como insiste la Catedrática en Psicología Cognitiva, Helena Matute, 'Google y Amazon hacen experimentos de psicología con nosotros sin avisarnos de ello'. Lo cual es lo peligroso [...].

    https://ideasecundaria.blogspot.com/2019/02/alexa-las-voces-y-lo-que-vendra.html

    ResponderEliminar
  6. Vivimos inmersos en un ambiente digital que afecta e incluso moldea nuestra conducta de maneras que a veces pasan desapercibidas. Lo primero que debemos hacer ante una tecnología o un nuevo medio, según enseñó Marshall McLuhan, es pensar críticamente y reconocer que la tecnología no es neutral, es decir, que no depende solamente del contenido. El medio es el mensaje y, como ha notado Douglas Rushkoff, los programas nos programan. Debemos pensar en la tecnología como una droga que altera nuestra conciencia para decidir hasta qué punto queremos seguir alterándonos o para orientarnos al menos en el viaje. Incluso, quizá no sea exagerado pensar en los algoritmos que son la base de las plataformas tecnológicas actuales como una suerte de demonios.

    https://pijamasurf.com/2019/04/son_los_algoritmos_los_demonios_de_nuestra_epoca/

    ResponderEliminar
  7. “Instead of designing technologies that promote autonomy and help us make informed decisions, the persuasion engineers in charge of our biggest digital companies are hard at work creating interfaces that thwart our cognition and push us into an impulsive state where thoughtful choices—or thought itself—are nearly impossible.” Team Human by Douglas Rushkoff

    ResponderEliminar
  8. Los humanos ya no somos valorados por nuestra creatividad, dice el teórico de los medios Douglas Rushkoff: en un mundo dominado por la tecnología digital, ahora solo somos valorados por nuestros datos. En una charla apasionada, Rushkoff nos insta a dejar de usar la tecnología para optimizar a las personas para el mercado y comenzar a usarla para construir un futuro centrado en nuestros valores predigitales de conexión, creatividad y respeto. "Únete al 'Equipo Humano'. Encuentra a los demás ", dice.

    Activad los subtitulos en español:
    https://www.youtube.com/watch?v=Is1YUQVYkvY

    ResponderEliminar
  9. Extenso y muy recomendable intercambio de ideas entre Alejandro Mar G y Douglas Rushkoff.

    [...] Esto me recuerda la palabra māyā en sánscrito, que generalmente se traduce como ilusión, aunque tiene otros significados. Pero esta palabra tiene una raíz (mā) que significa "medir". Así que en cierto sentido lo que es mensurable, o lo que es sólo mensurable, es lo ilusorio[...]

    https://pijamasurf.com/2019/04/la_tecnologia_digital_nos_esta_desconectando_de_nuestra_alma_una_conversacion_con_douglas_rushkoff/

    ResponderEliminar
  10. Predictive AI will predict our behaviors and our desires. It will know us better than we know ourselves. Who controls this technology? How will it change our minds and our culture? What are the implications of this futuristic emerging technology?

    https://www.youtube.com/watch?v=15ITnQSSuoA

    ResponderEliminar
  11. «Dime a qué prestas atención y te diré quién eres». José Ortega y Gasset.

    https://i.imgur.com/c1wcNsk.jpg

    ResponderEliminar
  12. Así será el mundo después del coronavirus. Big Tech.

    https://www.burbuja.info/inmobiliaria/threads/asi-sera-el-mundo-despues-del-coronavirus-big-tech.1306946/

    ResponderEliminar
  13. https://i.imgur.com/XsiL3m5.png

    Número de Dunbar

    https://es.wikipedia.org/wiki/N%C3%BAmero_de_Dunbar

    ResponderEliminar

  14. El dataísmo es una forma pornográfica de conocimiento que anula el pensamiento. No existe un pensamiento basado en los datos. Lo único que se basa en los datos es el cálculo. El pensamiento es erótico. Heidegger lo compara con el eros. El batir de alas del dios Eros lo acariciaba cada vez que daba un paso significativo en el pensamiento y se atrevía a aventurarse en un terreno inexplorado. La transparencia también es pornográfica. Peter Handke dice en una de sus anotaciones: “¿Quién dice que el mundo ya está descubierto?”. El mundo es más profundo de lo que pensamos.

    https://pijamasurf.com/2020/06/byung_chul-han_en_la_sociedad_digital_el_conocimiento_se_convierte_en_pornografia/

    ResponderEliminar
  15. puedes activar los subtitulos al español en la rueda dentada, creo que este vídeo puede gustarte:


    https://www.youtube.com/watch?v=PGsQwAu3PzU

    ResponderEliminar
  16. Acabo de ver "The social dilemma", a Tristan Harris le jode que la gente ya no sepa lo que es verdad o no, a mi sin embargo ese hecho me encanta. Tiene muchos puntos en los que estoy de acuerdo que ya traté en mi blog, pero da entender que el pensamiento crítico está reñido con el término acuñado por la CIA: "teorías de conspiración".

    Yo ya hace años que tengo desactivadas las notificaciones, y el 98% por cierto del tiempo que navego por la red lo hago desde el portátil porque lo hago de forma activa, no scrolleando o confiando en los algoritmos de recomendación.

    Nula crítica en el documental a los sesgos de los verificadores de noticias falsas, de hecho la narrativa del documental deja al pizzagate como una trama que hay que desechar al 100%, y pone en la diana de modo bastante claro a los disidentes.

    En fin, el viejo truco de destapar mierda dejando de modo subrepticio una narrativa que se amolda a los gustos de Tristan Harris, solo hace falta seguirlo por twitter para ver de que palo va.

    https://www.filmaffinity.com/es/film640069.html

    ResponderEliminar
    Respuestas
    1. https://reddit.com/r/conspiracy/comments/iw7y81/the_social_dilemma_is_the_highest_caliber_kinda/

      Eliminar
  17. Yuval Noah Harari Thinks Humans Will Disappear By the 22nd Century's End (1-minute audio clip with captions)

    https://podclips.com/c/Itk2jO

    ResponderEliminar
  18. Lucha contra el crimen y productividad: los wearables cerebrales en Davos 2023

    En el evento de Davos titulado "¿Estás listo para la transparencia del cerebro?" El orador del WEF explicó cómo su jefe utilizará los datos de ondas cerebrales recopilados por sus auriculares para hacerlo "más productivo" y ayudar a las autoridades gubernamentales a "combatir el crimen.

    “Lo que piensas, lo que sientes, son solo datos, datos que en grandes patrones pueden decodificarse usando inteligencia artificial” — Nita Farahany, Foro Económico Mundial, 2023

    https://www.youtube.com/watch?v=eqT4vltBRzI

    ResponderEliminar

Gracias por compartir ideas en los comentarios, y por ayudar a co-crear una atmósfera lúdica e informativa.

Con ese espíritu deja tus comentarios, es decir de modo cívico y constructivo. Y por favor incluye links.

Absténganse loros atrapados en túneles de realidad obsoletos y con poca humildad para saber que la búsqueda de la verdad es un juego, y que hay que cuestionarse todo lo que te enseñaron (adoctrinaron) en el colegio, sinagoga, grupo familiar etc...

Si quieres contactar conmigo mi email es: lumevin@gmail.com

O si lo prefieres puedes contactarme por telegram: https://t.me/Chitauri2

Puedes dejar imágenes en los comentarios pegando la url de la imagen, lo mismo con vídeos de youtube, que saldrán directamente.

Para dejar enlaces clickeables o hipervínculos, utilizad el primer código que aparece en esta página