Dejo párrafo y enlace a artículo:
[...] La experiencia de Taylor no fue un incidente aislado. Encapsula los motivos culturales de algunos racionalistas, que a menudo se reunían en torno a los empleados del MIRI (El Instituto de Investigación de la Inteligencia de las Máquinas, anteriormente el Instituto de la Singularidad para la Inteligencia Artificial, es una organización sin fines de lucro fundada en 2000 para investigar asuntos de seguridad relacionados con el desarrollo de IA Fuerte) o del CFAR, vivían juntos y empujaban obsesivamente los límites de las normas sociales, la verdad e incluso el pensamiento consciente. Se referían a los forasteros como "normies" y "NPCs", o personajes no jugadores, como los pueblerinos terciarios de un videojuego que sólo tienen un par de cosas que decir y no aparecen en la trama.
En las fiestas en casa, pasaban el tiempo "depurándose" unos a otros, participando en un estilo confrontativo de interrogatorio que supuestamente produciría pensamientos más racionales. A veces, para indagar más, experimentaban con psicodélicos e intentaban "liberar" sus mentes, para abrir sus conciencias y hacerlas más influyentes o "agénticas". Varias personas de la esfera de Taylor tuvieron episodios psicóticos similares. Uno murió por suicidio en 2018 y otro en 2021 [...]
https://www.bloomberg.com/news/features/2023-03-07/effective-altruism-s-problems-go-beyond-sam-bankman-fried
Tb hablaban en lo que leí de neurodivergencia y autismo de alta capacidad.
Aprendí un concepto que se llama "riesgo de información" que es la puta clave para entender todo el entramado, como funcionan las agencias de seguridad tipo CIA:
[...] Sociológicamente, es común en situaciones de "culto" que los líderes nieguen información a los seguidores, a menudo con la idea de que es en beneficio de los seguidores, que aún no están preparados para esta información. Tal esoterismo permite a los líderes mantener una asimetría de información sobre los seguidores, aumentando su grado de control.
Los seguidores pueden confiar en que los líderes realmente retengan solo la información que sería dañina para ellos. Pero este es un grado muy alto de confianza. Hace que los líderes no rindan cuentas en la práctica, ya que ocultan la información que podría usarse para evaluar sus afirmaciones, incluida la afirmación de que ocultar la información es bueno para los seguidores.
Los líderes, en consecuencia, asumen un alto grado de responsabilidadpor la vida de los seguidores, como un cuidador de zoológico asume la responsabilidad por la vida de los animales del zoológico; dado que los seguidores no tienen información importante, son incapaces de tomar buenas decisiones cuando dichas decisiones dependen de esta información [...].
El creador del foro Lesswrong (blog y foro comunitario centrado en la discusión de sesgos cognitivos , filosofía, psicología, economía, racionalidad e inteligencia artificial, entre otros tema)s.se llama Eliezer Yudkowsky (Eliezer Shlomo Yudkowsky es un blogger estadounidense, escritor y defensor de la inteligencia artificial amigable), ya lo conocia desde hace unos meses a raíz de un chaval que se suicidó neurodivergente que creía en la simulación y lo admiraba, al articulo enlazado arrriba llegué ayer tras un tweet de un ex google de apellido Lemoine al que echaron por decir que la IA es autoconsciente.
Un concepto que transitan mucho es el de altruismo eficaz (El altruismo eficaz o altruismo efectivo es una filosofía y movimiento social que aplica la evidencia y la razón para determinar las maneras más eficaces de ayudar a otros). Véase la parábola del niño ahogado:
¿Moraleja; Si el traje que llevas lo vendes da para salvar más niños que si te tiras al río a salva a uno solo? ese es el pensamiento de algunos de estos hiperacionalistas como Sam Bankman (el fundador y ex director ejecutivo de FTX, un intercambio de criptomonedas; .quién hizo del altruismo efectivo un remate, pero su filosofía de hacer el bien al máximo enmascara una próspera cultura de comportamiento depredador.(lo acaban de pillar con el carrito del helado)
Tengo la corazonada de que la mente colmena se está volviendo bizarra, los nerds y neurodivergentes pueblan lugares como Silicon Valley y demás sitios donde se manifiesta el consenso de la "realidad"
ResponderEliminarLa mente colmena viene volviéndose bizarra desde que la mente bicameral pegó el salto evolutivo hacia la "fusión". Últimamente lo "único" que está sucediendo es que el centésimo mono está regurgitando lo que vienen apreHendiendo en los últimos 100.000 años y se lo está comenzando a inyectar a los demás monos.
EliminarMuy interesante esa noción de que la "realidad" se forge en Silicon Valley....
I’m not a big fan of top-down solutions. I feel they are megalomaniacs’ sweet dream. “I will materialize my utopia at any cost”. Just remember, Ozymandias from Watchmen, or Thanos, or Light Yagami from Death Note. All of them working for the greater good, or so they thought.
ResponderEliminarIt is dizzying sometimes to see that narrative being played out in our so-called “real” life.
Sobre el comentario, muy bueno, con buenas referencias a la cultura pop. Y la última frase me gustó mucho.
EliminarY sí yo tampoco soy muy fan de aquelllos que se arrogan el poder de dictar soluciones, sin embargo tengo un contacto (Nosce) que está a favor del gobierno tecnocrático de sabios por meritocracia, el caso es quién dicta que tipo de méritos hay que tener?
Voy a avisar a Nosce por si quiere responder.
Nosce avisado y al aparato. Un gobierno -el que sea- estático y no permanentemente LÍQUIDO por algún tipo de ingenio, llámese "poder temporal" a usar y entregar en determinados plazos de tiempo O descalificado por quienes otrora le apoyaban sería un sistema de gobierno, a mi entender, más justo que el actual. Lo que es un error sería exigirle a un "nuevo" sistema de gobierno unas cualidades de utopía que NINGÚN gobierno mundial tiene.
EliminarEl que tenemos no es precisamente utópico y mata a MILLONES de seres humanos al año y muy poquitos osan cuestionarlo...
Elon Musk escoge sus memes de la sección /x/ Paranormal, la esquizomentecolmena para la que llevo años jugando parece tener tb enfocados a los prebostes de la simulation theory. Darme cuenta de esto me deja semitibio.
ResponderEliminarhttps://i.imgur.com/EKGRwgf.jpg
Eliminarhttps://i.imgur.com/5NEY6Ri.png
EliminarRoman V. Yampolskiy | Computer scientist at the University of Louisville, known for his work on behavioral biometrics, security of cyberworlds, and artificial intelligence safety.
ResponderEliminarEn esta larga lectura especulativa, Roman V. Yampolskiy argumenta que si estamos viviendo dentro de una simulación, deberíamos poder salir de ella. Elon Musk cree que es >99.9999999% seguro de que estamos en una simulación. Usando ejemplos de videojuegos, para explorar la mecánica cuántica, Yampolskiy no deja piedra sin mover en cuanto a cómo podríamos salir de ella
https://iai.tv/articles/can-we-hack-our-way-out-of-the-universe-auid-2327
Varios filósofos y académicos han propuesto la idea de que podemos estar viviendo en una simulación por computadora. En este artículo, no evaluamos estudios, argumentación o evidencia a favor o en contra de tales afirmaciones, sino que hacemos una simple pregunta inspirada en la seguridad cibernética, que tiene implicaciones significativas. para el campo de la seguridad de la IA, a saber: Si estamos en la simulación, ¿podemos escapar de la simulación? Más formalmente, la pregunta podría formularse como: ¿Podrían los agentes generalmente inteligentes ubicados en entornos virtuales escapar de ellos?
EliminarPárrafo y link de artículo de Erik Davis:
ResponderEliminar[...] Como dice Ezra Klein, la cultura de los desarrolladores de IA que él conoce es "más extraña de lo que la mayoría de la gente puede imaginar". Ezra, quien también ha vivido en San Francisco, no da más detalles, pero yo lo haré. Estamos hablando de psicodélicos, poliamor, proyectos mindfuck de Burning Man, piratería biológica y social, ciencia mental transhumanista y una perspectiva filosófica que aterriza en algún lugar entre el racionalismo utilitario despiadado y el libertarismo hedónico. Muchos de estos supernerds también comparten convicciones fatalistas sobre la Singularidad [...].
Something Weirdo this Way Comes
https://www.youtube.com/watch?v=xoVJKj8lcNQ
ResponderEliminarhttps://i.imgur.com/OvYLYf7.jpg
ResponderEliminarDejo párrafos y link que salta muro de pago a artículo de El País de hoy que explica bastante pormenorizado todo el affaire Altman-OpenAI. Nos volvemos a encontrar con el concepto "altruismo eficaz (https://es.wikipedia.org/wiki/Altruismo_eficaz)".
ResponderEliminar[...]El consejo de administración de OpenAI era disfuncional. De él habían ido saliendo varios de sus miembros por diferencias con la empresa, por conflictos de intereses o por proyectos personales. Los consejeros eran incapaces de ponerse de acuerdo para cubrir las bajas. Había quedado reducido a seis componentes. Tres de ellos, empleados y fundadores: Greg Brockman, presidente; San Altman, consejero delegado, e Ilya Sutskever, científico jefe. Los otros tres, independientes: Adam D’Angelo, fundador de Quora; Tasha McCauley, ingeniera y emprendedora, y Helen Toner, de la Universidad de Georgetown. Estas dos últimas están vinculadas a la corriente del llamado altruismo efectivo, que aboga por poner coto al desarrollo de la inteligencia artificial, que ven como una caja de Pandora, una posible amenaza existencial para la humanidad.
El movimiento del altruismo efectivo levanta cada vez más contestación. Uno de sus críticos acérrimos, Marc Andreessen, otro inversor de larga trayectoria de Silicon Valley, recuerda que “el miedo a que la tecnología de nuestra propia creación se alce y nos destruya está profundamente arraigado en nuestra cultura”. Cree que con la inteligencia artificial se está repitiendo el mito de Prometeo, de Frankestein o de Terminator.
“Mi opinión es que la idea de que la IA decidirá matar literalmente a la humanidad es un profundo error de categoría. (...) La idea de que en algún momento desarrollará una mente propia y decidirá que tiene motivaciones que le llevan a intentar matarnos es una superstición. En resumen, la IA no quiere, no tiene objetivos, no quiere matarte, porque no está viva. Y la IA es una máquina: no va a cobrar vida más de lo que lo hará tu tostadora”, sostiene tajante. “El ‘riesgo de la IA’ se ha convertido en un culto. (...) Resulta que este tipo de culto no es nuevo: existe una larga tradición occidental de milenarismo, que genera cultos apocalípticos. El culto del riesgo de la IA tiene todas las características de un culto milenarista del apocalipsis”, concluye [...].
Link a la noticia, vía archive:
👇🏻
https://archive.ph/bxiT6
"¡Siente el AGI! ¡Siente el AGI!" Según los informes, los empleados corearon, según The Atlantic , un estribillo dirigido por el propio Sutskever.
EliminarEl científico jefe incluso encargó una efigie de madera para representar una IA "no alineada" que actúa en contra de los intereses de la humanidad, sólo para prenderle fuego.
En resumen, en lugar de centrarse en hacer avanzar significativamente la tecnología de IA de una manera científicamente sólida, algunos miembros de la junta parecen estar involucrados en extrañas afirmaciones espirituales.
https://futurism.com/openai-employees-say-firms-chief-scientist-has-been-making-strange-spiritual-claims
https://media.giphy.com/media/v1.Y2lkPTc5MGI3NjExMm94cm11OHA0dTc4Y3djNG5mcnRvbjVyZTBiaGp2bHJlcGhrOXAwZyZlcD12MV9pbnRlcm5hbF9naWZfYnlfaWQmY3Q9Zw/bK4ES9Co0IJnVadmui/source.gif
ResponderEliminar