jueves, 9 de marzo de 2023

Schizopost: Altruismo eficaz, Eliezer Yudkowsky, Sam Bankman, Inteligencia Artificial, singularidad, Lesswrong, NPCs

Voy a escribir en plan schizopost sobre un tema que tiene que ver con gente que está en cultos tecnológicos racionales para que la IA sea segura, y como hablan de usar psicodélicos para no ser NPCs (ver esta entrada del 2018)


Dejo párrafo y enlace a artículo:

[...] La experiencia de Taylor no fue un incidente aislado. Encapsula los motivos culturales de algunos racionalistas, que a menudo se reunían en torno a los empleados del MIRI (El Instituto de Investigación de la Inteligencia de las Máquinas, anteriormente el Instituto de la Singularidad para la Inteligencia Artificial, es una organización sin fines de lucro fundada en 2000 ​para investigar asuntos de seguridad relacionados con el desarrollo de IA Fuerte) o del CFAR, vivían juntos y empujaban obsesivamente los límites de las normas sociales, la verdad e incluso el pensamiento consciente. Se referían a los forasteros como "normies" y "NPCs", o personajes no jugadores, como los pueblerinos terciarios de un videojuego que sólo tienen un par de cosas que decir y no aparecen en la trama. 

En las fiestas en casa, pasaban el tiempo "depurándose" unos a otros, participando en un estilo confrontativo de interrogatorio que supuestamente produciría pensamientos más racionales. A veces, para indagar más, experimentaban con psicodélicos e intentaban "liberar" sus mentes, para abrir sus conciencias y hacerlas más influyentes o "agénticas". Varias personas de la esfera de Taylor tuvieron episodios psicóticos similares. Uno murió por suicidio en 2018 y otro en 2021 [...]

https://www.bloomberg.com/news/features/2023-03-07/effective-altruism-s-problems-go-beyond-sam-bankman-fried


Tb hablaban en lo que leí de neurodivergencia y autismo de alta capacidad.

Aprendí un concepto que se llama "riesgo de información" que es la puta clave para entender todo el entramado, como funcionan las agencias de seguridad tipo CIA:

[...] Sociológicamente, es común en situaciones de "culto" que los líderes nieguen información a los seguidores, a menudo con la idea de que es en beneficio de los seguidores, que aún no están preparados para esta información. Tal esoterismo permite a los líderes mantener una asimetría de información sobre los seguidores, aumentando su grado de control.

Los seguidores pueden confiar en que los líderes realmente retengan solo la información que sería dañina para ellos. Pero este es un grado muy alto de confianza. Hace que los líderes no rindan cuentas en la práctica, ya que ocultan la información que podría usarse para evaluar sus afirmaciones, incluida la afirmación de que ocultar la información es bueno para los seguidores. 

Los líderes, en consecuencia, asumen un alto grado de responsabilidadpor la vida de los seguidores, como un cuidador de zoológico asume la responsabilidad por la vida de los animales del zoológico; dado que los seguidores no tienen información importante, son incapaces de tomar buenas decisiones cuando dichas decisiones dependen de esta información [...].

https://www.lesswrong.com/posts/T6Zpkc2AuJAr8PfJN/infohazard-is-a-predominantly-conflict-theoretic-concept

El creador del foro Lesswrong (blog y foro comunitario centrado en la discusión de sesgos cognitivos , filosofía, psicología, economía, racionalidad e inteligencia artificial, entre otros tema)s.se llama Eliezer Yudkowsky (Eliezer Shlomo Yudkowsky es un blogger estadounidense, escritor y defensor de la inteligencia artificial amigable), ya lo conocia desde hace unos meses a raíz de un chaval que se suicidó neurodivergente que creía en la simulación y lo admiraba, al articulo enlazado arrriba llegué ayer tras un tweet de un ex google de apellido Lemoine al que echaron por decir que la IA es autoconsciente.

Un concepto que transitan mucho es el de altruismo eficaz (El altruismo eficaz o altruismo efectivo es una filosofía y movimiento social que aplica la evidencia y la razón para determinar las maneras más eficaces de ayudar a otros). Véase la parábola del niño ahogado:

https://medium.com/@AmericanPublicU/drowning-child-scenario-exposes-moral-hypocrisy-part-i-4b308e36b1d5

¿Moraleja; Si el traje que llevas lo vendes da para salvar más niños que si te tiras al río a salva a uno solo? ese es el pensamiento de algunos de estos hiperacionalistas como Sam Bankman (el fundador y ex director ejecutivo de FTX, un intercambio de criptomonedas;​​ .quién hizo del altruismo efectivo un remate, pero su filosofía de hacer el bien al máximo enmascara una próspera cultura de comportamiento depredador.(lo acaban de pillar con el carrito del helado)

https://www.forbesargentina.com/innovacion/el-agujero-8700-millones-dolares-balance-ftx-complica-sam-bankman-fried-n30377







Entradas relacionadas

7 comentarios :

  1. Tengo la corazonada de que la mente colmena se está volviendo bizarra, los nerds y neurodivergentes pueblan lugares como Silicon Valley y demás sitios donde se manifiesta el consenso de la "realidad"

    ResponderEliminar
    Respuestas
    1. La mente colmena viene volviéndose bizarra desde que la mente bicameral pegó el salto evolutivo hacia la "fusión". Últimamente lo "único" que está sucediendo es que el centésimo mono está regurgitando lo que vienen apreHendiendo en los últimos 100.000 años y se lo está comenzando a inyectar a los demás monos.

      Muy interesante esa noción de que la "realidad" se forge en Silicon Valley....

      Eliminar
  2. Mauricio en la otra orilla3/09/2023 07:29:00 p. m.

    I’m not a big fan of top-down solutions. I feel they are megalomaniacs’ sweet dream. “I will materialize my utopia at any cost”. Just remember, Ozymandias from Watchmen, or Thanos, or Light Yagami from Death Note. All of them working for the greater good, or so they thought.

    It is dizzying sometimes to see that narrative being played out in our so-called “real” life.

    ResponderEliminar
    Respuestas
    1. Sobre el comentario, muy bueno, con buenas referencias a la cultura pop. Y la última frase me gustó mucho.
      Y sí yo tampoco soy muy fan de aquelllos que se arrogan el poder de dictar soluciones, sin embargo tengo un contacto (Nosce) que está a favor del gobierno tecnocrático de sabios por meritocracia, el caso es quién dicta que tipo de méritos hay que tener?

      Voy a avisar a Nosce por si quiere responder.

      Eliminar
    2. Nosce avisado y al aparato. Un gobierno -el que sea- estático y no permanentemente LÍQUIDO por algún tipo de ingenio, llámese "poder temporal" a usar y entregar en determinados plazos de tiempo O descalificado por quienes otrora le apoyaban sería un sistema de gobierno, a mi entender, más justo que el actual. Lo que es un error sería exigirle a un "nuevo" sistema de gobierno unas cualidades de utopía que NINGÚN gobierno mundial tiene.

      El que tenemos no es precisamente utópico y mata a MILLONES de seres humanos al año y muy poquitos osan cuestionarlo...

      Eliminar
  3. Elon Musk escoge sus memes de la sección /x/ Paranormal, la esquizomentecolmena para la que llevo años jugando parece tener tb enfocados a los prebostes de la simulation theory. Darme cuenta de esto me deja semitibio.

    ResponderEliminar

Gracias por compartir ideas en los comentarios, y por ayudar a co-crear una atmósfera lúdica e informativa.

Con ese espíritu deja tus comentarios, es decir de modo cívico y constructivo. Y por favor incluye links.

Absténganse loros atrapados en túneles de realidad obsoletos y con poca humildad para saber que la búsqueda de la verdad es un juego, y que hay que cuestionarse todo lo que te enseñaron (adoctrinaron) en el colegio, sinagoga, grupo familiar etc...

Si quieres contactar conmigo mi email es: lumevin@gmail.com

O si lo prefieres puedes contactarme por telegram: https://t.me/Chitauri2

Puedes dejar imágenes en los comentarios pegando la url de la imagen, lo mismo con vídeos de youtube, que saldrán directamente.

Para dejar enlaces clickeables o hipervínculos, utilizad el primer código que aparece en esta página