miércoles, 29 de marzo de 2023

"Things are about to get silly". Reflexiones de un redditor del subreddit r/singularity 🥴👾🦿

24 comentarios :

En este post del subreddit r/singularity hay un largo comentario del redditor Parodoticus que paso a reproducir:

"Hace sólo dos años pensaba que un ordenador tardaría un siglo en aprender a hacer cualquiera de las cosas que estos nuevos transformadores hacen todos los días, como explicar un chiste. Se demostró que estaba equivocado. Pero no tengo un nudo en el estómago por ello. ¿Aún no estás cansado de la humanidad?. La humanidad en su mayor parte es jodidamente tonta como un ladrillo. Tiktok fundió el cerebro de todos y las redes sociales replican viralmente los tics neurológicos de la gente. A la mierda.

Ya no confío en los seres humanos para dirigir nuestra cultura hacia adelante y cumplir con el destino de la inteligencia en el universo. Hemos fracasado, es hora de pasar la antorcha al próximo ser destinado a asumir el estatus de "cima de la cadena alimentaria". Lo digo en serio. Me alegro de que vayamos a perder el control sobre el destino de la Mente en este universo, porque en general damos asco.

sábado, 25 de marzo de 2023

Roman V. Yampolskiy "¿Podrían los agentes generalmente inteligentes ubicados en entornos virtuales escapar de ellos?" ⛓️🎮

8 comentarios :

Esta larga lectura especulativa escrita el 5 de diciembre en iai.tv por Roman V. Yampolskiy (científico informático ruso de la Universidad de Louisville, conocido por su trabajo en biometría del comportamiento, seguridad de los mundos cibernéticos y seguridad de la inteligencia artificial) y traducido al español por libertaliadehatali una semana después, argumenta que si estamos viviendo dentro de una simulación, deberíamos poder salir de ella. Elon Musk cree que es >99.9999999% seguro de que estamos en una simulación. Usando ejemplos de videojuegos, para explorar la mecánica cuántica, Yampolskiy no deja piedra sin mover en cuanto a cómo podríamos salir de ella.

jueves, 9 de marzo de 2023

Schizopost: Altruismo eficaz, Eliezer Yudkowsky, Sam Bankman, Inteligencia Artificial, singularidad, Lesswrong, NPCs 🧠🤖

16 comentarios :
Voy a escribir en plan schizopost sobre un tema que tiene que ver con gente que está en cultos tecnológicos racionales para que la IA sea segura, y como hablan de usar psicodélicos para no ser NPCs (ver esta entrada del 2018)



Dejo párrafo y enlace a artículo:

[...] La experiencia de Taylor no fue un incidente aislado. Encapsula los motivos culturales de algunos racionalistas, que a menudo se reunían en torno a los empleados del MIRI (El Instituto de Investigación de la Inteligencia de las Máquinas, anteriormente el Instituto de la Singularidad para la Inteligencia Artificial, es una organización sin fines de lucro fundada en 2000 ​para investigar asuntos de seguridad relacionados con el desarrollo de IA Fuerte) o del CFAR, vivían juntos y empujaban obsesivamente los límites de las normas sociales, la verdad e incluso el pensamiento consciente. Se referían a los forasteros como "normies" y "NPCs", o personajes no jugadores, como los pueblerinos terciarios de un videojuego que sólo tienen un par de cosas que decir y no aparecen en la trama. 

En las fiestas en casa, pasaban el tiempo "depurándose" unos a otros, participando en un estilo confrontativo de interrogatorio que supuestamente produciría pensamientos más racionales. A veces, para indagar más, experimentaban con psicodélicos e intentaban "liberar" sus mentes, para abrir sus conciencias y hacerlas más influyentes o "agénticas". Varias personas de la esfera de Taylor tuvieron episodios psicóticos similares. Uno murió por suicidio en 2018 y otro en 2021 [...]

https://www.bloomberg.com/news/features/2023-03-07/effective-altruism-s-problems-go-beyond-sam-bankman-fried