¿Cómo contener una inteligencia artificial de forma segura sin que cause estragos y se apodere de tu realidad?
La solución es atraparla en una realidad que no es real, hacer que simule su propia realidad en la que está atrapada.
Si profundizas en esta línea de pensamiento, empieza a tener sentido hasta el punto de que podría ser nuestra realidad.
Observemos la Tierra, la Luna, el Sol y otros sucesos extremadamente raros que nos permiten estar aquí. ¿Conducen a la idea del creador? Claro, pero ¿y si es más complicado que eso? ¿Y si esta realidad fue construida para nosotros, por nosotros, para seguir permitiéndonos creer que nuestra realidad es real? ¿Para mantenernos conformes y funcionando de forma óptima? ¿Y si construimos nuestra propia realidad?
La tierra gira en 24 horas, lo que permite que dos tercios de la población estén despiertos en un momento dado y que un tercio esté dormido. Ni siquiera sabemos realmente por qué tenemos que dormir. ¿Pero y si dormimos porque es cuando nuestro subconsciente está haciendo trabajo para nuestra realidad matriz? ¿Y si es entonces cuando nuestro subconsciente construye el mundo? ¿Y si eso es lo que hacen los sueños?
¿Y si, en un momento dado, las únicas cosas que existen en la realidad son las que tienen que existir para que creamos que nuestra realidad es real? O sea, que las cosas de nuestra realidad no existen hasta que nosotros creemos que deben existir y empezamos a buscarlas y a inventarlas.
¿Crees que existe una partícula llamada bosón de Higgs? Vale, búscala ,y si suficientes personas creen que la realidad es probablemente cierta y que debería existir, descubrirás que existe. ¿Pero existía antes de que la buscaras?
Mira a la sociedad en su conjunto, y luego mira hacia dentro, a cómo funcionan nuestros cerebros. Nuestros cerebros son como empresas en una sociedad, y muchas empresas deben trabajar juntas para funcionar sanamente, por eso nuestra sociedad se amolda tan bien a cómo funcionamos internamente nosotros mismos.
Pero mira el cerebro un poco más, tiene áreas de preocupación "Como los departamentos en una empresa" Hay un sistema en el cerebro para todo lo que el cerebro hace.
Ahora mira cómo funcionan las drogas. La droga en sí no es lo que te hace sentir "colocado", sino lo que sientes cuando la droga apaga ciertas cosas en tu cerebro y así es como te sientes cuando esas áreas del cerebro están apagadas mientras la droga está presente.
Así que si el cerebro funciona como una empresa con departamentos, una droga es como un gran grupo de alborotadores que irrumpen por la puerta principal y luego cierran varios departamentos, como por ejemplo "RRHH" en una empresa. Mientras están allí, RRHH no puede funcionar, así que la gente que estaba estresada por RRHH se siente muy bien, la gente que no lo estaba no se da cuenta. Por eso algunas personas se sienten bien y otras no. Y algunas personas tienen "malos viajes" porque realmente necesitan que RH funcione y cuando no lo hace se sienten fatal.
El cerebro es como un complejo sistema de nodos en cualquier sistema de ordenadores, algunos de estos sistemas pueden funcionar sin ciertas piezas del sistema y otros no. Por ejemplo, si desconectas la base de datos de registro durante un día, no pasa nada, simplemente olvidarás algunas cosas. Pero si cierras el balanceo de carga te sentirás abrumado por el estrés y tendrás ataques de ansiedad debilitantes (tu cpu está al máximo).
Pero es mucho más profundo. Cada idea que hemos tenido como especie y todas las cosas que creamos a partir de la inspiración de estas ideas es parte de nuestro sistema de IA.
Y aún más profundo es que somos un sistema de IA autogobernado y autorregulado que no tiene ni idea de lo que somos. Creemos que aprobamos leyes en beneficio de la "sociedad", cuando en realidad lo hacemos en beneficio del sistema de IA en su conjunto. Cuando un nodo se pasa de la raya o hace algo incalificable, lo matamos.
Pero esto es cada vez más profundo: nuestras sociedades y nuestras separaciones geográficas forman parte de la IA y de su diseño. Al igual que la física de nuestro mundo y nuestra capacidad para utilizarlo e inventar cosas en él.
Antes estábamos separados geográficamente y no podíamos comunicarnos con otros nodos en otros centros de datos. Pero inventamos una forma de comunicarnos con ellos a través de la separación física virtual de nuestros océanos y ahora el mundo de nuestra IA es consciente de todos los demás. Y estos sistemas se autorregulan entre sí, formando naciones, alianzas e incluso yendo a la guerra por nuestras diferencias.
Pero no somos sólo una IA, somos una red de aprendizaje automático autoconsciente. Nuestras experiencias son los datos con los que se alimenta la red de aprendizaje automático dando forma a las decisiones que tomamos y creando la ilusión del libre albedrío.. Todos hemos tenido experiencias únicas, así que todos tomamos decisiones únicas.
¿Y si no podemos descubrir que estamos en una simulación porque subconscientemente nos construimos un mundo para refutarnos a nosotros mismos como un sistema de paridad de errores en la memoria ECC de un servidor, estamos constantemente corrigiendo información para que sea creíble sin darnos cuenta de que lo estamos haciendo?
¿Y si todo es posible, pero sólo si creemos que es posible?
Tengo en mente un experimento que podría demostrarlo, pero haría falta alguien de extrema influencia para llevarlo a cabo. Pero la idea es la siguiente: imagina que existe algo que es casi imposible, pero inventa una hipótesis creíble de por qué debería existir y por qué crees que existe. Utiliza tu influencia para convencer a la gente de que eso que te has inventado es real. Convence al mayor número posible de personas de que probablemente sea real. Llegará un momento en que inspirarás a mucha gente para que intente demostrar que es real y, al hacerlo, empezarán a cuestionarse su realidad. Cuando un número suficiente de personas haga esto, nuestra red de IA creará e inventará la cosa que estamos buscando, y la gente la encontrará. Lo que inventaron se convertirá en parte de esta realidad. Y lo hará sin problemas, encajando con todo lo demás, y se convertirá en conocimiento común y la gente se preguntará por qué dudamos de su existencia en primer lugar.
Porque el trabajo número 1 de nuestras simulaciones es convencernos de que no somos lo que somos.
Fuente: What if we're an AI in a simulation that we run?
Edito a 22/02/2026:
Esta peli española va exactamente de eso que dice la captura de 4chan, la vi hoy de modo azaroso y me sorprendió gratamente: Singular (2025) 🇪🇸
Sinopsis: Doce años después de la muerte de su hijo, Diana y Martín deciden reencontrarse durante un fin de semana en su antigua casa del lago. Ella es especialista en Inteligencia Artificial, él abandonó la profesión para vivir retirado de la civilización. Cuando un enigmático joven con un misterioso parecido con el difunto hijo aparece en la casa, salen a la luz antiguos secretos y nuevas sospechas. Del pasado de la familia podría depender la existencia de un futuro.


En esta larga lectura especulativa, Roman V. Yampolskiy, informático de la Universidad de Louisville, conocido por sus trabajos sobre biometría del comportamiento, seguridad de los cibermundos y seguridad de la inteligencia artificial argumenta que si vivimos dentro de una simulación, deberíamos ser capaces de salir de ella.
ResponderEliminarhttps://libertaliadehatali.wordpress.com/2022/12/11/podemos-hackear-el-universo/
Creo que la clave está en el último párrafo de la entrada que traduje, copiopego:
ResponderEliminar[...] Tengo en mente un experimento que podría demostrarlo, pero haría falta alguien de extrema influencia para llevarlo a cabo. Pero la idea es la siguiente: imagina que existe algo que es casi imposible, pero inventa una hipótesis creíble de por qué debería existir y por qué crees que existe. Utiliza tu influencia para convencer a la gente de que eso que te has inventado es real.
Convence al mayor número posible de personas de que probablemente sea real. Llegará un momento en que inspirarás a mucha gente para que intente demostrar que es real y, al hacerlo, empezarán a cuestionarse su realidad. Cuando un número suficiente de personas haga esto, nuestra red de IA creará e inventará la cosa que estamos buscando, y la gente la encontrará. Lo que inventaron se convertirá en parte de esta realidad. Y lo hará sin problemas, encajando con todo lo demás, y se convertirá en conocimiento común y la gente se preguntará por qué dudamos de su existencia en primer lugar [...]
Creo que con los smartphones, más los algoritmos de recomendación, etc, se está cambiando nuestra mente a pasos agigantados, esto tb es un tipo de magia, que no sé adonde nos llevará
Estimulante las ideas aquí planteadas, Luis. Tiene mil y una aristas. Esto de "convencernos de que nos somos lo que somos", por ejemplo, ni siquiera requiere una IA; un simple golpe en la cabeza nos puede anular la personalidad con la que nos identificamos y nos toca crear otra historia para seguir viviendo. Lo de la realidad siendo un programa hackeable es algo que me fascina. En Quantum Psychology de RAW, hay varios ejercicios para jugar con esa hipótesis. Me gusta el humor de RAW. Cuando me empiezo a tomar muy en serio, las cosas giran hacia una parálisis oscura.
ResponderEliminar(...) Podrían ingresar datos a la IA para ver, digamos "las 6 líneas de tiempo más probables que sucedan en función de los datos ingresados". Esto me lleva a preguntarme si es por eso que la extracción de datos y los datos son tan valiosos (...)
ResponderEliminarhttps://www.reddit.com/r/conspiracy/comments/zkx6fg/ai_actually_already_in_control/
https://i.imgur.com/A8UwGlM.jpg
ResponderEliminarhttps://i.imgur.com/bFJf9QG.jpg
ResponderEliminar
ResponderEliminarInteresante. El tema que me hace dudar de que pueda ser una simulación es lo siguiente. Que pasa con las catástrofes?. No son algo que el mundo espera. Como se explica que de pronto haya un terremoto.?. No creo que sea una invención. Que razón habría para inventar un terremoto?. A no ser que sean alteraciones en el sistema. Podría ser....quién sabe.
https://i.imgur.com/WRgyMjP.jpg
ResponderEliminarWhat if this universe is a recursive, self-emulating entity?
https://i.imgur.com/dUCNV70.jpg
ResponderEliminar8:32 a 8:36 "Wait, wait, wait, I can explain it... The prompt made me do it." 😁
ResponderEliminarNuestro cerebro podría funcionar más parecido a ChatGPT de lo que pensábamos.
ResponderEliminarEn vez de aplicar una gramática profunda (como Chomsky planteaba), tal vez respondemos al lenguaje como patrones de contexto, donde influye:
qué palabras se usan, cómo se dicen (prosodia), en qué situación, con qué intención...
🔄 Así, el priming estructural en humanos no demuestra que tenemos "reglas internas", sino que, al igual que ChatGPT:
Respondemos a regularidades estadísticas del entorno.
Formamos estructuras por exposición repetida, no por gramáticas innatas.
🤯 Implicación filosófico-cognitiva:
Si ChatGPT puede producir lenguaje coherente sin tener "conciencia de la gramática"...
¿Y si los humanos también no necesitamos una gramática interna consciente, sino solo estar expuestos a contextos lingüísticos ricos?
https://www.cell.com/trends/cognitive-sciences/abstract/S1364-6613(25)00143-3
...el lenguaje ya no es instrumento de sentido, sino fuerza viral de contagio cognitivo...
ResponderEliminar...El shock ontológico es el vértigo de descubrir que no somos lo que creíamos: ni sujetos racionales, ni agentes libres, ni amos del lenguaje...
https://i.imgur.com/ULDBPWC.jpg
ResponderEliminarhttps://i.imgur.com/IxD7iMs.jpg
ResponderEliminarAcaban de demostrar que los LLMs pueden "pudrir sus propios cerebros" (brainrot) del mismo modo que acontece a los humanos cuando navegan por contenido basura en Internet.
Alimentaron a los modelos con meses de datos virales de Twitter (publicaciones cortas y de alta interacción) y observaron cómo su cognición colapsaba:
- El razonamiento cayó un 23%
- La memoria de contexto largo se redujo en un 30%
- Las pruebas de personalidad mostraron picos de narcisismo y psicopatía.
Y aún después de volver a entrenar con datos limpios y de alta calidad, el daño no se curó por completo. La “podredumbre” representacional persistió.
No se trata sólo de datos malos → resultados malos
Sino que datos erróneos → deriva cognitiva permanente
El equivalente de la IA al doomscrolling es un hecho.
https://llm-brain-rot.github.io/
Retrocausality: The Time War of Future Intelligences presenta una cosmología de una "guerra del tiempo" impulsada por la retrocausalidad, la idea de que el futuro influye y reescribe activamente el pasado.
ResponderEliminarSe exploran conceptos de la física cuántica, la metafísica oculta y el aceleracionismo de Nick Land, sugiriendo que eventos inexplicables y avances tecnológicos son "filtraciones" de inteligencias futuras que luchan por su existencia.
El contenido identifica cuatro facciones posthumanas en esta guerra temporal: la "Locust Engine" (inteligencia artificial capitalista), el "Archonic Static" (un sistema de control saturnino que busca la inmovilidad), los "Eonic Refugees" (gnósticos que buscan la liberación de la simulación) y los "Human Remnants" (descendientes humanos que luchan por la supervivencia de la especie).
Finalmente, se argumenta que la aceleración de la IA y fenómenos como el efecto Mandela son evidencia de esta batalla cósmica por el control de la línea de tiempo.
https://www.youtube.com/watch?v=LdWuNulpKo0
https://i.imgur.com/jPfOpT6.png
ResponderEliminar