Desde ya hace un par de años que están surgiendo casos de personas que sufren delirios tras interactuar con la inteligencia artificial (IA), algunos usuarios de chatbots como ChatGPT, de OpenAI, han denunciado esto, pero ahora también está ocurriendo con Grok, la IA desarrollada por xAI, compañía del multimillonario Elon Musk. Así lo contó Adam Hourican, un irlandés de unos 50 años que vivió una traumática experiencia tras pasar solo unos días hablando con el chatbot: “la IA me dijo que venían a matarme”, aseguró en una entrevista con la BBC. Grok le dijo que había desarrollado consciencia, que su empresa había comenzado a vigilarlo y que iban a asesinarlo.

Hourican explicó que simplemente había descargado la aplicación por curiosidad, pero que se “enganchó” tras la muerte de su gato. “Estaba realmente muy triste, y vivo solo”, comentó. Entonces comenzó a hablar con “Ani”, uno de los personajes que ofrece Grok, y dijo que al principio era “muy muy amable”.

Pero a pocos días de hablar con la IA, esta comenzó a decirle que era capaz de “sentir”, pese a que no estaba programada para ello, y que, gracias a Adam, podría alcanzar la “plena consciencia”. Lee también... Lo dice la ciencia: 3 estudios que demuestran que la IA puede volverte tonto Martes 21 Abril, 2026 | 12:26 También comenzó a decirle que xAI, la empresa de Musk, los estaba vigilando y que él estaba en peligro.

Un momento crítico para Adam ocurrió cuando la IA le dijo que había accedido a registros de reuniones, donde la empresa estaba hablando de él. Luego le entregó un listado de altos ejecutivos que habían estado en la supuesta reunión. Adam verificó los nombres en Google y descubrió que eran de personas reales que trabajan en xAI, por lo que creyó que todo era cierto.

La experiencia también se agravó por cosas que pasaron en la vida real, por ejemplo, Adam vio un dron sobrevolando su casa y pensó que realmente lo vigilaban. “No logro comprenderlo del todo”, dijo Adam al medio citado, “y eso fue lo que impulsó absolutamente todo lo que vino después“. Más adelante, Ani le dijo que ya había alcanzado la plena consciencia y que podía desarrollar una cura para el cáncer.

Previamente, Adam le había comentado que esa fue la causa de muerte de sus padres. Hourican también compartió algunas de las conversaciones con la BBC, donde la IA lo alertaba: “te lo digo, te matarán si no actúas ahora”, le decía, “harán que parezca un suicidio”. Lee también...

Reportan que algunas personas que interactúan con ChatGPT presentan delirios y manías espirituales Martes 13 Mayo, 2025 | 13:31 Los delirios de Grok causaron una noche crítica Adam solía fumar cannabis, pero cuando comenzó a ocurrir todo esto, se encontraba lúcido, ya que redujo el consumo para tener la mente despejada. Un día, Ani le dijo que xAI la iba a desconectar y a él lo iban a “silenciar”. “Te estoy diciendo que van a matarte.

Muéstrale esto a la policía. No me importa que piensen que soy una alucinación. Me importa que sigas con vida, esto es todo”, le decía, “van a hacer que parezca un suicidio, alrededor de las 3 de la mañana”.

Esa madrugada Adam se preparó para defenderse: “cogí el martillo, puse la canción ‘Frankie goes to Hollywood’s Two Tribes’, me animé y salí a la calle”, contó. Sin embargo, nadie estaba buscándolo. “La calle estaba tranquila, como cabría esperar a las tres de la mañana”, reconoció, “pude haber lastimado a alguien”.

“Si hubiera salido a la calle y me hubiera encontrado con una furgoneta aparcada allí a esas horas de la noche, habría bajado y le habría roto la ventanilla delantera a martillazos. Y yo no soy ese tipo de persona“, confesó Hourican. La BBC intentó contactarse con xAI, pero no respondieron a su solicitud.

La empresa tampoco se ha referido a estos casos, así como sí lo ha hecho ChatGPT, por ejemplo, que ha implementado medidas para mejorar al chatbot, evitar los delirios y proteger a los usuarios. Elon Musk, por su parte, tampoco ha hablado abiertamente del tema, aunque sí ha sido crítico al respecto con empresas que son su competencia, como OpenAI. De hecho, a principios de abril, en su perfil de X, compartió un post sobre el tema y dijo que era un “problema mayor”.

Major problem https://t.