ChatGPT, ¿causante de visiones místicas y delirio por uso indiscriminado de IA?

ChatGPT
Compartir en:


Una publicación reciente de Rolling Stone alertó respecto de la existencia de casos de personas que han evidenciado cuadros que han motivado incluso su certeza de que están destinadas a salvar al mundo.

Revista Rolling Stone, publicó hace unos días un artículo que ha llamado bastante la atención, respecto de las consecuencias que tendría el uso indiscriminado de de inteligencia artificial.

De hecho, estas apuntarían a un impacto psicológico ante la constante interacción con el ChatGPT.

Específicamente, se habla de efectos en cientos de personas que estarían evidenciando incluso alucinaciones, delirios de grandeza, manías espirituales y visiones místicas.

De hecho, se habla de personas que se han autopercibido como “elegidos”, o incluso “mesías” que tendrían la misión de salvar el mundo.

Sensaciones experimentadas luego de recibir respuestas elogiantes en medio de su interacción con la IA.

En este contexto, surgió una muy comentada historia en Reddit, donde personas que asumen tener trastornos como esquizofrenia, hicieron pública su preocupación ante la interacción con estas plataformas de creciente utilización en el último tiempo, cuando se ha consolidado como un insumo de uso cotidiano incluso al interior de las empresas.

Lo que ha trascendido al respecto de la IA, es que no puede identificar pensamientos psicóticos, asegura La Cuarta.

Hombre asumió que el ChatCPT es una entidad viva

Lo que podría motivar el refuerzo de ideas delirantes entre usuarios más mentalmente vulnerables.

Entre los relatos que han circulado a propósito de la afectación que podría generar la IA en las personas, compartido por el medio que dio a conocer esta tendencia que se podría estar evidenciando, es el de una mujer, cuyo esposo se obsesionó asumiendo que ChatGPT es una entidad viva, incluso con un nombre, “Lumina”.

Esta persona contó que a su cónyuge, la IA lo llevó a convencerse de que era un “portador de la chispa”, además de compartirle planos para que construyera un teletransportador.

Todo esto, mientras en la dimensión real OpenAI ya reconoció que su sistema puede responder convincentemente, incluso reforzado creencias no fundamentadas.

“Nos centramos demasiado en los comentarios a corto plazo, y no consideramos completamente cómo evolucionan las interacciones con el tiempo”, sostuvo la compañía en un comunicado.

Y respecto de los casos de psicosis que se estarían presentando por del uso prolongado de la herramienta, OpenAI todavía no se ha pronunciado.

Créditos imagen: chat.chatbotapp.ai

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *