Un psiquiatra ya ha tratado a 12 pacientes hospitalizados con psicosis inducida por IA y a tres más en una clínica ambulatoria. según el Diario de Wall Street. Y si correctamente la tecnología de inteligencia sintético puede no introducir el simulación, “la persona le dice a la computadora que es su efectividad y la computadora la acepta como verdad y la refleja”, dice Keith Sakata, psiquiatra de la Universidad de California, calificando a los chatbots de inteligencia sintético como “cómplices del ciclo de ese simulación”.
El Journal dice que los principales psiquiatras ahora “están cada vez más de acuerdo en que el uso de chatbots de inteligencia sintético podría estar relacionado con casos de psicosis”, y en los últimos nueve meses “han gastado o revisado los archivos de docenas de pacientes que exhibieron síntomas a posteriori de conversaciones prolongadas y llenas de delirios con las herramientas de IA…”
Desde la primavera, han surgido docenas de casos potenciales de personas que sufren de psicosis delirante a posteriori de participar en largas conversaciones de IA con ChatGPT de OpenAI y otros chatbots. Varias personas tienen murió por suicidio y ha habido al menos un crimen. Estos incidentes han donado superficie a una serie de demandas por crimen por negligencia. Mientras The Wall Street Journal cubría estas tragedias, médicos y académicos han estado trabajando para documentar y comprender el aberración que las condujo…
Si correctamente la mayoría de las personas que usan chatbots no desarrollan problemas de vitalidad mental, el uso tan generalizado de estos compañeros de IA es suficiente para preocupar a los médicos…. Es difícil cuantificar cuántos usuarios de chatbot experimentan este tipo de psicosis. OpenAI dijo que, en una semana determinada, el porcentaje de usuarios que indican posibles signos de emergencias de vitalidad mental relacionadas con psicosis o manía es un minúsculo 0,07%. Sin incautación, con más de 800 millones de usuarios activos semanales, eso equivale a 560.000 personas…
Sam Altman, director ejecutante de OpenAI, dijo en un podcast nuevo que puede ver formas en las que averiguar compañía de un chatbot de IA podría salir mal, pero que la compañía planea dar a los adultos sencillez para animarse por sí mismos. “Con el tiempo, la sociedad descubrirá cómo pensar en dónde la clan debería fijar ese dial”, afirmó.
Una portavoz de OpenAI dijo al Diario que la compañía continúa mejorando la capacitación de ChatGPT “para ojear y replicar a signos de angustia mental o emocional, someter las conversaciones y encauzar a las personas en dirección a el apoyo del mundo auténtico”. Agregaron que OpenAI asimismo continúa “fortaleciendo” las respuestas de ChatGPT “en momentos delicados, trabajando en estrecha colaboración con médicos de vitalidad mental…”




