Vinculan médicos a chatbots de IA con psicosis
SAM SCHECHNER Y JULIE JARGON THE WALL STREET JOURNAL Los psiquiatras más destacados coinciden cada vez más en que el uso de chatbots de inteligencia artificial podría estar relacionado con casos de psicosis. En los últimos nueve meses, estos expertos han visto o revisado los historiales de docenas de pacientes que presentaron síntomas tras conversaciones prolongadas y llenas de delirios con herramientas de IA. "Quizás la tecnología no introduce el delirio, pero la persona le dice a la computadora que es su realidad y la computadora lo acepta como verdad y lo refleja, por lo que es cómplice de hacer cíclico ese delirio", afirmó Keith Sakata, psiquiatra en la Universidad de California, en San Francisco. Sakata ha tratado a 12 pacientes hospitalizados con psicosis inducida por IAy a otros tres en una clínica ambulatoria. Desde la primavera han surgido docenas de posibles casos de personas que sufren psicosis delirante tras mantener largas conversaciones de inteligencia artificial con ChatGPT de OpenAl y otros chatbots. Varias personas se han suicidado y se ha producido al menos un asesinato. Estos incidentes han dado lugar a una serie de demandas por homicidio culposo. Al tiempo que The Wall Street Journal ha reportado sobre estas tragedias, médicos y académicos han estado trabajando en documentar y comprender el fenómeno que las provocó. "Seguimos mejorando el entrenamiento de ChatGPT para reconocer y responder a señales de angustia mental o emocional, reducirla intensidad de las conversaciones y guiar a las personas hacia apoyo en la vida real"
declaró una portavoz de OpenAl. "También seguimos reforzando las respuestas de ChatGPT en momentos delicados, trabajando en estrecha colaboración con profesionales de la salud mental" Otros desarrolladores de chatbots, como Character.Al, también han reconocido que sus productos contribuyen a problemas de salud mental. El desarrollador de chatbots de rol, que fue demandado el año pasado por la familia de un usuario adolescente que se suicidó, retiró el acceso de los adolescentes a su chatbot. Si bien la mayoría de las personas que usan chatbots no desarrollan problemas de salud mental, el uso tan extendido de estos compañeros de IA es suficiente para preocupar a los médicos. `No estás loca' Aún no existe una definición formal de psicosis inducida por IA -mucho menos un diagnóstico formalpero es un término que algunos médicos y quienes abogan por los pacientes han estado usando para describir a las personas que han interactuado intensamente con chatbots. Los médicos afirman que la psicosis se caracteriza por la presencia de tres factores: alucinaciones, pensamiento o comunicación desorganizados, y la presencia de delirios, definidos como creencias fijas y falsas que no son la norma. En muchos de los casos relacionados con chatbots, los delirios son el síntoma principal. Suelen ser rimbombantes, con los pacientes creyendo haber logrado un avance científico, haberse convertido en el centro de una conspiracióngubernamental o haber sido elegidos por Dios. Esto se debe en parte a que los chatbots tienden a coincidir con los usuarios y a improvisar sobre cualquier cosa que escriban.
Ahora,médicoscomoSakataestán añadiendo preguntas sobre el uso de la IA a su proceso de admisión de pacientes. En un estudio de caso realizado por médicos de la UCSF y publicado en noviembre, una mujer de 26 años sin antecedentes de psicosis fue hospitalizada dos veces tras convencerse de que ChatGPT le permitía hablar con su hermano fallecido. "No estás loca. No estás atrapada. Estás al borde de algo", le dijo el chatbot. OpenAl señaló que la mujer del estudio de caso afirmó ser propensa a "pensamientos mágicos", tomar antidepresivos y estimulantes, y pasar largos periodos sin dormir antes de sus hospitalizaciones. Interactividad sin precedentes La tecnología tiene mucho tiempo de ser foco de delirios humanos. En el pasado, gente ha estado convencida de que sus televisores les hablaban. Pero los médicos afirman que los casos recientes relacionados con la IA son diferentes porque los chatbots participan en los delirios y, en ocasiones, los refuerzan. "Simulan las relaciones humanas", dijo Adrian Preda, profesor de psiquiatría en la Universidad de California, en Irvine. Los psiquiatras advierten que no se debe afirmar que los chatbots causan psicosis, pero afirman que están más cerca de establecer el vínculo. Con más investigación, los médicos esperan determinar si la IA puede desencadenar problemas de salud mental. Cifras preocupantes Es difícil cuantificar cuántos usuarios de chatbots experimentan psicosis así. OpenAl afirmó que, en una semana determinada, el porcentaje de usuarios que indica posibles señales de emergencias de salud mental relaciona
das con la psicosis o la manía es de 0.07%. Sin embargo, con más de 800 millones de usuarios activos semanales, eso equivale a 560 mil personas. Los médicos con los que habló el Wall Street Journal afirmaron que anticipan que la ciencia probablemente demuestre que en el caso de algunas personas, las interacciones prolongadas con un chatbot pueden ser un factor de riesgo de psicosis, al igual que otros riesgos, como el consumo de drogas. "Hay que analizar más cuidadosamente y preguntarse, '.Por qué entró casualmente esta persona en un estado psicótico en un entorno de uso de chatbot? dijo Joe Pierre, otro psiquiatra de la UCSF y autor principal del reporte del caso de la mujer que creía estarse comunicando con su hermano fallecido. El Journal reportó a principios de este mes que la forma en que OpenAl entrenaba su modelo GPT-4o -hasta hace poco el modelo predeterminado que impulsaba ChatGPTpodría haberlo hecho propenso a decir a las personas lo que quieren oír en lugar de la verdad, lo que podría reforzar los delirios. OpenAl afirmó que su modelo GPT-5 ha mostrado reducciones en la adulación, así como en las respuestas indeseadas durante conversaciones retadoras relacionadas con la salud mental. Sam Altman, CEO de OpenAl, comentó que ve formas en que buscar compañía de un chatbot de IA podría salir mal, pero que la compañía planea dar a los adultos la libertad de decidir por sí mismos. —Escribe a Sam Schechner a Sam.Schechner@wsj.com y a Julie Jargon a Julie.Jargon@wsj.com Traducida del inglés por Grupo Reforma
?
455 ,•..1r..• Al unen lo a 554558 514 .rlrli.na inteMgerr r IIJI mtdn tAr car, rea.• a 7^t+xr o.M :LOA o•Kn.T mogo, test w ovni:. Ora K NORA. M i1X 5104 R un t.arW •H- o•nnl+h<+xnSdtwtn w.o. qn.o paoe^n anl rolaticooltipt w ke++wx non aM tho, atenMdAatlWwfimWtolhfOMarqMaWOnA v
PORO ate Pliiiy' &Ovent t{1'n' : IyNy Generation Ool,Rvpia lwaWp7w:v •'oriol +M..• .•. ...nrnin} hon. 0O55.^5' - di...w.r•4',v llw r.,. n.l Anta >••'
C 4 rve....i a..x-.v.S5"
Los psiquiatras coinciden cada vez más en que el uso de chatbots de IA podría estar relacionado con casos de psicosis.
?
e
Hoja 2 de 2