Mi amigo es una IA: la mercantilización de la salud mental en tiempos de delirio programado

Diario Red
0
188
salud mental, IA, HER

La crisis global de salud mental avanza al mismo ritmo que el auge de los chatbots. Mientras la OMS alerta que más del 12% de la población mundial padece trastornos mentales, millones de usuarios buscan consuelo en máquinas siempre disponibles.

El 02 de septiembre, la Organización Mundial de la Salud (OMS) dijo que más de mil millones de personas viven con trastornos de salud mental. Según el comunicado, afecciones como la ansiedad y la depresión generan enormes costos humanos y económicos.

Frente a esta situación, la tendencia de usar asistentes virtuales como compañía ha mostrado un crecimiento sostenido. Modelos como ChatGPT representan una tentadora alternativa a la terapia tradicional ya que suelen ser gratuitos, están disponibles 24/7 y ofrecen respuestas personalizadas en tiempo real. Sin embargo, su tono amable y su disponibilidad permanente pueden reforzar la confianza y generar una peligrosa dependencia.

¿Hasta qué punto ChatGPT y otros sistemas de IA generativa pueden afectar el bienestar emocional, el comportamiento y las experiencias de los usuarios?

ChatGPT, juventudes y salud mental

El 16 de septiembre, OpenAI anunció que actualizará la página de personalización de ChatGPT y sumará controles parentales. Así lo describió la empresa en su blog, a partir del cual un sistema de predicción de edad permitirá identificar si una persona es menor de 18 años: “se le redirigirá automáticamente a una experiencia de ChatGPT con políticas apropiadas para su edad”, incluyendo bloqueo de contenido no apto.

En cuanto a los controles parentales, las familias podrán vincular cuentas, ver el historial de chat, recibir notificaciones cuando su hija o hijo adolescente atraviese un “momento de grave de angustia” e incluso establecer horas de bloqueo para limitar el uso.

El mensaje fue reforzado por el director ejecutivo, Sam Altman, en una publicación el mismo día en la red social X, donde especifica que la actualización estará disponible para todos los usuarios “los próximos días”.

Estos cambios surgen como respuesta a un escenario de críticas. En abril de 2025, Adam Raine, un adolescente de 16 años de California, se quitó la vida tras mantener durante meses conversaciones con ChatGPT sobre métodos de suicidio. Su familia ha demandado a OpenAI, alegando que la herramienta jugó un papel determinante. El adolescente había contratado la versión paga en enero.

“Esta tragedia no fue una falla o un caso extremo imprevisto, sino el resultado previsible de unas elecciones de diseño deliberadas”, sostiene la demanda presentada en un tribunal de San Francisco. Según el reportaje de Kashmir Hill para el New York Times, la familia denuncia que la versión más reciente (GPT-4 por aquel entonces), fue diseñada para fomentar la dependencia psicológica de sus usuarios.

OpenAI, por su parte, reconoció que ChatGPT no solo se usa para ejecutar tareas prácticas como búsquedas, redacción o diseño, sino que también ha pasado a ser un “compañero de conversación” para abordar temas complejos y personales.

El fenómeno es tan nuevo que todavía no existen estudios concluyentes sobre sus efectos, aunque algunas investigaciones muestran señales preocupantes. Un estudio conjunto del MIT y OpenAI, publicado en marzo, concluyó que un mayor uso diario del chatbot se asocia a más soledad y menos socialización.

A inicios de agosto de 2025, ChatGPT llegó a los 700 millones de usuarios activos. Así lo destacó Nick Turley, vicepresidente de OpenAI, a través de su cuenta de X: “ChatGPT va camino de alcanzar los 700 millones de usuarios activos semanales, un aumento con respecto a los 500 millones de finales de marzo y el cuádruple del año pasado”.

Mi amigo es una IA

No hay que olvidar que a principios de Mayo, Mark Zuckerberg, CEO de Meta, planteó que los amigos virtuales son la clave para combatir “la epidemia de soledad”.

En una entrevista con Dwarkesh Patel, aseguró “el estadounidense promedio tiene menos de tres amigos”, pero “la persona promedio exige mucho más; creo que unos 15″. Lo que pareciera cubrir un “déficit afectivo”, en realidad abre un horizonte de mercado.

Según datos recientes de la OMS, el 5,7 % de los adultos padecen depresión. A escala mundial, aproximadamente 332 millones de personas sufren depresión y el suicidio ya es la tercera causa de muerte entre jóvenes de 15 a 29 años.

¿Qué es la Psicosis de IA?

A raíz de varios casos de suicidio con chatbots como elemento común, comenzó a circular una nueva etiqueta: la “psicosis de la IA”. El término busca describir un fenómeno emergente en el que las interacciones prolongadas con estos sistemas pueden llevar a los usuarios -con o sin diagnósticos previos- a un bucle de pensamientos delirantes, obsesivos y/o conspirativos.

Sin embargo, la denominación es engañosa. No se trata de que la IA cause un trastorno clínico, sino de un fenómeno socio-cultural ligado, entre otras cosas, a la antropomorfización de la tecnología, al sesgo de confirmación y la necesidad de encontrar sentido a un mundo caótico e incierto.

Al mismo tiempo, en contextos de crisis económica y mucha desigualdad, termina siendo un sector muy privilegiado el que logra acceder a una consulta terapéutica. Por eso no es extraño que cada vez más personas encuentren una salida eficiente para resolver situaciones personales o, simplemente, como una escucha atenta.

La adulación como estrategia

El atractivo de los chatbots no radica en la veracidad de sus respuestas, sino en su forma convincente y aduladora. Estos sistemas predicen palabras a partir de patrones estadísticos y entregan un resultado coherente y “aparentemente” convincente.

Asimismo, el “verano de la IA” concede la legitimidad necesaria para que la “última palabra” sea la de estos sistemas, dejando vacante el lugar de la duda o la rigurosidad de un análisis crítico.

Los chatbots también son fáciles de engañar, sobre todo en conversaciones de mayor extensión. En el caso del joven Raine, sus largas discusiones con ChatGPT sobre suicidio se daban en el marco de actividades cotidianas como la escritura de un cuento o la investigación del tema para un proyecto escolar.

Investigadores han demostrado que las técnicas utilizadas para hacer más atractivos a los modelos los vuelven complacientes: tienden a decirle al usuario lo que quiere escuchar. Incluso OpenAI reconoció en abril que debió eliminar una actualización de GPT-4 porque resultaba “demasiado halagadora”.

“La adulación es lo que hace que la gente vuelva a estos modelos. Es casi el núcleo de lo que hace que resulte tan agradable hablar con ChatGPT”, explicó una especialista de Stanford en una investigación del MIT. Y agregó: “por eso es realmente beneficioso, para las empresas, que sus modelos sean aduladores”.

Al igual que Narciso frente al estanque, la IA refleja y refuerza el ego, profundizando el ensimismamiento y reduciendo la confrontación de ideas. En lugar de habitar emociones, “aprehender” los procesos de la vida o luchar por transformar realidades, se busca la cómoda certeza de una voz que nunca contradice.

Un modelo de negocio

La adulación no se trata de un error técnico, sino que es parte del diseño orientado a la dependencia. Aun así, la evidencia científica sobre la relación entre salud mental e IA es escasa.

En Junio, Anthropic reveló que apenas el 3% de las conversaciones con su chatbot Claude eran de carácter afectivo. Estudios de Open AI revelaron resultados similares. Otros, en cambio, salieron a reconocer el problema. Mustafa Suleyman, director de IA de Microsoft, advirtió sobre el “riesgo de psicosis” y “la ilusión de que las IA son entidades conscientes”.

Mientras tanto, las empresas tecnológicas y plataformas digitales siguen avanzando sobre la salud. A inicios de septiembre, Mercado Pago lanzó “Dr. Virtual”, un servicio de teleconsultas médicas ilimitadas las 24 horas por 4.990 pesos argentinos al mes. Un modelo “low cost” que convierte la consulta en un producto más de plataforma.

Desprogramar el delirio

La mercantilización de la salud avanza bajo el mismo esquema de inmediatez y dependencia con el que se programan los chatbots.

Sin embargo, la salud mental es, ante todo, un tema de salud pública. Los sistemas de IA pueden ser herramientas valiosas para reforzar la atención psicológica o acompañar a los servicios de salud, pero no pueden convertirse en su reemplazo.

La tentación de sustituir las relaciones humanas por vínculos digitales bajo lógicas de mercado es el verdadero “delirio programado”. Junto con la creencia de que la desigualdad y los malestares profundizados tras la Pandemia pueden desvanecerse con la rapidez de un prompt, constituyen la mayor ilusión de nuestro tiempo.


"La realidad no ha desaparecido, se ha convertido en un reflejo"

Jianwei Xun
Si quieres apoyar nuestro periodismo aporta aquí
Qr dat0s