En 1972, Kenneth Colby, un psiquiatra de Stanford, desarrolló Parry, un programa diseñado para emular el discurso de una persona con esquizofrenia paranoide. Su objetivo era entrenar a los estudiantes, permitiéndoles familiarizarse con el lenguaje y los patrones de pensamiento característicos de estos pacientes antes de enfrentarse a situaciones reales.
Parry logró simular la esquizofrenia paranoide con tanto realismo que llegó a “superar” la prueba de Turing, un test propuesto por Alan Turing para determinar si una máquina puede exhibir un comportamiento inteligente similar al de un ser humano.
Hoy en día, investigadores de la Universidad de Oxford están examinando cómo la inteligencia artificial podría utilizarse para predecir problemas de salud mental en un futuro cercano. Según Ella Arensman, profesora de Neurociencia y Sociedad, hablar con jóvenes podría ser clave para comprender sus perspectivas y avanzar en la creación de servicios más informativos y útiles.
¿Puede la IA ayudar en el campo de la salud mental?
Jessica Lorimer, asistente de investigación en el Departamento de Psiquiatría, menciona que uno de los métodos actuales, conocido como fenotipado digital, utiliza inteligencia artificial para recopilar y analizar datos de dispositivos móviles, como la actividad física y la ubicación, con el fin de predecir posibles problemas de salud mental.
El doctor Matthew Nour, autor principal y conferencista clínico en el Instituto Nacional de Investigación en Salud y Atención de Gran Bretaña (NIHR), explicó que, en general, el diagnóstico y evaluación psiquiátrica se basan principalmente en conversaciones con los pacientes y sus familiares. Las pruebas automatizadas, como los análisis de sangre y escáneres cerebrales, desempeñan un papel menor en este proceso, aunque el uso de aplicaciones como Chat GPT podría permitir obtener datos de una muestra más amplia de pacientes.
No obstante, estos avances tecnológicos plantean nuevamente cuestiones éticas, especialmente en lo que respecta al consentimiento y la privacidad, particularmente entre los menores de edad. Jessica Lorimer plantea preguntas críticas como: “Si se identifica que un joven está en riesgo, ¿quién debería tener acceso a esa información? ¿Sus padres, maestros, la escuela, o su médico?” Un estudio de Oxford llamado What Lies Ahead está explorando las actitudes éticas de adolescentes de 16 a 17 años hacia las pruebas predictivas de salud mental. Según la investigadora postdoctoral Gabriella Pavarini, uno de los mayores temores de este grupo es el posible impacto psicológico de recibir un diagnóstico predictivo.
Empresas como Facebook ya están utilizando IA para detectar publicaciones que podrían indicar riesgo de suicidio, y estas son revisadas por moderadores humanos. Si se considera que una persona está en riesgo, los servicios de emergencia pueden ser contactados para realizar un “chequeo de bienestar”.
The New Yorker ha señalado que, aunque el uso de IA por parte de Facebook para prevenir el suicidio es un avance significativo, también suscita preocupaciones éticas, especialmente porque recibir un diagnóstico no siempre implica un riesgo inmediato. Esto plantea la pregunta de si los usuarios estarían dispuestos a sacrificar su privacidad para detectar problemas de salud mental de manera temprana.
¿Qué papel puede desempeñar la IA en la salud mental?
Además de los estudios mencionados y las aplicaciones actuales en redes sociales, la inteligencia artificial se está utilizando de diversas maneras para mejorar la salud mental de los jóvenes, desde la detección temprana de problemas hasta el acceso a recursos de apoyo. Algunos ejemplos incluyen:
- Los sistemas de IA pueden analizar datos de comportamiento tanto en línea como en la vida cotidiana para alertar a los profesionales de salud sobre cambios significativos que podrían indicar problemas mentales, como pensamientos suicidas.
- Herramientas basadas en IA permiten a los jóvenes interactuar con chatbots que simulan conversaciones terapéuticas, eliminando barreras como el estigma asociado con buscar ayuda psicológica y la falta de información sobre recursos disponibles.
- La IA también está siendo utilizada para educar a los jóvenes sobre salud mental, ayudando a desmitificar los trastornos mentales y promoviendo un diálogo abierto sobre bienestar emocional.
A pesar de las posibilidades que ofrece esta tecnología, es fundamental que su uso sea ético y responsable. Un estudio de la Organización Mundial de la Salud (OMS) ha señalado deficiencias importantes en la forma en que se está empleando la IA en la investigación sobre salud mental, incluyendo errores en el manejo de datos estadísticos, falta de validación y una evaluación insuficiente del riesgo de sesgo. Por ejemplo, si ciertos grupos étnicos tienen menos acceso a la atención médica, los algoritmos basados en esos datos podrían ser menos precisos al diagnosticar problemas de salud mental en estas poblaciones.
Es esencial que tanto los jóvenes como los profesionales de la salud comprendan las limitaciones de la IA y utilicen estas herramientas como un complemento, no como un sustituto, de la atención profesional.