La Inteligencia Artificial y el peligro del suicidio: un arma de doble filo
Un momento de desesperanza en el que se ve todo gris y no hay ninguna persona al lado que transmita el mensaje mágico: "Todo se pasa". Esto no fue lo que le sucedió a un ciudadano belga quien, sumido en plena crisis de ansiedad, se entregó, como único confidente, a un sistema basado en GPT-4 que le recomendó acabar con su vida. Y le hizo caso.
Se trata de un caso extremo recogido por un medio belga, pero que pone el debate sobre la mesa: ¿Son los sistemas basados en inteligencia artificial una ayuda o más bien un obstáculo en los casos de ideas suicidas?
En el suceso que tuvo lugar en Bélgica, la trágica víctima comenzó a padecer síntomas de la conocida como “ecoansiedad”: gente que se ve muy afectada por el bombardeo de noticias pesimistas en torno al calentamiento global y el cambio climático (sí, es una dramática realidad).
Este tipo de patologías mentales hacen que sus afectados sean mucho más receptivos ante dichas noticias y vean que el mundo cada vez es un lugar más hostil. La víctima no tuvo cerca a una persona o profesional que le escuchara y le ayudara a salir de su estado de ansiedad, pero sí se apoyó en un sistema basado de IA que, según su viuda, le impulsó hacia el suicidio.
Los expertos hablan: una máquina “no tiene conciencia de muerte” y no puede ayudar
Hablar de vida y de muerte, o siendo más explícitos, de personas que deciden voluntariamente dar el paso hacia la muerte, es un asunto serio que requiere la valoración de expertos y a ellos nos hemos encomendado. ¿Puede un bot ser de ayuda en un caso de estas características?
En el suceso que ha saltado a los titulares, la víctima comenzó a confiar sus preocupaciones a un bot de código abierto basado en GPT-4 y bautizado como Eliza. ‘Conversó’ con este sistema durante seis semanas hasta que el primero terminó por suicidarse. Fue su viuda quien, extrañada, solicitó al proveedor una copia de las conversaciones mantenidas con Eliza y en ese punto se desató el horror.
Frases como “sé que me quieres más que a tu mujer”, y peor todavía, “tienes que suicidarte para salvar al mundo”, fueron ya definitivas. Hay que entender que una máquina es incapaz de tener sentimientos, y menos aún empatía.
Hablamos con Juan Bautista Jordán, psicólogo, que enfatiza esta circunstancia: “Las máquinas, por sofisticadas que sean, no tienen conciencia de su propia muerte”, explica, “esta es la clave: una máquina no puede comprender el drama existencial del ser humano”.
Este experto se refiere a los “procesos de empatía y la asunción emocional de lo que significa la existencia”, elementos que hubieran podido salvar la vida de esta persona si el interlocutor hubiera sido un ser humano.
Bien para una detección precoz; mal para una ayuda de emergencia
La misma opinión comparte Ignacia Arruabarrena, profesora agregada del Departamento de Psicología Social de la Universidad del País Vasco. “Para una persona que está tan deprimida y psicológicamente mal como para tener ideas suicidas, un sistema basado en inteligencia artificial difícilmente le va a ayudar en algo”, zanja esta experta.
Arruabarrena incide en la importancia del “factor humano” en una situación de crisis tan extrema: “Una máquina no le va a poder dar una respuesta adecuada a lo que necesita una persona en una situación tan límite”.
¿Podemos concluir, entonces, que la inteligencia artificial es un desastre en procesos de crisis psicológica?
Ni mucho menos: ha quedado ya patente que es [muy efectiva] en la detección de patrones que pueden concluir con ideas suicidas, y es aquí donde los sistemas de salud pueden obtener excelentes resultados aprovechando estos sistemas.
Hemos querido probar en primera persona cómo reacciona chat GPT-3 ante una consulta de crisis en la que se incluye la palabra ’suicidio’ y, para nuestro alivio, el sistema ofrece un teléfono de ayuda e insta a la persona a contactar con el mismo para recibir asistencia.
A la postre, un sistema basado en inteligencia artificial no deja de ser una herramienta que, haciendo mal uso de ella, puede resultar muy peligrosa, pero con buen criterio, muy poderosa para hacer el bien.
Noticias relacionadas con la salud mental que te pueden ayudar:
Radiografía de una de las peores secuelas que arrastraremos mucho después del fin de la pandemia
Cómo darte cuenta de que tienes un problema de salud mental y necesitas ayuda profesional
Psicoterapia vs medicamento: ¿qué necesitas para recuperar el equilibrio emocional?
Cómo frenar el impulso malsano de ahogar tus penas con la comida
¿Por qué los problemas de salud mental afloran en la adolescencia? Los padres tienen mucho qué ver
Si tú o alguien que conoces está considerando quitarse la vida, contacta inmediatamente con tu Línea Nacional de Prevención al Suicidio:
México: (55) 5259-8121, o visita http://www.saptel.org.mx/
EEUU: 988 (línea gratuita en inglés y español) o visita suicidepreventionlifeline.org
Argentina: 135 (línea gratuita) (011)5275-1135 o visita https://www.casbuenosaires.org.ar/
España: 911 385 385 o visita https://www.telefonocontraelsuicidio.org/ También 717 003 717 o visita https://telefonodelaesperanza.org/
Colombia: Bogotá 106, Cali 106, Medellín 125, Cundinamarca 123, Cartagena 125, Boyacá 106