ARCHIVO

Inteligencia Artificial para erradicar el suicidio

Varias investigaciones en los últimos años ponen de manifiesto que la voz puede servir para detectar casos de salud mental

MADRIDActualizado:

La Inteligencia Artificial (IA) es una de las tecnologías más candentes de momento. El recurso al que se aferran las empresas para completar la ya iniciada transformación digital. Una tecnología que despierta tantas dudas como expectación. Existen innumerables proyectos que sacan provecho de sus bondades, aunque no todos aplican estos avances a un nivel demasiado profundo. La medida, sin ir más lejos, tiene una gran oportunidad para lograr diagnósticos más precisos por medio de los algoritmos. No como sustituto, pero sí como complemento.

El llamado «aprendizaje profundo» («Deep Learning», en inglés) es una de sus ramas con más fuerza. Representa un cambio conductual y metodológico que promete resultados más precisos. Estudios clínicos, de hecho, han empezado a experimentar con esta tecnología en los últimos años para casos muy concretos, pero sobre todo se vislumbra con gran esperanza para lograr la detección precoz en patologías. Incluso en salud mental, cuyos casos están cada vez más aumentando a un ritmo preocupante.

Recientes investigaciones han apuntado a la tesis de compatibilidad de la IA con los diagnósticos de trastornos de estrés postraumático. Expertos están convencidos de que existen posibilidades de aprovechar sistemas de «aprendizaje profundo» para una detección temprana mediante la identificación y la monitorización de marcadores muy concretos como señales verbales y físicas que pueden indicar un comportamiento suicida en una persona, informa «The Next Web». El suicidio es la décima causa de muerte en los Estados Unidos y la segunda entre adolescentes.

Un estudio reciente de la universidad de Nueva York ha permitido crear un sistema basado en inteligencia artificial que es capaz de procesar el lenguaje natural de una persona basándose en la misma tecnología de los asistentes digitales domésticos como Alexa, Assistant y Siri. Según los expertos, se puede detectar trastornos de estrés postraumáticos en veteranos de guerra con una precisión del 89 % con solo con escuchar grabaciones de audio. Algo que podría ejecutarse a casos domésticos.

La voz puede ser un indicador de un posible impulso suicida. Esta es la teoría en la que empezaron a trabajar otros investigadores hace varios años a partir de investigaciones previas de Stephen Silverman, psiquiatra de la universidad de Yale, quien participó a principios del milenio en el desarrollo de un protocolo para ayudar a los servicios de atención telefónica. A partir de entonces se han desarrollado herramientas concebidas para la detección precoz. En 2017, la universidad de Vanderbilt (Nashville, Estados Unidos) crearon un algoritmo capaz de predecir los intentos suicidas con una precisión del 92 %.

Para ello, el software cruzaba varios parámetros para devolver una previsión. Se analizan registros médicos de los paciente, pero también otros valores como el género o, incluso, la ubicación por medio del código postal. El problema al que se enfrentan los investigadores es que el suicidio, un problema tabú en las sociedades avanzadas, no es una enfermedad como tal sino un síntoma o consecuencia. Aunque se ha avanzado hacia una mayor concienciación, los problemas de salud mental como la depresión o ansiedad generan cierta incomprensión social que provoca que muchas veces no sean ni siquiera tratados por profesionales médicos.

Conscientes de estos problemas, las principales redes sociales han incluso diseñado protocolos de actuación para intentar frenar esta lacra. Muchas veces, usuarios con tendencia suicidas suelen dejar pistas en sus publicaciones. Desde 2017 Facebook ha puesto en marcha una herramienta de inteligencia artificial para ayudar a usuarios que puedan estar contemplando el suicidio mientras usan la plataforma, con objeto de evitar que den ese paso. La compañía busca reconocer patrones en las publicaciones y en los vídeos en directo de los usuarios que sugieran que un persona está considerando la opción de acabar con su vida, explicó la empresa en un comunicado. También la multinacional asegura contar con equipos humanos que prestan su ayuda en estos casos.