El algoritmo que sabe cuánto sufrimos
Una técnica de inteligencia artificial permite identificar y medir el dolor de una persona a través de la mímica de su rostro
Permitirá mejorar la dosificación de calmantes en UCI con enfermos que no pueden comunicarse
¿Se puede medir el dolor?
Esta funcionalidad es sólo para registrados
Iniciar sesiónNo existe ninguna técnica objetiva capaz de medir la intensidad del dolor de una persona. No huele, no se ve, no se palpa..., solo se siente. Es un estado emocional, una experiencia única e intransferible que cambia con la tolerancia o el umbral del ... dolor de cada sujeto. Y esa percepción también se experimenta de forma diferente siendo mujer, hombre, adulto o niño dependiendo de cuestiones socioculturales y hasta de nuestras creencias. Los más religiosos, por ejemplo, tienden a aceptar y tolerar el dolor con más resignación que los no creyentes .
Para los médicos, su evaluación y diagnóstico es aún un reto pendiente . La forma habitual de medirlo es mediante la combinación de la entrevista clínica con escalas que permiten valorar del 0 a 10 la intensidad que siente. En el que 0 es la ausencia de molestia y 10 es el máximo dolor soportable. Otras escalas se representan con colores, pasando de una gama de tonos grises y blanco (sin dolor) hasta el negro (el máximo sufrimiento). Estas escalas siempre son subjetivas, pero cuando se trata de niños, personas con demencia o enfermos semiinconscientes la forma de cuantificarlo aún se complica más.
Si ha entrado alguna vez en una UCI, con enfermos críticos rodeados de cables y a veces sin poder comunicarse, puede imaginarse lo difícil que resulta recurrir a una de estas escalas para que los sanitarios puedan ajustar la medicación del dolor.
Con patrones faciales
Por eso medir el sufrimiento es un reto médico y científico. Hay experimentos en marcha para medirlo con un simple análisis de sangre, pero la apuesta fuerte se ha trasladado a programas informáticos que permiten medir la expresión del dolor con programas de reconocimiento de los patrones faciales . Una de esas herramientas la ha desarrollado el español Pau Rodríguez, profesor de la Universidad Autónoma de Barcelona e investigador de Element AI , una empresa de inteligencia artificial con sede en Montreal (Canadá). El resultado es un modelo de inteligencia artificial capaz de reconocer la intensidad de dolor que sufre una persona solo con sus gestos. Su técnica ha sido reconocida en los últimos premios de Informática de la Fundación BBVA .
Para conseguirlo, primero tuvieron que entrenar a la máquina a reconocer el dolor a partir de millones de imágenes de rostros extraídas de una base de datos pública. «Teníamos que enseñar primero al ordenador para que aprendiera lo que es una cara. Posteriormente, hicimos que nuestro modelo de cara siguiera aprendiendo en bases de datos de imágenes públicas de universidades y centros de rehabilitación con vídeos de pacientes en rehabilitación donde el nivel del dolor era anotado por expertos. Con ello, el modelo fue capaz de relacionar los gestos que realiza de una cara según el nivel de dolor con una precisión muy buena», explica Rodríguez a ABC desde Montreal.
La máquina aprende
El ordenador, en realidad, no era quien aprendía sino unas redes neuronales artificiales que imitan de manera aproximada la forma en la que las neuronas en el cerebro forman conexiones para resolver una tarea. Se entrenó a estas redes con imágenes en vídeo de caras para que fueran capaces de identificar micromovimientos , cambios muy sutiles en los músculos de la cara para interpretar el nivel de sufrimiento. Al mismo tiempo, la red aprendía a ignorar todos los gestos faciales superfluos en la predicción del dolor. Solo así podía centrarse en los movimientos involuntarios que sí delatan el sufrimiento.
La clave, en el interior del cerebro
Los gestos son solo un intento de aproximación objetiva al dolor. El idioma más universal para expresar el dolor se encuentra dentro del cerebro, «basado en millones de impulsos eléctricos entre millones de neuronas», recuerda el profesor de la Autónoma de Barcelona. El problema es que acceder a dicha información es claramente invasivo para los pacientes, porque por ahora suele requerir la inserción de dispositivos en el tejido cerebral . «Nuestros resultados respaldan la hipótesis de que los movimientos involuntarios y microgestos faciales no son una mala aproximación, sobre todo para disponer de un sistema informático que permita avisar al personal sanitario en momentos de mucho dolor cuando el paciente se encuentre justo en ese momento solo, o no se pueda comunicar», detalla.
Una cámara del móvil
El sistema premiado está pensado para enfermos que pasen mucho tiempo solos y tengan algún problema para comunicar el dolor que sienten, como por ejemplo los que permanecen en cuidados críticos. Sería una fórmula rápida para verificar si el enfermo tiene molestias y necesita subir la analgesia o, por el contrario, reducir el nivel de calmantes. Bastaría tener un ordenador con cámara o un móvil.
Una vez entrenado, el sistema puede realizar lecturas de dolor de manera instantánea . En el caso que las condiciones de lectura cambiaran, por ejemplo, con caras vistas en un nuevo ángulo, cambios de iluminación, etc. se podría hacer que el sistema aprendiera durante unos minutos para adaptarse a las nuevas condiciones.
Diagnóstico de alzhéimer
La misma herramienta informática se ha probado también como apoyo al diagnóstico del alzhéimer. En colaboración con el hospital universitario de Niza y el centro INRIA se adaptó para estudiar a enfermos mientras realizaban un tipo de test, en el que los pacientes deben reproducir una serie de signos con las manos. La red neuronal ayuda a identificar si los signos reproducidos estaban realizados por una persona con una enfermedad neurodegenerativa.
Ahora el investigador español trabaja en Canadá en el desarrollo de sistemas de inteligencia artificial que aprendan a resolver tareas con muy pocas demostraciones por parte de un humano. «Por ejemplo, tratamos de conseguir que un ordenador pueda reconocer un objeto en una imagen a partir de únicamente un solo ejemplo. Ahora necesitamos millones de ejemplos , como hicimos con el dolor y las caras y un médico que haga anotaciones lo que supone mucho tiempo y dinero», cuenta. Otra opción es que utilizar millones de datos sin anotar y que la red sea capaz ella sola de aprender sin intervención humana, «que es el verdadero cuello de botella de estas técnicas».
Pau Rodríguez está convencido de que la inteligencia artificial cambiará el mundo y pondrá fin a numerosos trabajos repetitivos.
Noticias relacionadas
Límite de sesiones alcanzadas
- El acceso al contenido Premium está abierto por cortesía del establecimiento donde te encuentras, pero ahora mismo hay demasiados usuarios conectados a la vez. Por favor, inténtalo pasados unos minutos.
Has superado el límite de sesiones
- Sólo puedes tener tres sesiones iniciadas a la vez. Hemos cerrado la sesión más antigua para que sigas navegando sin límites en el resto.
Esta funcionalidad es sólo para suscriptores
Suscribete
Esta funcionalidad es sólo para registrados
Iniciar sesiónEsta funcionalidad es sólo para suscriptores
Suscribete