20 de junio de 2021

BC NOTICIAS

Noticias de Manizales y Caldas

Emociones serían reconocidas con modelo computacional

Después de implementar dos propuestas de redes neuronales se determinó que un modelo computacional no-supervisado (conjunto de mapas que se autoorganizan) tuvo mejor desempeño en un ejercicio de reconocimiento de emociones –furia, alegría, tristeza y calma– cuando las personas escuchaban piezas musicales.

Así se pueden encontrar formas efectivas para ayudar en procesos de rehabilitación de pacientes con problemas motores o psicológicos, abordando el reconocimiento de emociones por medio de un enfoque interdisciplinar desde la computación, la neurociencia, el arte y la psicología.

“El uso de estos modelos computacionales para reconocer emociones también es significativo en otros campos, como el análisis de videojuegos y el neuromarketing”.

Así lo dio a conocer el ingeniero electrónico Ferney Beltrán Velandia, magíster en Ingeniería de Sistemas y Computación de la Universidad Nacional de Colombia (UNAL) Sede Bogotá, quien diseñó algunos modelos computacionales para obtener información de ondas cerebrales relacionadas con la expresión emocional de las personas al escuchar música.

El modelo no-supervisado no tiene en cuenta los puntajes emocionales que dan los participantes en estas pruebas, sino que sus parámetros se ajustan por medio de la búsqueda de semejanzas dentro de las señales de electroencefalografía captadas.

Además tuvo mejores resultados de clasificación de la información frente al modelo supervisado, que sí considera los puntajes emocionales dados por los participantes.

Las señales de ondas cerebrales registradas fueron las de electroencefalografía –denominadas señales EEG– y todo el trabajo estuvo involucrado en el contexto de la musicoterapia, por lo que contó con el apoyo interdisciplinar de las Facultades de Arte y Medicina de la UNAL Sede Bogotá.

“En musicoterapia se busca apoyar a las personas que estén en algún proceso de rehabilitación, y para ello un factor fundamental es el reconocimiento de emociones, ya que le permite al terapeuta conectar adecuadamente con sus pacientes”, explica el ingeniero Beltrán.

Con el estudio de ondas cerebrales con señales EEG se podrían encontrar patrones relacionados con las emociones, y usando modelos computacionales como los propuestos –que ayuden a reconocer emociones a través de ondas cerebrales– el terapeuta tendría dichos patrones como referencia en el contexto práctico de la terapia.

Actividad y valencia

La investigación, dirigida y asesorada respectivamente por los profesores de la UNAL Sede Bogotá Jonatan Gómez Perdomo y Miguel Suárez Russi, tomó como referencia el modelo vectorial de emociones, que permite describirlas como una combinación de dos dimensiones, llamadas actividad y valencia.

La actividad hace referencia al grado de energía que pueda presentar una persona en un momento dado, y la valencia a un grado de placer. Bajo estas dos dimensiones se pueden categorizar las emociones de furia, alegría, tristeza y calma, las cuales fueron el objetivo principal del estudio, que se desarrolló en dos etapas: recolección de datos y modelos computacionales.

En la primera se relacionaron elementos de la música como el tiempo, la complejidad armónica y el timbre, además de otros teóricos que permitieron relacionar ese modelo vectorial de emociones con la música.

A partir de ahí el musicoterapeuta Andrés Ojeda –de la UNAL Sede Bogotá– compuso un conjunto de piezas musicales con intención emocional, y en conjunto se aplicó el protocolo experimental, que consistió en mostrar cada una de esas piezas musicales a estudiantes voluntarios de la Institución.

A medida que escuchaban cada canción daban un puntaje asociado con su percepción emocional, y al mismo tiempo se registraban sus señales EEG con una herramienta computacional desarrollada en la investigación. Esa percepción emocional se basó en una prueba de psicología, seleccionada según los criterios de dos psicólogos de la UNAL Sede Bogotá.

Al final de ese ejercicio se obtuvieron las señales EEG y los puntajes que daban las personas, lo que constituyó el conjunto de datos.

Se aplicaron diferentes técnicas de procesamiento de señales para eliminar ruido y extraer las características que alimentan las redes neuronales. Así, la información asociada con emociones dentro de las señales EEG era más fácil de extraer para los modelos computacionales.

Para estos modelos se aplicaron dos tipos de redes neuronales: las basadas en aprendizaje supervisado y las que no lo son. Según estos dos puntos de vista se buscó la información dentro de los conjuntos de ondas cerebrales asociados con las emociones que se pretendieron evocar desde el principio.

Por último, los modelos entregaron una respuesta del grado de actividad y valencia, y por lo tanto de la emoción asociada con esas dimensiones.