Inteligencia Artificial detectará las emociones Humanas
Un nuevo enfoque que apela a señales de radio y a la inteligencia artificial para detectar y descifrar las emociones humanas, ha sido desarrollado por un grupo de investigadores de la ‘Universidad de Londres’.
El método, difundido en la revista ‘PLOS ONE’, recurre a señales inalámbricas para medir el ritmo cardíaco y la respiración y así determinar cómo se siente una persona sin necesidad de considerar ningún señal visual, tal como una expresión facial. A los participantes del estudio se les planteó ver un video escogido por los investigadores para provocar una de cuatro emociones básicas: enfado, tristeza, alegría y placer. Durante ese proceso se captaron de manera inocua señales inalámbricas emitidas por cada persona. Al analizan sus reacciones, visibles en leves movimientos corporales, los investigadores pudieron además leer información ‘encubierta’ en sus ritmos cardíacos y respiratorios.
Estudios anteriores usaron también métodos no invasivos e inalámbricos para detectar emociones, pero se basaron en enfoques clásicos de aprendizaje automatizado, que apelan un algoritmo para identificar y clasificar estados emocionales. A diferencia de aquellos, en este último estudio los investigadores emplearon técnicas de aprendizaje profundo -como el análisis de datos por una red neuronal artificial- que permitieron detectar las emociones con mayor precisión. “Con el aprendizaje profundo hemos mostrado que podemos medir emociones de manera precisa e independiente del sujeto: ver una colección de señales de diversos individuos, aprender de esos datos y usarlos para predecir sus emociones en una etapa posterior”, comentó el estudiante de doctorado Achintha Ihalage, uno de los autores.
Ahora están considerando el uso de sistemas de bajo costo, como enrutadores de wifi, para detectar las emociones de un gran número de personas convocadas, por ejemplo, a una oficina u otro entorno laboral. “Esta investigación abre muchas oportunidades para aplicaciones prácticas, particularmente en ámbitos como la interacción entre humanos y robots, así como el bienestar sanitario y emocional, que ha sido cada vez más importante durante la actual pandemia de covid-19”, explicó el jefe del proyecto, el profesor Yang Hao.