Inicio ESTILO DE VIDA Tu ordenador sabrá si estás triste

Tu ordenador sabrá si estás triste

248
0

Portátiles y smartphones son nuestros compañeros constantes. Ante ellos nos quitamos la careta, no fingimos, somos lo que somos. Es una pena que ellos no puedan estar a la altura (de momento). Porque, por muchas horas que pases con tu laptop, él es incapaz de adivinar si estás triste y no puede reaccionar en consecuencia.

Los expertos han buscado un inesperado giro al asunto: incorporar las emociones al mundo de las interacciones digitales. La señal definitiva es el destino que han dado últimamente a sus dineros algunos capitalistas de Sand Hill Road, esa colina próxima a la Universidad de Stanford donde se concentran los que invierten en el futuro que tú ni siquiera imaginas. Pues bien, estos prohombres han decidido invertir por primera vez en startups de nombres tiernos. A saber: Affectiva, eMotion, Realeyes, Sension o Emotient.

El reto lo introdujo, en 1995, Rosalind Picard, profesora del Instituto Tecnológico de Massachusetts (MIT), y entonces fue tratada con sarcasmo por sugerir que, para conseguir que una máquina fuera verdaderamente inteligente, había que dotarla de respuesta emocional. “Los programadores deben considerar la perspectiva del afecto al crear un software destinado a interactuar con humanos”, escribió. Picard ha sido la inspiración para muchos investigadores, como la egipcia Rana el Kaliouby, quien, con su colaboración, ha creado el algoritmo Affdex, capaz de identificar la expresión de diferentes emociones a partir de rasgos faciales.

Affectiva, que salió del proyecto del MIT, es el origen de Affdex y, como casi todas las empresas centradas en las emociones, utiliza las investigaciones del psicólogo Paul Ekman, quien por cierto ha fichado por la competencia, la startup Emotient, creada por Marian Bartlett, profesora de la Universidad de California.

Ekman empezó sus investigaciones de las emociones humanas en los 60, y consiguió crear un cuerpo sólido de evidencias que demuestran que es posible identificar seis emociones humanas a partir de la expresión facial, porque sus rasgos son casi idénticos, independientemente del género, la edad o el contexto cultural. Así creó una especie de enciclopedia de quinientas páginas que compila todos los movimientos faciales posibles y que se conoce como el Facial Action Coding System.

A partir de esa información, con el uso de un algoritmo concreto y técnicas de aprendizaje automático, se ha conseguido que una máquina sea capaz de diferenciar una sonrisa auténtica de una social –pensada para agradar– o el dolor fingido del real. Una línea, un entrecejo demasiado fruncido o la tensión marcada en un músculo pueden servir para distinguir una emoción de otra. Los creadores de Affdex aseguran que su precisión para interpretar un entrecejo se acerca al 90 %.

Según El Kaliouby, conseguir que una máquina lea estos cambios es difícil, porque son rápidos y combinados entre sí. Para enseñar a un ordenador a diferenciar una sonrisa genuina de una falsa se introducen en el programa decenas de miles de caras de sonrisas reales de diferentes edades, etnias y géneros, y la misma cantidad de sonrisas sociales. Mediante el aprendizaje automático o machine learning, el algoritmo identifica las líneas, los pliegues y los cambios musculares faciales propios de ambas maneras de sonreír.

Comments

comments

Artículo anteriorLos Yanquis estrenan instructores: A-Rod y Swisher
Artículo siguiente‘La Bestia’, el tren de los sueños y la muerte de los migrantes