Sentir es una de las características de los seres vivos, que va desde lo más simple como el dolor, hasta la complejidad de las emociones humanas como la melancolía. Y aunque sea una cuestión natural en la humanidad, no siempre es fácil externar qué es lo que sentimos.
A pesar de que existe la terapia y después de un proceso largo en el que entendemos cómo hacerlo, muchas veces sería más fácil si alguien (o algo) pudiera verbalizar por nosotros todo lo que sentimos. Por ello, es que investigadores de la Universidad de Colorado y la Universidad de Duke, han creado EmoNet.
Las inteligencias artificiales que detectan movimientos y rostros, ya son tan comunes que podemos encontrarlas en nuestros smartphones, y con un simple vistazo de nuestro rostro, estas inteligencias desbloquean nuestro celular, o acomoda nuestras fotos en carpetas según patrones similares de rasgos.
Estas tecnologías que pueden captar voces y demás, están tomando otra vertiente más científicas y neurológicas. Precisamente lo que están experimentando con EmoNet.
Así lo explican los expertos en el abstract del artículo científico:
La detección precisa de la emoción del lenguaje natural tiene aplicaciones que van desde la construcción de chatbots emocionales hasta una mejor comprensión de las personas y sus vidas. Sin embargo, el progreso en la detección de emociones se ha visto obstaculizado por la ausencia de grandes conjuntos de datos etiquetados. En este trabajo, creamos un conjunto de datos muy grande para las emociones específicas y desarrollamos modelos de aprendizaje profundo sobre él.
Precisamente, estos científicos desarrollaron una base de datos que consta de 2,185 videos en la que aparecían 27 categorías distintas de emociones, que iban desde ansiedad e interés hasta tristeza y sorpresa. Ha logrado que una IA pudiera reconocer 11 emociones diferentes.
Después de creada esta base, le mostraron a la IA una serie de fotografías con emociones distintas, las cuales comparaba con más de 1,000 de estos cuadros obtenidos de los videos, lo que concluyó en que puede entender con precisión las emociones como el deseo general, el deseo sexual o el horror.
Aunque no ocurrió lo mismo con la confusión, asombro o sorpresa, emociones catalogadas como más abstractas. Los investigadores dijeron que las emociones como la alegría, la diversión y la adoración eran confusas para la IA, ya que tenían rasgos faciales similares.
Para mejorar aún más el modelo, los investigadores llamaron a 18 personas y midieron su actividad cerebral mientras les mostraban 112 imágenes diferentes. Luego mostraron las mismas imágenes a EmoNet y compararon los resultados.
Lo cual decanta en que los psicólogos, psiquiatras e incluso neurocientíficos, no sólo dependerán de respuestas subjetivas, ya que podrán utilizar EmoNet para para comprender mejor los sentimientos de un sujeto.
Esta investigación, aunque interesante sobre todo por las aplicaciones a futuro, aún está en una fase muy temprana, por lo que aún puede estar muy lejos de ser implementada para usos prácticos.
Claro que es más que interesante pensar en lo que podría facilitar este tipo de tecnología, pero siempre quedarían hoyos, como los que un humano puede crear con sus facciones si es actor, o la forma en que las emociones se confunden y unen, como en el final de Intensamente (2015).
Comprender nuestras propias emociones es complicado, comprender las de otro humano es aún más complicado, pero esperar que una máquina sin empatía pueda aprender tanto de nosotros (incluso más de lo que la psicología y las neurociencias han aprendido en décadas), actualmente, es casi imposible.
Así pues, una propuesta interesante que no debemos quitarle el ojo de encima, tal vez nos sorprendamos más pronto que tarde.