¿El software de reconocimiento de emociones es realmente preciso?

No. El reconocimiento de emociones como se practica generalmente en la actualidad (por ejemplo, al evaluar las expresiones faciales de las imágenes usando algoritmos de clasificación) está condenado al fracaso. Se basa en una teoría defectuosa de las emociones, la teoría de las emociones como categorías universales. Esta teoría dice que hay circuitos cableados para las emociones básicas como la ira, el miedo, la tristeza y la sorpresa. Implica que cuando sentimos una emoción mostraremos signos reveladores en nuestro cuerpo y en nuestra cara. Pero hay una paradoja aquí. Si bien sentimos que hay tipos discretos de emoción y tratamos a otras personas como si mostraran esos tipos naturales en sus rostros y a través de otros síntomas corporales, los investigadores no han podido encontrar evidencia que respalde esta idea de que hay categorías distintas de emociones. En cambio, la evidencia empírica sugiere que las experiencias individuales de las emociones no se pueden rastrear a circuitos singulares en el cerebro y, de hecho, no son discretas y distintas.

Alternativamente, la teoría de la emoción construida reconoce que las emociones se construyen individualmente en todo el cerebro a partir de los componentes de la interocepción (lo que sentimos en nuestros cuerpos), conceptos y realidad social. Por lo tanto, nuestras emociones no son discretas y distintas, sino que se crean a partir de un espacio continuo de sentimientos afectivos superpuestos con conceptos de la propia cultura. Puede leerlo en el libro de Lisa Feldman Barrett Cómo se hacen las emociones: la vida secreta del cerebro.

Según la teoría de la emoción construida, no existen categorías discretas de experiencia emocional como el miedo, la ira y el asco . Esto significa que tratar de construir un modelo de clasificación para lo que alguien siente está destinado a fracasar. Los modelos de clasificación en IA, que se utilizan para implementar el reconocimiento de emociones en los rostros, se usan de manera apropiada cuando hay categorías discretas para identificar.

Un ejemplo de cómo falla el software de reconocimiento de emociones

Aquí hay un ejemplo de la API Emotion de Microsoft, usando una foto de Serena Williams celebrando después de una victoria de Wimbledon. Como humanos, podemos identificar que siente alegría, una forma de felicidad. Pero lo hacemos con todo tipo de claves y conocimiento conceptual, no solo a través de una evaluación de su expresión facial. Sabemos sobre tenis y conocemos a Serena Williams. Para evaluar su emoción, notamos que está sosteniendo una raqueta de tenis y vemos lo que está haciendo con sus puños, todo lo cual sugiere felicidad después de una victoria. ¿Qué pasa si vemos esa misma expresión en alguien que acaba de escuchar que su hijo murió en un accidente automovilístico? Luego le atribuiríamos alguna otra emoción.

La API de Microsoft lucha por identificar lo que siente. Su mejor suposición para una emoción era la tristeza, y también estimó un 20% de probabilidad de felicidad y tristeza cada una. Este resultado no debe leerse como si juzgara que está sintiendo una mezcla de emociones. El modelo es un modelo de clasificación y busca identificar uno de varios estados mutuamente excluyentes.

Cómo podrías construir una IA de reconocimiento de emociones

Esto no quiere decir que nosotros, o una IA, no podamos detectar lo que sienten otras personas, solo que necesitamos mejores modelos y más información que simplemente su expresión facial para hacerlo. Así que en adelante:

  • Crear modelos que no supongan que la experiencia emocional cae en categorías discretas; en su lugar, deben reflejar la continuidad y la granularidad de los estados emocionales. Los modelos de clasificación simples no reflejan con precisión cómo funciona la emoción.
  • Use señales y conocimientos además de la expresión facial al construir inteligencia artificial para reconocer estados emocionales.
  • Comprenda que es probable que el reconocimiento de emociones funcione mejor cuando está capacitado para situaciones específicas, por ejemplo, para juzgar el estado emocional de alguien cuando está parado en una tienda de comestibles, por ejemplo, en el que puede usar información además de la expresión facial para juzgar cómo Alguien se siente.

Con respecto al reconocimiento de emociones faciales , la precisión algorítmica es increíblemente robusta y mejora constantemente.

Sin embargo, vale la pena tener en cuenta que la precisión también depende del contexto (o configuración) y de la calidad de los datos que se capturan para el análisis.

La entrada de datos incorrectos será igual a la salida de datos incorrectos. (Ver: Basura adentro, basura afuera)

Mi empresa, Kairos, ofrece análisis de emociones a través de una API o SDK fácil de usar. Es gratis probar si desea validar sus ideas.

Todo lo mejor con tu proyecto,
Ben

Absolutamente. Con algoritmos de aprendizaje automático de vanguardia, es casi exacto.

Pruebe la API de emociones de los servicios cognitivos de Microsoft a continuación, cargue cualquier foto con rostro humano y generará una puntuación de 8 tipos diferentes de emociones humanas y puede elegir la que tenga la puntuación más alta.

Servicios Cognitivos de Microsoft – Emotion API

Pruebe Google Images y busque “caras felices”, “caras tristes” por diversión para ver la precisión.

No, no es exacto ya que el software no comprende gran parte del contenido.

Para probar el reconocimiento de emociones del habla, puede suscribirse a la API: más allá de Verbal, debe ser gratuito, pero la precisión es incierta.