Saltar al contenido

La tecnología de reconocimiento de emociones debería estar limitada por ley

La tecnología de reconocimiento de emociones debería estar limitada por ley

El centro de investigación líder AI Now ha pedido nuevas leyes para limitar el uso de tecnologías de detección de emociones. El AI Now Institute dice que el sistema está «construido sobre una base notablemente inestable».

Independientemente, se están comercializando sistemas para seleccionar a los sospechosos de delitos en busca de signos de engaño.

La agencia estadounidense encontró apoyo en el Reino Unido del fundador de una empresa que desarrollaba sus propias tecnologías de detección de emociones, pero advirtió que cualquier restricción debería ser lo suficientemente sutil como para no obstaculizar todo el trabajo que se realiza en esta área.

«Los productores afirman que su sistema lee nuestros estados emocionales internos, si lo desea, interpretando las microexpresiones en nuestro rostro, nuestro tono de voz o incluso la forma en que caminamos», explicó la cofundadora de la profesora Kate Crawford.

«Se utiliza en todas partes, desde la forma en que contrata al empleado ideal hasta la evaluación del dolor de un paciente, para rastrear qué estudiantes se distraen en clase».

«Al mismo tiempo, con la introducción de estas tecnologías, una gran cantidad de investigaciones indica que no hay evidencia significativa de que las personas tengan una conexión constante entre las emociones que sienten y la apariencia de sus rostros».

El profesor Crawford sugirió que parte del problema era que algunas empresas basaban su software en el trabajo de Paul Ekman, un psicólogo que, en la década de 1960, sugirió que solo hay seis emociones básicas expresadas a través de emociones faciales.

Sin embargo, investigaciones posteriores han demostrado que hay mucha más variación, tanto en términos de la cantidad de estados emocionales como de cómo las personas los expresan.

«Cambia en diferentes culturas, en diferentes situaciones e incluso en el mismo día», dijo.

Los fabricantes de estos sistemas no se oponen a controlar sus negocios, pero temen que las leyes puedan inhibir su desarrollo y alcance.

«La capacidad de detectar emociones como la ira, el estrés o la ansiedad proporciona a las fuerzas del orden información adicional al realizar una investigación a gran escala», dijo el director de operaciones Lee Ryber.

«En última instancia, creemos que el uso responsable de esta tecnología será un factor para hacer del mundo un lugar más seguro».