Zoom planea lanzar sistemas de reconocimiento facial Que las aplicaciones que hace uso de la inteligencia artificial no son una ficción, es algo que ya tenemos todos plenamente asumido, sin embargo, aún no somos conscientes de las implicaciones (y aplicaciones) que el uso intensivo en cada vez más ámbitos de nuestra vida cotidiana puede tener.
En esta ocasión, le ha tocado el turno a Zoom, y es que tal y como informa Protocol en su página web, el nuevo desarrollo de un sistema de reconocimiento facial en tiempo real, pretende escanear las caras de los usuarios y su habla para determinar sus emociones ha causado un enorme revuelo entre diferenes asociaciones que permancen vigilantes, quizá en ocasiones en exceso; ante las consecuencias que el uso de la tecnología del dato puede tener en cuanto al ámbito de los derechos humanos.
Zoom aportó más detalles en una publicación de su blog el mes pasado. Según
compañía dice que 'Zoom IQ' será particularmente útil para ayudar a los
vendedores a mejorar sus lanzamientos en función de las emociones de
los participantes de la llamada.
Una vez más y al margen de las aplicaciones que bien parecen más propias de un mundo de ciencia ficción, la inteligencia artificial muestra su cara más comercial, algo que por otro lado vamos a ver cada vez más más frencuencia en múltiples entornos fuera de los que ya conocemos todos como son los buscadores, las redes sociales o los asistentes de voz personales.
En esta ocasión, a pesar de parece el sistema parece que roza lo distópico, el pretendido desarrollo de zoom atraviesa una linea que toca múltiples aspectos de nuestra irracionalidad, y que sin duda nos ponen en "alerta". Que una empresa pueda rastrear (y posteriormente vender) nuestro estado de ánimo por el simple hecho de participar en videoconferencias de ámbito laboral, en un curso de formación o simplemente en una charla con amigos, resulta como poco, inquietante.
La semana pasada más de 25 grupos de derechos humanos enviaron una carta conjunta al CEO de Zoom, Eric Yuan. La carta insta a Zoom a detener la investigación sobre la IA basada en las emociones.
Los firmantes de la carta incluyen la Unión Americana de Libertades Civiles (ACLU), la Liga de la Justicia Musulmana y Access Now .
Una
de las preocupaciones clave es que la IA de detección de emociones
podría usarse para cosas como contratación o decisiones financieras; como si otorgar préstamos. Eso tiene la posibilidad de aumentar las desigualdades existentes.
“Los resultados no están destinados a ser utilizados para decisiones de empleo u otras decisiones comparables. Todos los rangos recomendados para las métricas se basan en investigaciones disponibles públicamente”, explicó Zoom.
Zoom IQ rastrea métricas que incluyen:
- relación hablar-escuchar
- Velocidad de conversación
- Palabras de relleno
- La perorata más larga (monólogo)
- Paciencia
- Preguntas interesantes
- Próximos pasos configurados
- Análisis de sentimiento/compromiso
Como vemos, las intenciones de Zoom (y sin duda de muchas compañias que ya están planeando acciones similares), van mucho más allá de un simple reconocmiento facial, la pretensión es estudiar comportamientos, categorizarlos, analizarlos, vincularlos a perfiles genéricos y finalmente convertirlos en un producto que las empresas, siempre ávidas de herramientas predictivas, puedan emplear para tomar decisiones sobre si contratarnos o no, sobre si el tipo de interés que nos pueden ofrecer para un crédito, o sobre si nuestro seguro de salud (el que pueda permitírselo), debe costar esto o lo otro.
Esha
Bhandari, subdirectora del Proyecto de Tecnología, Privacidad y
Discurso de la ACLU, calificó a la IA de detección de emociones como
"espeluznante" y "una ciencia basura".
Comparte la noticia
Categorías de la noticia