Inteligencia Artificial mal dirigida: Buscan vigilar a empleados durante el trabajo a distancia

En la actualidad el uso de Inteligencia Artificial (IA) supone una herramienta prometedora para conocer las secuelas emocionales que el Covid-19 ha producido en el personal de salud o los efectos positivos que puede implicar la reapertura de escuelas en los más pequeños. Sin embargo, un grupo de especialistas se encuentran preocupados por la falta de regulación de su uso, pues muchas no aprobadas podrían arrojar resultados equívocos y discordes con la realidad.

Una variedad de empresas ha recurrido al uso de IA durante la pandemia, ya que el soporte lógico de estas tecnologías les permite trabajar en el reconocimiento de emociones vía remota. Su auge ha sido tal que de acuerdo a estimaciones, compartidas en una publicación de “Nature”, esta industria encargada de interpretar los sentimientos de seres humanos oscilará entre los 37 mil millones de dólares (745 mil 739 millones 70 mil pesos mexicanos) para el 2026.

¿Cómo funciona la IA en el reconocimiento de emociones?

Un consorcio hongkonés desarrolló un sistema conocido como “Cuatro arbolitos”, el cual consiste en la evaluación de reacciones en un grupo de infantes durante las horas escolares. El software de este programa traza los rasgos faciales para asignar el estado emocional de cada alumno en las categorías de felicidad, tristeza, ira, disgusto, sorpresa y miedo. Además tiene la capacidad de medir la “motivación” de cada uno de ellos, así como pronosticar las posibles calificaciones con que serán valorados.

Además de esta herramienta, varias empresas han propuesto la creación de un dispositivo que vigile las actividades laborales de sus empleados durante las jornadas remotas. Esta situación ha polarizado la opinión científica, pues la mitad de las visiones se encuentran en desacuerdo acerca de su uso excesivo y no sólo eso, sino que aseguran que no hay pruebas confiables que comprueben su eficacia.

home_office_2.jpg

En cambio, los investigadores hicieron referencia a una revisión, realizada en 2019 por el Instituto de Neurociencia y Psicología de la Universidad de Glasgow, en la que no hallaron evidencia que demostrara su capacidad de identificar emociones. Las conclusiones del estudio aseguraron que “las empresas de tecnología pueden estar haciendo una pregunta fundamentalmente incorrecta”, concluyó el estudio.

De acuerdo con los especialistas, la exposición de esta problemática estriba en que se ha dado un mal uso de estas tecnologías, por lo que los académicos han solicitado una auditoría obligatoria en torno a las herramientas de inteligencia artificial disponibles, junto con la divulgación pública de sus resultados.

En este respecto, Rosalind Picard, cofundadora de “Affectiva” una empresa de IA en Boston, Estados Unidos (EU), expresó su apoyo a la regulación de esta herramienta, ya que reconoce que en algunas ocasiones, los encargados de publicar los ensayos de dispositivos de inteligencia artificial suprimen los errores y eligen revelar sólo los aspectos positivos.

Los expertos mandaron un mensaje a los colegas que desaprueban la implementación de criterios regulatorios, al expresar que así como el desarrollo de medicamentos implica también cumplir con rigor científico, las herramientas de IA también deben hacerlo, sin que ello implique un problema mediático. “Las herramientas que hacen afirmaciones sobre nuestras mentes deben recibir al menos la misma protección”, insistieron.

home_office_3.jpg

Además, los científicos pro-regulación argumentaron que una verificación rigurosa es importante para que los resultados de los ensayos clínicos sean abiertos a otras empresas, las cuales, tengan la posibilidad de basar sus proyectos en otros que hayan funcionado eficazmente. De la misma manera, “la supervisión regulatoria de las tecnologías afectivas traería beneficios y rendición de cuentas”, explicaron.

Para dimensionar el riesgo que implica el uso de IA no regulada, los expertos recordaron que el polígrafo, una clase de detector de mentiras, inventado en el decenio de 1920, y que fue utilizado por el FBI, así como por el ejército estadounidenses a lo largo de décadas. Sin embargo, su uso produjo resultados inconsistentes que perjudicaron a miles de personas que fueron inculpadas injustamente, hasta que fue prohibido en 1998. Esto sucedió luego que la Corte Suprema de EU concluyera que “simplemente no había consenso de que la evidencia del polígrafo sea confiable”.

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *