Algoritmos y riesgo discriminación personas

¿Existen riesgos en las nuevas tecnologías biométricas?

Las tecnologías biométricas inmaduras llevan aparejado un alto riesgo de discriminación de las personas, según la Autoridad Británica de Protección de Datos (ICO).

  • ICO advierte a las organizaciones que evalúen los riesgos del uso de tecnologías de análisis de emociones ANTES de implementar estos sistemas.
  • Las tecnologías de análisis emocional procesan datos como el seguimiento de la mirada, el análisis de sentimientos, los movimientos faciales, el análisis de la marcha, los latidos del corazón, las expresiones faciales y la humedad de la piel.
  • La incapacidad de los algoritmos que no están lo suficientemente desarrollados para detectar señales emocionales lleva aparejado un riesgo de sesgo sistémico, inexactitud e incluso discriminación.
  • En el ICO, preocupa que el análisis incorrecto de los datos pueda dar lugar a suposiciones y juicios sobre una persona que sean inexactos y conduzcan a la discriminación.

Es evidente que todo algoritmo debe incorporar un proceso de en el que se incorporen desde el diseño y por defecto criterios éticos.

  • 14 Diciembre, 2022
  • Olga Martínez
  • Blog
  • 1 min
Volver al blog