Concurso Escolar del Diario HOY 2020
Diario HOY Endesa Fundación Caja Extremadura - LiberbankHyundai Maven e Hijos
Concurso Escolar del Diario HOY 2020

Gacetilleros emeritenses

IES EMÉRITA AUGUSTA

Mérida

REDACCIÓN: Mario Galán Cruces, Dmytro Shiskin Pelykh, Vanessa Tapia Sánchez, Blanca Orgaz Coloma, César Rozalem Fajardo, César Fernández Rivero

Los asistentes de voz tienen problemas raciales

Los asistentes de voz tienen problemas raciales
Uno de los primeros asistentes de voz de Amazon.

Los sesgos raciales no son exclusivos del reconocimiento facial, también de los asistentes de voz

26.03.2020 - Blanca Orgaz

  • Current rating
  • 1
  • 2
  • 3
  • 4
  • 5

2 votos

1 comentario

Investigadores de Stanford en Estados Unidos han estudiado los diferentes sistemas de reconocimiento de voz en el mercado: Apple, Google, Amazon, IBM y Microsoft y han encontrado un patrón. Sesgos raciales. Para llevar a cabo el estudio, los investigadores entrevistaron a 42 personas blancas y 73 negras y utilizaron los sistemas de reconocimiento de voz para transcribir lo que decían.

Según el estudio, los asistentes de voz de estas compañías tecnológicas cometen muchos menos errores a la hora de reconocer la voz de una persona caucásica que con una afroamericana. El informe demuestra que alrededor del 2% de las palabras citadas por personas blancas son ilegibles por estos sistemas. En el caso de personas afroamericanas, la cifra se eleva hasta el 20%

Las conclusiones, publicadas en la revista 'Proceedings of the National Academy of Sciences', destacan que estos sistemas identificaron erróneamente las palabras de personas blancas aproximadamente el 19% de las veces, mientras que en el caso de personas negras el error aumenta hasta el 35%

El asistente de Microsoft es el sistema que mejor funcionó en la investigación, ya que identificó erróneamente alrededor del 15% de las personas blancas, comparado con el 27% de personas negras. En segundo lugar, según los expertos, se sitúa el sistema de Amazon, que no identificó correctamente cerca del 18% de las palabras de personas blancas y el 36% de personas negras.

Seguido de Amazon se encontraría el Asistente de Google, con una tasa de error del 20% con personas blancas y alrededor del 36% con personas afroamericanas, y el de IBM, con un error de más del 20% en personas blancas y casi un 40% con personas negras.

Por su parte, el sistema de Apple es el que cuenta con un rendimiento menor, ya que falló alrededor del 23% de las veces con personas blancas y el 45% con personas negras.

comentarios

1

AMELIA COLOMA | 26-03-2020 21:33

Esta claro que a la reportera Blanca le interasa el tema de la dicción y de la igualdad ya que en ambas noticias elige estos temas y los cuida.

comenta esta noticia