Noticias:

¿Quieres formar parte de Bomber Code? Entonces entra a este tema: Postulaciones al Staff

Menú principal

Por qué puede ser peligroso que un algoritmo decida si contratarte o concederte un crédito

Publicado por Bomber Code, 04 Diciembre de 2018, 10:09

Tema anterior - Siguiente tema

0 Usuarios y 1 Visitante están viendo este tema.

Bomber Code

Por qué puede ser peligroso que un algoritmo decida si contratarte o concederte un crédito

Los sistemas de inteligencia artificial son entrenados con datos condicionados por prejuicios
   

En 2014 Amazon desarrolló una inteligencia artificial de reclutamiento que aprendió que los hombres eran preferibles y empezó a discriminar a las mujeres. Un año más tarde un usuario de Google Photos se dio cuenta de que el programa etiquetaba a sus amigos negros como gorilas. En 2018 se descubrió que un algoritmo que analizó la posibilidad de reincidir de un millón de convictos en EE UU fallaba tanto como una persona cualquiera sin especiales conocimientos judiciales o de criminalística. Decisiones que antes eran tomadas por humanos hoy en día son tomadas por sistemas de inteligencia artificial. Algunas relativas a la contratación de personas, la concesión de créditos, los diagnósticos médicos o incluso las sentencias judiciales. Pero el uso de estos sistemas conlleva un riesgo, ya que los datos con los que los algoritmos son entrenados están condicionados por nuestros conocimientos y prejuicios.

Seguir leyendo.


Fuente: Por qué puede ser peligroso que un algoritmo decida si contratarte o concederte un crédito



...Siempre Informando de la actualidad del mundo...

Temas Similares (5)