Los algoritmos también discriminan a los seres humanos: nosotros podemos impedirlo
Los algoritmos también discriminan a los seres humanos: nosotros podemos impedirlo"
- Select a language for the TTS:
- Spanish Female
- Spanish Male
- Spanish Latin American Female
- Spanish Latin American Male
- Language selected: (auto detect) - ES
Play all audios:
Sara Degli-Esposti es (a) parte del equipo de trabajo del proyecto "Cybersecurity, Network Analysis and Monitoring for the Next Generation Internet - CYNAMON (P2018/TCS-4566)" financiado por
la Comunidad de Madrid con fondos FEDER; (b) Investigadora Principal del proyecto H2020 "Trustworthy, Reliable and Engaging Scientific Communication Approaches - TRESCA (872855)"; (c)
beneficiaria de un contrato Juan de la Cierva (FJCI-2016-29260).
Como seres humanos, deberíamos ser conscientes de que tenemos muchos sesgos que se ven reflejados en las decisiones que tomamos cada día. Este problema se extiende a nuestras creaciones,
como sucede con la Inteligencia Artificial (IA). Los algoritmos pueden repetir prejuicios tan humanos como la tendencia a discriminar a partir del género y la raza.
Los algoritmos son fórmulas matemáticas supuestamente neutras y objetivas. Entonces, ¿cómo puede ocurrir esto?
El siguiente es solo un ejemplo. En 2018, una investigación demostró cómo los algoritmos también pueden ser racistas. Según el estudio, aquellas bases de datos compuestas por una mayoría de
caras blancas (entre un 80 % y un 85 %) tienen un 34 % de riesgo de clasificar de forma errónea a las personas de color.
Este problema se vuelve dramático cuando afecta a la vida de las personas. Famoso es el caso del sistema COMPAS que determina si hay que conceder la libertad condicional a los detenidos en
Estados Unidos. Aunque el algoritmo no use la raza como argumento de entrada, la precisión del sistema se ve afectada por las diferencias históricas entre blancos y negros y su relación con
el crimen. Esto supone, al final, una injusticia para estos últimos por parte de un sistema que debería ser imparcial.
Estas consideraciones han abierto un debate sobre cómo programar algoritmos que respeten los criterios de equidad sin ser discriminatorios. El problema no es de fácil solución. Los
programadores tienen que enfrentarse a cuestiones no solo técnicas, sino más bien legales. Durante su trabajo deben tener en cuenta las definiciones jurídicas y las leyes en vigor.
En Europa existe una preocupación por el tratamiento adecuado de los datos sensibles. El artículo 9 de Reglamento General de Protección de Datos (RGPD) establece que algunas categorías de
datos personales merecen especial protección porque su tratamiento podría entrañar importantes riesgos para los derechos y las libertades fundamentales. Se consideran sensibles las opiniones
políticas, las convicciones religiosas, la afiliación sindical y el tratamiento de datos genéticos, biométricos dirigidos a identificar de manera unívoca a una persona física, relativos a
la salud y la orientación sexual de una persona.
¿Cómo deberíamos proceder a la hora de desarrollar sistemas de diagnóstico de enfermedades que usen de forma masiva datos sensibles?
Sin duda, habrá que contemplar la seguridad y privacidad de la información en la fase de diseño del sistema . Como demuestran los ejemplos anteriores, el tratamiento y el ciclo de vida del
dato tienen un impacto directo sobre la precisión de cualquier algoritmo que se base en aprendizaje automático o en redes neuronales profundas. Por eso, muchos de los códigos éticos que se
han desarrollado hasta ahora incluyen temas muy diversos entre los aspectos a tomar en cuenta.
La Alianza sobre Inteligencia Artificial para el Bienestar de la Sociedad y de las Personas identifica seis áreas de acción: la seguridad, la transparencia, el trabajo, la colaboración entre
humanos y máquinas, la manipulación social y el bien común.
El 22 de mayo de 2019 la OECD adoptó sus Principios sobre la IA en los que se destacan los siguientes puntos:
La IA debe beneficiar a las personas y al planeta al impulsar el crecimiento inclusivo, el desarrollo sostenible y el bienestar.
Los sistemas de IA deben diseñarse de manera que respeten el Estado de derecho, los derechos humanos, los valores democráticos y la diversidad. También deben incluir las salvaguardias
adecuadas –por ejemplo, permitir la intervención humana cuando sea necesario– para garantizar una sociedad justa y equitativa.
Debe haber transparencia y divulgación responsable en torno a los sistemas de IA para asegurar que las personas entiendan los resultados y puedan cuestionarlos.
Los sistemas de IA deben funcionar de forma robusta, segura y protegida a lo largo de su ciclo de vida y los riesgos potenciales deben ser evaluados y gestionados continuamente.
Las organizaciones y las personas que desarrollan, despliegan u operan sistemas de IA deben ser responsables de su correcto funcionamiento de acuerdo con los principios antes mencionados.
Como podemos constatar leyendo estos principios, hablar de ética de la IA va más allá de la filosofía moral. El debate abarca todas las áreas de ciencias sociales, desde las políticas
públicas y la economía, pasando por los mecanismos de gobernanza y las instituciones que velen por el respeto de los derechos humanos.
Aquí cabe destacar el sondeo de opinión que la iniciativa Moral Machine ha realizado para pulsar la aceptación social de los niveles de toma de decisión en vehículos autónomos.
El estudio recomienda evitar la tentación de otorgarnos una superioridad moral que nos lleve a definir de modo unilateral los cimientos de una IA ética. Hará falta el encuentro de muchas
áreas de conocimiento experto, diálogo y cruzar los confines de las disciplinas en pos de marcos estables de reflexión que ayuden a despejar las dudas sobre nuestra capacidad de desarrollar
IA para el bienestar de la humanidad.
Trending News
Dora se intensificó. Continúa alejándose de Baja California Sur, ahora como huracán categoría 1La Paz, Baja California Sur (BCS). El Servicio Meteorológico Nacional emitió un nuevo aviso a las 21:00 horas del centro...
La oficina Plan Cabanyal se refuerza con una ampliación de capital de 2 millones de euros | Valencia PlazaVALÈNCIA. (EP) La Junta General Ordinaria y el Consejo de Administración de Pla Cabanyal-Canyamelar han aprobado este ...
Las tormentas descargan 62 litros en varios puntos de la Comunitat Valenciana | Valencia PlazaVALÈNCIA (EFE). Las intensas lluvias caídas en la Comunidad Valenciana a lo largo de la mañana de este lunes han dejado ...
Les arts traslada a max aub al mundo de la óperaVALÈNCIA. Max Aub se pone en escena como nunca antes. Les Arts revive uno de sus teatros breves del exilio en forma de c...
Las individualidades de lo trans | Valencia PlazaVALÈNCIA. Lena. Alicia. Cristina. Tina. Saya. Yolanda. Ellas son las protagonistas del nuevo proyecto audiovisual del va...
Latests News
Los algoritmos también discriminan a los seres humanos: nosotros podemos impedirloSara Degli-Esposti es (a) parte del equipo de trabajo del proyecto "Cybersecurity, Network Analysis and Monitoring for t...
El Segundo Sues L.A. Over Airport WorkIn a move that heightens tensions between local cities big and small, El Segundo has filed a lawsuit against the city of...
Primer hallazgo de gran pozo petrolero en bolivia en más de dos décadas | cnn(CNN ESPAÑOL) – El presidente de Bolivia Evo Morales anunció el descubrimiento de un pozo petrolero con reservas equival...
Olé - La página solicitada no existeLo sentimos, la página a la que estás intentando acceder ya no existe, te invitamos a navegar por otros contenidos.Propi...
Por una salida amistosa - D10 | Noticias del deporte de Paraguay y el mundo, las 24 horas.El ciclo de Justo Villar en el club argentino Estudiantes de La Plata “está cumplido” según el parecer de su representan...