Intelligence artificielle: normes techniques et droits fondamentaux, un mélange risqué

Theconversation

Intelligence artificielle: normes techniques et droits fondamentaux, un mélange risqué"


Play all audios:

Loading...

Le futur règlement européen « AI Act » a pour but la création d’un cadre légal pour l’ensemble des systèmes d’intelligence artificielle (IA), notamment ceux posant des risques importants


pour la sûreté ou les droits fondamentaux, comme la non-discrimination, la vie privée, la liberté d’expression ou la dignité humaine. Dans sa version actuelle, le projet de règlement traite


tous ces risques de la même manière. Un marquage CE (pour « conformité européenne », comme celui existant), indiquerait que le système d’IA est jugé suffisamment sûr pour être mis sur le


marché, qu’il s’agisse de la sûreté physique ou vis-à-vis des droits fondamentaux. Le texte présenté accorde une grande importance aux normes techniques et aux analyses de risques, espérant


pouvoir standardiser les méthodes d’évaluation. Néanmoins, il persiste une tension entre l’approche « par les risques », proposée par la Commission, et l’approche axée sur le respect des


droits fondamentaux, privilégiée par les tribunaux et par les travaux du Conseil de l’Europe. En effet, s’il est facile d’imaginer un banc de tests pour un critère de sûreté, à la manière


des essais réalisés sur les jouets pour enfants avant leur mise sur le marché, il est plus difficile d’évaluer la non-discrimination de cette façon, car elle est contextuelle. TESTER LA


DISCRIMINATION : PARI IMPOSSIBLE ? Pour qu’un produit puisse être mis sur le marché, les fournisseurs devront respecter certaines spécifications techniques définies en dehors du texte de


loi, le plus souvent dans des normes harmonisées. De nombreux pays fondent de grands espoirs sur ces normes, qui pourraient contribuer à établir des exigences techniques et juridiques


uniformes pour les systèmes d’IA. Par exemple, elles pourront définir les critères de qualité, d’équité, de sécurité ou encore d’explicabilité pour ces systèmes, et même renforcer le


positionnement stratégique de l’Europe dans la course mondiale pour l’IA. Mais comment développer des critères techniques neutres autour de jugements de valeur moraux et culturels ? Certains


de ces systèmes impactent directement notre droit à la non-discrimination. Par exemple, l’utilisation de la reconnaissance faciale par les services de police a amené à l’arrestation de


plusieurs hommes noirs, reconnus à tort par un système automatique sur des caméras de vidéosurveillance. De la même manière, l’algorithme de recrutement d’Amazon refusait plus facilement un


CV de femme que celui d’un homme. Pour tester la présence de ce type de biais discriminants, les techniques actuelles consistent à vérifier le bon fonctionnement du système pour différents


sous-groupes de la population, séparant les individus par genre ou couleur de peau. Mais standardiser ces méthodes de test soulève plusieurs difficultés. ------------------------- _ READ


MORE: PEUT-ON FAIRE CONFIANCE AUX IA ? _ ------------------------- Tout d’abord, la législation de certains pays interdit le traitement de données ethniques. Ensuite, choisir sur quels


groupes tester est un choix politique : qui décidera du nombre de catégories de « couleurs de peau » à tester ? Finalement, un tel système ne pourra jamais être parfaitement équitable, car


il existe de nombreuses approches de la non-discrimination, dont certaines sont incompatibles entre elles. UN NIVEAU « ACCEPTABLE » DE RISQUE DE DISCRIMINATION ? Puisqu’il sera impossible de


garantir l’absence de discrimination sous tous les angles, des choix seront nécessaires, et des seuils de tolérance devront être définis. Se pose alors la question : quel est le niveau


acceptable d’erreurs et de quel type d’erreurs parle-t-on ? Ce qui revient à se demander : quel est le niveau « acceptable » de risque de discrimination ? Dans d’autres domaines, il est


courant de définir le niveau acceptable de risque par une démarche quantitative. Par exemple, pour la sûreté d’une centrale nucléaire, le risque d’un accident sera quantifié, et la centrale


pourra ouvrir si le risque est en deçà d’un certain seuil d’acceptabilité. Ce seuil ne pourra pas être de zéro, car une approche « zéro risque » conduirait au rejet de l’activité nucléaire


qui procure par ailleurs des bénéfices pour la société. Les bénéfices de l’énergie nucléaire et les risques sont pesés, et il est décidé en pratique d’un seuil « acceptable » de risque. Bien


que ce seuil puisse être discuté, il est étayé par des faits scientifiques : les risques sont relativement faciles à définir et à mesurer. [_Plus de 80 000 lecteurs font confiance à la


newsletter de The Conversation pour mieux comprendre les grands enjeux du monde_. Abonnez-vous aujourd'hui] Qu’en est-il pour les systèmes d’IA ? Si on reprend la question des


discriminations – raciales ou de genre par exemple, une norme technique ne pourrait jamais nous dire quel est le « bon » taux d’erreur, ou un niveau « acceptable » de différences de


performance entre différents groupes de la population, car la réponse est trop dépendante du contexte et du jugement des personnes. L’objectif des normes techniques dans le cadre de l’IA


devrait plutôt être de définir un vocabulaire commun, des tests adaptés, des études d’impacts et plus généralement des bonnes pratiques tout au long du cycle de vie des systèmes d’IA. Cela


permettrait d’obtenir une base de comparaison des systèmes et de favoriser la discussion entre les parties prenantes. Ce type de normes est appelé « normes d’information », par opposition


aux « normes de qualité » ou de « performance ». ------------------------- _ READ MORE: « UN $ % DE PROGRAMME SEXISTE » : COMMENT DÉTECTER ET CORRIGER LES BIAIS DES IA _


------------------------- Par exemple, pour un système de reconnaissance faciale pour le passage aux frontières, une norme technique pourrait décrire comment mesurer la précision du système


et comment mesurer les différences de performance entre différents groupes de la population. Cette norme ne définirait pas quel niveau d’erreur et de discrimination est acceptable, ni quels


groupes doivent être protégés, car ces choix relèvent de l’application du droit et de l’appréciation des tribunaux. QUI DOIT DÉCIDER DES NORMES ? Les organismes de normalisation travaillent


actuellement sur ces standards pour l’IA, avec une attention particulière pour l’éthique. On notera notamment les initiatives de l’association IEEE, les premiers à publier un standard « pour


la prise en compte des préoccupations éthiques lors de la conception de systèmes », ainsi que divers autres standards sur la transparence, ou encore la confidentialité des données. Des


normes ISO sont également en cours de rédaction grâce à différents groupes de travail organisés autour de cette thématique commune de l’IA, et regroupant des organismes de différents pays,


comme l’AFNOR en France. Ce travail est coordonné au niveau européen par la CEN-CENELEC et sa « feuille de route sur l’IA ». Aux États-Unis, le National Institute of Standards and Technology


(NIST) est chargé de comparer les performances et l’équité des systèmes de reconnaissance faciale et a publié récemment des lignes directrices pour éviter les biais dans les systèmes


d’apprentissage. Or ces délibérations sur des questions pourtant fondamentales se passent bien souvent derrière des portes closes. Seuls les organismes habilités peuvent développer ces


standards et bien qu’ils fassent souvent appel à des participations extérieures, l’accessibilité des travaux est limitée. Le système actuel contraint une entreprise à payer pour avoir accès


au texte de la norme, réduisant la transparence du processus. Comment garantir alors que les spécifications techniques préservent effectivement nos droits ? Ne faudrait-il pas plutôt


proscrire le développement de ces normes opaques au profit d’une procédure plus ouverte au débat citoyen ? LA CERTIFICATION, UN OUTIL À DOUBLE TRANCHANT Ces normes peuvent également se


révéler inutiles, voire dangereuses si elles sont mal utilisées, par exemple si elles servent à l’apposition d’une certification prétextant prémunir de toute violation de nos libertés. En


effet, l’apposition d’un marquage CE n’indique que la conformité avec les règles du moment, déclarée par le fabricant, mais ne garantit pas la sûreté ou l’absence formelle de discrimination.


Ce problème est aggravé par la « présomption de conformité » créée par la certification : lorsqu’un système suit une norme, sa sûreté est moins souvent remise en question. Il est alors


primordial de construire un marquage CE qui ne déleste pas les fournisseurs et utilisateurs des systèmes d’IA de leur responsabilité. Le marquage servirait alors non pas à garantir qu’un


système est exempt d’atteinte aux droits fondamentaux, mais à garantir que l’entreprise a mis en place des mesures pour les limiter. Le marquage CE peut être un formidable outil de


régulation et de gouvernance une fois couplé à des normes techniques nous aidant à parler le même langage et à comparer les systèmes entre eux. En revanche, la décision de ce qu’est un


risque « acceptable » pour les droits humains ne peut jamais être déléguée à une norme technique. Il convient de réaffirmer la responsabilité des fournisseurs et utilisateurs de ces systèmes


qui doivent eux-mêmes définir, dans leur contexte, le choix le plus approprié pour protéger les droits fondamentaux. Cette décision devra être justifiée et pourra être contestée, mais


l’arbitrage final de l’acceptabilité du risque devra être laissé au législateur, au régulateur et aux juges.


Trending News

Albéric vincent a reçu le trophée du bénévolat

Le club de handball de Cancon a été créé en 2011 et le canconnais Albéric Vincent y évolue depuis ces débuts. Actuelleme...

Un traité sur le design industriel pour stimuler l'innovation - Euractiv FR

L’adhésion de l’UE à un nouveau traité concernant l’enregistrement international des dessins et modèles, dans le cadre d...

Huguette dreikaus rend hommage à france gall - ici

Après la disparition de France Gall ce dimanche, Huguette Dreikaus chante Calypso en alsacien. Hommage en musique à Fran...

Annexe – transformation des métadonnées xds dans la syntaxe ebrim-ebrs

CETTE ANNEXE DÉTAILLE LES MESSAGES AU FORMAT XML DÉCRIT DANS LES STANDARDS OASIS EBXML REGISTRY INFORMATION MODEL VERSIO...

Terminologie - Jeu de valeurs agence du numérique en santé

Jeu de valeurs agence du numérique en santéUnité de production : agence du numérique en santé1. Champs sémantique Jeu de...

Latests News

Intelligence artificielle: normes techniques et droits fondamentaux, un mélange risqué

Le futur règlement européen « AI Act » a pour but la création d’un cadre légal pour l’ensemble des systèmes d’intelligen...

PREV A DOM | Agence du Numérique en Santé

PREV A DOM (SOLUTION PRESAGE) EN QUELQUES MOTS La solution PRESAGE est composée d’un questionnaire (renseigné deux fois ...

Le Monet de Zao Wou-Ki | Musée d'Art Moderne de Paris

_ _14h00 Durée 2h00 * __ Publics Enfants / Ados de 7 ans à 10 ans * __ Heures Le : Vendredi 2 novembre 2018 de 14h00 à 1...

Comment retirer une tache de colle?

COMMENT RETIRER UNE TACHE DE COLLE ? De la colle est tombée sur votre plan de travail en marbre ou sur votre meuble en b...

Est-ce toujours le sgl qui produit le cr bio, dans ses différents formats?

Oui. Le biologiste médical ne doit avoir qu’un outil métier, son SGL, dans lequel il doit pouvoir générer et visualiser ...

Top