Les 4 piliers de l'IA éthique et pourquoi ils sont importants pour l'apprentissage automatique

Rédigé par Manuel Herranz | 07/17/23

Travaillant étroitement avec nos clients dans la construction de systèmes d'IA éthiques imprègne la culture de Pangeanic et tout ce que nous faisons. Mais nous ne faisons pas que parler, nous agissons également en conséquence. Dans cette optique, nous souhaitons rendre publics nos efforts conscients dans la collecte de données, l'agrégation de données et l'annotation de données, la construction de corpus parallèles pour les systèmes d'apprentissage automatique en pleine conformité avec les 4 piliers de l'IA éthique. Associées à des technologies robustes de masquage/anonymisation de données multilingues, nous créons des ensembles de données et développons des solutions basées sur des principes d'IA éthique solides.

 

Contenu: 

  1. Qu'est-ce que l'IA éthique ?

  2. Pourquoi l'IA éthique est-elle importante ?  

  3. Problèmes connus jusqu'à présent 

  4. Que fait Pangeanic pour mettre en œuvre l'IA éthique dans ses processus ?  

  5. L'IA éthique, l'avenir ?  

Qu'est-ce que l'IA éthique ?  

L'IA éthique est un concept volontaire et mondial qui se réfère à la conception, au développement, à la mise en œuvre et au déploiement de systèmes d'IA de manière à respecter les droits de l'homme et les valeurs morales partagées. Elle se concentre sur la création de systèmes d'IA transparents, justes, responsables et respectueux de la vie privée. Les 4 piliers de l'IA éthique sont :  

  1. Transparence : Les processus et décisions prises par les systèmes d'IA doivent être clairs, compréhensibles et explicables. Cela aide les utilisateurs à comprendre comment une décision ou un résultat spécifique est atteint par l'IA.

  2. Justice : Les systèmes d'IA doivent éviter les biais susceptibles de conduire à des résultats injustes ou à toute forme de discrimination. L'IA doit traiter tout le monde équitablement et prendre des décisions basées sur des données objectives plutôt que sur des biais subjectifs.

  3. Confidentialité et sécurité : Les systèmes d'IA doivent respecter la confidentialité des utilisateurs. Cela signifie qu'ils ne doivent pas collecter ni utiliser des données personnelles sans le consentement de l'utilisateur. La protection de la vie privée et des données des individus est fondamentale dans l'IA éthique, impliquant des techniques appropriées d'anonymisation des données, garantissant la sécurité des données et respectant toutes les lois et réglementations de protection des données pertinentes.

  4. Reddition de comptes : Il doit y avoir une manière pour les responsables du développement et de l'utilisation des systèmes d'IA de rendre compte de leurs actes.

     

Pourquoi l'IA éthique est-elle importante ?  

Les avancées de l'intelligence artificielle (IA) commencent à avoir un impact profond sur la manière dont les êtres humains interagissent non seulement avec les machines, mais aussi avec d'autres êtres humains, la manière dont nous traitons l'information et, par conséquent, la manière dont nous prenons des décisions. L'IA peut améliorer la prestation de nombreux biens et services, y compris dans des domaines tels que la santé, les services financiers et la technologie, mais elle peut également créer des préjugés envers une cible spécifique, ignorer complètement une population ou générer de fausses informations. Et cela n'est que le début.

À mesure que la masse de données volumineuses augmente et que la puissance de calcul s'étend, à mesure que de plus en plus d'équipes ont accès à davantage de données et que la perfection des Grands Modèles de Langage et d'autres systèmes d'IA devient plus abordable, nous comprenons que la technologie est appelée à révolutionner presque tous les aspects du monde tel que nous le connaissons aujourd'hui. 

À mesure que la masse de données volumineuses augmente et que la puissance de calcul s'étend, à mesure que de plus en plus d'équipes ont accès à davantage de données et que la perfection des grands modèles de langage et d'autres systèmes d'IA devient plus abordable, nous comprenons que la technologie est appelée à révolutionner presque tous les aspects du monde tel que nous le connaissons aujourd'hui. 

Pour optimiser les avantages et atténuer les préjudices, l'éthique de l'IA joue un rôle vital en garantissant que les ramifications sociales et éthiques de la construction et du déploiement des systèmes d'IA sont prises en compte à chaque étape. L'éthique de l'IA repose sur ces 4 piliers éthiques fondamentaux de l'IA et, pour renforcer notre message, les systèmes doivent être : Justes, Privés, Robustes et Explicables. 

Problèmes connus jusqu'à présent  

Nous en sommes encore aux premières étapes du développement des systèmes d'IA, mais nous connaissons tous des cas extrêmes qui ont fait les gros titres précisément en raison du manque de contrôle éthique. Voici quelques exemples de transgressions de chaque pilier : 

Équité :  

L'utilisation de l'IA pour atténuer les biais dans les notations de crédit souligne pourquoi l'impartialité est un facteur essentiel dans l'ingénierie des systèmes d'IA. Bien que souvent considérées comme impartiales et objectives, les notations de crédit ont un long passé de discrimination, par exemple en raison de la race ou du sexe. Les modèles de notation de crédit basés sur l'IA offrent une interprétation plus détaillée des données et peuvent révéler des corrélations cachées entre des variables qui pourraient ne pas sembler pertinentes ou même ne pas être incluses dans un modèle de notation de crédit conventionnel, telles que les inclinations politiques ou les connexions avec les réseaux sociaux. Cependant, l'intégration de ce type d'informations non conventionnelles dans les notations de crédit risque d'exacerber leur biais actuel. Il est crucial de donner la priorité à l'équité pour garantir que ces données complémentaires aident réellement ceux qu'elles sont censées aider, élargissant l'accès au crédit. 

Confidentialité :  

L'importance cruciale de la confidentialité dans l'utilisation de l'IA est déjà manifeste dans le domaine de la santé. En 2016, une controverse a éclaté lorsque l'entreprise d'IA DeepMind, basée à Londres, a collaboré avec le NHS, suscitant des inquiétudes quant à la gestion des données sensibles des patients. Le lien entre les données des patients et les comptes Google est inacceptable. Cependant, il est nécessaire de trouver un compromis entre la protection de la vie privée des individus et la mise à profit des avantages sociétaux des applications d'IA, telles que l'interprétation des scanners ou la planification de la radiothérapie. La véritable valeur réside dans les données collectives anonymisées, pas dans les données personnelles, donc un compromis est possible. 

Robustesse :  

L'importance de la robustesse dans un système d'IA est mise en évidence dans le recrutement. L'IA peut considérablement améliorer le processus d'embauche, éliminant une grande partie des spéculations liées à l'identification des talents et éliminant les biais qui affectent souvent la prise de décision humaine. Cependant, même le géant de la technologie Amazon a rencontré des problèmes lorsque son nouveau système de recrutement s'est avéré être biaisé à l'égard des femmes. Le système avait été formé sur des CV soumis pendant plus d'une décennie, dont la plupart provenaient d'hommes, ce qui reflétait la domination masculine du secteur de la technologie. Par conséquent, le système a appris à privilégier les candidats masculins. Les systèmes d'IA ne sont pas intrinsèquement robustes - pour maximiser leurs avantages, ils doivent fonctionner efficacement dans des contextes réels. 

Explicabilité : 

L'expérience de Microsoft en matière de "compréhension conversationnelle" via un bot Twitter nommé Tay souligne pourquoi le quatrième pilier de l'éthique de l'IA, l'explicabilité, est nécessaire. Il a fallu moins d'une journée à Twitter pour entacher le chatbot naïf. Le bot était censé s'améliorer grâce à l'interaction avec les utilisateurs, en apprenant à s'engager dans des conversations décontractées et ludiques. Malheureusement, le dialogue est vite devenu offensant, le bot répétant des commentaires misogynes et racistes. Fournir une explication à la prise de décision d'une IA est un défi, mais il est essentiel de tirer pleinement parti du potentiel que l'IA a à offrir. 

 

Comment Pangeanic met en œuvre l'IA éthique ? 

Pangeanic est convaincu que les systèmes justes, responsables et transparents ne peuvent pas être construits sur une main-d'œuvre bon marché. C'est pourquoi nous appliquons une politique de rémunération équitable à nos fournisseurs, collaborateurs et employés. Nous recrutons des talents car cela se reflète dans le service et dans la qualité des produits et services que nos clients reçoivent. 

  • Nos processus sont ouverts à nos clients et nous les évangélisons sur l'utilisation de l'IA pour leurs applications (traduction automatique, classification, données pour ML, curation de données...). En comprenant les données et les processus, nous pouvons expliquer comment et pourquoi la technologie de Pangeanic fonctionne et comment les décisions ou les résultats sont atteints par l'IA. 

  • Nos systèmes évitent les biais du concept à l'application. Notre personnel de recherche a travaillé en R&D sur les publications biaisées pour détecter et supprimer les discours de haine et les biais ethniques ou de genre. Nous travaillons en permanence avec nos clients pour créer des ensembles de données équilibrés en termes de genre, ou des ensembles de données exempts de toxicité, par exemple. 

  • Nous construisons, améliorons, personnalisons et implémentons des outils d'anonymisation pour respecter la vie privée des personnes dans 26 langues. Pangeanic dirige le projet MAPA, soutenu par l'UE, et est partie intégrante de plusieurs infrastructures d'anonymisation.  

  • Pangeanic se déclare responsable de tous ses services et produits liés à l'IA et aux données pour l'IA, avec des garanties de performance et de fonctionnement. 

Un très bon exemple est la participation de notre CEO au rapport sur le RGPD du Translating Europe Workshop (TEW), qui a aidé les professionnels de la traduction à comprendre le RGPD et la meilleure façon de l'appliquer.  

Après plusieurs mois de travail entre des représentants d'associations de traducteurs, de personnel de services linguistiques, d'universitaires et de professionnels du droit, le groupe a élaboré un rapport de recommandations qui a été présenté au Translating Europe Workshop de 2022. 

Selon Melina Skondra :  "Financé par la Direction générale de la traduction de la Commission européenne, le atelier Translating Europe est la première étape vers des directives européennes communes sur le RGPD pour la profession de traduction et d'interprétation". Il couvre le travail d'un groupe d'experts juridiques et du secteur de la traduction et de l'interprétation, un atelier en ligne de un jour avec des professionnels de la traduction et de l'interprétation, et le présent rapport. 
 
Le rapport TEW décrit les principaux défis de l'application et du respect du RGPD dans la profession de traduction et d'interprétation, explorés et analysés par le panel paneuropéen d'experts. 


Félicitations à l'équipe formidable : Stefanie Bogaerts, John Anthony O'Shea LL.B, LL.M, Raisa McNab, Wojciech Woloszyk (Wołoszyk), Małgorzata Dumkiewicz, Paweł Kamocki, Zoe Milak, Manuel Herranz” 

Is Ethical AI the Future? 

Basée sur les droits fondamentaux et les principes éthiques, la Commission européenne a travaillé sur une série de lignes directrices pour une intelligence artificielle (IA) digne de confiance. Afin de générer de la confiance dans une IA centrée sur l'humain, cette institution a élaboré un document avec un Groupe d'experts de haut niveau en intelligence artificielle (AI HLEG). Ce groupe d'experts indépendants a été créé par la Commission européenne en juin 2018, dans le cadre de la stratégie d'IA annoncée au début de cette année-là. 

Les lignes directrices énumèrent sept exigences clés que les systèmes d'IA doivent remplir pour être dignes de confiance : 

  1. Action et supervision humaine

  2. Robustesse technique et sécurité

  3. Respect de la vie privée et gouvernance des données

  4. Transparence

  5. Diversité, non-discrimination et équité

  6. Bien-être social et environnemental

  7. Responsabilité 

Dans un effort pour mettre en œuvre ces exigences, les lignes directrices introduisent une liste de contrôle d'évaluation qui fournit des conseils sur la mise en œuvre pratique de chaque exigence. Cette liste de contrôle d'évaluation sera soumise à une phase de test, à laquelle pourront contribuer toutes les parties prenantes, afin de recueillir des avis pour améliorer son efficacité. De plus, un forum a été créé pour faciliter l'échange de meilleures pratiques de déploiement d'une IA fiable.