Pourquoi les nouvelles règles de l’UE sur l’intelligence artificielle sont vitales pour le développement du secteur
6 min readLes législateurs de l’Union européenne (UE) ont introduit de nouvelles règles qui façonneront la manière dont les entreprises utilisent l’intelligence artificielle (IA). Les règles sont les premières du genre à introduire une réglementation dans le secteur, et l’approche de l’UE est unique au monde.
Aux États-Unis, les entreprises technologiques sont en grande partie livrées à elles-mêmes, tandis qu’en Chine, l’innovation en matière d’IA est souvent dirigée par le gouvernement et utilisée régulièrement pour surveiller les citoyens sans trop d’obstacles de la part des régulateurs. Le bloc de l’UE, cependant, adopte une approche qui vise à maximiser le potentiel de l’IA tout en maintenant les lois sur la protection de la vie privée.
Il existe de nouvelles réglementations concernant les affaires perçues comme mettant en danger la sécurité des personnes ou les droits fondamentaux, telles que les techniques de manipulation du comportement basées sur l’IA. Il existe également des interdictions sur la manière dont les forces de l’ordre peuvent utiliser la surveillance biométrique dans les lieux publics (avec de larges exemptions). Certains cas «à haut risque» sont également soumis à des exigences réglementaires spécifiques, avant et après leur entrée sur le marché.
Des exigences de transparence ont également été introduites pour certains cas d’utilisation de l’IA, tels que les chatbots et les deep fakes, où les législateurs de l’UE pensent que le risque peut être atténué si les utilisateurs sont informés qu’ils interagissent avec quelque chose qui n’est pas humain.
Les entreprises qui ne se conforment pas à ces nouvelles règles s’exposent à des amendes pouvant atteindre 6% de leurs revenus annuels – des pénalités plus élevées que celles qui peuvent être imposées en vertu du règlement général sur la protection des données (RGPD).
Comme beaucoup d’autres entreprises du secteur de l’IA, nous sommes favorables à ce type de législation. Pendant trop longtemps, il y a eu trop de cas où des ensembles de données biaisés ont été utilisés par des entreprises pour développer une IA qui discrimine la société qu’elle est censée servir. Un bon exemple a été lorsque Goldman et Apple se sont associés pour lancer une nouvelle carte de crédit. Les ensembles de données historiques utilisés pour exécuter le processus d’approbation automatisé des cartes étaient biaisés et candidats masculins favorisés sur les femmes, excluant des millions d’utilisateurs potentiels.
Ces résultats négatifs sont un signal d’alarme pour les entreprises et la preuve qu’elles doivent sérieusement envisager l’interprétabilité et les tests des algorithmes. Une nouvelle législation robuste donne un sens renouvelé de la responsabilité à ceux qui développent et mettent en œuvre l’IA pour qu’ils soient transparents et dénoncent les biais dans les ensembles de données. Sans législation, les entreprises ne sont pas incitées à investir les ressources supplémentaires nécessaires pour surmonter ces biais.
Réduire les biais dans l’IA
Nous pensons que la législation peut renforcer l’éthique et aider à réduire le nombre inquiétant de préjugés dans l’IA, en particulier dans le monde du travail. Il a été constaté que certains outils de recrutement d’IA sont discriminatoires à l’égard des femmes parce que ils tendent à favoriser les salariés à l’image de leur effectif actuel, qui sont des hommes.
Et cela ne s’arrête pas au recrutement. Comme ProPublica l’a dévoilé il y a quelques années, un algorithme de justice pénale déployé dans le comté de Broward, en Floride, a faussement étiqueté les accusés afro-américains comme «à haut risque» à près de deux fois le taux qu’il a mal étiqueté les accusés qui étaient blancs.
Au-delà des problèmes problématiques de préjugés à l’égard des femmes et des minorités, il est également nécessaire de développer des cadres juridiques convenus collectivement autour de l’IA explicable. Cela décrit les humains capables de comprendre et d’articuler comment un système d’IA a pris une décision et de suivre les résultats jusqu’à l’origine de la décision. L’IA explicable est cruciale dans tous les secteurs, mais en particulier dans les soins de santé, la fabrication et les assurances.
Une application peut se tromper lorsqu’elle recommande un film ou une chanson sans beaucoup de conséquences. Mais lorsqu’il s’agit d’applications plus sérieuses, comme un traitement dentaire suggéré ou une demande rejetée pour une réclamation d’assurance, il est essentiel de disposer d’un système objectif pour développer une meilleure compréhension de l’IA explicable. S’il n’y a pas de règles concernant le traçage de la manière dont un système d’IA a pris une décision, il est difficile de déterminer où se situe la responsabilité, car l’utilisation devient plus omniprésente.
Le public est sans doute de plus en plus méfiant à l’égard d’une application de plus en plus répandue des outils d’analyse biométrique et de reconnaissance faciale sans législation complète pour réglementer ou définir l’utilisation appropriée. Reclaim Your Face, une initiative européenne visant à interdire la surveillance de masse biométrique en raison d’affirmations selon lesquelles elle peut conduire à «ingérence inutile ou disproportionnée dans les droits fondamentaux des personnes».
Lorsqu’il s’agit de s’attaquer à ces problèmes, la législation relative à l’application de l’éthique est une étape. Une autre étape importante consiste à accroître la diversité du vivier de talents en IA afin qu’un plus large éventail de perspectives soit pris en compte dans le développement du secteur. Le Forum économique mondial a montré qu’environ 78% des professionnels mondiaux ayant des compétences en IA sont des hommes – un écart entre les sexes triplé par rapport à celui des autres industries.
Heureusement, des progrès sont réalisés sur ce front.
Initiatives pour contrer les biais
Un nombre bienvenu d’entreprises proposent leurs propres initiatives pour contrer les préjugés dans leurs systèmes d’IA, en particulier dans le domaine du recrutement de carrière et en utilisant l’apprentissage automatique pour automatiser les processus d’approbation des CV.
Dans le passé, les applications d’IA traditionnelles étaient formées pour diffuser des CV et s’il y avait des biais dans les ensembles de données, le modèle les apprendrait et discriminerait les candidats. Cela pourrait être quelque chose comme un nom à consonance féminine sur un CV que le système diffuse. Par la suite, le système ne permettrait pas l’embauche de ce candidat potentiel en tant qu’ingénieur en raison d’un préjugé humain implicite contre ce nom, et le modèle rejetterait donc le CV.
Cependant, il existe des moyens standard pour éviter ces résultats biaisés si le data scientist est proactif à ce sujet pendant la phase de formation. Par exemple, donner un score encore pire si la prédiction est fausse pour les candidates ou simplement supprimer des données telles que les noms, les âges et les dates, qui ne devraient pas influencer les décisions d’embauche. Bien que ces contre-mesures puissent se faire au prix de rendre l’IA moins précise sur papier, lorsque le système est déployé dans un endroit où il est sérieux de réduire le biais, cela aidera à déplacer l’aiguille dans la bonne direction.
Le fait que davantage d’innovations et d’entreprises prennent conscience des préjugés – et utilisent différentes méthodes telles que l’exemple susmentionné pour surmonter la discrimination – est un signe que nous évoluons dans une direction plus optimiste.
L’IA jouera un rôle beaucoup plus important dans nos vies dans un proche avenir, mais nous devons faire plus pour nous assurer que les résultats sont bénéfiques pour la société que nous visons à servir. Cela ne peut se produire que si nous continuons à développer de meilleurs cas d’utilisation et à donner la priorité à la diversité lors de la création de systèmes d’IA.
Ceci, ainsi que des réglementations significatives telles que celles imposées par l’UE, aideront à atténuer les préjugés conscients et inconscients et à offrir une meilleure image globale des problèmes du monde réel que nous essayons de résoudre.
Shawn Tan est PDG du constructeur d’écosystèmes IA mondiaux Skymind