L'IA n'est pas impartiale, elle a les même défauts que les humains !
Rédigé par leral.net le Mercredi 6 Février 2019 à 10:56 | |
0 commentaire(s)|
Le discours autour de l'intelligence artificielle tombe souvent dans des extrêmes: soit en exagérant ses aspects positifs et ses capacités, soit en craignant la disparition de notre monde tel que nous le connaissons avec des scénarios dignes de Terminator. Nous ne devrions cependant pas laisser les vrais problèmes entourant l'IA se perdre dans cette mer de sensationnalisme. Un problème courant que nous constatons déjà est que l'IA est loin d'être neutre. Elle peut discriminer parce qu'elle hérite souvent de préjugés humains.
L'IA peut analyser de grandes quantités de données et faire des prédictions basées uniquement sur des faits concrets. Du moins, c'est ce qu'on aimerait penser. La vérité est, cependant, que la plupart des données de formation que les algorithmes d'apprentissage machine utilisent aujourd'hui sont construites par des humains ou au moins avec l'implication humaine. Et comme la plupart des algorithmes actuels ne sont pas open source, nous ne pouvons pas savoir dans quelle mesure l'information reçue par un IA est complète et si toutes les variables ont été couvertes.
Problèmes existants et futurs Pourquoi est-ce un problème ? Parce que l'intelligence artificielle n'est pas seulement la conservation de vos recommandations Netflix ou de vos flux de médias sociaux, elle prend de plus en plus de décisions qui peuvent avoir un impact significatif sur votre vie. Des algorithmes d'apprentissage automatique sont utilisés pour parcourir les curriculum vitae et sélectionner les candidats appropriés, pour prédire les probabilités de récidive dans des affaires judiciaires et certains tentent même de repérer de futurs terroristes en fonction de leurs traits faciaux.
L'outil d'embauche d'Amazon pour l'IA était biaisé contre les femmes. Ioan Panaite/Shutterstock
Il y a déjà eu des cas qui montrent comment l'IA peut hériter des préjugés humains et marginaliser davantage les minorités ou les groupes vulnérables. L'un des exemples les plus connus est un outil expérimental d'embauche en Amazonie qui discrimine les femmes. L'algorithme évaluait les candidats de une à cinq étoiles et était censé sélectionner ceux qui convenaient le mieux au poste. Toutefois, il a commencé à faire preuve de discrimination à l'égard des femmes, parce que les données qu'il utilisait pour sa formation contenaient principalement des CV de candidats masculins. Il a donc conclu que les femmes n'étaient pas souhaitables et a pénalisé les demandes comportant le mot " femmes ". Une étude de Pro Publica, en revanche, a découvert que COMPAS - un algorithme censé prédire la récidive - était raciste. Leur analyse a révélé que les accusés noirs étaient beaucoup plus susceptibles que les accusés blancs d'être jugés à tort comme présentant un risque plus élevé de récidive. De tels cas prouvent que la transparence et la possibilité d'expliquer le fonctionnement exact de l'IA sont d'une importance capitale. Lorsqu'une machine prend des décisions concernant l'avenir d'une personne, nous devons savoir sur quoi elles sont basées. Dans le cas de COMPAS, il utilisait des données sur l'incarcération. Cependant, se fier aux données historiques peut poser des problèmes, les machines rencontreront des modèles historiques basés sur des préjugés fondés sur le sexe, la race et autres. Ce n'est pas parce qu'historiquement, par exemple, il y a peut-être eu moins de candidats masculins à des postes d'infirmières, que les hommes sont moins qualifiés ou moins méritants. L'IA est souvent plus humaine qu'on ne le pense et pas dans le bon sens du terme. Metamorworks/Shutterstock. © Métamorworks/Shutterstock Il y a aussi des cas où l'intelligence artificielle peut avoir raison, mais pour les mauvaises raisons. Selon le Washington Post , "un professeur de l'Université de Washington a partagé l'exemple d'un collègue qui a formé un système informatique pour faire la différence entre les chiens et les loups. Des tests ont prouvé que le système était précis à près de 100 %. Mais il s'est avéré que l'ordinateur a réussi parce qu'il a appris à chercher de la neige dans le fond des photos. Toutes les photos de loups ont été prises dans la neige " Enfin, nous devons discuter des cas où l'IA est utilisée en combinaison avec des données scientifiques douteuses. Une startup israélienne appelée Faception prétend être capable d'identifier des terroristes potentiels par leurs traits physiques à l'aide de l'intelligence artificielle. Plus inquiétant encore, selon le Washington Post , ils ont déjà signé un contrat avec une agence de sécurité locale. L'IA pourrait vous étiqueter comme terroriste d'après vos traits faciaux. métamorphoses / Shutterstock
Le PDG de l'entreprise, Shai Gilboa, affirme que "notre personnalité est déterminée par notre ADN et se reflète dans notre visage. C'est une sorte de signal. " Faception utilise 15 classificateurs qui peuvent prétendument identifier certains traits avec une précision de 80%. Cependant, si vous vous retrouvez dans les 20 %, ce qui pourrait être considéré à tort comme un terroriste ou un pédophile. Et ce n'est pas tout, la science sur laquelle s'appuie l'entreprise, est très discutable. Alexander Todorov, professeur de psychologie à Princeton, a déclaré au Post que "les preuves de l'exactitude de ces jugements sont extrêmement faibles ". L'entreprise refuse également de rendre publics ses classificateurs. Il n'est pas difficile de voir comment cela peut avoir des conséquences désastreuses. Solutions possibles IBM est l'une des entreprises qui s'attaque ouvertement au problème de la partialité de l'intelligence artificielle. Elle a mis au point une nouvelle méthodologie visant à réduire la discrimination existante dans un ensemble de données. L'objectif est qu'une personne ait les mêmes chances de "recevoir une décision favorable ", pour un prêt par exemple, indépendamment de son appartenance à un groupe "protégé" ou "non protégé". Cependant, Francesca Rossi, chercheuse chez IBM, a également mis l'accent sur les changements que l'industrie elle-même doit apporter. Selon elle, le développement de l'intelligence artificielle doit se faire dans des environnements multidisciplinaires et avec une approche multiculturelle. Elle croit aussi que plus nous en apprenons sur les préjugés liés à l'IA, plus nous en apprenons sur les nôtres. Francesca Rossi est également très optimiste - elle affirme que la partialité de l'IA peut être éliminée dans les cinq prochaines années. Pourtant, ce n'est pas facile d'être d'accord avec elle. Un changement culturel important doit d'abord se produire dans l'industrie de la technologie. Néanmoins, l'approche multidisciplinaire qu'elle propose pourrait favoriser ce changement. C'est aussi un besoin criant, de nombreux développeurs et chercheurs n'ont pas reçu de formation officielle en éthique ou dans des domaines connexes. Une autre étape vers la résolution du problème du biais de l'IA pourrait être sa " démocratisation ", c'est-à-dire mettre à la disposition du public des algorithmes afin qu'il puisse mieux les étudier, les comprendre et les utiliser. Des entreprises comme OpenAI sont déjà sur cette voie. Toutefois, ceux qui protègent leur propriété intellectuelle ne suivront probablement pas cette tendance. Comme vous pouvez le constater, il n'y a pas de réponse facile. Une chose est certaine, cependant : nous ne devrions pas faire aveuglément confiance à la technologie et nous attendre à ce qu'elle résolve tous nos problèmes. Comme toute autre chose, rien ne sort du néant. C'est un produit de la société et, par conséquent, elle hérite de tous nos préjugés et idées préconçues. Phonandroid