Discrimination, manipulation, destruction d'emploi... Les plus grands risques liés à l'IA
éthique et ia
Le Royaume-Uni accueille pour deux jours le premier sommet mondial sur les risques de l'intelligence artificielle (IA). Mercredi, l’UE et la trentaine de pays participants – dont les États-Unis et la Chine – ont signé une déclaration pour un développement "sûr" de l’IA. Quelles sont les menaces que cette technologie représente pour la société ? France 24 fait le point.
Une inquiétude de plus en plus forte. Le Royaume-Uni organise, mercredi 1er et jeudi 2 novembre, le premier sommet mondial sur les risques de l'intelligence artificielle (IA). Ce sommet, qui se tient à Bletchley Park, l'emblématique centre de décryptage des codes de la Seconde guerre mondiale, vise à identifier et à discuter des dangers potentiels liés aux IA d'avant-garde, comme le robot conversationnel ChatGPT.
Des smartphones aux voitures, l'IA est déjà présente dans de nombreux aspects de notre vie. Ces dernières années, ses progrès se sont accélérés avec le développement des IA génératives, capables de produire du texte, des sons et des images en quelques secondes. Son potentiel suscite d’immenses espoirs : elle pourrait révolutionner de nombreux domaines, comme la médecine, l'éducation ou l'environnement.
Mais son développement effréné peut également entraîner des risques, tels que des atteintes à la vie privée, des campagnes de désinformation ou même la possibilité de "fabriquer des armes chimiques ou biologiques", s'est inquiété le Premier ministre britannique Rishi Sunak, tout en réfutant tout alarmisme. Tour d’horizon des principaux dangers de l’IA.
Utilisés pour générer du texte, des voix et des images, les systèmes d’IA sont capables de produire des contenus qui sont de plus en plus difficiles à distinguer de ceux produits par l’humain. Ces productions peuvent être utilisés à mauvais escient pour tromper les utilisateurs, notamment en créant de fausses vidéos ou témoignages qui semblent authentiques.
C’est particulièrement le cas depuis le 7 octobre et le début de la guerre entre Israël et le Hamas, marquée par une multitude de nouveaux contenus trompeurs partagés chaque jour sur les réseaux sociaux. Une image générée par l’IA, montrant des supporters de l’Atletico Madrid arborant un drapeau palestinien géant dans leur stade, a été massivement partagée sur X et Facebook. Il y a quelques jours, une vidéo de la mannequin d'origine palestinienne Bella Hadid a été manipulée pour lui faire dire qu'elle soutenait Israël. Dans cette guerre de l’information entre Israël et le Hamas, ces contenus sont utilisés pour influencer l'opinion publique et pour nuire à la réputation du camp adverse.
Les "deepfakes", ces images générées de toutes pièces par l'IA, ont atteint un niveau de réalisme sans précédent, et représentent une menace pour les dirigeants politiques. Emmanuel Macron en éboueur, le pape François portant une doudoune blanche, Donald Trump en état d'arrestation... Ces images d'apparence douteuse ont pourtant été largement partagées sur les réseaux sociaux, atteignant des millions de vues.
Tromperie, pression ou exploitation de la vulnérabilité... La manipulation représente l’un des problèmes éthiques majeurs de l'IA, selon les chercheurs. Parmi les exemples les plus connus, on peut citer le suicide, il y a quelques mois, d'un homme belge ayant noué une relation intense avec un chatbot, une IA capable de répondre en temps réel aux questions d'internautes. Mais aussi la suggestion de l'assistant personnel Alexa à une enfant de toucher une prise électrique avec une pièce de monnaie.
"Même si un chatbot est clairement identifié comme un agent conversationnel, les utilisateurs peuvent projeter sur lui des qualités humaines", avance Giada Pistilli, éthicienne pour la start-up française Hugging Face et chercheuse à Sorbonne Université, qui parle d’un "risque d'anthropomorphisme", cette tendance à attribuer aux animaux et aux choses des réactions humaines. "Cela est dû au fait que les chatbots sont de plus en plus performants dans la simulation d'une conversation humaine. C'est très simple de tomber dans le piège. Dans certains cas, l'utilisateur devient tellement fragile qu'il est prêt à faire n'importe quoi pour maintenir la relation."
En février, l’application Replika, qui permet de créer et de discuter avec un chatbot personnalisé, a décidé de suspendre des fonctionnalités érotiques. "Cette décision a suscité un choc émotionnel et psychologique chez certains utilisateurs, qui ont ressenti la perte d'une relation proche", relate l’experte. "Les ingénieurs qui développent ces outils pensent souvent que leurs utilisateurs sont capables de les utiliser de manière sûre et responsable. Mais ce n'est pas toujours le cas. Les mineurs ou les personnes âgées, par exemple, peuvent être particulièrement vulnérables."
L'arrivée du robot conversationnel ChatGPT dans la vie de millions d'individus, à l’automne 2022, a suscité de nombreuses craintes quant à la transformation du monde du travail et à son impact sur l'emploi. À moyen terme, les experts redoutent que l’IA permette de supprimer de nombreux postes, comme le personnel administratif, les avocats, les médecins, les journalistes ou les enseignants.
Une étude de la banque américaine Goldman Sachs publiée en mars 2023 conclut ainsi que l'IA capable de générer des contenus pourrait automatiser un quart des emplois actuels. Pour les États-Unis et l'Union européenne, la banque envisage la perte de l’équivalent de 300 millions d'emplois à temps plein. Les fonctions administratives et juridiques seraient les plus touchées.
"Ce sont des arguments qui sont mis en avant pour éveiller les consciences face à l'arrivée de l'intelligence artificielle", explique Clémentine Pouzet, doctorante Ater en intelligence artificielle et droits européens à l’université Jean Moulin Lyon 3. "Certes, des emplois sont amenés à disparaître. Néanmoins, d’autres emplois vont apparaître en lien avec l'intelligence artificielle et le numérique de manière générale, domaines qui seront de plus en plus importants dans nos sociétés."
En ce sens, une étude de l'Organisation internationale du travail (OIT) publiée en août suggère que la plupart des emplois et des industries ne sont que partiellement exposés à l'automatisation. L'agence onusienne estime que cette technologie va "permettre d'accompagner plutôt que de remplacer certaines activités".
À l’heure actuelle, les risques de discrimination représentent l’un des principaux points faibles de l’IA, selon les chercheurs. Les algorithmes d'intelligence artificielle figent des stéréotypes racistes ou sexistes. Un exemple frappant est celui de l’algorithme de recrutement qui était utilisé par Amazon il y a quelques années. En octobre 2018, les analystes se sont rendu compte que leur programme, basé sur un système de notation automatisé, pénalisait les candidatures où figuraient une référence aux femmes. Lors de sa création, le logiciel intelligent avait été entraîné avec des banques de CV d'anciens candidats qui étaient très majoritairement des hommes. Dans sa logique interne, la machine a donc défavorisé les candidates dont les CV mentionnaient par exemple une participation à une "ligue sportive féminine".
"Les systèmes d'IA sont souvent entraînés sur des données qui ne représentent pas, voire jamais, la diversité de la population", détaille Giada Pistilli. "Cela peut conduire à des biais qui se manifestent par une mauvaise reconnaissance des personnes de couleur ou de celles qui ont des traits physiques peu communs. La machine ne fait que perpétuer les biais qui existent déjà dans la société."
Autre atteinte directe aux droits humains : l'IA peut compromettre notre vie privée. Les grands modèles de langage étant entraînés sur des données pouvant contenir des informations personnelles, il est difficile en pratique de garantir que ces modèles ne compromettent pas la confidentialité des utilisateurs.
Comme il y a cinq ans avec le règlement européen sur les données personnelles (RGPD), le Conseil de l'Europe et l'Union européenne souhaitent être les premiers à mettre en place des règles strictes en matière d'IA. "Les atteintes aux droits fondamentaux sont considérées comme l'un des risques majeurs issus de l'intelligence artificielle par les institutions européennes", explique Clémentine Pouzet. "L'UE essaie de trouver un équilibre entre la protection des droits fondamentaux des utilisateurs européens et la mise en avant de l'innovation."
Enfin, l'utilisation par l’IA de données en libre accès soulève des questions de propriété intellectuelle. Les outils d'IA générative sont souvent alimentés par des modèles entraînés sur des quantités massives de données textuelles ou visuelles. "Comme de nombreux articles de presse sont en libre accès sur Internet, rien n'empêche un développeur ou un ingénieur en IA de collecter ces données et de les utiliser pour entraîner un modèle", explicite Giada Pistilli. "On peut donc se poser la question du consentement et de la juste rémunération quant à la propriété intellectuelle."
Il existe déjà des cas de poursuites judiciaires contre des entreprises développant des IA pour ce type de violations. En juillet, trois auteurs ont notamment poursuivi OpenAI pour avoir utilisé des extraits de leurs livres afin d'alimenter ChatGPT. Quelques mois plus tôt, des artistes ont collectivement porté plainte contre Midjourney, Stable Diffusion et DreamUp, qu’ils accusent d’avoir indûment utilisé des milliards d’images protégées pour entraîner leurs intelligences artificielles.