Technologies : réguler l’intelligence artificielle devient une exigence planétaire

Lundi 26 Juin 2023 - 17:15

Abonnez-vous

  • Augmenter
  • Normal

Current Size: 100%

Version imprimable

La nécessité d’encadrer par la loi l’intelligence artificielle (IA) s’avère de plus en plus urgente en raison de risques mais aussi d’opportunités qu’implique cette technologie. Même si cela ne se dit pas ouvertement, des observateurs affirment que certains pays veulent tout mettre en œuvre pour contrecarrer l’exploitation que pourraient en faire des Etats autoritaires. Un premier sommet, consacré au secteur et prévu avant fin 2023 au Royaume-Uni, s’est fixé pour objectif de parvenir à une approche globale susceptible de limiter les dangers qui en découlent.

Définie comme un processus d’imitation de l’intelligence humaine qui repose sur la création et l’application d’algorithmes exécutés dans un environnement informatique dynamique, l’IA a pour but de permettre à des ordinateurs de penser et d’agir comme des êtres humains. Du fait des évolutions enregistrées depuis sa création, les pays qui ont déjà une approche similaire en la matière veulent se retrouver pour poser les bases d’une régulation du secteur.

Les systèmes d’IA fascinent autant qu’ils inquiètent. Cela dit parce que s’ils peuvent sauver des vies en permettant un bond en avant des diagnostics médicaux, ils sont aussi exploités par des régimes autoritaires pour exercer une surveillance de masse des citoyens. Le grand public a découvert leur potentiel immense à la fin de l’année dernière avec la sortie du générateur de contenus rédactionnels ChatGPT de la société californienne OpenAI, qui peut rédiger dissertations, poèmes ou traductions en quelques secondes.

« Nous n’avons cessé de créer, à travers l’histoire, de nouvelles technologies révolutionnaires que nous avons utilisées pour le bien de l’humanité. C’est ce que nous devons de nouveau réaliser », a déclaré le Premier ministre britannique, Rishi Sunak, qui annonçait au début de ce mois que son pays se prépare à accueillir les premières assises mondiales du secteur. « L’IA possède un potentiel incroyable pour transformer nos vies en mieux. Mais nous devons nous assurer qu’elle sera développée et utilisée en toute sécurité », a-t-il souhaité, ajoutant que les pays épris de paix devraient prendre au sérieux les menaces qu’ils pourront affronter dans le futur.

Conscients de ces dangers, les Eurodéputés ont approuvé, le 14 juin, un projet visant à limiter les risques des systèmes de type ChatGPT. Cette législation entrera en application probablement en 2026. En attendant, le Parlement européen a réclamé de nouvelles interdictions, comme celle des systèmes automatiques de reconnaissance faciale dans les lieux publics. Malgré cela, les parlementaires voudraient autoriser l’usage de ces systèmes par les forces de l’ordre dans la lutte contre la criminalité et le terrorisme. Un sujet qui devrait nourrir les débats dans les États membres qui refusent l’interdiction de cette technologie controversée.

Lutter contre la désinformation provoquée par l’IA

Bruxelles espère conclure avant la fin de l’année le premier règlement au monde visant à encadrer et protéger l’innovation dans l’IA, un secteur stratégique dans la compétition économique. Par ailleurs, des scientifiques réclament un moratoire sur le développement des systèmes les plus puissants de la technologie, en attendant qu’ils soient mieux encadrés par la loi. En clair, les 27 veulent que les plateformes en ligne identifient clairement les contenus - images, sons, textes... - générés par l'IA pour lutter contre les risques de désinformation.

Si la plupart des patrons de sociétés innovant dans l’IA tels Elon Musk de Twitter, Tesla et SpaceX, et Sam Altman d’OpenAI sont favorables à la régulation de la technologie, certains d’entre eux se sont déjà prononcés contre une « réglementation stricte » du domaine, qui risque d’entraver son développement. « Je pense que ce serait une erreur de réglementer strictement ce domaine ou d’essayer de ralentir cette incroyable innovation », a déclaré Sam Altman. Mais le risque d’une « superintelligence » mal utilisée est réel, a-t-il reconnu, ajoutant craindre que l'IA ne « cause de graves dommages au monde », en manipulant des élections ou en chamboulant le marché du travail.

En Chine, les autorités ont déjà convenu d'« améliorer la surveillance des données des réseaux et de l'intelligence artificielle ». Elles ont fait savoir qu’une « inspection de sécurité » aux outils développés sur l'IA comme ChatGPT va être imposée dans le pays. « Les contenus générés par l'intelligence artificielle devront refléter les valeurs socialistes fondamentales et ne pas contenir d'éléments relatifs à la subversion du pouvoir de l'Etat », insiste le régime.

Les IA génératives d’OpenAI, ChatGPT pour les textes et Dall-E pour les images, ouvertes au grand public fin 2022 avec un succès fulgurant et dans un vide juridique, ont déclenché une avalanche de craintes, notamment en ce qui concerne la désinformation et l’éventuelle destruction d’emplois.

 

 

 

 

 

Nestor N'Gampoula

Notification: 

Non