L’humanité dans une course contre la montre en ce qui concerne l’IA, selon l’ONU

Si l’IA peut être bénéfique à l’humanité à bien des égards, les motivations qui poussent les entreprises à déployer la technologie risquent d’augmenter considérablement ces effets négatifs.
Photo: Getty Images / iStockphoto Si l’IA peut être bénéfique à l’humanité à bien des égards, les motivations qui poussent les entreprises à déployer la technologie risquent d’augmenter considérablement ces effets négatifs.

L’humanité est engagée dans une course contre la montre pour apprendre à exploiter l’intelligence artificielle (IA) dans l’intérêt général en évitant les risques terribles qu’elle comporte, ont déclaré jeudi un haut fonctionnaire de l’ONU et des experts.

« Nous avons laissé le génie sortir de la bouteille », a déclaré Doreen Bogdan-Martin, directrice de l’Union internationale des télécommunications (UIT) des Nations unies.

« Nous sommes engagés dans une course contre la montre », a-t-elle déclaré lors de l’ouverture d’un sommet mondial de deux jours intitulé AI for Good [l’intelligence artificielle au service du bien] à Genève.

« Les développements récents en matière d’IA sont tout simplement extraordinaires », a-t-elle reconnu.

Les milliers de participants à la conférence ont appris que les progrès de l’IA générative accélèrent déjà les efforts visant à résoudre certains des problèmes les plus urgents de la planète, tels que le changement climatique, la faim et l’aide sociale.

« Je pense que nous avons l’occasion, comme il en survient une fois par génération, de mettre l’IA au service de tous les habitants de la planète », a déclaré Mme Bogdan-Martin dans un courriel envoyé à l’AFP avant le sommet.

Mais elle a déploré jeudi qu’un tiers de l’humanité reste encore complètement déconnecté et soit « exclu de la révolution de l’IA sans pouvoir s’exprimer ».

Une puissance concentrée

Mme Bogdan-Martin a souligné que l’IA recèle « un immense potentiel, tant pour le bien que pour le mal », et qu’il est essentiel de « sécuriser les systèmes d’IA ».

Elle a déclaré que cela était particulièrement important aujourd’hui, étant donné que « 2024 est la plus grande année électorale de l’histoire », avec des votes dans des dizaines de pays, y compris aux États-Unis.

Or, « avec la montée en puissance des campagnes de désinformation sophistiquées de type’deep fake’, c’est aussi l’année la plus controversée », a-t-elle ajouté.

« Non seulement cette mauvaise utilisation de l’IA menace la démocratie, mais elle met également en danger la santé mentale des jeunes et compromet la cybersécurité », prévient cette fonctionnaire.

Dans un discours prononcé à l’occasion d’un autre événement consacré à la gouvernance de l’IA cette semaine, le chef de l’UIT a mis en garde contre le fait que « le pouvoir de l’IA est concentré entre les mains d’un trop petit nombre ».

« Il est risqué et éthiquement fragile d’être dans ce genre de position pour l’humanité », a-t-elle déclaré.

D’autres experts présents à la conférence ont abondé dans ce sens.

« Nous devons comprendre vers quoi nous nous dirigeons », a déclaré Tristan Harris, un éthicien des technologies qui a cofondé le Center for Humane Technology.

Il a rappelé les leçons tirées des médias sociaux, initialement présentés comme un moyen de relier les gens et de donner une voix à chacun, mais qui ont également engendré dépendance, désinformation virale, harcèlement en ligne et explosion des problèmes de santé mentale chez les adolescents.

« Super-pouvoirs »

Si l’IA peut être bénéfique à l’humanité à bien des égards, M. Harris a averti que les motivations qui poussent les entreprises à déployer la technologie risquaient d’augmenter considérablement ces effets négatifs.

« La principale motivation de l’Open AI ou du comportement de Google est la course à la domination du marché », a-t-il déclaré.

Dans un tel monde, a-t-il ajouté, « une gouvernance qui évolue à la vitesse de la technologie » est vitale.

Le directeur d’OpenAI, Sam Altman, qui s’est fait connaître dans le monde entier après la sortie de ChatGPT en 2022, a reconnu que cette avancée technologique pouvait comporter des dangers.

S’exprimant par liaison vidéo, il a déclaré à l’assemblée que la « cybersécurité » était actuellement la plus grande préoccupation en ce qui concerne les potentiels effets négatifs de l’IA.

Toutefois, à plus long terme, il a estimé qu’il faudrait probablement « modifier le contrat social, compte tenu de la puissance attendue de cette technologie ».

Dans l’ensemble, cependant, il a insisté sur le fait que, du point de vue de l’évolution historique des nouvelles technologies, les systèmes d’IA étaient « généralement considérés comme sûrs et robustes ».

Tout en se félicitant des discussions sur les réglementations visant à endiguer les effets négatifs à court terme de l’IA, il a averti qu’il était « difficile » de suggérer des réglementations visant à en limiter le développement.

Azeem Azhar, fondateur d’Exponential View, a également souligné la nécessité d’une réponse institutionnelle beaucoup plus solide « pour s’assurer que l’IA donne aux gens des superpouvoirs plutôt que d’être considérée comme un outil pour les remplacer ».

Mme Bogdan-Martin a salué le fait que les gouvernements et d’autres acteurs se soient récemment « empressés d’établir des protections » et des réglementations concernant l’utilisation de l’IA.

Par exemple, l’Union européenne a annoncé mercredi la création d’un bureau de l’IA chargé de réglementer l’intelligence artificielle dans le cadre d’une nouvelle loi.

À voir en vidéo