En cours au Siège de l'ONU

9831e séance - matin
CS/15359

Premier débat au Conseil de sécurité sur les conséquences pour la paix de l’intelligence artificielle, entre « risques existentiels » et immenses promesses

Le Conseil de sécurité s’est penché aujourd’hui, pour la première fois de son histoire, sur les conséquences pour la paix et la sécurité internationales de l’intelligence artificielle (IA), grosse selon le Secrétaire général d’un « énorme potentiel de bien et de mal à grande échelle » et dont même les créateurs entrevoient les risques « potentiellement existentiels ».  Se disant conscients des enjeux, les membres du Conseil ont très majoritairement souhaité l’adoption au niveau international de principes d’éthique et de comportements responsables dont la portée a en revanche suscité des propositions diverses. 

Tout en rappelant qu’il avait déclaré à l’Assemblée générale voici déjà six ans que l’intelligence artificielle aurait un impact considérable sur le développement durable, le monde du travail et le tissu social, M. António Guterres a dit avoir été choqué et impressionné par l’avancée radicale que constitue l’IA générative, dont il a jugé « sans précédent » la vitesse de développement et la portée.  À ses yeux, l’IA pourrait donner un coup de fouet au développement mondial, à la lutte contre la crise climatique, à la recherche médicale, aux progrès en matière d’éducation, mais aussi amplifier les préjugés, renforcer les discriminations et permettre de nouveaux niveaux de surveillance autoritaire. 

Dans le domaine de la paix et la sécurité internationales, le Secrétaire général a noté que l’IA était déjà utilisée par l’ONU, notamment pour identifier les schémas de violence et surveiller les cessez-le-feu.  Mais il a aussi rappelé que des cyberattaques fondées sur l’IA visaient déjà des infrastructures critiques et les opérations de maintien de la paix et d’aide humanitaire de l’ONU, causant de grandes souffrances humaines, et a jugé très inquiétants les risques de dysfonctionnement des systèmes d’IA en ce qui concerne les armes nucléaires, la biotechnologie, les neurotechnologies et la robotique.  Il a donc invité le Conseil de sécurité à aborder cette technologie avec un « sentiment d’urgence, une vision globale et un esprit d’apprentissage ». 

À l’origine de cette « réunion historique » du Conseil, la présidence britannique a affirmé que les plus grandes transformations induites par l’IA étaient encore à venir et qu’il était impossible d’en saisir toute l’ampleur.  Comme plus tard la France, qui a présenté l’IA comme la « révolution du XXIe siècle, le Royaume-Uni a estimé que l’IA modifierait fondamentalement tous les aspects de la vie humaine et que les gains pour l’humanité seraient certainement immenses.  Mais il a aussi constaté que l’IA remettait en cause les hypothèses fondamentales en matière de défense et de dissuasion et posait des questions morales sur la responsabilité des décisions sur le champ de bataille. 

Le débat a mis en avant un certain nombre de préoccupations éthiques.  Les États-Unis ont rappelé que le Président Biden avait récemment rencontré des dirigeants d’entreprises de l’IA de premier plan pour souligner la responsabilité qui leur incombe afin que les systèmes qui l’utilisent soient sûrs et dignes de confiance.  Le Japon a estimé que la clef pour relever le défi était double: une IA centrée sur l’humain et digne de confiance.  Que l’IA reste digne de confiance est également une préoccupation du Gabon, alors que plusieurs délégations, notamment la France, se sont alarmées des capacité de l’IA en matière de désinformation. 

Or, l’Équateur, citant l’écrivain polonais Stanislaw Lem pour qui « la première obligation de l’intelligence est de se méfier d’elle-même », a souligné qu’avec l’IA, ce principe ne serait pas respecté.  L’un des intervenants, M. Yi Zeng, de l’Institut d’automatisation de l’Académie chinoise des sciences, a rappelé que l’IA ne possède aucune compréhension réelle des données qu’elle traite et, de ce fait, ne devrait pas être utilisée pour prendre directement des décisions sans contrôle humain efficace et responsable. Plusieurs délégations ont appliqué ce conseil au débat sur les systèmes d’armes létales autonomes, rejetant l’abandon de tout contrôle humain, de même que toute automatisation des fonctions diplomatiques, en particulier les négociations entre États. 

Le Secrétaire général a annoncé que sa prochaine note d’information sur un Nouvel Agenda pour la paix formulerait des recommandations pour qu’ils élaborent des stratégies nationales conformes au droit international sur l’utilisation responsable de l’IA.  Elle appellera également à la conclusion, d’ici à 2026, de négociations sur la création d’un instrument juridiquement contraignant visant à interdire les systèmes d’armes autonomes létaux fonctionnant sans contrôle humain. 

L’encadrement international de l’intelligence artificielle a fait débat.  Pour l’Équateur, les principes éthiques et les comportements responsables demandés par tous sont indispensables mais insuffisants et il faudrait adopter un cadre international juridiquement contraignant.  En revanche, les Émirats arabes unis ont appelé à ne pas surréglementer l’IA, pour ne pas entraver l’innovation, et la Chine a défendu la possibilité pour les États de développer une IA correspondant à leurs spécificités. 

Le Brésil, dont une partie de la déclaration avait été rédigée par un outil d’IA, a quant à lui appelé à ne pas trop « sécuriser » le sujet de l’IA en concentrant les discussions au Conseil de sécurité, estimant que l’Assemblée générale, avec sa composition universelle, était le forum le mieux adapté à une discussion structurée et de long terme sur ce sujet.  Avec plus de vigueur, la Fédération de Russie a jugé que ce débat prospectif n’avait pas sa place au Conseil, expliquant que des aspects spécifiques éventuellement liés à l’IA étaient discutés dans autres enceintes et que « dupliquer ces efforts est contre-productif ».  

Pourtant, le fondateur d’une entreprise privée d’IA a rappelé aux membres du Conseil qu’en l’absence de cadre de gestion de risques et de système d’évaluation robuste et vérifiable pour encadrer le monde vers lequel l’IA nous fait avancer, le secteur privé disposait d’une grande marge de manœuvre. À défaut d’un cadre, nous mettons notre avenir entre les mains d’une poignée d’acteurs, a-t-il averti.

MAINTIEN DE LA PAIX ET DE LA SÉCURITÉ INTERNATIONALES

Intelligence artificielle: opportunités et risques pour la paix et la sécurité internationales

Déclarations

M. ANTÓNIO GUTERRES, Secrétaire général de l’ONU, a rappelé que si, il y six ans, il avait déclaré à l’Assemblée générale que l’intelligence artificielle (IA) aurait un impact considérable sur le développement durable, le monde du travail et le tissu social, il avait, comme tout le monde, été choqué et impressionné par l’avancée radicale que constitue l’IA générative, qualifiant la vitesse et la portée de cette nouvelle technologie de « sans précédent ».  Pour illustrer son propos, le Secrétaire général a rappelé qu’après l’apparition de l’imprimerie, il avait fallu plus de cinquante ans pour que les livres soient largement disponibles en Europe, alors que ChatGPT a atteint 100 millions d’utilisateurs en seulement deux mois.  Il a rappelé que le secteur financier estime que l’IA pourrait apporter entre 10 et 15 000 milliards de dollars à l’économie mondiale d’ici à 2030, que presque tous les gouvernements, toutes les grandes entreprises et toutes les organisations du monde travaillent à l’élaboration d’une stratégie en matière d’IA, mais que même ses propres concepteurs n’ont aucune idée de la direction que pourrait prendre leur stupéfiante percée technologique. 

Estimant qu’elle pouvait donner un coup de fouet au développement mondial, à la lutte contre la crise climatique, à la recherche médicale, aux progrès en matière d’éducation, M. Guterres a aussi rappelé que le Haut-Commissaire aux droits de l’homme s’était inquiété du fait que l’IA pouvait amplifier les préjugés, renforcer les discriminations et permettre de nouveaux niveaux de surveillance autoritaire.  Il a invité le Conseil à aborder cette technologie avec un sentiment d’urgence, une vision globale et un esprit d’apprentissage.  Il a indiqué que l’IA est déjà mise au service de la paix et de la sécurité, y compris par l’ONU, notamment pour identifier les schémas de violence et surveiller les cessez-le-feu. 

A contrario, le Secrétaire général s’est inquiété du fait qu’une utilisation malveillante de l’IA pourrait causer « des niveaux horribles de mort et de destruction »à une échelle inimaginable.  Il a rappelé que les cyberattaques fondées sur l’IA visaient déjà des infrastructures critiques et les opérations de maintien de la paix et d’aide humanitaire de l’ONU, causant de grandes souffrances humaines.  L’avènement de l’IA générative pourrait constituer un moment décisif pour la désinformation et les discours haineux, ajoutant une nouvelle dimension à la manipulation du comportement humain et contribuant à la polarisation et à l’instabilité à grande échelle, a-t-il averti, s’inquiétant notamment des graves conséquences que les « deepfakes » pourrait avoir sur la paix et la stabilité.  Il a aussi évoqué les risques de sécurité imprévus que certains systèmes basés sur l’IA pourraient créer, citant notamment des réseaux sociaux utilisés pour compromettre des élections, diffuser des théories du complot et inciter à la haine et à la violence. Il a également jugé très inquiétants les risques de dysfonctionnement des systèmes d’IA en ce qui concerne les armes nucléaires, la biotechnologie, les neurotechnologies et la robotique. 

« L’IA générative a un énorme potentiel de bien et de mal à grande échelle », a résumé M. Guterres, notant que ses créateurs eux-mêmes avaient prévenu que des risques beaucoup plus importants, « potentiellement existentiels », se profilent à l’horizon.  Il a appelé à une approche universelle de la gouvernance de l’IA, soulignant les obstacles que constituait la large diffusion de modèles puissants d’IA, le peu de traces laissé par leur transfert, contrairement aux matières nucléaires, chimiques ou biologiques, ainsi que le rôle de premier plan joué par le secteur privé, qui a peu d’équivalents dans d’autres technologies stratégiques.  Il s’est toutefois félicité de l’existence de « points de départ » comme les principes directeurs de 2018-2019 sur les systèmes d’armes létaux autonomes, adoptés dans le cadre de la Convention sur l’interdiction ou la limitation de l’emploi de certaines armes classiques, indiquant qu’il était d’accord avec les très nombreux experts ayant recommandé l’interdiction de leur utilisation sans contrôle humain.  Il a également cité d’autres recommandations relatives à l’IA adoptées par l’Organisation des Nations Unies pour l’éducation, la science et la culture (UNESCO) en 2021, ou encore par le Bureau de lutte contre le terrorisme ou l’Union internationale des télécommunications (UIT). 

Le Secrétaire général s’est félicité des appels lancés par certains États Membres en faveur de la création d’une nouvelle entité des Nations Unies pour soutenir les efforts collectifs visant à régir l’IA, s’inspirant de modèles tels que l’Agence internationale de l’énergie atomique (AIEA), l’Organisation de l’aviation civile internationale (OACI) ou du Groupe d’experts intergouvernemental sur l’évolution du climat (GIEC).  L’objectif principal de cet organisme serait d’aider les pays à maximiser les avantages de l’IA pour le bien, à atténuer les risques existants et potentiels, et à établir et administrer des mécanismes de surveillance et de gouvernance convenus au niveau international, a-t-il précisé.  Les gouvernements manquent cruellement de compétences dans ce domaine, a-t-il ajouté, affirmant qu’il convenait d’y remédier grâce à cette nouvelle entité des Nations Unies qui rassemblerait l’expertise, la mettrait à la disposition de la communauté internationale et pourrait également soutenir la collaboration en matière de recherche et de développement d’outils d’IA afin d’accélérer le développement durable. Il a indiqué avoir convoqué un organe consultatif multipartite de haut niveau pour l’intelligence artificielle, qui présentera un rapport sur les possibilités de gouvernance mondiale de l’IA d’ici à la fin de l’année. 

M. Guterres a ajouté que sa prochaine note d’information sur un Nouvel Agenda pour la paix formulerait également des recommandations aux États Membres pour qu’ils élaborent des stratégies nationales conformes au droit international sur l’utilisation responsable de l’IA.  La note d’orientation appellera également à la conclusion de négociations d’ici à 2026, sur la création d’un instrument juridiquement contraignant visant à interdire les systèmes d’armes autonomes létaux fonctionnant sans contrôle humain, contraires au droit international humanitaire. 

Outre ces recommandations, le Secrétaire général a demandé instamment un accord sur le principe selon lequel le contrôle humain des armes nucléaires est essentiel et ne devrait jamais être supprimé.  Il a estimé que le Sommet de l’avenir de 2024 serait l’occasion idéale de prendre des décisions sur bon nombre de ces questions interdépendantes. 

Invitant instamment le Conseil de sécurité à jouer un rôle moteur dans le domaine de l’IA et à montrer la voie vers des mesures communes en matière de transparence, de responsabilité et de contrôle, M. Guterres a appelé à travailler ensemble pour développer une IA qui soit capable d’éradiquer la faim et la pauvreté, de guérir le cancer, de stimuler l’action climatique, afin d’atteindre les objectifs de développement durable.

M. JACK CLARK, cofondateur de Anthropic, une entreprise américaine d’intelligence artificielle fondée en 2021 et basée en Californie, a fait un bref tour d’horizon des raisons pour lesquelles l’intelligence artificielle (IA) préoccupe le monde entier.  Il a aussi présenté les raisons pour lesquelles les États peuvent profiter de cette technologie.  Il a d’abord jugé nécessaire de renforcer les capacités des États pour réguler le développement de cette technologie et en faire une initiative commune et non pas uniquement celle du secteur privé.  M. Clark a rappelé qu’il y a un an, l’entreprise britannique DeepMind avait mis au point et lancé un jeu en ligne basé sur l’IA.  Cette technologie a montré par la suite des capacités à simuler des avions militaires et même de fabriquer des semi-conducteurs. 

En fait, l’IA peut être utilisée dans l’industrie pour réguler les lignes de production et améliorer la sécurité, a expliqué M. Clark.  CHATGTP et d’autres systèmes sont le fruit des recherches d’entreprises privées, a rappelé l’intervenant, qui a ajouté qu’il fallait s’attendre à des systèmes encore plus puissants à l’avenir.  De ce qui précède, a déclaré M. Clark, ce sera toujours le secteur privé qui continuera de bénéficier de cette technologie. 

Le cofondateur de Anthropic a donc proposé deux démarches aux États.  Il leur faut d’abord prévenir l’utilisation malveillante de l’IA et établir un principe de responsabilité.  Pour ce qui est de la prévention, insistant sur les possibilités d’utilisation à mauvais escient de l’IA, il a invité à réfléchir à la mise en place d’un cadre d’évaluation des risques et à l’établissement du principe de responsabilité pour les entreprises privées.  Il a suggéré que l’IA soit considérée comme une main d’œuvre qui peut être utilisée dans différentes tâches. 

Insistant sur le risque de voir l’IA utilisée au bénéfice unique de celui ou ceux qui ont les moyens, M. Clark a encouragé les États à trouver les moyens de tester l’utilisation à mauvais escient de cette technologie.  Il a cité à cet égard les initiatives de l’Union européenne, de la Chine et des États-Unis pour exhorter les autres États à investir dans un cadre de gestion de risques de l’utilisation de l’IA.  Le secteur privé a une grande marge de manœuvre en l’absence de cadre de gestion de risques, de système d’évaluation robuste et vérifiable pour encadrer le monde vers lequel l’IA nous fait avancer, a-t-il affirmé.  À défaut d’un cadre, nous mettons notre avenir entre les mains d’une poignée d’acteurs, a-t-il averti.

M. YI ZENG, de l’Institut d’automatisation de l’Académie chinoise des sciences, a estimé que le potentiel de l’intelligence artificielle pour faire avancer le développement durable mondial est tel que les gouvernements devraient examiner les moyens de l’appliquer aux soins de santé, à l’éducation et à l’action climatique.  S’agissant de la paix et de la sécurité internationales, l’intelligence artificielle devrait contribuer à identifier la désinformation et les malentendus entre les États plutôt qu’être utilisée à des fins militaires et politiques.  Afin qu’elle soit utilisée « pour connecter les cultures plutôt que pour les déconnecter », M. Zeng a créé un moteur d’interactions culturelles activé par l’intelligence artificielle permettant de trouver des points communs et des diversités entre les différents patrimoines culturels mondiaux répertoriés par l’Organisation des Nations Unies pour l’éducation, la science et la culture (UNESCO). 

Aujourd’hui, l’intelligence artificielle est un outil de traitement de l’information qui semble intelligent, bien qu’il ne possède aucune compréhension réelle des données qu’il traite, a poursuivi le scientifique.  Pour cette raison, nous ne pouvons pas lui faire confiance en tant qu’agent responsable pouvant aider les humains à prendre des décisions, a fait valoir M. Zeng.  Prenant l’exemple des systèmes d’armes létaux autonomes, il a souligné que l’intelligence artificielle ne devrait pas être utilisée pour prendre directement des décisions sans contrôle humain efficace et responsable.  De même, cette technologie ne saurait être applicable à l’automatisation des fonctions diplomatiques, en particulier les négociations entre différents pays, car elle pourrait exploiter à son compte les faiblesses humaines telles que la tricherie et la méfiance, avec des conséquences potentiellement catastrophiques pour l’humanité.  Nous devrions utiliser des technologies génératives pour aider, mais ne jamais leur faire confiance pour remplacer la prise de décision humaine, a insisté M. Zeng. 

Devant ce constat, M. Zeng a suggéré au Conseil de sécurité d’envisager la création d’un groupe de travail sur l’intelligence artificielle consacré à la paix et la sécurité internationales et chargé d’examiner les défis qui se font jour à court et long terme.  Selon lui, de tels travaux permettraient de parvenir à un consensus scientifique et technique et de fournir un appui aux États Membres.  Afin d’assurer la paix et la sécurité mondiales, il incombe selon lui aux Nations Unies de jouer un rôle central dans la mise en place d’un cadre de développement et de gouvernance de l’intelligence artificielle.

M. JAMES CLEVERLY, Secrétaire d’État aux affaires étrangères, au Commonwealth et au développement du Royaume-Uni, a salué ce premier débat sur l’intelligence artificielle au Conseil de sécurité comme une « réunion historique ».  Rappelant que depuis les premiers développements de l’intelligence artificielle par des pionniers comme Alan Turing et Christopher Strachey, cette technologie avait progressé toujours plus vite, il a affirmé que les plus grandes transformations induites par l’IA étaient encore à venir et qu’il était impossible d’en saisir toute l’ampleur. Il a estimé que l’IA modifierait fondamentalement tous les aspects de la vie humaine et que les gains pour l’humanité seraient certainement immenses, évoquant de potentielles découvertes révolutionnaires en médecine, l’augmentation de la productivité économique, l’adaptation aux changements climatiques, la lutte contre la corruption, une révolution dans l’éducation et la réduction des conflits. 

Le Secrétaire d’État a toutefois aussi constaté que l’IA remettait en cause les hypothèses fondamentales en matière de défense et de dissuasion et posait des questions morales sur la responsabilité des décisions sur le champ de bataille. Il a souligné qu’elle amplifiait la désinformation, avec des conséquences extrêmement néfastes pour la démocratie et la stabilité, et pourrait contribuer à la quête inconsidérée d’armes de destruction massive par des acteurs étatiques et non étatiques, mais aussi aider à stopper la prolifération. 

Détaillant les principes irréductibles sur lesquels devrait reposer une gouvernance mondiale de l’IA, M. Cleverly a évoqué le soutien à la liberté et à la démocratie, la conformité à l’état de droit et aux droits de l’homme, la préservation des droits de propriété, de la vie privée et de la sécurité nationale.  Il a expliqué que l’approche du Royaume-Uni s’appuyait sur des initiatives multilatérales existantes, telles que le sommet « AI for Good » de Genève, les travaux de l’UNESCO, de l’OCDE et du G20, soulignant l’importance d’institutions telles que le Partenariat mondial pour l’IA, le processus d’Hiroshima du G7, le Conseil de l’Europe et l’Union internationale des télécommunications (UIT).  Il a annoncé la réunion, cet automne au Royaume-Uni, des dirigeants du monde entier pour le premier grand sommet mondial sur la sécurité de l’IA, précisant que son pays abritait un grand nombre de chercheurs de premier plan en la matière.  Notre objectif commun sera d’examiner les risques de l’IA et de les réduire grâce à une action coordonnée, a-t-il expliqué, appelant à relever les défis de l’IA de manière décisive, optimiste et dans l’unité autour de principes essentiels. 

M. TAKEI SHUNSUKE, Ministre des affaires étrangères du Japon, a déclaré que la vitesse, le potentiel et les risques de l’intelligence artificielle dépassent l’imagination et les frontières nationales.  Au lieu de nous inquiéter, il faut faire avec, a-t-il estimé, ajoutant que la clef pour relever le défi est double: une IA centrée sur l’humain et digne de confiance. Pour le Ministre, c’est aux êtres humains de contrôler l’IA pour améliorer le potentiel humain, et non l’inverse.  Ils en ont les moyens.  Le développement de l’IA devrait être compatible avec les valeurs démocratiques et les droits humains fondamentaux.  L’IA ne devrait pas être un outil pour les dirigeants, mais devrait être placée sous l’état de droit. 

L’utilisation militaire de l’IA en est un bon exemple, a estimé le Ministre: elle doit être responsable, transparente et fondée sur le droit international.  Le Japon continuera de contribuer au processus international d’élaboration de règles sur les lois dans le cadre de la Convention sur l’interdiction ou la limitation de l’emploi de certaines armes classiques à cet égard.  Pour le Ministre, l’IA est aujourd’hui digne de confiance et peut le rester si on inclut un large éventail de parties prenantes dans le processus d’élaboration des règles.  Le pouvoir rassembleur de l’ONU peut faire la différence et rassembler les sagesses du monde entier, a-t-il ajouté. 

Le Ministre a rappelé que le mois dernier, le Japon a mené des discussions à l’ONU sur l’utilisation abusive de l’IA par les terroristes en organisant un événement parallèle avec le Bureau de lutte contre le terrorisme et l’Institut interrégional de recherche des Nations Unies sur la criminalité et la justice (UNICRI).  Le Japon a également lancé le processus d’IA du G7 à Hiroshima cette année et dirigé le débat mondial sur l’IA générative. 

Pour le Japon, le Conseil de sécurité et l’ONU dans son ensemble peuvent mettre à jour leur boîte à outils grâce à l’utilisation de l’IA.  Le Ministre a suggéré de commencer par examiner comment l’utilisation active de l’IA peut améliorer l’efficacité et la transparence du Conseil dans sa prise de décisions et ses méthodes de travail.  Il a estimé qu’on pourrait rendre l’ONU plus efficace grâce à des systèmes basés sur l’IA pour l’alerte précoce des risques de conflit, le suivi de la mise en œuvre des sanctions et la lutte contre la désinformation.

M. MANUEL GONÇALVES, Vice-Ministre des affaires étrangères et de la coopération du Mozambique, a pris acte des inquiétudes suscitées par les progrès rapides de l’intelligence artificielle du fait de l’accélération croissante de la puissance et de la visibilité des systèmes qui y recourent.  Si ces progrès offrent d’immenses possibilités dans les domaines de l’innovation, certains modèles ont également montré des capacités qui dépassent la compréhension et le contrôle de leurs créateurs, avec des résultats potentiellement catastrophiques, a-t-il relevé.  Pour le Ministre, la capacité de l’intelligence artificielle d’imiter et de surpasser des attributs humains en fait un outil idéal pour répandre la désinformation, commettre des fraudes, recruter des terroristes et semer la division. 

Pour le Vice-Ministre, les progrès des machines à autoprogrammation nécessitent la mise en place de structures de gouvernance solides permettant d’atténuer les risques d’accidents et d’utilisation abusive.  Pour y parvenir, il a appelé à tirer parti des vastes bases de données générées par des organisations telles que l’ONU, qui adhèrent à des normes rigoureuses de contrôle de la qualité, avec le concours des États Membres.  Une telle pratique permettrait notamment d’améliorer les capacités d’alerte précoce, de médiation et de communication stratégique dans le cadre d’opérations de maintien de la paix. 

Toutefois, a averti le Vice-Ministre, s’il s’avère que l’intelligence artificielle pose un risque existentiel pour l’humanité, il sera crucial de négocier un traité intergouvernemental permettant d’en régir l’utilisation.  Dans l’intervalle, il est tout aussi essentiel d’élaborer des législations permettant de protéger la vie privée et la sécurité des données.  Le Vice-Ministre a proposé à cette fin l’adoption d’un pacte numérique mondial permettant de faciliter le partage des connaissances technologiques entre les pays avancés et ceux qui en sont aux premiers stades du développement de cette technologie.  Ce n’est qu’en trouvant un équilibre entre les avantages de l’intelligence artificielle et la mise en place de garanties que nous pourrons faire en sorte qu’elle ne devienne pas une source de conflits et de renforcement des inégalités dans le monde, a-t-il conclu. 

M. OMRAN SHARAF, Ministre adjoint des affaires étrangères et de la coopération internationale, chargé des sciences et technologies avancées des Émirats arabes unis, a estimé que la manière de répondre aux menaces et aux opportunités de l’intelligence artificielle était en passe de devenir l’une des questions déterminantes de l’époque actuelle.  Il a rappelé qu’il y a cinq ans, son pays et la Suisse avaient proposé au Secrétaire général la création du groupe de haut niveau sur la coopération numérique, qui a conclu à la nécessité de réguler l’utilisation de l’IA.  Il a expliqué que, depuis l’aube de l’ère informatique, la puissance de calcul avait suivi la loi de Moore, doublant tous les dix-huit mois, mais que le développement de l’IA marquait une accélération vertigineuse que les gouvernements étaient incapables de suivre. 

Le Ministre adjoint a appelé à établir des règles de conduite, estimant qu’il existait aujourd’hui « une brève fenêtre d’opportunité pendant laquelle les principales parties prenantes étaient prêtes à envisager des garde-fous pour cette technologie » avant qu’il ne soit trop tard.  Il a affirmé que ces règles devraient empêcher les outils d’IA de répandre la haine et la désinformation, assurer le respect du droit international et promouvoir la consolidation de la paix et la désescalade des conflits. Il a ajouté que ces outils, en analysant plus efficacement de grandes quantités de données, permettaient de détecter les activités terroristes en temps réel ou de prédire les effets néfastes des changements climatiques sur la paix et la sécurité.  Appelant à ce que l’IA ne reproduise pas les préjugés du monde réel, il s’est inquiété du risque de voir compromises des décennies de progrès dans la lutte contre les discriminations, en particulier envers les femmes et les filles et les personnes handicapées.  Il a également averti qu’il fallait éviter de surréglementer l’IA pour ne pas entraver l’innovation, affirmant que les pays émergents avaient besoin d’une réglementation souple.

M. ZHANG JUN (Chine) a déclaré que l’émergence de l’intelligence artificielle avait coïncidé avec l’émergence de défis immenses pour la communauté internationale.  Il a mis en garde contre l’utilisation à mauvais escient de l’IA par les terroristes. En fait, nul ne sait l’IA est une bonne ou mauvaise chose; cela dépendra de son utilisation, a estimé le représentant.  Il a préconisé un dialogue pour explorer le mode de gouvernance de l’IA, se disant favorable au débat proposé par le Secrétaire général sur la question.  Pour la Chine, ce dialogue devrait inclure toutes parties prenantes y compris les pays en développement. 

Le représentant a défendu une IA centrée sur l’humain et qui ne deviendra pas un cheval de course que l’on ne pourra pas arrêter. Il a plaidé pour que les pays puissent établir une IA correspondant à leurs spécificités et pour des capacités de contrôle et d’encadrement de l’IA.  La communauté internationale doit sensibiliser aux risques de l’IA et mettre en place des systèmes d’alerte sur l’utilisation à mauvais escient.  L’humanité doit avoir la capacité de mettre le système sur « pause »à un moment donné et mettre en place un système de responsabilité. 

Le représentant a souligné le besoin d’équité et d’égalité dans l’utilisation de l’IA, qui doit aider à réduire les écarts de développement.  Il a dénoncé certains pays qui essaient d’en empêcher d’autres d’accéder à cette technologie et a plaidé pour la coopération, des échanges multidisciplinaires et une coopération public-privé.  Il a appelé à créer sous l’égide de l’ONU un environnement ouvert, inclusif et non discriminatoire dans l’utilisation de l’IA, dont l’objectif doit être d’améliorer le bien-être de l’humanité. 

Quant au Conseil de sécurité, il doit utiliser l’IA pour enrichir sa boite à outils pour la paix et éviter toute hégémonie technologique qui sape l’intégrité territoriale des pays, a estimé le représentant.  Il a rappelé qu’en 2017, le Gouvernement chinois a élaboré le plan de développement de l’IA préconisant des règles d’éthique et des mesures de suivi pour encadrer son évolution.  Il a aussi exhorté le secteur privé à la responsabilité dans l’utilisation de l’IA avant de rappeler les deux documents élaborés par sa délégation sur l’utilisation éthique de l’IA en matière de sécurité.

M. JEFFREY DELAURENTIS (États-Unis) a déclaré que l’intelligence artificielle offre d’immenses promesses pour surmonter les défis mondiaux concernant la sécurité alimentaire, l’éducation et la médecine, en plus d’accélérer la réalisation des objectifs de développement durable.  Toutefois, cette technologie peut également aggraver les menaces et intensifier les conflits, en répandant la désinformation et la mésinformation ainsi qu’en accroissant la portée des opérations cybernétiques malveillantes.  À cet égard, le représentant a jugé essentielle l’intégration des acteurs concernés tels que les États Membres, les entreprises technologiques et la société civile au sein d’instances telles que le Conseil de sécurité. 

En mai de cette année, le Président Biden a rencontré des dirigeants d’entreprises de l’IA de premier plan pour souligner la responsabilité qui leur incombe de faire en sorte que ces systèmes sont sûrs et dignes de confiance, a rappelé le représentant.  Récemment, un cadre de gestion des risques liés à l’intelligence artificielle a été publié pour fournir aux organisations une série de principes directeur volontaires pour gérer les risques qui y sont liés.  Nous travaillons avec les parties prenantes pour faire face aux risques posés par l’intelligence artificielle sur la paix et la sécurité, a expliqué le représentant. 

Pour les États-Unis, aucun État Membre ne devrait être en mesure d’utiliser la technologie de l’IA pour censurer ou opprimer des individus ou un peuple. L’an dernier, les États-Unis ont publié un projet de déclaration politique sur l’utilisation responsable de l’intelligence artificielle et sur l’autonomie, qui prévoit une série de principes relatifs à la façon dont nous devons utiliser et développer cette technologie dans le domaine militaire, dans le respect du droit international, a encore expliqué le représentant.  Selon ce document, une telle utilisation doit répondre à une chaîne de commandement humaine et les États Membres doivent en gérer l’accès de façon stricte. 

M. SÉRGIO FRANÇA DANESE (Brésil) a lu un premier paragraphe de sa déclaration entièrement rédigé par ChatGPT, estimant qu’en dépit d’imprécisions conceptuelles, ce programme montrait à quel point certains de ces outils sont devenus sophistiqués. Il a souligné que l’intelligence artificielle évoluait si rapidement que même les meilleurs chercheurs n’étaient pas encore en mesure d’évaluer l’ampleur des défis et des bénéfices qu’elle pouvait apporter.  Il a également insisté sur l’importance de la supervision humaine pour éviter les biais et les erreurs. 

Le représentant a rappelé que, contrairement à d’autres innovations susceptibles d’entraîner des répercussions sur la sécurité, l’IA avait été principalement développée en tant qu’application civile, jugeant donc prématuré d’envisager l’IA principalement sous l’angle de la paix et de la sécurité internationales.  Si le Conseil doit rester vigilant et prêt à réagir à tout incident impliquant l’utilisation de l’IA, nous devons également veiller à ne pas trop « sécuriser » ce sujet en concentrant les discussions dans cet hémicycle, a-t-il ajouté.  Appelant à des discussions internationales ouvertes et inclusives, il a estimé que l’Assemblée générale, avec sa composition universelle, était le forum le mieux adapté à une discussion structurée et de long terme sur ce sujet.  Il a rappelé que l’IA était un sujet crucial du groupe de travail à composition non limitée sur les technologies de l’information et de la communication (TIC), qui tiendra sa cinquième session de fond la semaine prochaine. 

Concernant les applications militaires de l’IA, le représentant a affirmé que son pays avait toujours été guidé par le concept de « contrôle humain significatif », tel qu’approuvé en 2019 par les hautes parties contractantes à la Convention sur certaines armes classiques, qui indique que la responsabilité humaine des décisions relatives à l’utilisation des systèmes d’armes doit être maintenue.  Il a ajouté que les systèmes d’armes dotés de fonctions autonomes devaient éliminer toute partialité dans leur fonctionnement.  Il a appelé à l’élaboration progressive de réglementations et de normes régissant l’utilisation des systèmes d’armes autonomes visant à prévenir les préjugés, les abus et à garantir le respect du droit international.  Le représentant s’est aussi inquiété de l’interaction de l’IA avec des armes de destruction massive, en particulier de l’existence de systèmes informatiques assistés par l’IA capables de mettre au point, en quelques heures, de nouveaux composés chimiques toxiques et de concevoir de nouveaux agents pathogènes, ainsi que de l’usage de l’IA lié aux armes nucléaires. 

« Je crois que ce n’est qu’une question de temps avant de voir des milliers de robots comme moi faire la différence », a affirmé Mme PASCALE CHRISTINE BAERISWYL (Suisse) en citant les propos tenus par le robot Ameca à une journaliste lors du Sommet mondial sur l’intelligence artificielle au service du bien social« AI for Good », coorganisé par l’Union internationale des télécommunications (UIT) et la Suisse, il y a deux semaines à Genève. 

La représentante a estimé que si l’IA pouvait représenter un défi en raison de sa rapidité et son apparente omniscience, elle devait servir la paix.  Elle a expliqué que l’École polytechnique fédérale de Zurich développe actuellement un prototype d’outil d’analyse assisté par l’IA pour le Centre d’opérations et de crises des Nations Unies afin d’explorer son potentiel pour le maintien de la paix, en particulier pour la protection des civils et des Casques bleus.  Elle a également rappelé que la Suisse avait récemment lancé l’initiative « Appel de la Suisse pour la confiance et la transparence », par laquelle le monde académique, le secteur privé et la diplomatie cherchent conjointement des solutions pratiques et rapides aux risques liés à l’IA. 

Pour la Suisse, le Conseil de sécurité doit œuvrer à contrer les risques pour la paix causés par l’IA, notamment les cyberopérations hostiles et la désinformation, qui sapent la confiance des populations dans les gouvernements et les missions de paix.  Qualifiant l’IA d’« épée à double tranchant » qui peut aussi servir à détecter les faux récits et les discours de haine, la représentante a appelé à l’établissement d’un cadre commun, partagé par tous les acteurs impliqués dans le développement et dans l’application de cette technologie: les États, les entreprises, la société civile et les organisations de recherche. 

La représentante a rappelé que le droit international existant s’applique à l’IA et précisé que la Suisse s’engage dans tous les processus de l’ONU servant à clarifier le cadre juridique international de l’IA et, dans le cas des systèmes d’armes autonomes létaux, à élaborer des interdictions et des restrictions.  Elle a ajouté que l’IA devait être centrée sur l’humain, appelant à respecter des considérations éthiques et à maintenir la responsabilité des États, des entreprises et des individus.  Enfin, elle a appelé à contrecarrer les stéréotypes discriminatoires que l’IA pourrait générer à partir de données reflétant des préjugés et à veiller à ce que l’IA ne reproduise pas des biais sociétaux néfastes, la rendant alors de mauvais conseil pour la paix et la sécurité. 

En conclusion, elle a appelé le Conseil à prendre appui sur les résultats de l’Assemblée générale concernant le cadre juridique relatif à l’IA, et à encourager le Secrétariat et les missions de paix à utiliser cette technologie de manière innovante et responsable.  Elle a affirmé que son pays avait utilisé l’IA pour le premier débat sous sa présidence, et dans le cadre d’une exposition avec le Comité international de la Croix-Rouge sur les dilemmes digitaux.  Elle s’est réjouie de faire de « AI for good » une partie intégrante du « Nouvel Agenda pour la paix ». 

M. HAROLD ADLAI AGYEMAN (Ghana) a déclaré que l’intelligence artificielle avait le potentiel d’améliorer la médecine, l’agriculture, la gestion de l’environnement et le développement, mais comportait également des risques à la survie de notre commune humanité.  En matière de paix et de sécurité, nous devons nous assurer de ne pas reproduire les risques que d’autres technologies puissantes ont créés pour le monde par leur capacité à déclencher des catastrophes aux proportions mondiales, a averti le représentant.  Ainsi, si les technologies utilisant l’IA peuvent faciliter la coordination de l’aide humanitaire et améliorer l’évaluation des risques, notamment dans le cadre d’opérations de maintien de la paix, l’intégration de l’IA dans les systèmes d’armes autonomes demeure une source de préoccupation majeure qui compromet l’engagement des États Membres envers un monde pacifique, a-t-il noté. 

Pour le Ghana, il est donc nécessaire d’élaborer des principes et des cadres mondiaux en impliquant l’ensemble des États Membres de l’ONU, qui ont un intérêt égal dans ce débat.  De même, le représentant a encouragé le Conseil de sécurité à poursuivre son engagement avec la Stratégie pour la transformation numérique des opérations de maintien de la paix des Nations Unies, dans le cadre de l’initiative Action pour le maintien de la paix plus (A4P+). 

M. NICOLAS DE RIVIÈRE (France) a présenté l’intelligence artificielle comme « la révolution du XXI° siècle » et jugé essentiel d’en faire un instrument au service de la paix alors que se profile un monde plus dur, marqué par la compétition et traversé par les guerres hybrides. Le représentant s’est dit convaincu que l’IA peut jouer un rôle décisif pour le maintien de la paix, contribuer à la sécurité des casques bleus et à la protection des civils et faciliter la résolution des conflits en permettant la mobilisation de la société civile.  La France pense que l’IA peut aussi servir les objectifs du développement durable et contribue en ce sens au Pacte numérique mondial du Secrétaire général.  Enfin, elle peut aider à prévenir les risques naturels résultant des changements climatiques, y compris en accompagnant la mise en œuvre des engagements de l’Accord de Paris en matière de réduction des gaz à effet de serre. 

Le représentant s’est ensuite attaché aux risques présentés par l’IA, appelant à les « regarder en face ».  Elle peut démultiplier la menace cyber, ou être au contraire vulnérable aux attaques cyber. M. de Rivière a jugé « possible » que, dans le domaine militaire, l’IA modifie en profondeur la nature des conflits.  Il a donc appelé à travailler, au sein du groupe d’experts gouvernementaux de la Convention sur certaines armes classiques, pour mettre au point un cadre applicable aux systèmes d’armes létaux autonomes, permettant de prendre des décisions garantissant que les conflits de demain respectent le droit international humanitaire.  Il s’est aussi inquiété des risques d’intensification de la guerre de l’information, prenant en exemple « les campagnes de désinformation massive en cours en République centrafricaine et au Mali, ou celles qui accompagnent la guerre menée par la Russie contre l’Ukraine ».  De même, l’ingérence électorale étrangère recourant à l’IA déstabilise des pays et remet en cause les fondements des démocraties, a-t-il dénoncé. 

La France est attachée à promouvoir une approche éthique et responsable de l’intelligence artificielle, a affirmé M. de Rivière.  Elle a lancé en ce sens un partenariat mondial en 2020 et travaille également au sein de l’Union européenne et du Conseil de l’Europe.  Pour le représentant, les Nations Unies offrent un cadre « irremplaçable ».  Il a salué les travaux en cours du Nouvel Agenda pour la Paix et l’organisation à venir du Sommet du Futur, qui doivent permettre de réfléchir collectivement à ces sujets et à élaborer les normes de demain.

M. HERNÁN PÉREZ LOOSE (Équateur) a cité l’écrivain polonais Stanislaw Lem selon lequel « la première obligation de l’intelligence est de se méfier d’elle-même » pour dire qu’avec l’IA, il ne faut pas s’attendre à ce principe.  Pour le représentant, la question n’est pas d’être pour ou contre le développement de l’IA; elle est déjà développée rapidement et continuera de l’être.  L’IA -comme toute autre technologie, a-t-il rappelé- est un outil qui peut contribuer aux efforts de maintien et de consolidation de la paix, ou peut être utilisée pour saper ces objectifs.  Elle peut aider à la prévention des conflits et à la modération des dialogues dans des contextes complexes tels que la COVID-19.  Elle peut soutenir la protection des travailleurs humanitaires en permettant d’élargir l’accès et l’action, y compris par l’analyse prédictive.  La préparation, l’alerte précoce et la réaction rapide peuvent bénéficier de cet outil. 

Rappelant la résolution 2518 (2020), le représentant a réitéré l’appui de l’Équateur à une utilisation plus intégrée des nouvelles technologies en vue d’améliorer la connaissance de la situation de son personnel des opérations de paix et de ses capacités.  La responsabilité des États Membres est de promouvoir et de tirer parti du développement technologique en tant que facilitateur de la paix et en tant qu’outil de protection de la population civile, a-t-il affirmé.  Cette tâche doit se faire dans le strict respect des droits de l’homme et du droit international humanitaire. 

Après avoir alerté sur les menaces posées d’utilisation abusive de l’IA à des fins malveillantes ou terroristes, le représentant a également rejeté l’utilisation militaire de l’IA.  Les principes éthiques et les comportements responsables sont indispensables mais ils ne suffisent pas, a-t-il ajouté, estimant que la réponse pour tirer le meilleur parti de l’IA est la mise en place d’un cadre international juridiquement contraignant. 

Mme VANESSA FRAZIER (Malte) a estimé que les applications pacifiques de l’intelligence artificielle peuvent contribuer à l’atteinte des objectifs de développement durable en remodelant notre façon de travailler, d’interagir et de vivre.  D’autre part, l’utilisation abusive et les conséquences involontaires de l’intelligence artificielle présentent des risques pour la paix et la sécurité internationales qui exigent une attention soutenue.  Les cyberattaques, les campagnes de désinformation et de mésinformation, ou encore les systèmes d’armement autonomes peuvent entraîner une augmentation des vulnérabilités et des tensions géopolitiques.  La représentante s’est également inquiétée des conséquences négatives de cette technologie sur les droits humains du fait de prises de décisions algorithmiques discriminatoires. 

Pour y faire face, la représentante a préconisé l’élaboration de cadres éthiques et d’instruments universels par la communauté internationale. Alors que les acteurs gouvernementaux et non gouvernementaux se précipitent pour être les premiers dans le développement de cette technologie, des pratiques de gouvernance et de contrôle doivent être développées à un rythme comparable afin de préserver la paix et la sécurité internationales, a-t-elle fait valoir. Depuis 2019, Malte s’affaire à élaborer un tel cadre selon les lignes directrices éthiques énoncées par l’Union européenne en s’appuyant sur une approche centrée sur l’humain, le respect de la réglementation applicable et la minimisation des risques.  Pour Malte, le Conseil de sécurité a un rôle fondamental d’anticipation à jouer afin d’être en mesure d’exploiter le pouvoir de transformation de l’intelligence artificielle tout en en atténuant les risques.

Mme LILLY STELLA NGYEMA NDONG (Gabon) a déclaré que le maintien de la paix et de la sécurité internationales s’appuie depuis des années sur un écosystème technologique solide qui permet à la fois de renforcer les capacités de gestion et de prévention de crises et de favoriser une meilleure compréhension des situations.  L’IA décuple les capacités d’analyses des systèmes d’alerte rapide; elle rend les dispositifs opérationnels des missions de paix des Nations Unies plus performants et renforce la mise en œuvre de leur mandats, en particulier au profit de la protection des civils ; elle joue aussi un rôle majeur dans les processus de consolidation de la paix et favorise la mise en place des projets à impact rapide tout en offrant des opportunités d’emploi aux jeunes et des possibilités de réinsertion aux anciens combattants.  Pour la représentante , il est toutefois essentiel que les communautés locales s’approprient et absorbent ces nouvelles technologies.  Sans un ancrage local, les bénéfices de l’IA sont appelés à disparaître après le retrait des forces internationales, et les crises à resurgir, a-t-elle estimé, appelant donc à expliquer les processus de fabrication et de diffusion de l’intelligence artificielle afin de renforcer la confiance et la légitimité en elle. 

La représentante a estimé que l’IA présente également de nombreux risques qu’il nous faut appréhender des maintenant.  Elle a en particulier mentionné les risques de recours à l’IA par des groupes terroristes et criminels, afin de poursuivre leurs activités illicites.  De telles menaces doivent constituer le point de départ d’un contrôle international accru du développement des nouvelles technologies, a-t-elle estimé.  Elle a donc appelé l’ONU à renforcer la coopération internationale pour développer un cadre réglementaire avec des mécanismes de contrôle appropriés et des systèmes de sécurité solides, mais aussi à favoriser le partage des meilleures pratiques en matière de sécurité et de contrôle.  En l’absence d’une réglementation fiable et d’outils de contrôle et de gestion efficaces, l’IA peut constituer une véritable menace à la paix et la sécurité internationales, a averti la représentante, qui a conclu en estimant que notre enthousiasme envers ces technologies de plus en plus sophistiquées « doit être empreint de prudence et de retenue ».

M. FERIT HOXHA (Albanie) a estimé que l’intelligence artificielle présente des différences avec d’autres technologies de pointe: cet outil est susceptible de changer et transformer le monde.  Le représentant a donc suggéré de superviser les risques de l’emploi de l’IA, estimant que personne n’est en mesure d’appréhender le système.  Réitérant les risques de discrimination sur la base du sexe, de la race ou de l’origine que représente l’IA, il y a ajouté les risques d’effet préjudiciable de l’IA, à l’image de certains pays qui s’en servent pour jeter de l’huile sur la flamme de la violence ou des conflits.  Le représentant a donc appelé à actualiser les règlements et les cadres de gouvernance en tenant compte de l’IA et sans saper les droits fondamentaux.  Il a enfin suggéré au Conseil de sécurité de faire un suivi des risques de l’utilisation de l’IA pour la paix et la sécurité internationales.

M. DMITRY A.  POLYANSKIY (Fédération de Russie) s’est opposé à ce que le Conseil de sécurité soit le lieu de discussion de la question de l’intelligence artificielle qui, certes, présente un intérêt scientifique considérable, mais dont la signification pratique, et plus encore la projection sur les processus politiques, reste à évaluer et n’est donc « clairement pas une question de futur proche ».  Selon le représentant, il n’existe aucun argument à l’appui de la thèse d’une relation « organique » entre cette technologie et les questions de paix et de sécurité internationales.  Par conséquent, il a jugé « artificielle » toute tentative de lier le sujet générique de l’intelligence artificielle aux menaces à la paix et à la sécurité.  Pour la Fédération de Russie, les aspects militaires de l’IA qui pourraient théoriquement avoir un impact sur la sécurité mondiale et régionale sont discutés dans des enceintes spécialisées comme le Groupe d’experts gouvernementaux des États parties à la Convention sur les armes inhumaines dans le cas des systèmes létaux autonomes, ou encore le Groupe de travail à composition non limitée sous l’égide de l’Assemblée générale pour ce qui est des questions de sécurité dans le domaine des technologies de l’information et de la communication.  « Dupliquer ces efforts est contre-productif », a asséné le représentant. 

Comme avec toute technologie de pointe, l’intelligence artificielle peut être mise au service de l’humanité ou avoir un effet destructeur, selon l’entité à laquelle elle appartient, a relevé le représentant.  Selon lui, nous assistons aujourd’hui à la façon dont « l’Occident, mené par les États-Unis », sape la confiance dans ses propres solutions technologiques en s’ingérant dans les activités des entreprises et en manipulant des algorithmes de modération de contenu et de surveillance des utilisateurs afin de procurer à leurs entreprises des avantages concurrentiels déraisonnables.  Des firmes comme « l’extrémiste » Meta bloquent automatiquement les informations jugées « incorrectes » tout en permettant les appels à « exterminer les Russes », a-t-il accusé. 

Tout instrument d’autorégulation de l’intelligence artificielle doit être conforme à la législation nationale du pays d’exploitation de l’entreprise, a ensuite affirmé le représentant, qui s’est opposé à la mise en place d’organismes de surveillance supranationaux et à l’application extraterritoriale de toute norme dans ce domaine.

À l’intention des organes d’information. Document non officiel.