Viser une gouvernance mondiale : les enseignements du AI Standards Hub à Londres


Par Silvio Dulinsky
Secrétaire général adjoint de l’ISO
Linkedin
L’IA transforme nos industries et nos sociétés à un rythme sans précédent et redéfinit tout, de la santé à la finance, en passant par la fabrication et les chaînes d’approvisionnement.
Cette évolution fulgurante pose néanmoins de sérieuses questions quant à la transparence, à la responsabilité et au déploiement éthique de cette technologie. Face à la place toujours plus importante de l’IA dans notre quotidien, il est indispensable de mettre en place une gouvernance efficace.
Cette semaine, à l’occasion du AI Standards Hub à Londres, je me suis joint à des experts de premier plan pour aborder ces enjeux. Lors d’une table ronde sur la normalisation internationale en matière d’IA, nous avons examiné l’évolution du paysage de l’IA et ses répercussions à grande échelle. Trois grands axes appelés à façonner l’avenir de la gouvernance de l’IA sont ressortis de nos discussions :
La gouvernance de l’IA doit nécessairement être mondiale
L’IA transcende les frontières. Son développement, son déploiement et son impact sont par essence de portée mondiale. Or, une approche en ordre dispersé de la gouvernance, propre à chaque pays, se révèle irréaliste. Les politiques et cadres réglementaires nationaux en matière d’IA se multiplient, mais abordent les risques majeurs de différentes manières. Cette mosaïque engendre des défis importants pour les entreprises, de même que pour les décideurs politiques et celles et ceux qui innovent.
Faute de recommandations internationales claires, les organisations sont confrontées à un certain flou en matière de conformité, à un manque d’efficacité ainsi qu’à divers obstacles entravant l’accès aux marchés mondiaux. Par ailleurs, le risque pour les pouvoirs publics de créer un déséquilibre réglementaire susceptible de ralentir l’adoption de l’IA, d’étouffer l’innovation ou de provoquer des déséquilibres en termes de compétitivité entre les économies, est réel.
C’est précisément sur ce point que les Normes internationales jouent un rôle central. Elles établissent en effet un socle harmonisé, qui permet d’assurer la cohérence de la gouvernance de l’IA entre les différentes juridictions, tout en offrant une certaine souplesse en termes de possibilités d’adaptation à l’échelon local. Grâce aux normes, les entreprises peuvent s’appuyer sur les meilleures pratiques ainsi que sur des cadres de gestion des risques et des exigences en matière d’interopérabilité qui transcendent les frontières.
La coopération mondiale n’est pas une question hypothétique mais bien une réalité. Des initiatives telles que le Pacte numérique mondial des Nations Unies mettent l’accent sur la collaboration internationale en matière de gouvernance numérique, avec comme axe principal la gouvernance de l’IA. Largement adoptés, les principes de l’OCDE sur l’IA offrent un cadre pour un développement responsable de l’IA. Des organisations internationales de normalisation comme l’ISO, l’IEC ou l’UIT, ainsi que des organisations nationales comme la British Standards Institution (BSI) ou le Conseil canadien des normes (SCC), se mobilisent pour établir des cadres permettant un alignement de l’IA au niveau mondial.
La gouvernance de l’IA exige une approche socio-technique
La gouvernance de l’IA est tout autant un défi technique que sociétal. Bien souvent, les discussions autour de l’IA se concentrent sur les algorithmes, l’infrastructure des données ou la cybersécurité, tout en omettant ses implications plus larges sur les plans éthique, social et économique. Or, lorsque les cadres de gouvernance font fi des valeurs humaines, de l’équité et de l’inclusion, on court le risque d’exacerber les inégalités et d’éroder la confiance du public.
La question de la supervision humaine dans la prise de décision par l’IA est un sujet de préoccupation majeur. L’IA peut certes accroître l’efficacité, mais elle devrait appuyer la capacité d’appréciation des humains et non la remplacer, en particulier dans des domaines où les enjeux sont considérables, comme la santé, la finance ou la justice pénale.
La question des biais de l’IA est également cruciale. Ainsi, lorsque l’entraînement des systèmes d’IA s’appuie sur des données présentant un biais ou lorsque ces systèmes sont conçus sans tenir compte de la diversité des points de vue, il n’est pas exclu qu’ils perpétuent les inégalités sociétales. Les développeurs doivent veiller à la transparence des processus de collecte des données, d’entraînement des modèles et de prise de décision. L’intégration de principes d’équité dans les normes relatives à l’IA permet aux organisations de limiter les biais et de s’assurer que l’IA répond aux besoins de toutes les communautés de manière équitable.
Ces questions socio-techniques seront au cœur des prochaines manifestations clés, notamment la Journée de la normalisation, organisée dans le cadre du sommet AI for Good qui se tiendra à Genève en juillet 2025, et le Sommet international sur les normes relatives à l’IA, prévu à Séoul en décembre 2025. Ces forums, portés par l’ISO, l’IEC et l’UIT, offrent une plateforme mondiale pour aligner la gouvernance de l’IA sur des besoins sociétaux plus larges, et faire en sorte qu’elle soit au service de l’humanité de manière à la fois éthique et responsable.
La confiance, pierre angulaire de l’adoption de l’IA
L’un des défis majeurs de la gouvernance de l’IA consiste à bâtir la confiance, que ce soit vis-à-vis des systèmes d’IA, des organisations qui les développent ou des politiques qui encadrent leur déploiement. La désinformation, les menaces en matière de cybersécurité et les atteintes subies en ligne sont autant de sujets de préoccupation majeurs, comme le souligne l’édition 2025 du Rapport du WEF sur les risques mondiaux.
Le rôle des Normes internationales est essentiel pour renforcer la confiance dans l’IA au travers de cadres clairs à l’appui de la gouvernance, de la gestion des risques, et d’un déploiement éthique. Elles aident les organisations à adopter des pratiques responsables en matière d’IA, à traiter systématiquement les risques potentiels, et à renforcer la transparence et la sécurité. Alors que l’IA continue de progresser, les efforts déployés en matière de normalisation contribuent à veiller à l’alignement de son développement sur les valeurs sociétales, et à encourager une innovation qui soit à la fois inclusive et sûre.
Ensemble, ces trois principes (harmonisation à l’échelle mondiale, approche socio-technique et instauration d’un climat de confiance) fournissent la structure nécessaire pour développer l’IA de manière responsable et efficace. Néanmoins, pour un véritable essor de l’IA, plus que de simples principes directeurs, il nous faut un cadre offrant à la fois une stabilité et un cap.
L’AI Standards Hub de Londres vient nous rappeler que la gouvernance de l’IA ne consiste pas seulement à gérer les risques, mais aussi à déterminer l’avenir auquel nous aspirons. Les normes ne sont pas une entrave bureaucratique, mais bien un catalyseur de l’innovation, de la confiance et de la coopération mondiale.
Il est temps d’agir. La question de la gouvernance de l’IA n’est pas un enjeu lointain, mais bien un impératif, dès aujourd’hui. Travaillons ensemble à construire un monde où l’IA sera au service de l’humanité, sous le signe de la sécurité, de la transparence et de l’inclusion.