AIJB

Pourquoi l'éthique de l'IA n'a pas besoin de trop de règles

Pourquoi l'éthique de l'IA n'a pas besoin de trop de règles
2025-12-04 journalistiek

Den Haag, donderdag, 4 december 2025.
L’ancien ministre David van Weel met en garde contre le risque d’une surrégulation dans le domaine de l’intelligence artificielle, et insiste sur l’importance d’une approche mondiale et coordonnée pour éviter un « moment 9/11 » dans le domaine de l’IA. La vérité la plus frappante : des règles trop strictes peuvent freiner l’innovation, tandis que des règles trop souples peuvent compromettre l’éthique. Les Pays-Bas jouent un rôle clé dans la promotion d’une collaboration intelligente et éthique entre les gouvernements, les entreprises et la science. Le défi n’est pas d’arrêter l’IA, mais de guider sa croissance de manière à maintenir un équilibre entre sécurité, responsabilité et progrès — un équilibre qui ne peut être atteint qu’à l’échelle internationale.

Le danger d’un moment 9/11 en matière d’IA

L’ancien ministre des Affaires étrangères David van Weel a mis en garde contre le risque que le monde soit submergé par un « moment 9/11 » dans le domaine de l’intelligence artificielle lors du forum « How to Trust AI? The Good, the Bad and the AI » [1]. Il a souligné la différence entre l’IA et la bombe atomique réside dans la vitesse d’impact : alors que la bombe nucléaire nécessite une seule expérience dramatique, les conséquences de l’IA se développent lentement mais irrémédiablement, avec des effets imprévisibles sur la sécurité, la démocratie et les relations géopolitiques [1]. Van Weel a averti qu’une catastrophe soudaine et imprévue — comme l’usage massif de drones basés sur l’IA ou des deepfakes perturbateurs lors d’une campagne électorale — pourrait provoquer une crise de confiance dans la société, difficile à réparer [1]. La comparaison avec le 11 septembre n’est pas purement rhétorique : elle sert d’avertissement sur le manque de préparation, ainsi que sur la nécessité d’une réaction proactive et coordonnée face à la disruption technologique [1].

La surrégulation comme frein à l’innovation

Van Weel a averti que la surrégulation dans le domaine de l’IA représente une menace réelle pour l’avancement technologique et la compétitivité économique [1]. Il a souligné que les règles sont nécessaires, mais doivent être « intelligentes et ciblées » — ni assez strictes pour freiner l’innovation, ni assez souples pour faire disparaître l’éthique de la vue [1]. Ce juste équilibre est crucial, car le gouvernement néerlandais est activement impliqué dans des initiatives internationales comme REAIM (IA responsable dans le domaine militaire) avec la Corée du Sud, ainsi que dans des groupes d’experts des Nations Unies, où les Pays-Bas souhaitent jouer un rôle de leader dans le développement d’une IA responsable [1]. Sans une approche internationale, l’UE, dans le cadre de son plan d’action sur l’IA, risque d’imposer trop de règles qui pourraient freiner la croissance rapide de la technologie de l’IA aux Pays-Bas et dans la région [1][2]. Le danger est qu’une régulation trop stricte entraîne une « perte d’innovation » — où des entreprises technologiques comme Anthropic, valorisée à 300 milliards de dollars, pourraient déplacer leurs stratégies d’investissement vers des pays avec une réglementation plus souple [1][2].

La coopération internationale comme fondement de l’éthique

Selon Van Weel, une approche mondiale et coordonnée est essentielle pour préserver les opportunités et garantir l’éthique sans freiner l’innovation [1]. Il a souligné qu’il ne relève pas d’un seul pays de définir l’éthique de l’IA, mais que la coopération entre gouvernements, entreprises et scientifiques est cruciale [1]. Ce n’est pas seulement une nécessité éthique, mais aussi stratégique, compte tenu de la nature transfrontalière de la technologie de l’IA et des risques potentiels liés à la guerre automatisée, à la fraude de données ou à la falsification massive de médias [1]. L’approche néerlandaise vise à construire un pont entre la diplomatie et la technologie, en mettant l’accent sur la sécurité, les valeurs démocratiques et l’évitement de modèles « boîtes noires » opaques [1]. L’introduction récente d’une sanction pénale pour la création et la diffusion de deepfakes concernant des personnes physiques, avec une peine maximale de cinq ans d’emprisonnement ou une amende de 250 000 euros, constitue une étape dans cette direction, mais s’intègre dans un cadre international, comme le plan d’action européen sur l’IA [3].

Le défi de la progression rapide de la technologie

Les progrès dans le domaine de l’IA se font plus vite que la capacité législative des gouvernements. En seulement cinq mois, l’usage quotidien de l’IA par les Néerlandais a presque doublé, ce qui souligne la nécessité d’adaptations rapides et responsables [3]. Déjà, plus de 100 milliards de dollars ont été empruntés par OpenAI pour maintenir l’entreprise opérationnelle, ce qui indique une dépendance financière extrême et un intérêt d’investissement considérable, principalement aux États-Unis [3]. En outre, une menace de sécurité actuelle provient d’une vulnérabilité dans les versions récentes du logiciel OpenAI Codex CLI, qui permet aux attaquants d’exécuter du code sans être détectés — un risque particulièrement préoccupant pour les secteurs réglementés comme la finance, la santé et l’énergie [3]. Cette vitesse de développement rend impossible la mise en place d’une politique de régulation complète et préalable pour l’IA. C’est pourquoi Van Weel plaide pour un cadre dynamique qui s’adapte aux nouvelles évolutions, plutôt que pour des règles statiques qui deviennent obsolètes en quelques années [1].

Le rôle des entreprises et de la science

Pour trouver un équilibre entre sécurité, innovation et éthique, il faut établir une collaboration ouverte, éthique et intelligente entre les gouvernements, les entreprises et la science [1]. Les entreprises jouent un rôle crucial, mais leur responsabilité devient de plus en plus claire. Par exemple, le groupe d’utilisateurs SAP a averti que le « fruit facile » de l’utilisation de l’IA est souvent moins évident qu’il n’y paraît, car l’implémentation prend souvent des années et nécessite des transformations profondes des processus [3]. Par ailleurs, le gouvernement australien a surpris Deloitte en dénonçant un usage incorrect de l’IA dans un rapport remis, ce qui a conduit l’entreprise à rembourser l’argent — un exemple de la manière dont la confiance dans la technologie de l’IA peut rapidement s’évaporer en cas d’abus [3]. De plus en plus, les assureurs refusent de couvrir les risques liés aux agents ou aux chatbots d’IA en raison de risques difficilement évaluables, ce qui met en évidence l’impact économique d’un développement d’IA irresponsable [3]. Les scientifiques et les experts en technologie doivent donc collaborer de manière proactive avec les décideurs politiques, afin que les opportunités et les menaces soient correctement équilibrées et que les connaissances ne restent pas confinées aux laboratoires [1].

Sources