Points clés :
- OpenAI, sous la direction de son PDG Sam Altman, pourrait être amené à se retirer du marché européen en raison de la réglementation de l’IA en cours d’élaboration par l’Union Européenne (UE).
- L’UE est en train de finaliser la nouvelle loi sur l’IA, l’EU AI Act, qui impose des exigences de divulgation concernant les méthodes de formation et les sources de données, ce qui pourrait poser des défis techniques et commerciaux à OpenAI.
Qu'est-ce que l'EU AI Act ?
L’EU AI Act est une initiative législative sans précédent visant à réguler l’Intelligence Artificielle (IA) en Europe. L’Acte adopte une approche basée sur le risque, catégorisant les pratiques d’IA en fonction de leur risque potentiel pour la sécurité, la santé, les droits fondamentaux ou l’environnement.
Les systèmes d’IA à haut risque, notamment ceux pouvant influencer les campagnes politiques ou largement utilisés par les plateformes de médias sociaux, sont soumis à des exigences de transparence strictes et doivent assurer une protection robuste des droits et de la sécurité des citoyens.
Explication rapide de la situation
L’Union Européenne travaille actuellement à la finalisation de l’EU AI Act, une législation qui vise à encadrer l’utilisation de l’IA. Sam Altman, le PDG d’OpenAI, a exprimé de « nombreuses inquiétudes » à propos de cette loi lors d’une conférence de presse à Londres. Il craint notamment que les « modèles de base« , ces systèmes d’IA à grande échelle qui alimentent des services tels que ChatGPT et DALL-E d’OpenAI, soient désignés comme « à haut risque » en vertu de la législation de l’UE.

Quels sont les dangers pour OpenAI ?
La désignation de ces modèles comme « à haut risque » signifie qu’OpenAI serait tenue de répondre à un certain nombre d’exigences en matière de sécurité et de transparence. Cela pourrait engendrer des défis techniques considérables.
De plus, la loi exige que les créateurs de ces modèles divulguent des détails sur leur conception, y compris le « temps de formation, la puissance de calcul nécessaire et d’autres informations pertinentes liées à la taille et à la puissance du modèle« , ce qui pourrait poser des menaces commerciales pour OpenAI.
Les nouvelles exigences de transparence pourraient également exposer OpenAI à des poursuites judiciaires si elle utilise des données protégées par le droit d’auteur pour entraîner ses IA génératives.
Quelle est la réaction d’OpenAI ?
Suite à ces préoccupations, Altman a tenté de tempérer ses commentaires initiaux en soulignant que la société a eu des discussions productives concernant la réglementation de l’IA en Europe et n’a « bien sûr, pas l’intention de partir ». Cependant, il a également déclaré que si OpenAI ne peut pas se conformer à ces réglementations, l’entreprise « cessera d’opérer » dans l’Union Européenne.

Le mot de la fin
La perspective d’un retrait d’OpenAI du marché européen souligne les tensions entre les entreprises d’IA et les régulateurs qui cherchent à mettre en place des règles pour cette technologie en pleine évolution.
Les récentes remarques d’Altman mettent en lumière le dilemme de l’entreprise entre la nécessité de se conformer à de nouvelles réglementations et la volonté de protéger ses atouts commerciaux. Dans ce contexte, la façon dont OpenAI naviguera dans ce nouvel environnement réglementaire sera intéressante à suivre.
C’est déjà la fin de cet article. Vous voulez en apprendre davantage sur l’intelligence artificielle ? Consultez nos actualités et nos guides pour vous familiariser avec cette technologie d’avenir.