OpenAI fait face à des défis réglementaires considérables. La Federal Trade Commission (FTC), agence indépendante du gouvernement américain qui veille à l’application du droit de la consommation et contrôle les pratiques commerciales anticoncurrentielles, a lancé une enquête sur les pratiques commerciales de l’entreprise sur fond d’interrogations sur l’éthique et la transparence de ChatGPT.
La FTC interroge OpenAI sur les « hallucinations » de l’IA
Créée en 1914, la FTC est une agence indépendante chargée de contrôler les pratiques commerciales anticoncurrentielles et de veiller à l’application du droit de consommation. L’organisme a lancé une assignation civile à l’encontre d’OpenAI, exigeant des éclaircissements sur divers aspects de ses activités.
Les soupçons portent sur les méthodes de collecte de données de l’entreprise, la gestion de ses algorithmes, ses mesures pour réguler les « hallucinations » de l’IA et d’autres aspects de ses pratiques commerciales. L’enquête fait suite à une sollicitation du Center for AI and Digital Policy (CAIDP) qui a exprimé des inquiétudes concernant la fiabilité des systèmes d’IA générative.
Dans le cadre de cette affaire, Merve Hickok, Présidente de la CAIDP, et Marc Rotenberg, Directeur Exécutif de la CAIDP, ont exposé leurs préoccupations : « Ces systèmes génèrent des résultats qui ne peuvent être ni reproduits, ni prouvés. Ils inventent et hallucinent. Ils décrivent comment commettre des actes terroristes, éliminer des leaders politiques et dissimuler la maltraitance des enfants. GPT-4 possède la capacité de mener une surveillance de masse à grande échelle, combinant la capacité d’absorber des images, d’établir des liens avec des identités et de développer des profils complets ».
Ces accusations graves mettent en lumière les défis complexes associés à la réglementation de l’IA générative et soulignent la nécessité d’équilibrer entre l’innovation technologique et la garantie de la sécurité et de l’éthique
D’autres régulateurs internationaux ciblent ChatGPT
OpenAI est également la cible de critiques dans d’autres contrées, notamment en Europe. En Italie, par exemple, l’entreprise a été confrontée à une interdiction temporaire en raison de préoccupations de sécurité liées à une violation de données survenue en mars 2023. De plus, des préoccupations croissantes sont exprimées concernant la capacité de ChatGPT à diffuser des Fake News.
Suite à l’enquête de la FTC, Sam Altman, PDG d’OpenAI, a manifesté son désaccord sur la manière dont les investigations ont été initiées. À travers une série de tweets, il a défendu les pratiques de son entreprise, soulignant qu’OpenAI a consacré des années à la recherche en matière de sécurité avant de déployer GPT-4, et que la société est profondément engagée dans la protection de la confidentialité des utilisateurs.