Les autorités de régulation des pays de l’UE se saisissent du sujet épineux des chatbots alimentés par l’Intelligence Artificielle générative après le succès fulgurant de ChatGPT et le lancement imminent de Bard de Google ou encore ChatSpot de HubSpot. L’Italie est devenue le premier pays occidental à bloquer l’accès à l’outil d’OpenAI, et d’autres pays européens pourraient bien lui emboîter le pas. Explications…
Sommaire
L’Italie jette un pavé dans la marre et bloque l’accès à ChatGPT
L’organisme italien de surveillance de la protection des données a déclaré il y a un peu plus d’une semaine ouvrir une enquête contre OpenAI, la société à l’origine de ChatGPT et de Dall-E, en invoquant des problèmes de confidentialité des données suite à une succession de failles de sécurité qui ont permis à certains utilisateurs de consulter les historiques de conversation d’autres utilisateurs de manière aléatoire.
Des centaines de millions de personnes ont utilisé ChatGPT depuis son lancement en novembre 2022, ce qui en fait l’application grand public à la croissance la plus rapide de l’histoire, selon une étude d’UBS. Toutefois, les risques potentiels de l’IA suscitent de plus en plus d’inquiétudes, notamment en ce qui concerne la menace de suppression de nombreux emplois et de diffusion de fausses informations.
Le mois dernier, des personnalités du monde de la technologie, dont le patron de Twitter, Elon Musk, ont même appelé à l’arrêt du développement de ces types de systèmes d’IA, craignant que la course à leur développement ne devienne incontrôlable.
D’autres pays suivront-ils bientôt l’exemple italien ?
ChatGPT est déjà inaccessible dans un certain nombre de pays comme la Chine, l’Iran, la Corée du Nord et la Russie. « Les utilisateurs ne sont pas prêts pour cette technologie. Ils ne réalisent pas à quel point elle peut être manipulatrice et trompeuse. Ils ne se rendent pas compte que les informations qu’ils reçoivent sont peut-être erronées », a déclaré Ursula Pachl, directrice adjointe du Bureau européen des unions de consommateurs (BEUC).
« Je pense que cet incident avec ChatGPT est très important. C’est en quelque sorte un signal d’alarme pour l’Union européenne, car même si les institutions européennes ont travaillé sur une loi sur l’IA, celle-ci ne sera pas applicable avant quatre ans. Et nous avons vu à quelle vitesse ces types de systèmes se développent », a-t-elle déclaré à Euronews. D’ailleurs, les régulateurs européens ont commencé à s’intéresser de plus près à ChatGPT.
La Commission irlandaise de protection des données a déclaré qu’elle « assurait le suivi avec le régulateur italien pour comprendre la base de son action », ajoutant qu’elle « coordonnera avec toutes les autorités de protection des données de l’UE sur la question ».
En France, l’autorité de régulation de la protection des données (CNIL), a déclaré qu’elle enquêtait après avoir reçu deux plaintes concernant ChatGPT. Le régulateur français a également contacté son homologue italien pour en savoir plus sur les raisons de l’interdiction. Dans un billet de blog publié cette semaine, le bureau du commissaire à l’information du Royaume-Uni a averti que les développeurs d’IA n’avaient « aucune excuse » pour ne pas respecter la confidentialité des données et que ceux qui ne respectaient pas la loi sur la protection des données s’exposaient à des conséquences graves.
En réponse à ces préoccupations, OpenAI a publié un article de blog décrivant son approche de la sécurité de l’IA.
L’entreprise a déclaré qu’elle s’efforçait de supprimer les informations personnelles des données d’entraînement lorsque cela était possible, qu’elle affinait ses modèles pour rejeter les demandes d’informations personnelles des particuliers et qu’elle donnait suite aux demandes de suppression d’informations personnelles dans les meilleurs délais.
L’UE prépare sa loi sur l’Intelligence Artificielle
La Commission européenne débat actuellement de la première législation au monde sur l’Intelligence Artificielle, sobrement intitulée « AI Act », ou « Loi sur l’IA ». Mais il semble qu’elle ne favorise pas l’interdiction de l’IA générative, selon la vice-présidente exécutive de la Commission européenne, Margrethe Vestager.
« Quelle que soit la technologie que nous utilisons, nous devons continuer à faire progresser nos libertés et à protéger nos droits », a-t-elle déclaré sur Twitter. « C’est pourquoi nous ne réglementons pas les technologies d’IA, nous réglementons les utilisations de l’IA. Ne jetons pas en quelques années ce qui a mis des décennies à se construire ».
Jean-Noël Barrot, ministre français chargé de la Transition numérique et des Télécommunications, s’est également prononcé contre l’interdiction de ChatGPT. Dans une interview accordée à La Tribune, il a déclaré qu’il pensait que le service ne respectait pas les lois européennes sur la protection de la vie privée, mais qu’il serait plus judicieux d’essayer de « maîtriser » les nouvelles technologies et de les réglementer plutôt que de les interdire complètement.
L’Allemagne pourrait toutefois suivre les traces de l’Italie en bloquant ChatGPT pour des raisons de sécurité des données, a déclaré le commissaire allemand à la protection des données au journal Handelsblatt.
Dan Morgan, directeur des affaires gouvernementales pour l’Europe chez le fournisseur d’évaluation de la cybersécurité Security Scorecard, a déclaré à Euronews que cette décision soulignait l’importance de la conformité réglementaire pour les entreprises comme OpenAI en Europe. « Je pense que les implications claires sont que vous ne pouvez pas éviter la réglementation si vous voulez opérer dans l’UE », a-t-il déclaré. Et de poursuivre : « les entreprises doivent donner la priorité à la protection des données personnelles et s’y conformer. Quelle que soit l’importance du produit, la conformité à la réglementation européenne n’est pas une option ».
L’autorité de surveillance italienne a déclaré que l’entreprise à l’origine de ChatGPT disposait de 20 jours pour résoudre les problèmes de protection des données ou payer une amende de 20 millions d’euros ou jusqu’à 4 % de son chiffre d’affaires annuel, conformément aux sanctions prévues en cas de violation du RGPD. Le PDG d’OpenAI, Sam Altman, a déclaré sur Twitter qu’OpenAI s’en remettait au gouvernement italien sur cette question.