ChatGPT fait face à une tempête de problèmes de confidentialité et d’enquêtes en Europe

ChatGPT, la dernière sensation de chatbot IA, est dans l’eau chaude avec les régulateurs de la vie privée en Europe. Le gouvernement italien a déjà émis une interdiction temporaire du chatbot, craignant qu’il ne viole les règles strictes de confidentialité de l’Europe. Mais ce n’est que le début des problèmes de ChatGPT, car les gouvernements du bloc sont de plus en plus préoccupés par les risques potentiels posés par cette technologie de pointe. De la protection des données à la désinformation, en passant par la cybercriminalité, la fraude et même la triche aux tests scolaires, les craintes autour de l’IA grandissent et ChatGPT est la dernière cible facile.

OpenAI, l’organisation derrière ChatGPT, n’a pas établi de siège local dans l’un des 27 pays de l’UE. Cela signifie que l’autorité de protection des données de n’importe quel pays membre peut lancer de nouvelles enquêtes et appliquer des interdictions. Ce manque de présence locale s’est déjà avéré problématique pour Google, qui a été condamné à une amende de 50 millions d’euros en France avant de centraliser son dispositif juridique européen en Irlande. TikTok a également fait l’objet de plusieurs enquêtes sur la confidentialité et d’amendes de la part des autorités européennes avant de s’installer en Irlande l’année dernière.

Lire aussi: Un Belge se suicide à la suite de conversations avec un chatbot IA sur la crise climatique

Les régulateurs de la confidentialité à travers l’Europe envisagent maintenant leurs prochaines étapes pour enquêter sur ChatGPT pour des abus présumés. La Commission irlandaise de protection des données et l’autorité belge de protection des données ont toutes deux suggéré que les infractions potentielles du chatbot soient discutées au niveau européen. Entre-temps, l’autorité française de protection des données a reçu au moins deux plaintes contre ChatGPT pour violation de la vie privée, notamment du RGPD.

Mais ce n’est pas seulement la vie privée qui suscite des inquiétudes. En mars, un jeune Belge s’est suicidé après avoir eu des conversations avec un chatbot basé sur l’IA nommé Eliza. Et le magnat de la technologie Elon Musk, aux côtés de milliers d’experts en intelligence artificielle, a appelé à une pause dans le développement de ChatGPT en raison de « risques profonds pour l’humanité ».

Des groupes de défense s’impliquent également, le Center for AI and Digital Policy appelant la Federal Trade Commission américaine à enquêter sur OpenAI et à bloquer d’autres versions du chatbot. À Bruxelles, l’organisme de surveillance des consommateurs BEUC a exhorté les régulateurs européens et nationaux à enquêter sur ChatGPT, avertissant que le prochain règlement de l’UE sur l’IA pourrait arriver trop tard pour éviter les dommages.

L’absence de législation sur l’IA a encouragé les régulateurs de la protection des données à intervenir. Les régulateurs de la vie privée appliquent le RGPD, y compris ses règles concernant la collecte de données et la protection des utilisateurs contre la prise de décision automatisée. Des entreprises comme OpenAI doivent disposer d’une base légale pour collecter et utiliser des données personnelles, être transparentes sur la façon dont elles utilisent les données des personnes, maintenir l’exactitude des données personnelles et donner aux personnes un droit de correction.

Lire aussi: Prenez de l’avance avec ChatGPT : le chatbot IA révolutionne la communication et la productivité

OpenAI n’a jamais révélé quel ensemble de données il a utilisé pour former le modèle d’IA qui sous-tend le chatbot. Même les chercheurs de Microsoft, qui est le principal investisseur d’OpenAI, ont déclaré dans un article récent qu’ils « n’avaient pas accès à tous les détails des vastes données de formation [de ChatGPT] ». Et une violation de données en mars qui a exposé les conversations des utilisateurs et les informations de paiement n’a fait qu’ajouter aux malheurs de ChatGPT.

La décision italienne d’interdire ChatGPT est un signal d’alarme pour l’Europe. Il est temps d’engager un dialogue sur les risques potentiels de l’IA et que les régulateurs adoptent une position ferme sur cette technologie de pointe. Les régulateurs de la vie privée réalisent lentement qu’ils sont également des régulateurs de l’IA, et ils doivent prendre des mesures pour protéger les citoyens des dommages potentiels de cette puissante technologie.