Est-ce le début d'une fronde européenne contre les intelligences artificielles génératrices de contenus ? Alors qu'un projet de loi visant à réguler les IA est examiné par le Parlement européen, l'Italie a annoncé ce vendredi 31 mars le blocage provisoire de l'accès au chatbot phénomène ChatGPT en raison de manquements constatés dans l'utilisation des données des internautes italiens.
La décision, à effet immédiat, signifiée par la GDDP, l'autorité italienne de protection des données personnelles, est motivée par plusieurs constats. Elle s'accompagne de l'ouverture d'une enquête et d'une interdiction temporaire du robot conversationnel dans le cyberespace italien.
Les griefs soulevés par les autorités italiennes peuvent potentiellement concerner l'ensemble des États de l'Union européenne. On ignore pour l'instant si d'autres commissions de protection des données ont l'intention de se saisir également du dossier. Mais la Cnil française indique à RTL que des échanges sont en cours avec l'Italie.
L'équivalent italien de la Cnil explique d'abord que l'agent conversationnel basé sur le modèle de langage GPT-4 développé par OpenAI a fait l'objet d'une perte de données le 20 mars dernier qui a compromis les conversations mais aussi les adresses mail, les numéros de téléphone et les informations de paiement de 1,2% des abonnés à ChatGPT Plus, l'offre premium de la plateforme qui permet d'utiliser la dernière version du programme. L'autorité italienne estime que le centre de recherche californien a alors manqué à ses obligations en ne prévenant pas ses utilisateurs qu'elle avait été victime d'une faille de sécurité.
La GDDP reproche aussi "l'absence d'une base juridique justifiant le recueil et la conservation en masse des données personnelles, dans le but d'entraîner les algorithmes faisant fonctionner la plateforme". Selon les tests réalisés par l'instance, "les informations mises à disposition par ChatGPT ne correspondent pas toujours aux circonstances factuelles, de sorte que des données personnelles inexactes sont traitées".
En outre, alors que le robot est destiné aux personnes ayant plus de 13 ans, "l'Autorité met l'accent sur le fait que l'absence de tout filtre pour vérifier l'âge des utilisateurs expose les mineurs à des réponses absolument non conformes par rapport à leur niveau de développement".
En conséquence, l'Italie ordonne "la limitation temporaire du traitement des données des utilisateurs italiens vis-à-vis d'OpenAI". L'entreprise à l'origine de l'application a désormais 20 jours pour communiquer des mesures répondant aux problèmes soulevés. Dans le cas contraire, elle encourt une amende pouvant atteindre jusqu'à 20 millions d'euros ou 4% de son chiffre d'affaires mondial.
En principe, cette initiative pourrait ouvrir la voie à des procédures analogues dans d'autres pays européens. Elle s'appuie en effet sur le même cadre, le Règlement européen de protection des données personnelles, une législation harmonisée à l'échelle de l'Union européenne. À ce titre, "les motifs soulevés par l'autorité italienne pourrait tout à fait être invoqués par la Cnil française dans une enquête similaire si des Français sont concernés par les traitements de données", explique Nicolas Arpagian, expert en cybersécurité, auteur de Frontières.com (éditions de L'Observatoire), joint par RTL.
Interrogée par RTL, la Cnil indique qu'elle n'a pas reçu de plainte et qu'aucune procédure similaire n'est en cours à ce jour. En revanche, la commission explique s'être rapprochée de son homologue italienne pour "échanger sur les constats qui ont pu être faits". Elle rappelle qu'"un plan d'action concernant le développement de l’IA" a été défini et que "des contrôles sur les systèmes de caméras augmentées fondés également sur l'intelligence artificielle" ont déjà été annoncés. La Cnil entend également "clarifier le cadre légal sur les bases d'apprentissage et les IA génératives" dans les prochains mois.
Si une procédure était lancée, les autorités françaises pourraient également imposer un blocage provisoire le temps qu'OpenAI se conforme aux exigences européennes en matière de traitement des données. Mais une interdiction permanente paraît peu envisageable. "Avec des VPN et des outils techniques, on pourrait facilement passer outre. C'est plus un élément de négociation politique pour peser sur OpenAI. Mais l'initiative serait plus robuste si elle était menée de façon concertée au niveau européen, comme pour les règlements DSA et DMA, à partir du moment où il y a un corpus juridique commun"", souligne Nicolas Arpagian.
L'initiative italienne intervient quelques jours après la publication d'une lettre ouverte dans laquelle des experts en intelligence artificielle demandent la mise entre parenthèses du développement des modèles d'IA le temps de traiter les problèmes éthiques qu'il soulève pour la société.