Le vendredi 31 mars, l’Autorité nationale italienne de protection des données personnelles (GPDP) a annoncé le blocage de l’accès à ChatGPT dans le pays en raison de son non-respect de la réglementation sur les données personnelles. Selon l’autorité, la récolte et la conservation des informations de l’outil pour l’entrainement de ses algorithmes ne reposent sur aucune base juridique. En outre, ChatGPT ne dispose d’aucune vérification d’âge des utilisateurs, ce qui expose les plus jeunes à des réponses inadaptées à leur niveau de développement.
La GPDP a exigé qu’OpenAI propose une note d’information relative à l’utilisation des données des utilisateurs. Elle a également demandé à l’entreprise de communiquer, dans les 20 prochains jours, les mesures entreprises pour se conformer à la réglementation, sous peine d’une amende allant jusqu’à 20 millions d’euros ou jusqu’à 4 % de son chiffre d’affaires mondial annuel.
La décision de l’Italie de bloquer ChatGPT intervient quelques jours après qu’Europol, l’agence européenne de police criminelle, ait exprimé ses inquiétudes quant à l’exploitation de ChatGPT par des cybercriminels. L’agence alertait notamment sur le développement de fraudes, de désinformation et d’arnaques qui s’appuient sur ChatGPT.
En outre, la décision de l’Italie pourrait inspirer d’autres pays européens, voire la Commission européenne, qui prépare un projet de loi pour réguler l’intelligence artificielle. Cette affaire souligne également que le RGPD pourrait devenir l’ennemi des nouvelles IA génératrices de contenus.
Enfin, le milliardaire Elon Musk, l’un des fondateurs d’OpenAI, et des centaines d’experts ont signé un appel à une pause de six mois dans la recherche sur les intelligences artificielles. Les programmes plus puissants que GPT-4, la dernière version du logiciel sur lequel repose ChatGPT lancée mi-mars, sont visés en évoquant des risques majeurs pour l’humanité.