ChatGPT suscite l’inquiétude des régulateurs de la vie privée : la Cnil italienne et la FTC prennent les devants. Depuis son lancement en novembre 2022, l’agent conversationnel utilisant l’IA n’aura pas cessé de susciter l’enthousiasme et l’intérêt des utilisateurs. Seulement, ses capacités inspirent aussi la crainte chez beaucoup de personnes.
Pour preuve, il y a à peine quelques jours, Elon Musk et des centaines d’experts réclament une pause de 6 mois des travaux de développement de l’IA, évoquant des risques majeurs pour l’humanité.
Et pendant que cette nouvelle fait encore le buzz sur Internet, on apprend aussi que l’homologue italien de l’autorité française de protection des données (CNIL), la Garante per la Protezione dei Dati Personali (GDDP), a décidé de bloquer temporairement l’accès à ChatGPT dans le pays. Très récemment, la Federal Trade Commission (FTC), une agence gouvernementale américaine, aurait aussi été saisie d’une plainte du Center for AI and Digital Policy (CAIDP) contre ChatGPT.
ChatGPT suscite l’inquiétude des régulateurs de la vie privée : la Cnil italienne et la FTC prennent les devants. Découvrez dans cet article pour tout ce qu’il y a à savoir sur les faits qu’on reproche à ce chatbot d’OpenAI, qui met trop facilement l’écriture a portée de main.
Sommaires
ChatGPT : le générateur de texte par intelligence artificielle d’OpenAI
Si vous êtes passé à côté de ce phénomène, ChatGPT est un agent conversationnel avancé alimenté par l’IA et conçu et développé par la société OpenAI. Cette dernière est une organisation de recherche en intelligence artificielle de premier plan cocréée par Elon Musk en 2015 et qui est aujourd’hui valorisée à près de 29 milliards de dollars américains.
Construit sur la base de la technologie GPT (Generative Pre-trained Transformer), qui est considérée comme l’un des modèles de traitement du langage naturel les plus avancés à ce jour, l’outil ChatGPT peut réaliser à la demande de nombreuses tâches comme répondre de manière intelligente à quasiment n’importe quelle question, rédiger des articles, fournir des recommandations, réaliser des enquêtes, gérer des supports client en répondant instantanément aux questions et préoccupations courantes, faire de la traduction de textes de n’importe quelle langue à une autre, fournir des conseils médicaux, fournir des conseils financiers, faire des prédictions, jouer à des jeux avec de vraies personnes et plus encore.
Si ChatGPT fascine et inquiète autant aujourd’hui, c’est à cause de sa capacité à tout faire, de surpasser les êtres humains dans presque tous les domaines et d’accomplir les tâches qui nécessitent normalement des heures de réalisation en quelques secondes seulement.
LA seule limite que les experts semblent avoir trouvé dans le produit, c’est qu’il serait incapable de citer ses sources, du moins pour l’instant.
autres articles :
Intelligence Applicative ou Intelligence Opérationnelle ou Intelligence Décisionnelle.
La Cnil italienne (GDDP) bloque temporairement l’accès à ChatGPT
L’autorité italienne de protection des données GDDP vient de déclarer qu’elle interdisait « avec effet immédiat ». Cette décision du GDDP de bloquer temporairement l’accès à ChatGPT serait basée sur des préoccupations concernant la manière dont ChatGPT gère les données des utilisateurs. Le régulateur pointe en effet du doigt plusieurs éléments qui seraient non conformes au RGPD.
D’abord, il soupçonne ChatGPT de collecter et d’utiliser les données des utilisateurs sans leur consentement. Or, en vertu du Règlement général sur la protection des données (RGPD), les entreprises doivent obtenir le consentement explicite des utilisateurs avant de collecter et d’utiliser leurs données personnelles.
Dans son communiqué, le GDDP a aussi noté l’insuffisance d’informations fournies aux utilisateurs et aux parties prenantes concernant la collecte de leurs données par OpenAI.
De plus, il a constaté l’absence de fondement légal justifiant la collecte et le stockage d’importante quantité de données personnelles dans le but de « former » les algorithmes sous-jacents à la plateforme. Et dernier et non des moindres, l’autorité italienne a relevé que ChatGPT déclare s’adresser à un public âgé de plus de 13 ans, alors qu’il n’utilise même pas de filtre pour vérifier l’âge des utilisateurs.
À cause de ces faits évoqués, le régulateur italien juge opportun de bloquer temporairement la plateforme ChatGPT et de lancer sans perdre de temps une enquête sur sa conformité au Règlement général sur la protection des données (RGPD).
Pour rappel, la mission du RGPD (Règlement général sur la protection des données) est de renforcer la protection des données personnelles des citoyens de l’Union européenne et de réglementer leur traitement par les organisations. Il vise à garantir que les données personnelles des individus sont traitées de manière équitable, transparente et légale, et que ces données sont protégées contre les abus, les piratages, les fuites ou les pertes.
La FTC saisie d’une plainte contre ChatGPT
Tout récemment, un groupe d’éthique de l’IA, le Center for AI and Digital Policy (CAIDP), aurait également soumis une plainte à la Federal Trade Commission (FTC), exhortant l’agence à enquêter sur OpenAI, le concepteur de ChatGPT, et a demandé à ce dernier de suspendre du moins temporairement le développement de son outil. La plainte, déposée par le Center for AI and Digital Policy (CAIDP), affirme que le modèle GPT4 récemment publié par OpenAI est « biaisé, trompeur et représente un risque pour la vie privée et la sécurité publique ».
Le CAIDP craint et a averti les autorités, et la FTC notamment, que l’outil ChatGPT pourrait être utilisé pour propager la désinformation, contribuer aux menaces en matière de cybersécurité et potentiellement aggraver les problèmes qu’on rencontre régulièrement avec les outils d’Intelligence artificielle, notamment les biais des données sur lesquelles elles sont formées, ce qui peut conduire à des décisions discriminatoires, la confidentialité douteuse des données fournies ou encore les résultats peu fiables, imprévisibles ou incohérents qu’ils fournis, ce qui peut poser des problèmes divers.
Selon CAIDP, le groupe aurait déjà des preuves concrètes qui démontrent que des individus mal intentionnés utilisent déjà ChatGPT dans le but de produire massivement du contenu à la fois trompeur et réaliste à un coût minime et en le diffusant à une grande audience ou en le ciblant sur certaines communautés ou individus spécifiques, et donnent pour preuve, toutes ces fake news, qui paraissent quotidiennement sur internet.
Pour ces quelques raisons, le Center for AI and Digital Policy (CAIDP) décide de saisir les autorités et d’appeler à une surveillance et à une évaluation indépendante des produits d’IA proposés aux États-Unis.
Après que La FTC a confirmé avoir reçu la plainte mais a refusé de commenter, tandis qu’OpenAI n’a pas répondu aux demandes de commentaires de nombreux médias américains.
ChatGPT suscite aussi l’inquiétude des experts dont Elon Musk
Dans une lettre ouverte signée par plus de 1 000 personnes, dont Elon Musk, un groupe d’experts en intelligence artificielle et de dirigeants de l’industrie appelle à une pause de six mois dans le développement GPT-4 d’OpenAI, citant des risques potentiels pour la société et l’humanité.
Selon eux, GPT-4 va déjà trop loin et qu’OpenAI devrait tout suspendre, du moins jusqu’à ce que des protocoles de sécurité pour de tels modèles soient développés, mis en œuvre et audités par des experts indépendants.
« Les systèmes d’IA puissants devraient être développés uniquement lorsque nous sommes confiants que leurs effets seront positifs et que leurs risques seront gérables », a déclaré la lettre.
Les co-signataires incluaient Elon Musk, co-créateur et un ancien dirigeant d’OpenAI, Emad Mostaque, PDG de Stability AI, des chercheurs de DeepMind, une filiale de Google, ainsi que Yoshua Bengio et Stuart Russell, des poids lourds de l’IA.
Auteur Antonio Rodriguez Mota, Editeur et Directeur de Clever Technologies