Confident, psychologue, coach, conseiller… ChatGPT endosse tous les rôles. Développé par l’entreprise américaine OpenAI, ce Chatbot est accessible au grand public depuis 2022. Chaque jour, plus de 100 millions d’utilisateurs à travers le monde l’utilisent pour formuler plus d’un milliard de requêtes.
Sollicité dans tous les domaines en autres : travail, amour santé, cette intelligence artificielle soulève de vives préoccupations en matière de protection des données personnelles. La CNIL met en garde contre un « risque de perte de contrôle » sur les données confiées à l’intelligence artificielle. Mais très concrètement, quelles informations faut-il absolument éviter de lui partager ?
Attention à vos informations bancaires !
» Non, il ne faut jamais me transmettre de données bancaires (numéro de carte, codes, RIB, identifiants bancaires…) pour votre sécurité et votre confidentialité », admet lui-même ChatGPT lorsqu’on l’interroge sur le sujet, selon un article de TF1 Info. Lui demander conseil sur des démarches bancaires est possible, à condition de ne jamais divulguer d’informations personnelles. Effectivement, l’outil ne répond pas aux normes de sécurité bancaire, ce qui représente la porte ouverte aux fraudes.
Quant à vos données personnelles (date de naissance, numéro de sécurité sociale, adresse, numéro de téléphone…), elles permettent de vous identifier formellement. D’ailleurs, l’outil est clair là-dessus : « même si notre conversation est privée, elle n’est pas conçue pour stocker ou sécuriser ce type d’information sensible ». Ne rien communiquer représente une « mesure de sécurité pour protéger votre vie privée ».
Pour les experts, il faut rester vigilant. Antoine Boutet, enseignant-chercheur à l’Insa de Lyon et Alexis Léautier, ingénieur à la CNIL, tous deux spécialistes de l’intelligence artificielle, expliquent dans The Conversation que certaines informations personnelles ont déjà été révélées, « comme l’a démontré une équipe de chercheurs (en 2023, ndlr), en poussant ChatGPT à révéler une grande quantité de données personnelles à partir d’une simple requête ». Des données personnelles saisies par un utilisateur peuvent aussi resurgir accidentellement dans la réponse donnée à un autre.
Ni docteur, ni conseiller professionnel !
Peut-être avez-vous déjà consulté ChatGPT lorsque vous étiez souffrant. De son propre aveu, il est possible de lui demander des renseignements médicaux « dans la limite du raisonnable ». En revanche, cette intelligence artificielle ne peut pas poser de diagnostic car elle ne possède pas les compétences médicales.
Pour interpréter les résultats d’une prise de sang ou poser une question de santé générale, ChatGPT peut être sollicité. Mais attention de ne pas transmettre de documents contenant vos noms complets, votre numéro de sécurité sociale. Ces informations sont classées comme sensibles par le Règlement général sur la protection des données (RGPD). Leur transmission à un chatbot expose à une perte de confidentialité, voire à un usage détourné.
Au travail aussi, la vigilance s’impose. Soumis au secret professionnel, il ne faut jamais laisser filtrer des données sur votre entreprise. Pour cette raison, évitez de transmettre des documents à l’intelligence artificielle, comme un contrat de travail ou une feuille de route.
Pourquoi ne faut-il pas prendre ChatGPT pour un psy ?
Toujours accessible, ChatGPT peut sembler remplacer un confident ou un psychologue. Mais attention à ne pas lui confier vos états d’âme ou vos histoires personnelles. Le chatbot explique qu’il est capable d’écouter, de mettre des mots et d’apporter des outils de réflexion, mais son rôle ne peut pas aller au-delà. « Un psy humain reste irremplaçable », répond-il quand on le questionne, car « je n’ai pas d’émotion », avoue-t-il.
Au-delà du risque de divulgation accidentelle, il y a aussi celui de perdre pied avec la réalité. « L’IA va répondre avec les informations qu’on lui a données, alors qu’un psychothérapeute va aller chercher celles qui lui manquent », explique Sabine Allouchery, praticienne en psychothérapie, dans 20 Minutes.
Se confier à ChatGPT plutôt qu’à un humain peut aussi conduire à l’isolement. Dans le même média, Joséphine Arrighi de Casanova, vice-présidente du collectif MentalTech, explique : « Chez un utilisateur qui est en souffrance psychologique […], cette pratique risque de l’isoler davantage. Et on sait que l’isolement est un facteur très aggravant pour la santé mentale ».


