ChatGPT est-il sécurisé et quels risques de sécurité pour votre entreprise ?

On sait déjà que ce n’est pas une bonne idée de se fier aveuglement aux déclarations de ChatGPT, car il fait parfois des erreurs. Pour rappel, les données auxquelles il s’appuie n’ont pas été mises à jour depuis septembre 2021. L’IA d’OpenAI posséderaient même plusieurs talons d’Achille (les opérations mathématiques, pas toujours futé dans les tests de logique, très nul en Histoire, ne cite jamais de sources…).

Mais en ce qui concerne la sécurité des données, ChatGPT est-il fiable ? Et s’il n’est pas sécurisé, qu’avez-vous réellement à craindre si jamais des personnes malintentionnées accèdent à vos données récupérées par ChatGPT ? 

Il est important de se poser ce genre de question, car en juin 2023, la société de cybersécurité Group-IB aurait découvert que des hackers ont volé des milliers de comptes ChatGPT. Ils ont ensuite revendu les données sur le dark web, exposant les données personnelles et les conversations privées des utilisateurs.

ChatGPT est-il sécurisé et quels risques de sécurité pour votre entreprise ? On vous dit tout dans cet article !

100 000 comptes ChatGPT piratés ont été mis en vente sur le dark web

Un homme qui code sur son ordinateur
Des comptes ChatGPT vendus sur le dark web

Plusieurs médias rapportent qu’au cours des 12 mois précédant mai 2023, les identifiants de connexion de plus de 100 000 comptes ChatGPT piratés se seraient retrouvés sur les marchés du dark web. On doit cette découverte aux chercheurs de Group-IB. Pour information, ce dernier est une société de cybersécurité spécialisée dans la détection et la prévention des cyberattaques.

Les noms d’utilisateur et les mots de passe des comptes ChatGPT volés sont vendus sur des forums clandestins de cybercriminalité, affirme le Group-IB.

ChatGPT a connu une adoption massive depuis sa popularisation l’année dernière en 2022, atteignant 100 millions d’utilisateurs en seulement deux mois. Craignant le pire des scénarios, de grandes entreprises comme Apple et Samsung ont déjà interdit l’utilisation de cet outil ou d’autres applications d’IA à leurs employés et collaborateurs. Le risque est que des informations internes fournies par les utilisateurs soient enregistrées par les outils puis accessibles par des personnes malintentionnées.

Toutefois, une enquête menée par l’application Fishbowl révèle que 68 % des personnes utilisant ChatGPT ou d’autres outils d’IA le font sans que leur employeur le sache.

Les pirates utilisent des voleurs d’informations pour pirater les comptes OpenAI

Quelques mois après sa sortie, ChatGPT a suscité un intérêt considérable, si bien que presque tout le monde a créé un compte et l’utilise quotidiennement. Malheureusement, cette croissance rapide de ChatGPT suggère que certaines entreprises l’ont adopté sans protocoles ni guides d’utilisation. La plupart des utilisateurs n’ont alors pas pris le soin de renforcer leur compte et de faire attention aux potentiels voleurs d’informations.

Pour pirater les 101 134 identifiants de compte OpenAI, les hackeurs ont infecté les appareils des utilisateurs par des malwares de type Vidar, Redline et surtout Raccoon. Pour information, ces derniers sont des logiciels de hacking spécialisés dans le vol d’informations en masse, principalement des identifiants de compte en ligne.  

Concernant le malware notoire voleur d’informations Raccoon, il est utilisé par des cybercriminels pour voler des données sensibles à partir des navigateurs des victimes et des portefeuilles de cryptomonnaies, notamment les détails des cartes de crédit enregistrées, les identifiants de connexion enregistrés et les informations extraites des cookies.

Les attaques impliquant Raccoon se seraient multipliées ces dernières années à cause du fait que malgré sa puissance ce logiciel est accessible par n’importe qui pour seulement 200 dollars par mois. On estime qu’environ un million de personnes ont déjà été victimes de ce malware, les utilisateurs étant le plus souvent attaqués via des e-mails piégés.

Piratage de ChatGPT, quels sont les risques pour votre entreprise ? 

Un malfaiteur qui utilise un ordinateur ortable
ChatGPT comporte des risques

Il faut déjà savoir que chaque fois que vous conversez avec ChatGPT, il enregistre toutes vos discussions. Et c’est normal, car l’outil a besoin de ces données enregistrées pour améliorer sa précision au fil du temps. Pour OpenAI, l’objectif de l’enregistrement des données va donc être de permettre à son IA de comprendre plus efficacement chaque requête et de fournir des réponses adaptées à chaque utilisateur.

Seulement, comme vous vous en doutez bien, ces données historiques de ChatGPT peuvent contenir des informations personnelles et professionnelles à usage interne que vous ne souhaitez pas voir circuler librement. En prenant le temps d’analyser les discussions que font vos employés avec ChatGPT, les hackeurs ou bien vos concurrents arriveront sans peine à savoir sur quoi votre entreprise travaille à telle période. L’historique de recherche de ChatGPT peut révéler beaucoup d’informations sur les utilisateurs. Et c’est la raison pour laquelle un compte OpenAI est si précieux pour les cybercriminels.

Si votre entreprise est dans la programmation, par exemple, et que vous utilisez ChatGPT pour générer du code, il y a malheureusement le risque que des acteurs malveillants interceptent, reproduisent et vendent votre code développé en interne à des concurrents. Ils vont peut-être aussi étudier votre code et rechercher des vulnérabilités dans les produits que vous avez mis mettre en place.

Alors, ChatGPT est-il sécurisé ou non ?

Les détails spécifiques des mesures de sécurité pour ChatGPT n’ont jamais été divulgués publiquement par OpenAI pour des raisons de sécurité sûrement. Mais on peut déjà supposer que techniquement, il est impossible de forcer l’accès à ChatGPT. C’est un compte ultra sécurisé, et ce pour plusieurs raisons. D’abord, le modèle lui-même est hébergé sur des serveurs sécurisés, dont l’accès est restreint.

Les données stockées et transmises au modèle sont aussi cryptées pour garantir leur confidentialité. Par ailleurs, une surveillance continue aurait été aussi mise en place par OpenAI pour détecter toute activité suspecte ou anormale et l’empêcher de nuire.

Bien évidemment, le système intègre aussi des mesures de prévention d’attaques, telles que des pare-feu et des systèmes de détection des intrusions, sont mises en place. Enfin, des systèmes d’intelligence artificielle comme ChatGPT bénéficient de mises à jour régulières pour résoudre les vulnérabilités.

Cela étant dit, aucun système n’est totalement exempt de risques. Si les hackeurs n’arrivent pas à pirater votre compte OpenAI en attaquant l’infrastructure qui fait fonctionner celui-ci, ils vont vouloir accéder à votre compte en volant vos identifiants en procédant à des ruses. D’ailleurs, les logiciels malveillants (Raccoon, Vidar et Redline…) de type voleurs d’informations que nous avons cités plus haut procèdent tous ainsi.

Comment sécuriser son compte OpenAI ?

Il est important de prendre des mesures de sécurité supplémentaires lors de l’utilisation de ChatGPT. Dans le communiqué, le Group-IB recommande aux utilisateurs de créer des mots de passe forts, de mettre régulièrement à jour leurs mots de passe et aussi de mettre en place l’authentification à deux facteurs (2FA) pour atténuer les risques liés aux comptes ChatGPT compromis.

Selon les experts de Group-IB, les entreprises qui utilisent régulièrement ChatGPT devraient également penser dorénavant à créer un environnement de travail sécurisé avec ChatGPT en utilisant des services d’intelligence artificielle dans un cloud privé afin que les informations fournies à des fins de formation restent protégées.

En suivant ces mesures de sécurité qui ne sont pas si complexes à mettre en place, les entreprises devraient réduire considérablement le risque d’accès non autorisé et protéger leurs comptes ChatGPT ainsi que les informations qui y sont associées.

Leave a Reply