Comment des cybercriminels contournent les restrictions de ChatGPT via des bots Telegram

Le modèle de langage ChatGPT, considéré comme une avancée majeure dans le domaine de l’intelligence artificielle, a été rendu accessible au grand public en décembre dernier. Développé par OpenAI, l’outil révèle jour après jour son potentiel, mais pose également des questions concernant la sécurité informatique. En effet, de plus en plus de cybercriminels l’utilisent à des fins malveillantes.

Les restrictions d’OpenAI détournées

Afin de garantir la sécurité de sa plate-forme, OpenAI a mis en place des mesures pour prévenir la création de contenu malveillant sur ChatGPT. L’interface utilisateur inclut désormais des restrictions pour éviter les abus des modèles. Désormais, si vous tentez de demander à l’outil de générer un e-mail de phishing ou un malware, la demande sera immédiatement bloquée.

Pourtant, dans son dernier rapport des menaces publié le 23 janvier dernier, Check Point Research (CPR), la division Threat Intelligence de l’éditeur de solutions de cybersécurité, met en garde contre les tentatives continues des cyber attaquants de contourner les restrictions de ChatGPT pour pouvoir l’utiliser à des fins malveillantes. Les chercheurs ont montré comment ils ont utilisé ChatGPT pour concevoir une chaîne d’attaque, en commençant par un courriel de phishing convaincant, puis en injectant du code malveillant. Ils sont partis du principe que si eux pouvaient avoir cette idée, les criminels informatiques pouvaient l’avoir également.

Publicité sur le forum clandestin du bots OpenAI dans Telegram

L’API d’OpenAI permet de créer du contenu malveillant

Des forums clandestins abritent des discussions actives sur la façon d’utiliser l’API OpenAI pour échapper aux restrictions de ChatGPT, ce qui peut se faire en créant des bots Telegram qui utilisent l’API. Ces bots sont des dispositifs qui proposent des fonctions et des automatismes que les utilisateurs de Telegram peuvent intégrer dans leurs chats, canaux ou groupes. Ils font l’objet d’une publicité sur les forums de piratage afin d’accroître leur exposition, ont indiqué les chercheurs. Actuellement, l’API d’OpenAI ne possède que peu de dispositifs anti-abus pour les applications externes, permettant ainsi la création de contenu malveillant comme des e-mails de phishing et du code de malware sans les limitations de ChatGPT. La tendance actuelle montre une persévérance constante des cybercriminels à trouver des moyens de contourner les restrictions de ChatGPT.

Exemple d’un script interrogeant directement l’API et contournant les restrictions pour développer un malware

À ce propos, Sergey Shykevich, Responsable du groupe Threat chez Check Point Software a déclaré :

« La version actuelle de l’API d’OpenAI est utilisée par des applications externes et possède très peu de dispositifs anti-abus. Cela permet donc de créer du contenu malveillant, comme des e-mails de phishing et du code de malware, sans les limitations ou les barrières que ChatGPT a fixées sur son interface utilisateur. À l’heure actuelle, on observe une volonté constante des cybercriminels de trouver des moyens de contourner les restrictions de ChatGPT. »

Telegram/ChatGPT : Bot-as-a-Service

Ainsi, CPR révèle avoir trouvé des messages publicitaires de bots Telegram sur des forums illégaux, qui utilisent l’API d’OpenAI pour permettre la création de contenu malveillant. Les fabricants de ces bots autorisent actuellement jusqu’à 20 demandes gratuites, mais facturent ensuite 5,50 dollars par série de 100 demandes.

Exemple d’un script interrogeant directement l’API et contournant les restrictions pour développer un malware

Selon les résultats d’une autre étude publiée en février 2023 par Blackberry, portant sur ChatGPT et les cyberattaques, 51 % des professionnels de l’informatique prévoient qu’il faudra moins d’un an pour qu’une cyberattaque réussie soit attribuée à ChatGPT. Certains pensent que cela pourrait se produire dans les prochains mois. Et plus des trois quarts des personnes interrogées (78 %) prévoient qu’une attaque attribuée à ChatGPT se produira certainement dans les deux ans.

Bien que près des trois quarts des personnes interrogées estiment que ChatGPT sera principalement utilisé pour faire le « bien », elles partagent également la crainte que le chatbot IA soit utilisé à diverses fins malveillantes. Voici les cinq principales façons dont ils pensent que les acteurs de la menace pourraient exploiter le chatbot IA :

  • Pour aider les pirates à concevoir des courriels d’hameçonnage plus crédibles et à l’apparence plus légitime (53 %).
  • Pour aider les pirates moins expérimentés à améliorer leurs connaissances techniques et à développer leurs compétences (49 %).
  • Pour diffuser des informations erronées/désinformées (49%)
  • Pour créer de nouveaux logiciels malveillants (48%)
  • Pour augmenter la sophistication des menaces/attaques (46%)

À mesure que la maturité de ChatGPT et des plateformes similaires augmente, les pirates qui les utilisent rendent de plus en plus difficile la cyberdéfense sans utiliser de l’IA. Les avantages à tirer de ce type de technologie avancée sont nombreux, mais les acteurs de la menace y tirent aussi leurs avantages et ils ne tarderont pas à ajouter ces nouvelles technologies à leurs arsenaux malveillants.

Partager l'article
intelligence artificielle
À PROPOS DE NOUS
Le portail francophone consacré à l'intelligence artificielle et à la datascience, à destination des chercheurs, étudiants, professionnels et passionnés.