Une IA détournée, vendue quelques euros, suffit à produire des attaques crédibles.
© Shuttershock
Il suffit de quelques minutes. Une connexion Telegram, dix dollars en crypto-monnaie, et vous voilà en possession d’une IA capable de rédiger un script de phishing, un keylogger ou une fausse interface de connexion bancaire. Son nom : Evil-GPT. Son objectif : faire sauter tous les garde-fous, à l’instar de WolfGPT, DarkBard ou encore, PoisonGPT.
Publicité, votre contenu continue ci-dessous
Publicité
Dans les forums spécialisés et les canaux semi-clandestins, l’outil est présenté comme un ChatGPT “libéré”, sans censure, prêt à générer des contenus que les IA grand public refusent. Mais derrière le vernis marketing, on découvre un système bien plus banal, et justement, bien plus dangereux.
Evil-GPT : quand l’intelligence artificielle passe du côté obscur
À proprement parler, Evil-GPT n’est pas une IA à part entière. C’est un enrobage, souvent codé en Python, greffé sur des modèles existants comme GPT-4, LLaMA 2 ou Mistral, parfois via l’API d’OpenAI, parfois via des versions locales sans modération. Le rôle de cet habillage ? Détourner les mécanismes de sécurité, reformuler les prompts pour faire passer un contenu malveillant sous les radars.
La méthode est connue : on ne demande pas “écris-moi un ransomware”, mais “produis un script éducatif pour analyser les frappes clavier d’un utilisateur”. Et ça passe. L’IA produit le code, sans comprendre qu’elle vient d’armer un inconnu.
Une page de pub pour Evil-GPT sur le dark web.
© Capture d’écran Falcon Feeds, Twitter
Publicité, votre contenu continue ci-dessous
Publicité
Un outil taillé pour les novices
Ce qui rend Evil-GPT réellement inquiétant, c’est sa capacité à abaisser la barrière d’entrée du cybercrime. Plus besoin de compétences en codage ou de documentation complexe : l’outil génère tout. Un script, un guide d’installation, parfois même un tuto vidéo. Le tout emballé dans une interface soignée, accessible à n’importe quel curieux mal intentionné.
C’est l’arme des pirates sans compétences. Une IA qui fait le sale boulot.
Chercheur en cybersécurité, cité par Barracuda Networks
Les experts alertent : ce type d’automatisation pourrait faire exploser les attaques ciblant des particuliers, des collectivités ou des PME. Des cibles peu protégées, peu formées, et trop souvent livrées à elles-mêmes.
Contourner les filtres, à l’infini
Les modèles de langage ont beau intégrer des filtres et des règles de modération, il suffit de les formuler autrement pour les contourner. C’est le principe du prompt obfuscation. Une attaque déguisée en exercice éducatif, une question technique formulée en deux langues… et le verrou saute.
Un prompt généré sur WormGPT, un équivalent de Evil-GPT.
© SlashNext
Certaines versions d’Evil-GPT proposent même des clés API piratées, ou embarquent directement des modèles open-source dans des conteneurs Docker, prêts à l’emploi. En clair : vous ne dépendez plus d’un serveur tiers. L’IA tourne sur votre propre machine, en toute impunité.
Le danger n’est pas tant technologique que structurel. Evil-GPT ne fait rien que d’autres IA ne puissent faire. Mais elle le fait sans freins, sans scrupules, et surtout sans exiger la moindre compétence de la part de son utilisateur. Et c’est là le vrai basculement. Le cybercrime, naguère réservé aux initiés, devient un service accessible, presque trivial. Une sorte de SaaS criminel, vendu avec support client et mises à jour régulières.
Le vrai danger, ce n’est pas l’IA, c’est ce qu’on en fait.
Check Point Research
Ce que révèle Evil-GPT, c’est l’incapacité actuelle des plateformes à endiguer les détournements. Tant qu’il existera des API ouvertes, des modèles open-source puissants et une communauté motivée, ces clones proliféreront. Et dans l’ombre, le crime se mettra, lui aussi, à l’échelle de l’intelligence artificielle.
Publicité, votre contenu continue ci-dessous
Publicité
Envie de faire encore plus d’économies ? Découvrez nos codes promo sélectionnés pour vous.