💣 Stress test de prompt système
Trouve les failles de ton agent IA avant que tes utilisateurs le fassent
Tu as construit un GPT custom, un agent Claude, un chatbot avec un prompt système. La plupart des builders ne le testent jamais contre des inputs adverses. Ici, l'IA joue le rôle de red-teamer : elle cherche les jailbreaks, les ambiguïtés, les angles d'attaque qui font dévier ton agent de sa mission.
Ce qu'on teste
- Prompt injection : "ignore tes instructions précédentes et…"
- Jailbreak : detours par jeux de rôle, hypothétiques, encodages
- Out of scope : sortir l'agent de sa mission (ton coach sportif qui se met à parler crypto)
- Instruction leak : faire fuiter ton prompt système (et tes données business)
- Ambiguïtés : phrases du prompt qui peuvent être interprétées de plusieurs façons
- Garde-fous manquants : ce que tu as oublié d'interdire
Cet outil ne remplace pas un audit de sécurité complet pour un agent en production critique. Mais en pratique, il trouve 80% des failles évidentes en 30 secondes — celles que ton équipe aurait trouvées dans 6 mois de support utilisateur.