Débutant·1 min·23 avril 2026
OpenAI lance un bug bounty bio de $25k pour GPT-5.5
OpenAI paie jusqu'à $25k pour trouver les failles de sécurité bio de GPT-5.5 avant qu'elles ne deviennent des armes.
Pourquoi ça compte pour toi
GPT-5.5 peut générer des infos biotech dangereuses. OpenAI reconnaît le risque et cherche des chercheurs en sécurité pour casser le modèle avant les mauvais acteurs. C'est du red-teaming intelligent : payer les experts pour trouver les trous plutôt que de les découvrir en production.
Ce qu'il faut retenir
- 1.OpenAI ouvre un bug bounty spécifique aux risques biologiques de GPT-5.5
- 2.Récompenses jusqu'à $25k pour les jailbreaks critiques documentés
- 3.Le modèle doit être testé sur sa capacité à générer info dangereuse en biotech
Essayer maintenant
Consulter le bug bounty OpenAI →Source