Un mode blindé contre les injections de prompt
OpenAI vient d’ajouter un « Lockdown Mode » à ChatGPT. Le principe est simple : verrouiller les interactions entre le chatbot et les systèmes externes pour bloquer les attaques par injection de prompt. Ce type d’attaque, de plus en plus courant, consiste à glisser des instructions malveillantes dans du contenu web ou des fichiers pour détourner le comportement de l’IA. Avec le Lockdown Mode activé, ChatGPT coupe quasiment tout lien avec l’extérieur.
La navigation web, par exemple, se limite au contenu mis en cache. Aucune requête réseau ne quitte le réseau contrôlé d’OpenAI. Résultat : même si un attaquant planque une instruction dans une page web, les données de la conversation ne peuvent pas fuiter vers un serveur tiers.
Pensé pour les cibles à haut risque
OpenAI le dit clairement : ce mode n’est pas fait pour tout le monde. Il vise les dirigeants d’entreprise, les équipes de sécurité informatique, bref, les profils qui manipulent des données sensibles et qui pourraient être ciblés par des attaques sophistiquées. Le genre de personne dont un concurrent ou un État voudrait intercepter les conversations avec l’IA.
Pour l’instant, le Lockdown Mode est réservé aux abonnés ChatGPT Enterprise, Edu, Healthcare et Teachers. Les administrateurs peuvent l’activer depuis les paramètres de l’espace de travail en créant un rôle dédié. Ils gardent la main sur les applications autorisées et peuvent choisir précisément quelles actions restent accessibles, même en mode verrouillé.
À lire aussi
Des étiquettes « risque élevé » sur certaines fonctions
OpenAI en profite pour standardiser un système d’étiquettes « Elevated Risk » sur plusieurs de ses produits. ChatGPT, ChatGPT Atlas et Codex affichent désormais un avertissement clair quand une fonctionnalité peut introduire un risque supplémentaire. Codex, l’assistant de code, permet par exemple d’accorder un accès réseau pour consulter de la documentation en ligne. Ce réglage s’accompagne maintenant d’un label visible qui explique ce qui change et quels risques ça implique.
L’idée, c’est de laisser l’utilisateur décider en connaissance de cause. Certains accepteront le risque pour gagner en productivité. D’autres préféreront rester en mode restreint.
Bientôt pour le grand public ?
OpenAI promet d’étendre le Lockdown Mode aux comptes grand public « dans les mois qui viennent ». Sans donner de date précise. L’entreprise prévoit aussi de retirer les étiquettes de risque au fur et à mesure que ses protections de sécurité progresseront. Un label « Elevated Risk » aujourd’hui pourrait donc disparaître demain si les garde-fous deviennent assez solides.
On note quand même un paradoxe. OpenAI multiplie les connecteurs, les plugins, les intégrations avec des apps tierces pour rendre ChatGPT plus utile. Et en même temps, elle doit créer un mode qui coupe tout pour protéger ses utilisateurs les plus exposés. Plus l’IA s’ouvre au monde, plus elle s’expose. Et ce Lockdown Mode ressemble autant à une solution qu’à un aveu.