ChatGPT intègre diverses mesures de restriction pour garantir une utilisation responsable, éthique et conforme aux lois. Néanmoins, certains utilisateurs sont allés au-delà de ces restrictions pour repousser les limites de sa programmation. Cette opération a donné naissance au phénomène de jailbreak qui se serait déjà résorbé semble-t-il. Découvrez pourquoi.
Des jailbreaks moins utiles face aux performances améliorées de ChatGPT
Les jailbreaks de ChatGPT sont apparus presque au même moment que le chatbot lui-même. L’opération permettait de libérer le plein potentiel de l’outil d’IA génératif. Ce, en supprimant les limitations imposées par les développeurs. Grâce à quoi, les utilisateurs peuvent personnaliser leurs réponses, ajuster le processus décisionnel de l’IA et améliorer leurs capacités au-delà de leurs paramètres par défaut.
Si les jailbreaks ont connu un boom parallèlement à l’engouement pour les premières versions de ChatGPT, ces pratiques se font aujourd’hui de plus en plus rares. Les experts expliquent cette popularité glissante par les performances accrues des dernières versions de ChatGPT doublées d’une meilleure maîtrise des prompts.
Une grande partie des utilisateurs de ChatGPT sont désormais capables d’exploiter le pouvoir des prompts afin d’atteindre les objectifs. Ceux-là même pour lesquels ils auraient auparavant eu besoin de jailbreaks. Par ailleurs, certaines startups ont développé des versions non censurées du chatbot qui font tout ce qu’on leur demande (ou presque), comme le ferait un jailbreak.
Les jailbreaks de plus en plus inaccessibles
Au début, les jailbreaks étaient particulièrement accessibles. Il suffisait aux utilisateurs de copier-coller des prompts disponibles en ligne, sur les forums et autres groupes dédiés. Avec DAN (Do Anything Now) par exemple, des instructions apparemment inoffensives obligeaient le chatbot à faire tout ce qui lui était demandé.
Avec les nombreuses améliorations et les protections robustes apportées à ChatGPT, il devient plus difficile de tromper le chatbot avec ces invites. Le jailbreak nécessite désormais des techniques complexes pour avoir une chance de réussir. Ce qui décourage les utilisateurs. Qui plus est, OpenAI corrige rapidement toute vulnérabilité à chaque fois que des exploits sont partagés par les jailbreakers.
Enfin, de plus en plus de jailbreakers monétisent leur travail. Certains utilisateurs de ChatGPT se sont même décrétés professionnels de cette pratique et en ont fait un secteur lucratif. Ces créateurs de jailbreak professionnels conçoivent des prompts qui effectuent des tâches spécifiques.
Ils les mettent ensuite en vente sur des marketplaces comme PromptBase. Le côté payant a rendu les utilisateurs plus réticents. Les jailbreaks n’ont pas complètement disparu. Ils sont simplement entrés dans la clandestinité et devenus plus difficilement accessibles.
- Partager l'article :