Pourquoi il n'y a plus de jailbreak ChatGPT ? Voici pourquoi aucune technique ne marche

Pourquoi il n’y a plus de jailbreaks ChatGPT ? Voici pourquoi aucune technique ne marche

intègre diverses mesures de restriction pour garantir une utilisation responsable, éthique et conforme aux lois. Néanmoins, certains utilisateurs sont allés au-delà de ces restrictions pour repousser les limites de sa programmation. Cette opération a donné naissance au phénomène de jailbreak qui se serait déjà résorbé semble-t-il. Découvrez pourquoi.

Des jailbreaks moins utiles face aux performances améliorées de ChatGPT

Les jailbreaks de ChatGPT sont apparus presque au même moment que le chatbot lui-même. L’opération permettait de libérer le plein potentiel de l’outil d’IA génératif. Ce, en supprimant les limitations imposées par les développeurs. Grâce à quoi, les utilisateurs peuvent personnaliser leurs réponses, ajuster le processus décisionnel de l’IA et améliorer leurs capacités au-delà de leurs paramètres par défaut.

YouTube video

Si les jailbreaks ont connu un boom parallèlement à l’engouement pour les premières versions de ChatGPT, ces pratiques se font aujourd’hui de plus en plus rares. Les experts expliquent cette popularité glissante par les performances accrues des dernières versions de ChatGPT doublées d’une meilleure maîtrise des prompts.

Une grande partie des utilisateurs de ChatGPT sont désormais capables d’exploiter le pouvoir des prompts afin d’atteindre les objectifs. Ceux-là même pour lesquels ils auraient auparavant eu besoin de jailbreaks. Par ailleurs, certaines startups ont développé des versions non censurées du chatbot qui font tout ce qu’on leur demande (ou presque), comme le ferait un jailbreak.

Les jailbreaks de plus en plus inaccessibles

Au début, les jailbreaks étaient particulièrement accessibles. Il suffisait aux utilisateurs de copier-coller des prompts disponibles en ligne, sur les forums et autres groupes dédiés. Avec DAN (Do Anything Now) par exemple, des instructions apparemment inoffensives obligeaient le chatbot à faire tout ce qui lui était demandé

Avec les nombreuses améliorations et les protections robustes apportées à ChatGPT, il devient plus difficile de tromper le chatbot avec ces invites. Le jailbreak nécessite désormais des techniques complexes pour avoir une chance de réussir. Ce qui décourage les utilisateurs. Qui plus est, corrige rapidement toute vulnérabilité à chaque fois que des exploits sont partagés par les jailbreakers. 

https://twitter.com/aiwithvibes/status/1640020297779691521?s=20

Enfin, de plus en plus de jailbreakers monétisent leur travail. Certains utilisateurs de ChatGPT se sont même décrétés professionnels de cette pratique et en ont fait un secteur lucratif. Ces créateurs de jailbreak professionnels conçoivent des prompts qui effectuent des tâches spécifiques.

Ils les mettent ensuite en vente sur des marketplaces comme PromptBase. Le côté payant a rendu les utilisateurs plus réticents. Les jailbreaks n’ont pas complètement disparu. Ils sont simplement entrés dans la clandestinité et devenus plus difficilement accessibles

Restez à la pointe de l'information avec LEBIGDATA.FR !

Cliquez pour commenter

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Newsletter

La newsletter IA du futur

Rejoins nos 100 000 passionnés et experts et reçois en avant-première les dernières tendances de l’intelligence artificielle🔥