OpenAI bannit les utilisateurs qui cherchent à comprendre Strawberry !

a récemment lancé un avertissement. Les utilisateurs de son dernier modèle d’intelligence artificielle (IA), « Strawberry », doivent éviter de creuser son fonctionnement interne. Ceux qui essaient de comprendre les mécanismes derrière son raisonnement risquent l’interdiction. Des rapports circulent sur les réseaux sociaux à ce sujet.

YouTube video

Le modèle Strawberry, également connu sous le nom d’o1-preview, est une avancée récente d’OpenAI. Il se distingue par sa capacité à fournir un raisonnement détaillé qui permet aux utilisateurs de comprendre chaque étape menant à une conclusion. Cette fonctionnalité, décrite comme un « nouveau paradigme », a considérablement renforcé sa popularité. Cependant, OpenAI garde ce processus confidentiel et cite des raisons de sécurité et de concurrence pour justifier cette décision.

L’entreprise a commencé à envoyer des courriels d’avertissement et plusieurs utilisateurs rapportent avoir reçu des messages signalant des violations. Ces avertissements visent particulièrement ceux qui tentent de mieux comprendre le fonctionnement du modèle Strawberry. OpenAI menace de suspendre l’accès à -4o si un utilisateur cherche à obtenir ces informations.

Selon certains utilisateurs, utiliser le terme « trace de raisonnement » déclenche ces alertes. D’autres affirment que simplement mentionner « raisonnement » suffit à attirer l’attention. OpenAI a mis en place des systèmes pour éviter que le raisonnement du modèle soit trop accessible. Malgré cela, une partie du processus reste visible, mais filtrée par un autre modèle d’IA.

OpenAI
IA Strawberry
raisonnement IA

Le contrôle strict du processus

Dans un article de blog, OpenAI a expliqué son choix. L’entreprise craint que le modèle génère des réponses contraires à ses politiques de sécurité. En réfléchissant à haute voix, Strawberry pourrait produire des idées inappropriées.

Afin d’éviter ces situations, OpenAI choisit de masquer certains aspects du raisonnement. Cette décision lui permet également de préserver son avantage concurrentiel. En maintenant une part de confidentialité autour de ses technologies, l’entreprise empêche ses concurrents de s’inspirer de son modèle.

Un recul sur la transparence ?

Pour plusieurs experts en IA, cette décision marque un retour en arrière. Simon Willison, un chercheur en intelligence artificielle, a critiqué cette approche. Dans un billet de blog, il a exprimé sa déception. Pour lui, la transparence dans le fonctionnement des IA est cruciale. Si un développeur ne peut pas comprendre comment une IA aboutit à ses réponses, cela complique l’interprétation des résultats.

Cette décision complique aussi le travail des red-teamers. Ces programmeurs testent les IA pour y déceler des failles et améliorer la sécurité. OpenAI centralise ainsi davantage le contrôle de son modèle, au lieu de le rendre plus ouvert.

OpenAI
IA Strawberry
raisonnement IA

Cette attitude d’OpenAI pourrait influencer le développement futur de l’intelligence artificielle. Alors qu’elle défendait autrefois une IA ouverte et accessible, l’entreprise adopte désormais un modèle plus strictement contrôlé. Ce changement pourrait ralentir les initiatives d’autres acteurs et réduire les opportunités d’améliorations potentielles.

Finalement, la décision d’OpenAI, notamment en ce qui concerne des modèles comme Strawberry, divise la communauté. Certains estiment que ce contrôle renforce la sécurité. D’autres craignent que cette opacité n’entrave l’évolution des modèles d’intelligence artificielle. Le débat autour de la transparence de l’IA ne fait que commencer.

Restez à la pointe de l'information avec LEBIGDATA.FR !

1 commentaires

1 commentaire

  1. Belle utilisation de l ia sans déconner

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Newsletter

La newsletter IA du futur

Rejoins nos 100 000 passionnés et experts et reçois en avant-première les dernières tendances de l’intelligence artificielle🔥