ChatGPT Bard

ChatGPT et Google Bard ne respectent pas le RGPD : cette étude le prouve

L’étude de Stanford a confirmé que les modèles open source sont plus transparents. Cela contraste avec des modèles populaires et lucratives comme ChatGPT et Google Bard.

L’intelligence artificielle, cette force invisible qui façonne notre monde, est enfin mise sous les projecteurs de la régulation. L’Europe trace la voie en matière de réglementation de l’IA. Selon une étude récente menée par des chercheurs de l’Université de Stanford, les grands modèles de langage (LLM) tels que le GPT-4 d’OpenAI et le Bard de Google ne sont pas conformes à la loi sur l’IA de l’Union européenne (UE). Cette conclusion souligne l’importance de l’harmonisation entre les avancées technologiques et les réglementations en vigueur. Cette conclusion soulève des questions sur la conformité juridique des outils d’IA les plus utilisés.

Le Parlement européen abat le marteau de la régulation

L’Europe vient de poser un jalon historique en adoptant, pour la première fois, une loi encadrant l’IA au niveau national et régional. Ainsi, la loi européenne sur l’IA se profile comme un chef-d’œuvre de la régulation, visant à protéger les 450 millions d’âmes européennes et servant de phare pour le monde entier. Cependant, voici le hic : selon une étude récente de Stanford, les entreprises d’IA, y compris les géants tels que ChatGPT et Bard, doivent gravir une montagne pour être en conformité.

Les chercheurs de Stanford ont passé au peigne fin dix grands fournisseurs de modèles d’IA. Ils ont évalué sur une échelle de 0 à 4 leur conformité aux 12 commandements de la loi européenne sur l’IA. Les résultats sont époustouflants. La majorité des fournisseurs vacille sur des scores dérisoires. Seule l’entreprise Hugging Face/BigScience s’élève avec un score supérieur à 75%.

Cela nous amène à un constat alarmant.

ChatGPT et Bard : un manque de transparence criant et un chemin ardu

L’étude dévoile les maillons faibles. Un cruel manque de transparence dans la divulgation des données de formation, de la consommation d’énergie, des émissions et des méthodologies d’atténuation des risques. ChatGPT et Bard ne font pas exception. De plus, une dualité intrigante émerge entre les modèles ouverts et fermés. Les versions ouvertes sont plus généreuses en matière de divulgation, mais présentent des défis pour contrôler leur déploiement.

Alors que les révélations de l’étude frappent fort, elles sont enveloppées dans un récit plus large. Les entreprises d’IA, sont dans une danse complexe avec les régulateurs. Prenons OpenAI, le créateur de ChatGPT. Cette entreprise a brandi la menace de quitter l’Europe si la régulation devenait trop stricte. Les fournisseurs d’IA sont sur des charbons ardents.

Que peut-on faire ? Les chercheurs ont des recommandations. Ils exhortent les décideurs de l’UE à serrer la vis sur les grands fournisseurs, y compris ceux de ChatGPT et Bard. Ils plaident pour une transparence et une responsabilité accrues. La grande question est de savoir si les fournisseurs d’IA pourront faire évoluer leurs pratiques à la vitesse requise. Les chercheurs sont optimistes, mais vigilants. Des changements significatifs sont possibles, disent-ils, mais la régulation doit être forte. L’IA, avec sa puissance fulgurante, est en train de redessiner notre monde. ChatGPT et Bard en sont des témoins clés. La transparence ne doit plus être un luxe, mais le socle sur lequel l’IA doit être construite. L’Europe a jeté le gant. Le reste du monde, incluant les créateurs de ChatGPT et Bard, va-t-il le relever ? La course est lancée.

Newsletter

Envie de ne louper aucun de nos articles ? Abonnez vous pour recevoir chaque semaine les meilleurs actualités avant tout le monde.

Cliquez pour commenter

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *