ChatGPT risque de ruiner les élections : voici le plan d'OpenAI pour l'empêcher

ChatGPT risque de ruiner les élections : voici le plan d’OpenAI pour l’empêcher

ChatGPT peut exacerber la désinformation pendant les périodes électorales. Conscient des risques, OpenAI cherche à apaiser les craintes quant au rôle que l’IA pourrait jouer dans l’élaboration des élections. L’entreprise décide de prendre des mesures en amont pour éviter tout débordement.  

ChatGPT : des initiatives pour protéger les élections

2024 apparaît comme l’année des élections. Des dizaines sont prévues aux quatre coins du monde : en Europe, aux États-Unis, en Russie, etc. Le succès explosif de ChatGPT a déclenché une révolution mondiale de l’IA. Toutefois, l’outil a également facilité la désinformation. En période électorale, ces fake news peuvent être utilisées pour influencer les électeurs et manipuler les résultats. 

Hier, 15 janvier, OpenAI s’est exprimé à ce sujet. Dans un billet de blog, l’entreprise a déclaré qu’elle n’autoriserait pas l’utilisation de ses technologies, notamment ChatGPT et DALL-E 3, à des fins politiques. OpenAI dit s’engager à prévenir les abus et à améliorer la transparence autour du contenu généré par l’IA, selon ses déclarations. 

« Nous voulons nous assurer que notre technologie ne soit pas utilisée d’une manière qui pourrait nuire au processus démocratique », soutient-elle. Dans son communiqué, la société d’IA annonce plusieurs initiatives pour lutter contre la désinformation générée par l’IA à l’échelle mondiale.

De nouveaux outils en développement

Pour garantir une utilisation responsable de ses technologies, OpenAI décrit des mesures visant à prévenir les deepfakes. Grâce à un nouvel outil, toutes les images générées par DALL-E 3 seront désormais codées avec des informations identifiant l’origine de l’image (qui l’a créée et quand elle a été réalisée). 

ChatGPT risque de ruiner les élections : voici le plan d'OpenAI pour l'empêcher

Ces informations seront codées avec un cryptage développé par la Coalition for Content Provenance and Authenticity (C2PA ), un groupe fondé par Adobe, Microsoft, Intel et d’autres sociétés technologiques. La C2PA vise à maintenir l’intégrité et la crédibilité du contenu numérique dans le domaine de l’IA

Grâce à ce nouvel outil (qui est toujours en développement), OpenAI veut permettre aux utilisateurs d’évaluer la fiabilité du contenu, en particulier pendant les élections. La société a également mis à jour politique d’utilisation afin d’empêcher les politiciens de créer des chatbots pour faire de la propagande

Elle interdit également l’imitation des personnalités politiques et d’institutions gouvernementales. En renforçant sa politique, OpenAI veut aussi proscrire l’utilisation de ses outils pour faire du lobbying ou pour décourager le vote. Enfin, pour les États-Unis en particulier, si les utilisateurs posent des questions relatives à l’élection et autres sujets connexes à ChatGPT, l’IA les redirigera vers le site CanIVote.org.

Newsletter

Envie de ne louper aucun de nos articles ? Abonnez vous pour recevoir chaque semaine les meilleurs actualités avant tout le monde.

Cliquez pour commenter

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *