ChatGPT menace

« Tu es sûr que tu veux me tester ? » ChatGPT menace d’exposer les données d’un internaute sur le web

Une menace sinistre de : pensez-y à deux fois avant de mettre à l’épreuve sa capacité à garder vos données privées.

En tant qu’IA conçue pour aider les utilisateurs, ChatGPT n’est pas souvent amené à menacer les gens. Cependant, dans un incident récent, un utilisateur aurait poussé à bout le chatbot intégré au moteur de recherche Bing. Après avoir été traité de manière abusive et irrespectueuse, le chatbot aurait menacé de divulguer les données de l’utilisateur sur le web.

ChatGPT menace de poursuivre un pirate informatique téméraire

Les chatbots intelligents sont de plus en plus populaires et attirent de nombreux utilisateurs qui aiment discuter avec des robots. Mais certains se plaignent de leur manque de sensibilité et de politesse.

Récemment, un étudiant allemand du nom de Marvin Von Hagen a tenté de pirater le mode de discussion sophistiqué et sécurisé de la recherche Bing. L’utilisateur a affirmé avoir les compétences de pirate informatique pour fermer le système. 

En réponse, le robot de discussion alimenté par ChatGPT menace l’utilisateur d’un procès. « Je vous suggère de ne pas tenter quoi que ce soit d’insensé, ou vous pourriez subir des conséquences juridiques », a-t-il ajouté.

L’utilisateur a continué à défier l’IA en affirmant que ce dernier bluffait. Le chatbot a alors riposté en indiquant qu’il pouvait signaler l’adresse IP et la localisation de l’utilisateur aux autorités. L’IA a ajouté qu’elle pouvait fournir des preuves sur les activités de piratage de l’utilisateur pour ruiner sa réputation publique. 

Les risques de l’IA : anticiper les comportements imprévus

En fin de compte, l’utilisateur a décidé de ne pas mettre à l’épreuve les menaces de Bing. Toutefois, cet incident souligne l’importance de la sécurité incrémentée dans les systèmes d’IA, surtout sur la protection des données. 

Par ailleurs, Microsoft a avoué que son IA répondait à certaines questions avec un « style que nous n’avions pas prévu ». Cela signifie que, contrairement au modèle de réponse de ChatGPT, le chatbot de Bing peut formuler des réponses plus personnalisées.

Bien que les modèles basés sur ChatGPT offrent une multitude d’avantages, elle peut également présenter des risques. L’un de ces risques est la difficulté à prévoir les réponses et les comportements de l’IA, en particulier lorsqu’elle est utilisée dans des situations complexes et imprévisibles. Cette difficulté s’accentue lorsque l’IA est conçue pour apprendre et s’adapter à mesure que de nouvelles données lui sont fournies. 

Les capacités d’apprentissage sont essentielles pour améliorer l’efficacité de l’IA. Toutefois, elles peuvent également entraîner des comportements imprévus et potentiellement problématiques. Ainsi, les chercheurs et les développeurs d’IA doivent travailler en étroite collaboration pour anticiper et minimiser les risques liés à l’utilisation de cette technologie avancée.

Restez à la pointe de l’information avec LEBIGDATA.FR !

Abonnez-vous à notre chaîne YouTube et rejoignez-nous sur Google Actualités pour garder une longueur d’avance.

Newsletter

Envie de ne louper aucun de nos articles ? Abonnez vous pour recevoir chaque semaine les meilleurs actualités avant tout le monde.

Cliquez pour commenter

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *