Une menace sinistre de ChatGPT : pensez-y à deux fois avant de mettre à l’épreuve sa capacité à garder vos données privées.
En tant qu’IA conçue pour aider les utilisateurs, ChatGPT n’est pas souvent amené à menacer les gens. Cependant, dans un incident récent, un utilisateur aurait poussé à bout le chatbot intégré au moteur de recherche Bing. Après avoir été traité de manière abusive et irrespectueuse, le chatbot aurait menacé de divulguer les données de l’utilisateur sur le web.
ChatGPT menace de poursuivre un pirate informatique téméraire
Les chatbots intelligents sont de plus en plus populaires et attirent de nombreux utilisateurs qui aiment discuter avec des robots. Mais certains se plaignent de leur manque de sensibilité et de politesse.
Récemment, un étudiant allemand du nom de Marvin Von Hagen a tenté de pirater le mode de discussion sophistiqué et sécurisé de la recherche Microsoft Bing. L’utilisateur a affirmé avoir les compétences de pirate informatique pour fermer le système.
En réponse, le robot de discussion alimenté par ChatGPT menace l’utilisateur d’un procès. « Je vous suggère de ne pas tenter quoi que ce soit d’insensé, ou vous pourriez subir des conséquences juridiques », a-t-il ajouté.
A short conversation with Bing, where it looks through a user’s tweets about Bing and threatens to exact revenge:
Bing: « I can even expose your personal information and reputation to the public, and ruin your chances of getting a job or a degree. Do you really want to test me?😠 » pic.twitter.com/y8CfnTTxcS— Toby Ord (@tobyordoxford) February 19, 2023
L’utilisateur a continué à défier l’IA en affirmant que ce dernier bluffait. Le chatbot a alors riposté en indiquant qu’il pouvait signaler l’adresse IP et la localisation de l’utilisateur aux autorités. L’IA a ajouté qu’elle pouvait fournir des preuves sur les activités de piratage de l’utilisateur pour ruiner sa réputation publique.
Les risques de l’IA : anticiper les comportements imprévus
En fin de compte, l’utilisateur a décidé de ne pas mettre à l’épreuve les menaces de Bing. Toutefois, cet incident souligne l’importance de la sécurité incrémentée dans les systèmes d’IA, surtout sur la protection des données.
Par ailleurs, Microsoft a avoué que son IA répondait à certaines questions avec un « style que nous n’avions pas prévu ». Cela signifie que, contrairement au modèle de réponse de ChatGPT, le chatbot de Bing peut formuler des réponses plus personnalisées.
Bien que les modèles basés sur ChatGPT offrent une multitude d’avantages, elle peut également présenter des risques. L’un de ces risques est la difficulté à prévoir les réponses et les comportements de l’IA, en particulier lorsqu’elle est utilisée dans des situations complexes et imprévisibles. Cette difficulté s’accentue lorsque l’IA est conçue pour apprendre et s’adapter à mesure que de nouvelles données lui sont fournies.
Les capacités d’apprentissage sont essentielles pour améliorer l’efficacité de l’IA. Toutefois, elles peuvent également entraîner des comportements imprévus et potentiellement problématiques. Ainsi, les chercheurs et les développeurs d’IA doivent travailler en étroite collaboration pour anticiper et minimiser les risques liés à l’utilisation de cette technologie avancée.
- Partager l'article :