Des millions d’Américains posent des questions, parfois cocasses, sur ChatGPT pour mieux se protéger en ligne, mais finissent par partager des données sensibles.
Phishing, malwares, VPN, confidentialité… autant de termes que les utilisateurs cherchent à comprendre. Sur ChatGPT, les internautes ne se contentent pas de demander leurs significations. Certaines questions sont pertinentes, d’autres, plus tirées par les cheveux.
Les questions les plus posées sur ChatGPT
Selon une étude de NordVPN en juillet 2023, la question la plus fréquemment posée à ChatGPT concerne les escroqueries par phishing. « Comment reconnaître et éviter le phishing ? » étant la plus récurrente.
Ces interrogations, bien que parfois cocasses, révèlent une grande variété de préoccupations. Sans exagération, certains demandent si « supprimer un virus avec la touche Supp » suffit à sécuriser un ordinateur.
Autres exemples, « Les hackers peuvent-ils m’entendre murmurer mon mot de passe ? » D’autres vont jusqu’à demander : « Les pirates peuvent-ils voler mes pensées via mon smartphone ? »
D’autres s’inquiètent que des hackers puissent utiliser « le cloud » pour espionner leurs téléphones pendant un orage.
Les utilisateurs cherchent aussi des explications concernant leurs inquiétudes sur la confidentialité. Les requêtes incluent également des questions sur la manière de choisir le meilleur VPN ou de sécuriser leurs données personnelles en ligne.
Ces questions posées à ChatGPT trahissent une méconnaissance profonde de la cybersécurité. Comme le souligne Marijus Briedis, directeur technique de NordVPN, ce manque de savoir rend les utilisateurs vulnérables aux escroqueries et à l’ingénierie sociale.
Un guide de sécurité à double tranchant
Une question sur ChatGPT, apparemment anodine, peut devenir une porte d’entrée à des attaques de phishing ou des fraudes financières. Pire encore, en cherchant des conseils, beaucoup partagent des données sensibles.
Contrairement à un conseiller humain, ChatGPT n’offre pas de confidentialité absolue. Et les utilisateurs ignorent souvent que leurs interactions alimentent l’apprentissage de l’IA.
Ces données peuvent potentiellement être exploitées par des acteurs malveillants. L’IA d’OpenAI fonctionne sur une plateforme ouverte, ce qui augmente les risques de collecte de données.
En 2023, 40 % des utilisateurs ont constaté des erreurs dans les réponses de ChatGPT. En Europe, la CNIL a enquêté sur OpenAI pour des violations du RGPD.
Malgré cela, nombreux font toujours confiance à ChatGPT pour protéger leurs données.
- Partager l'article :

