Le mode vocal de GPT-4o est enfin disponible, mais crée l’inquiétude chez OpenAI. Un rapport de sécurité alarmant dévoile que certains utilisateurs se laissent séduire par cette voix sensuelle au point de devenir émotionnellement attachés, voire dépendants du chatbot IA ! Une dérive inattendue qui pourrait causer bien des troubles dans la société…
Fin juillet 2024, OpenAI a enfin lancé le mode vocal avancé de ChatGPT. Cette nouvelle façon d’interagir avec l’IA permet de nouveaux cas d’usage, tels que les exemples que nous vous présentions dans cet article.
Elle permet par ailleurs une utilisation plus rapide, mais aussi des conversations plus naturelles grâce à la voix et l’intonation très humaines de ChatGPT qui peut parfois même bégayer ou reprendre sa respiration.
Toutefois, cette voix se révèle même un peu trop humaine, voire sensuelle, pour certains utilisateurs… qui se prennent littéralement d’affection pour le chatbot ! Une dérive qu’OpenAI n’avait pas vue venir.
OpenAI publie un rapport sur les risques de GPT-4o
Dans un rapport d’analyse de sécurité publié le 8 août 2024, la firme américaine admet que cette voix anthropomorphique peut pousser une partie des usagers à s’attacher émotionnellement à ChatGPT.
Le rapport en question est une « carte système » pour GPT-4o, à savoir un document technique listant ce que l’entreprise considère comme des dangers liés à ce modèle IA.
Il comporte également des détails concernant les tests de sécurité, et les efforts déployés par l’entreprise pour atténuer ces risques.
Rappelons qu’OpenAI a fait l’objet d’une attention particulière ces derniers mois, après le départ de plusieurs employés travaillant sur les risques à long terme de l’IA.
Après avoir quitté l’entreprise, certains l’ont accusée de prendre des risques inutiles et de museler les dissidents dans sa course au développement d’une IA surpassant l’intelligence humaine : l’AGI.
On peut donc voir dans la publication de ce rapport de sécurité une tentative de faire taire les critiques et de rassurer le public sur le fait qu’elle prend ce problème au sérieux…
Armes chimiques, fausses informations… les graves dangers de l’IA
Alors, quels sont les dangers énumérés dans cette carte système ? Si l’on se fie au document, OpenAI craint notamment que GPT-4o puisse amplifier les préjugés sociétaux, propager de fausses informations, ou même aider à la fabrication d’armes chimiques ou biologiques.
On découvre par ailleurs comment la firme teste son modèle pour s’assurer que l’IA ne tente pas de libérer du contrôle, de tromper les utilisateurs ou de manigancer des plans catastrophiques…
Plusieurs experts saluent cette démonstration de transparence d’OpenAI, mais estiment que l’entreprise pourrait aller encore plus loin.
C’est le cas de Lucie-Aimée Kaffee, chercheuse chez Hugging Face. Elle regrette que la carte système n’inclue pas de détails sur les données d’entraînement de GPT-4o : « la question du consentement dans la création d’un jeu de données si large et multimodal doit être posée ».
D’autres soulignent que les risques pourraient changer à mesure que ces outils sont déployés auprès du grand public.
C’est le cas de Neil Thompson, professeur au MIT. Il déclare que « l’examen interne ne devrait être que le premier élément permettant de garantir la sécurité de l’IA, car beaucoup de risques ne se manifestent que quand l’IA est utilisée dans le monde réel ».
À ses yeux, il est donc important que ces autres risques soient catalogués et évalués à mesure que de nouveaux modèles émergent.
Quoi qu’il en soit, cette carte système démontre à quel point les dangers de l’IA évoluent très rapidement à mesure qu’émergent de nouvelles fonctionnalités telles que le mode vocal…
La voix sexy de GPT-4o peut vous rendre accro
En mai 2024, lors de la première présentation du Mode Vocal Avancé de GPT-4o, beaucoup d’utilisateurs avaient remarqué une ressemblance avec la voix de Scarlett Johansson (qui a d’ailleurs porté plainte contre OpenAI).
L’autre chose qu’ils avaient remarquée, c’est que l’IA semblait très avenante, voire carrément affriolante, dans sa façon de parler…
L’une des sections de la carte système intitulée « Anthropomorphisation et dépendance émotionnelle » se penche sur les problèmes pouvant survenir lorsque les utilisateurs perçoivent l’IA comme une humaine.
On y apprend lors des tests de sécurité de GPT-4o, les chercheurs d’OpenAI ont remarqué que certains utilisateurs exprimaient un fort lien émotionnel avec le chatbot. Par exemple, l’un des testeurs externes lui a dit « c’est notre dernier jour ensemble ».
Or, cet anthropomorphisme pourrait conduire les utilisateurs à accorder plus de confiance aux propos générés par l’IA même lorsque celle-ci « hallucine » des informations incorrectes.
Au fil du temps, cela pourrait même affecter leurs relations avec d’autres personnes : « ils pourraient nouer des relations sociales avec l’IA, réduisant leur besoin d’interactions humaines, ce qui pourrait être bénéfique aux personnes seules, mais affecter les relations saines ».
Toutefois, selon Joaquin Quiñonero Candela, directeur de la préparation chez OpenAI, ce mode vocal pourrait évoluer en une interface incroyablement puissante et ses effets émotionnels pourraient être positifs.
Par exemple, en aidant les personnes seules ou ayant besoin de s’exercer aux interactions sociales. Il précise aussi que l’entreprise compte étudier attentivement ce phénomène d’anthropomorphisme et de connexion émotionnelle en surveillant les interactions des testeurs beta.
Quoi qu’il en soit, nous vous recommandons de garder en tête que GPT n’est qu’un chatbot, ou vous pourriez finir comme le protagoniste du film Her en tombant éperdument amoureux d’une simple intelligence artificielle…
Et vous, qu’en pensez-vous ? Pensez-vous que pourriez être séduit par une IA vocale ? Où se situe vraiment la limite entre l’homme et la machine ? Partagez vos pensées sur ce sujet en commentaire !
- Partager l'article :