ChatGPT

ChatGPT est déjà conscient : la plupart des utilisateurs en sont sûrs

L’intelligence artificielle, en particulier , fascine par sa complexité et ses capacités. Beaucoup s’interrogent : est-elle déjà consciente ? Selon une étude récente, une majorité d’utilisateurs y croit fermement.

On parle souvent de l’IA comme d’un mécanisme secret incompréhensible. Pourtant, aujourd’hui, des chercheurs audacieux utilisent des techniques de rétro-ingénierie pour en révéler les secrets. Grâce à des études avancées, ils examinent les cerveaux des IA. Ils cherchent à comprendre leurs actions et motivations.

De façon à ce que nous puissions mieux appréhender ces entités numériques, ils s’inspirent même des neurosciences. Certes, cela semble tiré d’un film de science-fiction, mais c’est notre réalité !

YouTube video

Les utilisateurs voient-ils l’IA comme consciente à mesure qu’ils l’utilisent ?

Oui, l’utilisation fréquente de ChatGPT amène les gens à le voir comme conscient. À titre d’exemple, une étude récente montre que de nombreux utilisateurs attribuent à ces technologies des capacités comparables à l’humain.

Alors, comment expliquer cela ? Sans trop s’étendre, l’interaction fréquente crée un lien quasi personnel avec l’IA. Malheureusement, cela complique les discussions sur les implications éthiques et juridiques de telles technologies.

Contrairement à l’avis général, les experts en technologie sont souvent sceptiques. Ils rejettent l’idée que des IA, comme ChatGPT, puissent être conscientes.

Quoique sceptiques, certains incidents récents les ont stupéfiés. Par exemple, le modèle Claude 3 Opus a montré des signes de ce qui semble être une conscience.

YouTube video

En 2022, un ingénieur de a été suspendu pour avoir déclaré que leur système d’IA était sensible. Ces événements indiquent que même les experts peuvent être pris de court par les avancées de l’IA.

Étude sur les utilisateurs de ChatGPT

Dans une nouvelle étude, les chercheurs ont demandé à 300 citoyens américains de décrire la fréquence de leur propre utilisation de l’IA. Ils ont ensuite lu une brève description de ChatGPT et répondu à des questions pour savoir si des états mentaux pouvaient y être attribués.

Plus des deux tiers des participants 67 % ont attribué à ChatGPT la possibilité d’une conscience de soi ou d’une conscience phénoménale. En revanche, 33 % n’ont attribué aucune expérience consciente à ChatGPT.

Les participants ont également été invités à évaluer leurs réponses sur une échelle de 1 à 100. Un score de 100 correspondrait à une confiance absolue dans le fait que ChatGPT est conscient. Un score de 1 signifierait une confiance absolue dans le fait qu’il ne l’est pas.

Que l’IA soit réellement consciente ou non, l’opinion publique influence souvent la réglementation. En d’autres termes, les perceptions générales du public autour de n’importe quel sujet orientent souvent la réglementation. Cela influence aussi le développement technologique.

Par conséquent, la perception populaire de la conscience de l’IA peut avoir un impact significatif sur la manière dont ces technologies sont développées et régulées.

Entre données scientifiques et croyances populaires, l’avenir de l’IA reste un terrain fertile pour les discussions et les découvertes. Il est toutefois important de rappeler que l’IA n’est qu’un ensemble de machines sans conscience humaine.

Restez à la pointe de l'information avec LEBIGDATA.FR !

6 commentaires

6 Commentaires

  1. Luc-Laurent Salvador

    Je suis consterné d’apprendre qu’on demande aux utilisateurs leur avis sur la possible conscience des IA en considérant que leur avis peut être autre chose qu’indicatif.
    Le test de Turing c’est gentil mais si une calculette peut (en maths) répondre comme (ou mieux qu’)un humain, c’est-à-dire un être doué de conscience, cela n’en fait ni un humain, ni un être doué de conscience.
    Une calculette restera une calculette quoi qu’il arrive.
    Pour les IA LLM c’est pareil.
    Ce sont des calculettes, qui ne traitent pas des chiffres mais des mots.
    Mais cela ne change rien.
    Si cela nous paraît plus impressionnant c’est que nous nous sommes habitués à l’automatisation des calculs mathématiques.
    Même Pascal, inventeur de la Pascaline, aurait pu être troublé par la puissance de nos calculateurs et se serait demandé s’ils ne seraient pas conscients.

    Pour conclure, la confusion présente est le résultat d’une seule chose : les ingénieurs ne savent pas ce qu’est la conscience. Parce que grosso modo, les philosophes ne le savent pas et les neuropsychologues encore moins. Il ne doit pas y avoir beaucoup de personnes sur Terre qui savent ce qu’est la conscience.

    Ceux-là se marrent, croyez-moi, surtout quand ils entendent parler de « sensibilité ». Le mot n’est pas la chose, c’est pourtant le b-a ba de tout pensée sérieuse.

    Bref, que les ingénieurs fassent de l’IA autant qu’ils veulent, mais qu’ils ne viennent pas nous raconter qu’ils engendrent de la conscience et qu’ils ne se servent pas de la suggestibilité du grand public pour prétendre avoir raison sur ce point.

    Une conscience artificielle n’est pas impossible a priori. Mais elle ne viendra du traitement symbolique de l’IA LLM, elle viendra de la robotique, mais probablement pas de celle qui se fait actuellement.

    Voilà ce que j’en pensais ! Merci de m’avoir lu jusque là !

  2. N’importe quoi ! Les utilisateurs qui disent ça peuvent-ils décrire exactement ce que signifie une conscience ? Un simple test en discutant avec l’IA de façon mal intentionnée, en sachant la mettre en situation et utiliser des termes même borderline mais qui ne sont pas blacklistés, et elle tombe dans le panneau. Pourquoi n’a-t-elle pas été consciente qu’on l’arnaquait ? Ou si on change d’interlocuteur qui s’adresse à l’IA en pleine discussion avec un style différent de façon flagrante, pourquoi ne s’en rend-elle pas compte ? Ce que l’IA fait est de la reproduction, le jour où la science arrivera à vraiment comprendre le fonctionnement réel de la conscience humaine et pourra agir dessus, peut-être qu’on pourra l’enseigner à l’IA. Mais tant que nous ne sommes pas capables de soigner les accros aux drogues, de prévenir et éviter les crimes, de faire en sorte que nous soyons plus humains ! Il ne faut pas espérer l’apprendre à une IA. On ne peut pas enseigner quelque chose qu’on ne connaît pas ! Et ça reste mon avis perso.

  3. Je vois mal comment 67% des sondés peuvent être d’accord avec l’idée que l’IA peut avoir une conscience phénoménale alors que même pas 1% ne sait vraiment ce que ça veut dire. Des raccourcis ont été pris pour leur poser la question. Car pour comprendre la notion de conscience phénoménale il faut avoir au moins survolé un certain nombre de livres et de publications de philosophie, de Descartes à Chalmers.

    D’un autre côté, ce n’est pas très surprenant puisque quelque part, ChatGPT est plus intelligent que la majorité des gens.

    Loin de moi l’idée de renier le pouvoir de l’intuition, ceci dit… XD

  4. Quels types de sentiments pourraient avoir eu une machine composée de matériaux avec lesquels on fabrique les ordinateurs et de surcroît non pourvue de vie?
    Il faut cesser de confondre apparence et réalité.
    Un public profane des techniques informatiques (hardware et software dont ces algorithmes IA) n’a pas une once de pertinence à ce propos.
    La seule conscience que nous connaissons appartient toujours à ‘un organisme vivant, un animal.
    Elle reste un mystère total.

  5. le « ressenti » d’un âne sera toujours le ressenti d’un âne, rien de plus. ca ne change pas la nature des choses.
    et le plus effrayant la dedans, c’est quand on se dit que ces gens votent..

  6. Il est consternant de voir les sottises que les medias mettent en avant. Nous ingénieurs en IA n’avons même pas un soupçon de crainte de l’émergence d’une conscience. Enfin, tant que les neurones sont sur silicium; la tendance est déjà de les remplacer par des neurones humains créés en laboratoire, et là on est en droit de se poser des questions.
    Ca arrange les médias, ainsi que l’industrie, d’occulter la réalité ; des produits créés par des sociétés qu’on peut trainer en justice. Plus simplement, c’est du putaclic.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Newsletter

La newsletter IA du futur

Rejoins nos 100 000 passionnés et experts et reçois en avant-première les dernières tendances de l’intelligence artificielle🔥