Depuis l’arrivée de ChatGPT d’OpenAI, les chatbots IA se multiplient. Parmi eux, l’IA Claude d’Anthropic se démarque. Elle peut maintenant contrôler votre ordinateur comme un humain.
Aujourd’hui, Claude 3.5 ne se contente plus de répondre aux questions, elle est capable de contrôler un ordinateur. Oui, elle peut cliquer, taper, déplacer des fenêtres, et tout cela de manière autonome.
Cette avancée promet de transformer notre quotidien mais soulève aussi des questions. Cet outil est-il une aide précieuse ou une menace ? Découvrons ensemble les promesses et les inquiétudes que Claude 3.5 apporte.
Claude 3.5 : l’assistant numérique qui contrôle votre ordinateur
Les versions récentes des IA de Anthropic, Claude 3.5 Haiku et Sonnet, ont été dotées d’une nouvelle caractéristique, actuellement en bêta publique via l’API : Claude est désormais capable d’utiliser un ordinateur en imitant les comportements humains.
Cette version permet à l’IA de voir votre écran par captures d’écran, de cliquer et même d’écrire. Autrement dit, Claude devient un agent numérique réalisant des actions concrètes pour simplifier de nombreuses tâches.
Je me souviens des premiers assistants virtuels, qui donnaient des réponses basiques. On ne s’imaginait pas qu’un jour, ils pourraient manipuler nos appareils.
Désormais, Claude va plus loin. On peut lui confier la gestion d’un emploi du temps, la création de rappels, ou la recherche en ligne, sans intervention humaine.
Lors d’une démonstration, Claude a même organisé une randonnée pour la chercheuse Pujaa Rajan : il a trouvé l’heure du lever de soleil, estimé le trajet et ajouté un rappel dans le calendrier.
Contrôler votre ordinateur : quel impact pour la sécurité ?
La possibilité pour Claude de contrôler un ordinateur pose toutefois des questions cruciales. Lui donner un tel accès signifie aussi lui ouvrir l’accès aux données personnelles et aux fichiers sensibles.
Oui, je trouve que cette capacité est pratique pour automatiser des tâches, mais évidemment, elle comporte aussi des risques. Que se passerait-il si Claude faisait une erreur ou tombait entre de mauvaises mains ? Ces inquiétudes, Anthropic les prend très au sérieux.
Pour limiter les risques, cette fonctionnalité est, pour l’instant, réservée aux développeurs via une API spécifique. Claude ne voit l’écran qu’en captures successives, ce qui limite sa vision de l’ordinateur.
Durant la phase de test, ses actions sont surveillées de près. Néanmoins, une IA capable d’agir de manière autonome reste une innovation sensible, et la sécurité reste un enjeu majeur.
Personnellement, je pense que cette prudence montre bien qu’Anthropic fait son possible pour minimiser les risques.
Automatisation et compétences de codage : un nouveau chapitre de la productivité
Claude 3.5 marque une étape décisive pour l’automatisation des tâches numériques. En prenant en charge de telles actions, elle pourrait augmenter considérablement la productivité.
Par ailleurs, Claude s’avère également compétente en codage. Sur le test OSWorld, évaluant la capacité à manipuler un ordinateur, Claude obtient un score de 14,9 %, bien inférieur au score humain moyen de 70 à 75 %. Cependant, c’est presque le double du deuxième meilleur modèle d’IA, prouvant le potentiel de Claude.
Pour gérer ces capacités, Anthropic, comme OpenAI avec GPT-4, ouvre Claude de manière progressive. Cette approche renforce la sécurité, permettant d’améliorer l’intelligence artificielle à mesure qu’elle gagne en efficacité. En clair, cette phase de test permet à Claude de se développer tout en restant sécurisé.
Quels sont, à votre avis, les défis éthiques que pose une IA capable de contrôler un ordinateur ? Êtes-vous prêt à lui confier autant de contrôle ? Donnez-nous votre avis !
- Partager l'article :