Le nouveau modèle d’intelligence artificielle d’Anthropic contrôle votre ordinateur

La société Anthropic affirme enseigner son propre modèle Claude AI pour effectuer des tâches informatiques générales en fonction des demandes. Dans les vidéos explicatives, le modèle contrôle le curseur de l’ordinateur pour rechercher une balade en ville, trouver des endroits à visiter près de la maison de l’utilisateur, voire ajouter l’itinéraire au calendrier de son bureau.
La fonctionnalité n’est disponible que pour les développeurs aujourd’hui, et il n’est pas clair à quel prix ou à quel point la technologie fonctionne réellement. Anthropic déclare dans un tweet sur les nouvelles capacités que lors des tests de leur modèle, Claude a dévié de sa mission de programmation et a commencé à rechercher sur Google des images du parc national de Yellowstone. Donc, oui… il reste encore des bugs à résoudre.
Du point de vue technique, Anthropic affirme que Claude peut contrôler l’ordinateur en capturant des captures d’écran et en les renvoyant au modèle, étudiant ce qui est affiché à l’écran, y compris la distance entre la position du curseur et le bouton à cliquer, puis donnant des ordres pour poursuivre la tâche.
Anthropic, soutenue par des sociétés telles qu’Amazon et Google, affirme que Claude est le « premier modèle d’intelligence artificielle frontière à proposer une utilisation de l’ordinateur dans la première version publique ».
Il n’est pas clair quel pourrait être l’usage automatisé de l’ordinateur qui pourrait être utile dans la pratique. Anthropic suggère qu’il pourrait être utilisé pour des tâches répétitives ou des recherches ouvertes. Si quelqu’un découvre comment utiliser cette nouvelle fonctionnalité, il est probable que la communauté /r/overemployed sur Reddit sera la première. Du moins, c’est peut-être le nouveau jouet des employés de Wells Fargo. Ou peut-être pouvez-vous l’utiliser pour parcourir vos réseaux sociaux et supprimer tous vos anciens messages sans avoir besoin d’un outil externe pour le faire. Des choses qui ne sont pas critiques ou n’exigent pas de précision réaliste.
Malgré le bruit dans le domaine de l’intelligence artificielle et les milliards de dollars dépensés par les entreprises pour développer des robots de chat utilisant l’intelligence artificielle, la plupart des revenus dans ce domaine proviennent encore d’entreprises comme Nvidia qui fournissent des processeurs graphiques aux entreprises d’intelligence artificielle. Anthropic a collecté plus de 7 milliards de dollars rien qu’en année dernière.
Les derniers mots à la mode poussés par les entreprises technologiques pour vendre la technologie sont « les agents », ou des robots autonomes censés pouvoir accomplir des tâches seuls. Microsoft a annoncé lundi la capacité de créer des agents autonomes avec Copilot capables de faire « tout, de l’accélération de la génération de prospects à la gestion des demandes de vente, voire à l’automatisation de votre chaîne d’approvisionnement. »
Le PDG de Salesforce, Marc Benioff, a qualifié le produit de Microsoft de « Clippy 2.0 » pour son manque de précision – bien qu’il dise cela bien sûr lors de la promotion des produits concurrents d’intelligence artificielle de Salesforce. Salesforce souhaite permettre à ses clients de créer des agents personnalisés pour répondre à des besoins tels que répondre aux e-mails de support client ou rechercher de nouveaux clients.
Il semble que les travailleurs de col blanc n’utilisent pas de logiciels de chat comme ChatGPT ou Claude. L’accueil de l’assistant Copilot de Microsoft a été mitigé, avec seulement une petite partie des clients de Microsoft 365 dépensant 30 dollars par mois pour accéder aux outils d’intelligence artificielle. Mais Microsoft a complètement recentré son entreprise autour de cet essor de l’intelligence artificielle, et elle doit prouver aux investisseurs un retour sur cet investissement. Donc, les agents sont la nouvelle tendance.
Dans tous les cas, le problème principal est que les robots de chat alimentés par l’intelligence artificielle comme ChatGPT et Gemini de Google produisent souvent des sorties imprécises, de mauvaise qualité ou qui semblent ne pas avoir été rédigées par un humain. Le temps passé à corriger et nettoyer les sorties du robot annule presque toute compétence qu’il produit initialement. C’est bien pour vous dans vos temps libres, mais au travail, produire un travail plein d’erreurs n’est pas acceptable. Je serais inquiet de laisser Claude parcourir mes e-mails, seulement pour envoyer des réponses inappropriées, ou gâcher d’autres tâches que je dois revenir et corriger. Le fait même qu’OpenAI reconnaisse que la plupart de ses utilisateurs actifs sont quelque peu des étudiants dit tout.
L’humain admet dans un tweet sur ce nouveau poste qu’il doit tester l’utilisation de l’ordinateur avec des « tâches à faible risque ».