L’IA peine à coder correctement, ses lignes contiennent souvent des erreurs et imperfections. Malgré leur progression à vue d’œil, les développeurs ne doivent pas se sentir menacés.
Les grands modèles de langage (LLM) se sont invités dans les bureaux des programmeurs ces dernières années. Ces outils génèrent des lignes de code en un clin d’œil, parfois avec brio. L’IA sait effectivement coder, mais les pros restent sceptiques face à des sorties encore trop approximatives.
Des ratages évidents dans le code de l’IA
Quand l’IA s’attaque à la programmation, ses blocs peuvent vite devenir bancals. Steve Wilson, directeur des produits chez Exabeam, les compare à des « stagiaires distraites avec une mémoire de poisson rouge ». Les LLM excellent sur des tâches simples, mais perdent le fil sur des projets complexes.
La dette technique s’accumule quand ces systèmes dupliquent des bouts de code inutiles. Selon GitClear, les blocs copiés ont été multipliés par huit en 2024. Les développeurs passent alors plus de temps à corriger qu’à créer. Nick Durkin, directeur technique chez Harness, ajoute : « Les modèles manquent du contexte global et de la résolution de problèmes qu’apportent les ingénieurs expérimentés ».
Prenons l’exemple de GitHub Copilot. Cet assistant limite son analyse à 64 000 ou 128 000 jetons, soit cinq à vingt fichiers. Cette barrière l’empêche de saisir l’ensemble d’un projet, entraînant duplications et occasions manquées de réutilisation.
Des hallucinations en embuscade
Quand on demande à l’IA de coder, ses erreurs ne se limitent pas à l’efficacité. Le modèle de langage invente parfois des lignes absurdes, les fameuses hallucinations. Google rapporte qu’en 2024, 33 % des développeurs doutent de sa fiabilité. Pire, Apiiro révèle que les failles de sécurité ont triplé depuis 2023, souvent à cause de données sensibles exposées. Formés sur du code public imparfait, ces IA reproduisent ses défauts.
Malgré tout, l’engouement persiste. Microsoft revendique 150 millions d’utilisateurs pour Copilot, et Stack Overflow rapporte que 61,8 % des programmeurs s’appuient sur l’IA. Mais cette adoption massive s’accompagne d’une méfiance tenace. Chris Anley, du groupe NCC, résume : « Le code généré par ces outils est déjà partout, mais tout est vérifié à la loupe. » La supervision humaine reste indispensable.
Des agents IA autonomes sous contrôle humain
L’IA apprend toutefois à se corriger. Les experts parient sur des données d’entraînement plus fiables. Shuyin Zhao, de GitHub, mise sur des échantillons triés avec soin. Tandis que les tests automatisés, comme Copilot Autofix, détectent déjà les vulnérabilités en temps réel.
Des modèles plus petits, taillés pour des tâches précises, remplacent peu à peu les géants généralistes, réduisant les erreurs grossières. Parallèlement, des agents IA autonomes émergent. Ces LLM vérifient leur propre travail pour limiter les dérives. GitHub intègre des fonctions de réparation dans Copilot Workspace. Cory Hymel, chez Crowdbotics, anticipe un bond grâce à des systèmes internes aux entreprises.
Les gains de productivité sont déjà là. Amazon, par exemple, a réécrit une app Java avec son outil maison, économisant 260 millions de dollars. Les entreprises suivent le mouvement, chassant des bénéfices similaires. Bientôt, coder avec l’IA pourrait faire gagner du temps sans causer de migraines.
- Partager l'article :