Cet article est tiré d’un lunch enregistré par Jonathan GAFFIOT, dans lequel il partage son analyse sur l’évolution des modèles d’IA et ce qu’il pense être une bascule majeure dans nos métiers.
Rien de figé, mais un état des lieux qu’il estime important de poser.
Des LLM statiques aux modèles génératifs contextualisés
Au départ, les modèles de type GPT-3 fonctionnaient de façon très « brute » : ils répondaient à la volée, sans mémoire, ni perspective. Leur sortie dépend uniquement de leur entraînement. Impossible de leur faire intégrer de nouveaux éléments après coup.
Pour pallier cela, on a construit autour. D’abord avec du RAG (Retrieval-Augmented Generation) : on enrichit le prompt avec des résultats de recherche — web, base documentaire, etc. Ensuite sont venus les scripts orchestrés, les appels API, la reformulation de question, le reranking des sources. Tout cela améliore les résultats, mais reste dépendant de pipelines externes.
RAG et scripts enrichis : ajouter du contexte aux modèles d’IA
Les premiers systèmes enrichis se matérialisent sous forme de scripts Python orchestrant des appels aux modèles (prompting + context). Le principe : rechercher de l'information (web ou corpus interne), puis combiner résultat de recherche et question dans l’appel au LLM. C’est ce qu’on appelle le RAG (Retrieval-Augmented Generation).
Les scripts gagnent en complexité :
- reformulation automatique de la question,
- recherches hybrides lexicales,
- re-ranking des résultats pour ne garder que les plus pertinents,
- puis feed-back au modèle avec une requête enrichie.
A ce stade, le système reste encore déterministe: tous les choix sont codés manuellement dans le script. Il n'y a pas encore d'autonomie réelle.
Modèles réflexifs : quand l’IA commence à s’auto-corriger
Avec GPT-o1 et consorts, on atteint une nouvelle étape : le modèle devient capable de réfléchir sur sa propre sortie. Ces modèles, dits réflexifs, utilisent leur propre réponse comme base pour itérer jusqu’à atteindre une solution satisfaisante.
Ces modèles dits réflexifs permettent notamment :
- d’enchaîner plusieurs appels API,
- d’utiliser des outils externes (tests, formateurs, validateurs),
- d’améliorer leur propre code jusqu’à corriger des bugs.
C’est l’émergence du paradigme “bad code to working code”, où le modèle génère plusieurs fichiers coordonnés pour produire un projet fonctionnel.
Proto-agents IA : vers l’autonomie du développement logiciel
À partir de mi-2025 apparaissent les proto-agents IA.
Ils ne sont plus de simples scripts autour d’un LLM. Ce sont des entités plus autonomes, dotées d’un protocole d’outillage (MCP) leur permettant d’interagir avec :
- Le système de fichiers (lecture/écriture),
- Des bases de données,
- Des services web (API),
- Des outils de dev (build/test/lint…),
- Des systèmes de messagerie.
Ces agents sont capables de :
- Choisir les outils nécessaires,
- Prendre des décisions seuls (boucles, reformulations),
- Auto-évaluer les résultats (test, logs, erreurs),
- Corriger, re-tester, valider.
Ils ne codent plus à côté des humains, mais à leur place. Ils ne sont pas encore complètement autonomes, par exemple pour travailler à plusieurs sans pilotage centralisé.
Agents IA en pratique : outils, plateformes et benchmarks
Parmi les solutions notables observées :
- LLM : Claude 4, Gemini 2.5, GPT 5, Magistral, Qwen 3.x...
- Intégration : CLI (Claude Code, Gemini CLI...), IDE (Cursor, Kiro, Windsurf...), plateforme (Jule/Google Studio, Reflexion...)...
Exemple marquant : Cognosys / Codex Copenhagen, devenu un outil de production en 35 jours avec plus de 55 000 utilisateurs.
On assiste à une explosion de solutions, avec une vingtaine de modèles testés mi-2025. Certaines plateformes orchestrent même plusieurs agents entre eux (multi-agent system), créant des chaînes capables de travailler en parallèle.
Limites techniques des agents IA aujourd’hui
Malgré des performances impressionnantes, plusieurs limites persistent :
- centralisation du pilotage des agents,
- supervision humaine toujours nécessaire,
- effondrement des performances au-delà d’un certain seuil de complexité,
- mémoire limitée (context window trop courte pour de longues itérations),
- accumulation d’erreurs : une erreur par étape rend la réussite très improbable après de nombreuses itérations.
Coût des agents IA : un modèle déjà économiquement viable ?
Le coût estimé se situe entre 10 et 20 $ de l’heure par agent (API Claude, juin 2025), soit environ 100 000 $ par an pour un développeur avec cinq agents. Un budget déjà inférieur au coût d’un développeur américain, si l’agent est bien utilisé.
GPT-5, sorti en août 2025, afficherait des performances comparables pour un coût environ dix fois inférieur.
Cependant, cela reste réservé à des structures organisées, avec des devs capables de travailler avec ces outils et de suivre leur rythme.
Agents IA et organisation : une fracture générationnelle ?
Les profils juniors adoptent rapidement ces outils, apprennent à coder avec l’IA et s’y sentent à l’aise.
Les seniors, eux, sont partagés : certains deviennent d’excellents superviseurs d’agents, d’autres résistent à la mutation et défendent le code écrit à la main.
En interne, Cette divergence crée une fracture organisationnelle entre ceux qui montent dans le train… et ceux qui restent sur le quai.
Impact des agents IA sur le métier de développeur
Le craft, l’artisanat du code, s’efface progressivement.
Le plaisir du défi technique laisse place à la supervision, à l’optimisation et à la stratégie.
Le développeur devient chef d’orchestre.
Les organisations doivent adapter leurs processus pour itérer plus vite, tester, valider et déployer en continu. Les structures lentes ou réticentes risquent d’être rapidement dépassées.
Sécurité, données et souveraineté face aux agents IA
Les questions clés émergent :
- le code transite en clair sur les serveurs d’inférence,
- peu de garanties juridiques sur l’usage des données,
- dépendance forte à des acteurs extra-européens.
Des réponses apparaissent : IA déployée en local, cloud privé (ex. Strava), agents cloisonnés.
L’enjeu devient central : où va le code, qui y accède, et comment il est exploité.
Agents IA : une dynamique technologique exponentielle
Une croyance très ancrée dans l’écosystème IA : l’avènement d’une super-intelligence est inéluctable, et donc des agents autonomes qui feront bien plus que coder.
Les développeurs d’IA se sont engagés dans une course technologique, promettant des améliorations significatives tous les 6 mois, et jusque-là la promesse est tenue (sur les 4 dernières années). Cette course se teinte aussi d’une compétition géo-stratégique USA vs Chine, très serrée.
Déjà, des agents apparaissent pour la médecine, le droit, l’administratif, avec une précision croissante. Les impacts sociétaux sont encore sous-estimés, mais majeurs.
Coder ou orchestrer : le nouveau rôle du développeur à l’ère des agents IA
Les proto-agents IA bouleversent déjà l’équilibre du développement logiciel. Ils ne remplacent pas encore les humains, mais redéfinissent le rôle du développeur, qui devient gestionnaire de tâches, superviseur et stratège. Néanmoins, il persiste de gros progrès à venir côté IA.
L’ingénierie logicielle devient plus abstraite, plus rapide, plus exigeante. Et ceux qui sauront tirer parti de ces nouveaux compagnons auront une longueur d’avance.
Retour aux articles