Pourquoi votre IA s'effondre sur les documents longs (et comment le MIT a résolu le problème)
Demandez à une IA de résumer six mois d'échanges avec un client clé. De synthétiser l'historique complet d'un projet. D'analyser une année de tickets support pour en extraire les tendances.
Elle s'effondre.
Pas parce qu'elle est "bête". Pas parce que vous avez mal formulé votre demande. Mais parce qu'elle atteint une limite structurelle que des chercheurs du MIT viennent de documenter, et de contourner.
Ce qu'ils ont découvert change la façon dont on devrait concevoir tout workflow IA en entreprise.
Le "context rot" : pourquoi l'IA perd pied
Les chercheurs Zhang, Kraska et Khattab ont donné un nom à ce phénomène : le "context rot". Littéralement, la pourriture du contexte.
Leur constat est sans appel :
"Même les modèles de frontière comme GPT-5 voient leur qualité se dégrader rapidement à mesure que le contexte s'allonge. Il semble inévitable qu'ils subissent une pourriture du contexte, un phénomène où la performance s'effondre même à l'intérieur des limites admises."
Le principe est simple. Plus vous envoyez de texte à un modèle IA, plus ses performances se dégradent. Et pas de façon linéaire. Au-delà d'un certain seuil, c'est l'effondrement.
Concrètement, ça donne quoi ?
Vous transmettez un historique complet à analyser. L'IA rate des informations critiques. Elle invente des détails qui n'existent pas (ce qu'on appelle les hallucinations). Ou elle produit une synthèse tellement générique qu'elle devient inutilisable.
Le problème n'est pas la puissance du modèle. C'est l'architecture. Envoyer un document massif d'un bloc, c'est comme demander à quelqu'un de mémoriser un annuaire téléphonique en une lecture. Le cerveau humain ne fonctionne pas comme ça. Les modèles IA non plus.
La solution du MIT
L'équipe du MIT a développé une approche qu'ils appellent les Recursive Language Models, ou RLM. Le principe rompt avec la logique habituelle.
Au lieu d'envoyer le texte directement au modèle, ils le stockent dans un environnement externe que le modèle peut interroger.
Imaginez une poupée russe.
Le modèle principal reçoit la tâche. Il analyse le problème, identifie qu'il est trop vaste pour être traité d'un coup, et fait appel à une copie de lui-même pour traiter une portion spécifique. Cette copie peut à son tour en appeler une autre si nécessaire. Chaque niveau remonte ses conclusions au niveau supérieur, jusqu'à la synthèse finale.
Les résultats sont spectaculaires
Sur une tâche d'analyse complexe nécessitant de croiser des informations dispersées dans un document long, le même modèle GPT-5 avec l'approche classique obtient moins de 0,1% de bonnes réponses. Avec l'architecture RLM récursive : 58%.
Le même modèle. La même tâche. Juste une façon différente de découper le travail.
L'échelle est tout aussi impressionnante
Les RLM peuvent traiter des contextes dépassant 10 millions de tokens, soit jusqu'à 100 fois la fenêtre de contexte native des modèles actuels. Des volumes qu'aucune approche classique ne peut gérer.
Et contrairement à l'intuition, cette méthode coûte moins cher
Comparé à un agent qui lit et résume tout le contexte d'un bloc, le RLM est jusqu'à 3 fois moins coûteux. Pourquoi ? Parce qu'il sélectionne intelligemment les parties pertinentes au lieu de tout ingérer aveuglément.
Ce que ça change pour l'automatisation IA en PME
Le MIT résout un problème de volume : un texte trop long pour être traité d'un bloc.
En PME, le défi est souvent différent. Pas trop de données, mais trop de tâches concentrées dans un seul workflow IA.
Le mécanisme technique n'est pas identique. Mais la philosophie converge vers le même principe : un système qui découpe et spécialise surpassera toujours un système qui essaie de tout avaler.
Quand vous construisez un workflow IA pour votre entreprise, vous faites face au même arbitrage. Centraliser l'intelligence dans un agent unique qui gère tout, ou distribuer le travail entre plusieurs agents spécialisés qui collaborent.
La recherche du MIT apporte une réponse claire. La distribution gagne. À chaque fois.
L'erreur classique : l'agent IA qui veut tout faire
Je vois régulièrement la même erreur chez les entreprises qui débutent avec l'automatisation IA.
Elles créent un agent unique censé gérer tout le cycle commercial. Réception des emails, qualification des prospects, génération de devis, relances, reporting. Tout dans le même système.
Le résultat est prévisible.
Un prompt de deux pages que personne ne comprend vraiment. Un workflow impossible à debugger quand quelque chose dysfonctionne. Des hallucinations dès que le cas client sort légèrement du cadre prévu.
Et surtout : une impossibilité d'améliorer quoi que ce soit sans risquer de tout casser. Toucher à la partie "qualification" impacte la génération de devis. Modifier les relances perturbe le reporting. L'ensemble devient fragile, opaque, et finit souvent abandonné.
L'approche qui fonctionne : les micro-agents spécialisés
L'alternative tient en un principe : un agent, une tâche.
Prenez le même cycle commercial. Au lieu d'un agent omniscient, vous déployez trois ou quatre micro-agents qui collaborent.
→ Le premier trie les demandes entrantes et les catégorise. → Le deuxième extrait les informations clés de chaque demande qualifiée. → Le troisième pré-remplit la réponse adaptée.
Chaque agent a une mission claire et délimitée. Vous pouvez le tester en cinq minutes. L'améliorer sans toucher aux autres. Le remplacer si une meilleure approche émerge.
Pour les entreprises que j'accompagne, cette architecture change tout.
Le déploiement se compte en jours, pas en mois. Le retour sur investissement devient visible dès le premier agent en production. L'évolution se fait de façon progressive, sans effet domino.
Le MIT appelle ça les Recursive Language Models. En architecture de workflow, on parle de micro-agents. Les mécanismes diffèrent. La philosophie reste identique.
Le principe à retenir
La prochaine fois que vous concevez un workflow IA, ou que vous évaluez une solution d'automatisation, posez-vous une question simple.
Est-ce que ce système essaie de tout faire d'un coup ? Ou est-ce qu'il découpe intelligemment le travail en étapes spécialisées ?
La recherche du MIT le confirme avec des données. L'expérience terrain le valide au quotidien.
C'est ce qui sépare les projets IA qui livrent des résultats de ceux qui s'enlisent.
Continuer votre lecture
Prêt à découvrir ce que l'IA peut changer dans votre entreprise ?
Prenons 15 minutes pour identifier vos tâches les plus chronophages et estimer vos gains de productivité.