Lorsque vous concevez des systèmes d’intelligence artificielle, vous pouvez rencontrer plusieurs niveaux de complexité, chacun offrant des capacités et des défis spécifiques :
0) LLMs (LLM + Prompt)
Au niveau fondamental, nous avons des LLM autonomes qui répondent à des invites textuelles grâce à leurs connaissances pré-entraînées. Ces modèles sont efficaces pour des requêtes simples ou génériques, mais manquent souvent d’intégration avec les données réelles de l’entreprise, ce qui limite leur application pratique.
1) Système d’agent codé en dur (« Chaîne »)
Ce niveau implique la mise en place d’un système d’agents dont vous orchestrez les étapes prédéfinies de manière déterministe. Par exemple, le système pourrait toujours récupérer des données d’un stockage vectoriel, les combiner avec la question de l’utilisateur, puis appeler le LLM. Ici, la logique est fixe, ce qui signifie que le LLM n’a pas la liberté de décider quel outil appeler ensuite, générant un flux de travail prévisible mais rigide.
2) Système d’agent avec appel dynamique d’outils
Dans ce système, le LLM acquiert la capacité de sélectionner et d’appeler automatiquement des « outils » en temps réel. Cette approche dynamique permet des décisions adaptées au contexte, offrant au système la possibilité d’interagir avec différentes ressources comme une base de données CRM ou une API de publication Slack, augmentant ainsi sa réactivité et son utilité.
3) Systèmes multi-agents
Les systèmes multi-agents sont composés de plusieurs agents spécialisés, chacun conçu pour des fonctions ou domaines spécifiques. Un coordinateur — soit un superviseur d’IA, soit un système basé sur des règles — détermine quel agent invoquer à chaque étape. Cette architecture permet aux agents de se transmettre des tâches tout en maintenant un flux conversationnel cohérent, améliorant significativement l’efficacité et la performance globale du système.
4) MCP (Model Context Protocol)
Le protocole contextuel de modèle (MCP – Model Context Protocol) représente une forme avancée de systèmes multi-agents dans laquelle les agents communiquent en utilisant un protocole standardisé. Cela facilite une interaction et une collaboration fluides entre les agents, renforçant ainsi leurs capacités collectives.
Méthode de développement
Lors du développement d’une application basée sur des LLMs, il est conseillé de commencer simplement. Une solution permettant d’atteindre 80 % de vos objectifs passe souvent par un appel unique au LLM enrichi par des mécanismes de récupération ou des prompts soigneusement construits. Au fur et à mesure que vos besoins évoluent, vous pouvez introduire des comportements plus complexes, tels que l’appel dynamique d’outils ou l’orchestration multi-agents, afin d’améliorer la flexibilité et la prise de décision pilotée par le modèle. Bien que les chaînes déterministes offrent des flux prévisibles basés sur des règles pour des tâches bien définies, les approches plus « agentiques » introduisent une complexité supplémentaire et un risque potentiel de latence, nécessitant une réflexion approfondie lors de leur mise en œuvre.