LLM avec agent, backend ou les deux ?
Un agent n’est qu’un code connecté à un LLM pour automatiser des tâches, ni plus, ni moins. Les agents ne prendront pas le contrôle du monde à moins qu’un génie du cyberpiratage quantique ne brise le cryptage comme la cryptographie post-quantique, l’AES-256 ou le SHA-3, et ne contrôle les drones nucléaires. TL; DR : Hollywood.
Cependant, si vous configurez correctement votre agent, il peut présenter des fonctionnalités telles que l’autonomie, la réactivité, la proactivité, les compétences sociales et les capacités d’apprentissage. Et soyons honnêtes, c’est plutôt cool.
Avec des agents ou un backend (ou les deux), les possibilités sont infinies. Examinons trois scénarios pour vous donner une vue d’ensemble.
LLM + backend
Comme d’habitude, l’analyse dépend du fait que vous ayez affaire à une IA interactive ou à une IA automatisée. Pour la section d’analyse représentée dans le diagramme, nous avons déjà traité ce sujet dans le chapitre 2, épisode 4.
Une fois l’analyse terminée, vous transférez les données vers votre backend. Notre IA Adriana dispose d’un backend connecté à un LLM.
Le résultat ? Vous obtenez votre calcul final de l’impôt sur le revenu en moins de 10 questions. Assez impressionnant, non ?
LLM + Agent
Dans cette configuration, l’agent s’occupe de tout. Il s’interface avec le LLM, effectue des analyses et lance les outils appropriés en fonction de la tâche à accomplir.
Cependant, nous nous sommes éloignés de cette stratégie pour des raisons d’évolutivité. Cette limitation était principalement due à la complexité de la gestion de plusieurs processus avec un seul agent. Si vous avez besoin de valider plusieurs processus ou de gérer des tâches complexes, je vous recommande des stratégies telles que :
– Gemini Stratégie Google, Chain of Thought (Wei et al., 2022) pour le raisonnement étape par étape
– GPT4, Tree of Thoughts (Yao et al., 2023) pour les cadres de résolution de problèmes,
– Si vous êtes particulièrement avancé, la stratégie d’OpenAI est probablement à l’origine d’OpenAI o1 « Let’s Verify Step by Step » (Lightman et al., 2023) pour le raisonnement par la supervision des processus
– Il existe également la stratégie Mistral Mixture of Experts (MoE), où chaque expert du modèle peut être affiné indépendamment pour créer des agents spécialisés. Bien que cette méthode puisse optimiser les ressources de calcul pendant l’inférence (en n’activant que les experts nécessaires), la formation et la mise au point de plusieurs experts nécessitent toujours une puissance GPU importante, en particulier pour les modèles à grande échelle.
LLM + Agent + backend
Maintenant, nous parlons de la stratégie que nous privilégions vraiment. Cette configuration est hautement évolutive, efficace et précise, tirant parti de la puissance des agents et d’un backend.
Associée à une architecture DDD (Domain-Driven Design), cette approche permet de disposer d’une solution d’IA évolutive adaptée à des cas d’utilisation métier complexes. Essentiellement, il peut gérer presque tout.
Vous pouvez également mettre en place un environnement multi-agents, dans lequel les agents communiquent et collaborent pour accomplir des tâches. Cependant, la gestion d’un tel environnement peut devenir une véritable gourmandise GPU.