Chain of Tasks

Certains processus commerciaux nécessitent une analyse du prompt, notamment une classification préliminaire pour vérifier si toutes les informations nécessaires sont présentes ou pour gérer une séquence de tâches intermédiaires, tout comme Turing et Elektra (nos 2 IA open-source) le font dans le diagramme.

1. Différences avec Chain of Thought

Le concept original, Chain of Thought, a été conçu pour aider les modèles à raisonner à travers des problèmes étape par étape, appliqué initialement dans des domaines comme les mathématiques et la logique. 

Cependant, dans l’approche Chain of Tasks, le LLM (Large Language Model) automatise l’exécution des tâches sans se concentrer sur le raisonnement, priorisant l’achèvement des tâches. Chaque étape utilise le résultat de la précédente.

2. SOTA

Google : Chain of Thought (Wei et al., 2022) décompose les tâches complexes en étapes intermédiaires, améliorant le raisonnement logique et la prise de décision multi-étapes dans les LLM. Elle est largement utilisée pour des tâches nécessitant une résolution de problèmes étape par étape, améliorant la cohérence et la précision.

OpenAI : Tree of Thought (Yao et al., 2023) étend CoT en explorant plusieurs chemins de raisonnement en parallèle, en évaluant différents résultats potentiels avant de sélectionner le meilleur. Cette approche améliore la prise de décision en considérant simultanément diverses possibilités.

OpenAI : Let’s Verify Step by Step (Lightman et al., 2023) se concentre sur la vérification de chaque étape de raisonnement intermédiaire avant de progresser, garantissant que les LLM prennent des décisions précises. Cette approche renforce la fiabilité en détectant les erreurs à chaque étape.

Si vous devez vérifier les résultats intermédiaires, vous pouvez appliquer la stratégie Let’s Verify Step by Step. Si vous êtes convaincu que le LLM produira les résultats intermédiaires nécessaires, vous pouvez poursuivre le processus sans vérification.

Vous pouvez utiliser un agent pour gérer le flux de travail en intégrant tout votre code, permettant à l’agent de gérer chaque étape. Alternativement, vous pouvez utiliser un backend avec une instance locale, où le système attend de relancer l’inférence du LLM pour générer un autre résultat.

3. Bonnes pratiques pour fine-tuné un modèle

Dans tous les cas, la sortie de la tâche un devient l’entrée de la tâche deux. Par conséquent, vous devez organiser votre ensemble de données avec soin lors du fine-tuning. De plus, vous devez vous assurer de ce qui suit :

  • Définitions claires des tâches : Chaque tâche doit être bien définie, avec des attentes claires pour les entrées et les sorties.
  • Data labeling : Des données correctement étiquetées sont essentielles pour permettre au LLM de comprendre le contexte et la structure de la séquence des tâches.
  • Model fine-tuning : Fine-tuné le LLM spécifiquement pour les types de tâches qu’il traitera, garantissant des performances optimales sur plusieurs étapes.
  • Error handling : Mettez en œuvre des mécanismes pour gérer les erreurs ou les sorties inattendues, en particulier lors de l’utilisation de processus multi-étapes.
  • Gestion efficace des ressources : Assurez-vous que votre backend ou système d’agent peut gérer efficacement les ressources de calcul, surtout lors du relancement des inférences pour plusieurs tâches.

Heureusement pour vous, Turing et Elektra s’occupent déjà de cela pour vous.

Retour en haut