Intégration du raisonnement métier dans les datasets : Une approche novatrice

L’intégration du raisonnement métier dans les datasets est essentielle pour former les grands modèles de langage (LLM) à traiter efficacement des tâches spécifiques à un domaine. Cet article présente une technique novatrice guidée par l’attention, inspirée de la méthode learning composable chains-of-thought, pour injecter du raisonnement métier dans les LLM lors du fine-tuning. En s’appuyant sur un graphe de raisonnement déterministe (DRG) et un marqueur sémantique léger, cette approche garantit une généralisation robuste au raisonnement métier sans compromettre les capacités de raisonnement générales du modèle.

I. Contexte : learning composable chains-of-thought

1. Vue d’ensemble de composable CoT

Le papier learning composable chains-of-thought propose une méthode pour entraîner les LLM à l’aide d’étapes de raisonnement atomiques, combinables pour résoudre des tâches complexes. Le processus comprend :

  • L’entraînement des modèles sur des données CoT modulaires, enrichies de préfixes et suffixes structurés.
  • La fusion ou l’entraînement multitâche des modèles, suivi d’un raffinement via le rejection sampling fine-tuning (RFT).
  • Une meilleure généralisation à des compositions de raisonnement inédites, surpassant les méthodes CoT standard et multitâches, même avec une supervision compositionnelle limitée.

2. Limites des balises structurées

Bien que composable CoT utilise des préfixes et suffixes structurés pour modulariser les traces de raisonnement, ces balises peuvent interférer avec la tokenisation ou les mécanismes d’attention, perturbant potentiellement les performances du modèle.

II. Technique novatrice guidée par l’attention pour le raisonnement métier

1. Utilisation d’un marqueur sémantique

Pour éviter les problèmes liés aux balises structurées, cette approche utilise un symbole Unicode rare, ⚠️, comme marqueur sémantique léger. Ses caractéristiques incluent :

  • Embedding pré-entraîné : le symbole ⚠️ possède un embedding pré-entraîné dans la plupart des LLM, mais sa rareté dans les contextes de raisonnement en fait un ancrage neutre pour l’attention.
  • Non invasif : contrairement aux balises structurées, ⚠️ n’introduit pas de nouveaux motifs de tokens susceptibles de perturber la tokenisation ou l’attention.

2. Mécanisme de contrôle de l’attention

Pendant le passage avant (forward pass), un contrôle d’attention personnalisé est appliqué en :

  • Modifiant les masques d’attention pour prioriser les chemins de raisonnement marqués par ⚠️, pertinents pour la logique métier.
  • Injectant un biais au niveau des tokens pour orienter le modèle vers ces chemins.
    Cette approche garantit que le modèle se concentre sur le raisonnement spécifique au domaine sans altérer son comportement de raisonnement général, car le calcul des gradients et les objectifs d’entraînement restent inchangés pendant le passage arrière (backward pass).

III. Structuration du dataset avec le graphe de raisonnement déterministe (DRG)

1. Rôle du DRG

Le dataset est structuré à l’aide d’un graphe de raisonnement déterministe (DRG), qui décompose le raisonnement métier en étapes explicites et vérifiables. Le DRG remplit deux fonctions principales :

  • Couverture complète : il garantit que toutes les connaissances spécifiques au domaine sont capturées de manière systématique.
  • Validation : il permet une validation rigoureuse de chaque exemple généré ou synthétisé dans le dataset.

2. Mise en œuvre sur différents modèles

La technique a été testée avec succès sur LLaMA 3.1 (8B) à travers plusieurs méthodes de fine-tuning, incluant :

  • Le supervised fine-tuning complet (SFT)
  • L’adaptation par rang faible (LoRA)
  • L’optimisation directe des préférences (DPO)

IV. Résultats expérimentaux

1. Généralisation émergente

Les expériences montrent qu’une généralisation émergente au raisonnement métier apparaît après environ 10 000 exemples d’entraînement. Cela se produit sans annotations CoT explicites ni supervision multi-étapes, grâce à :

  • la conception du dataset guidée par le DRG : le DRG assure des chemins de raisonnement structurés et vérifiables.
  • le contrôle de l’attention en passage avant : l’utilisation de ⚠️ comme marqueur sémantique oriente le modèle vers la logique métier.

2. Avantages par rapport aux méthodes traditionnelles

Cette approche surpasse les méthodes CoT standard et multitâches en :

  • évitant les interférences des balises structurées.
  • préservant les capacités de raisonnement général du modèle de base tout en intégrant une logique spécifique au domaine.
  • permettant une validation systématique grâce au cadre DRG.

Intégrer le raisonnement métier dans les datasets nécessite un équilibre entre la personnalisation spécifique au domaine et la préservation des capacités générales du modèle. En combinant un graphe de raisonnement déterministe (DRG) avec une technique novatrice guidée par l’attention utilisant un marqueur sémantique rare (⚠️), cette approche atteint une généralisation robuste à la logique métier. Testée avec succès sur LLaMA 3.1 avec diverses méthodes de fine-tuning, elle offre une solution évolutive et efficace pour former les LLM à gérer des tâches de raisonnement complexes et spécifiques à un domaine.

Retour en haut