Limiter les hallus ?

Limiter les hallus ?

Voici un exemple simplifié de prompt de double vérification inspiré de la méthode Chain-of-Verification (CoVe) de Meta 

Prompt principal : « Réponds à la question suivante de manière détaillée et précise :

« Votre question »

L’idée clé : le modèle s’auto-interroge sur ses propres affirmations avant de produire la version finale, ce qui réduit les hallucinations.

 Question : Fournis ta réponse sous forme de texte clair. »

Étape de vérification :

« Maintenant, vérifie la réponse que tu viens de donner :

  1. Identifie toutes les affirmations factuelles dans ta réponse.
  2. Pour chaque affirmation, génère une question de vérification qui pourrait tester sa véracité.
  3. Reviens ensuite à ta réponse initiale et corrige toute information qui pourrait être incorrecte ou incertaine, en citant tes sources si possible. »

Résultat final : « Donne la version finale corrigée et vérifiée de ta réponse, avec les corrections appliquées et les sources indiquées pour chaque affirmation importante. »