Glossaire IA - Partie 2 : Les technologies qui propulsent l’IA
Dans cette deuxième épisode de notre mini série, apprenez à décrypter les technologies qui portent l'IA
L'utilisation de l'intelligence artificielle gagne du terrain en entreprise, mais pour qu’elle soit réellement utile, une condition est indispensable : Pouvoir faire confiance à ses réponses.


L’utilisation de l’IA se généralise de plus en plus, que ce soit dans la sphère personnelle, mais aussi professionnelle.
Mais pour qu’elle soit réellement utile dans ce cadre, il est crucial de pouvoir faire confiance aux informations données et d’avoir des réponses claires, vérifiables et précises.
Une seule mauvaise réponse peut suffire à ébranler la confiance dans un outil d’IA et tous les modèles ne se valent pas. Certains peuvent produire des réponses erronées ou incohérentes, un phénomène souvent appelé “hallucination”. Ce qui, dans un contexte professionnel, peut mener à des situations complexes qui peuvent avoir une mauvaise influence sur la crédibilité et la réputation d’une entreprise.
Et les impacts ne sont pas anecdotiques : un conseil financier erroné peut coûter des milliers d’euros, un rapport rempli de fausses données peut fausser une mauvaise prise de décision stratégique, un article comportant des faits inexacts peut ruiner la crédibilité d’une marque…
Autant d’erreurs qui mettent à mal la réputation d’une entreprise, engendrant une perte de temps et compromettant la fiabilité des outils utilisés par les collaborateurs.
Les agents IA utilisés dans un cadre professionnel se doivent d’être fiables et vérifiables afin de se prémunir de ces failles qui peuvent faire vaciller toute une organisation.
Traditionnellement, un agent conversationnel IA génère ses réponses à partir des connaissances qu’il a acquises lors de son entraînement. Cependant, ces données peuvent être obsolètes ou inexactes.
La meilleure solution pour que l’agent se base sur des données exactes est de les lui fournir nous-même !
C’est ce que l’on appelle la méthode RAG (Retrieval Augmented Generation), on fournit à l’IA une base de données issue de documents internes, mais pas seulement. Elle peut également s’appuyer sur des sources externes fiables (open data, publications officielles, API…) afin de fournir des réponses à la fois précises et à jour. L’enjeu est de maîtriser les sources que l’IA est autorisée à interroger.
L’IA ne s’appuie plus uniquement sur ses connaissances, mais interroge une base de données ou un ensemble de documents de référence fournis par l’entreprise. Résultat : au lieu d’inventer des informations, l’IA se base sur des sources réelles, ce qui réduit le risque d’erreurs ou “hallucinations”.
En plus de permettre à l’IA de fournir des informations fiables, la méthode RAG présente d’autres avantages :
L’une des causes des mauvaises informations données par les agents IA est leur “obligation” de toujours fournir une réponse (même si celle-ci est fausse). En résumé, l’IA ne sait pas dire “je ne sais pas” ou “je ne suis pas sûre”. Avec la méthode RAG, cette limite peut être contournée.
Puisque l’agent cherche ses réponses dans une base documentaire définie, il peut reconnaître lorsque aucune source pertinente n’existe et, dans ce cas, refuser de répondre ou indiquer qu’il ne trouve pas l’information. Un agent en capacité de “refuser” de donner une réponse s’avère donc beaucoup plus fiable.
Chez Craft AI, nous pensons que les agents IA doivent répondre à quatre critères :
Envie de déployer un agent IA auquel vous pouvez faire confiance ? Contactez nos experts