AI Reality Check vérifie le contenu généré par l'IA en utilisant la recherche web en direct pour trouver des preuves réelles pour chaque affirmation. Les résultats sont ensuite classés selon quatre cadres de risque internationalement reconnus.
National Institute of Standards and Technology
Le cadre de gestion des risques IA du NIST fournit une approche structurée de la gestion des risques liés à l'IA. Nous évaluons les affirmations selon les caractéristiques de fiabilité du NIST : validité et fiabilité, sécurité, résilience, responsabilité et transparence, explicabilité et interprétabilité, protection de la vie privée, et équité.
Voir le document officiel →Parlement européen et Conseil
L'EU AI Act établit un cadre réglementaire basé sur les risques pour les systèmes d'IA. Nous classons chaque affirmation dans l'un des quatre niveaux de risque — minimal, limité, élevé ou inacceptable — en fonction du préjudice potentiel si l'affirmation est fausse ou trompeuse. Les affirmations concernant la santé, la sécurité, la finance et les questions juridiques reçoivent des classifications de risque plus élevées.
Voir le document officiel →Open Worldwide Application Security Project
OWASP identifie les risques de sécurité les plus critiques pour les applications LLM. Nous utilisons ce cadre pour détecter les schémas d'hallucination, les signaux de contamination des données d'entraînement, les artefacts d'injection de prompt et les indicateurs de fabrication de résultats dans le texte généré par l'IA.
Voir le document officiel →Organisation internationale de normalisation
ISO/IEC 42001 spécifie les exigences d'un système de gestion de l'IA. Nous référençons cette norme pour les pratiques de gouvernance responsable de l'IA, l'assurance qualité des résultats IA, et l'établissement de la confiance par une gestion systématique des risques liés à l'IA.
Voir le document officiel →Décomposition des affirmations : Le texte soumis est décomposé en affirmations factuelles individuelles et vérifiables.
Vérification par recherche web : Chaque affirmation fait l'objet d'une recherche web en direct pour trouver des preuves confirmant ou contredisant. Des sources réelles sont collectées pour évaluer si l'affirmation est vérifiée, contredite ou invérifiable.
Classification des risques : Chaque affirmation est classée selon le cadre de risque de l'EU AI Act (minimal, limité, élevé, inacceptable) en fonction de son potentiel de préjudice si elle est fausse.
Citation des sources : Des URLs réelles issues des résultats de recherche web sont fournies pour chaque affirmation, renvoyant directement aux preuves utilisées pour la vérification.
Score pondéré : Le score de confiance global (0-100) est calculé avec une pondération par gravité — les affirmations fausses dans les catégories à haut risque (santé, sécurité, finance) sont pénalisées plus lourdement que les inexactitudes triviales.