AI Reality Check verifica conteúdo gerado por IA usando busca web ao vivo para encontrar evidências reais de cada afirmação. Os resultados são então classificados segundo quatro frameworks de risco reconhecidos internacionalmente.
Instituto Nacional de Padrões e Tecnologia
O Framework de Gerenciamento de Risco de IA do NIST oferece uma abordagem estruturada para gerenciar riscos de IA. Avaliamos afirmações contra as características de confiabilidade do NIST: validade e confiabilidade, segurança, resiliência cibernética, responsabilidade e transparência, explicabilidade e interpretabilidade, proteção de privacidade e equidade.
Ver documento oficial →Parlamento Europeu e Conselho
O EU AI Act estabelece um framework regulatório baseado em risco para sistemas de IA. Classificamos cada afirmação em um dos quatro níveis de risco — mínimo, limitado, alto ou inaceitável — com base no dano potencial se a afirmação for falsa ou enganosa. Afirmações sobre saúde, segurança, finanças e questões jurídicas recebem classificações de risco mais altas.
Ver documento oficial →Open Worldwide Application Security Project
O OWASP identifica os riscos de segurança mais críticos para aplicações de LLM. Usamos este framework para detectar padrões de alucinação, sinais de contaminação de dados de treinamento, artefatos de injeção de prompt e indicadores de fabricação de saída em textos gerados por IA.
Ver documento oficial →Organização Internacional de Padronização
A ISO/IEC 42001 especifica requisitos para um sistema de gestão de IA. Referenciamos este padrão para práticas responsáveis de governança de IA, garantia de qualidade de saídas de IA e estabelecimento de confiança por meio da gestão sistemática de riscos relacionados à IA.
Ver documento oficial →Decomposição de Afirmações: O texto enviado é dividido em afirmações factuais individuais e verificáveis.
Verificação por Busca Web: Cada afirmação é pesquisada na web ao vivo em busca de evidências a favor ou contra. Fontes reais são coletadas para avaliar se a afirmação é verificada, contradita ou inverificável.
Classificação de Risco: Cada afirmação é classificada segundo o framework de risco do EU AI Act (mínimo, limitado, alto, inaceitável) com base no potencial de dano se for falsa.
Citação de Fontes: URLs reais dos resultados de busca web são fornecidas para cada afirmação, vinculando diretamente às evidências usadas na verificação.
Pontuação Ponderada: A pontuação geral de confiança (0-100) é calculada com ponderação por severidade — afirmações falsas em categorias de alto risco (saúde, segurança, finanças) são penalizadas mais severamente do que curiosidades imprecisas.