AI Reality Check verifica contenido generado por IA usando búsqueda web en vivo para encontrar evidencia real de cada afirmación. Los resultados se clasifican según cuatro marcos de riesgo reconocidos internacionalmente.
Instituto Nacional de Estándares y Tecnología
El Marco de gestión de riesgos de IA del NIST proporciona un enfoque estructurado para gestionar los riesgos de la IA. Evaluamos las afirmaciones contra las características de confiabilidad del NIST: validez y fiabilidad, seguridad, protección y resiliencia, responsabilidad y transparencia, explicabilidad e interpretabilidad, mejora de la privacidad y equidad.
Ver documento oficial →Parlamento Europeo y Consejo
La EU AI Act establece un marco regulatorio basado en riesgos para los sistemas de IA. Clasificamos cada afirmación en uno de cuatro niveles de riesgo — mínimo, limitado, alto o inaceptable — según el daño potencial si la afirmación es falsa o engañosa. Las afirmaciones sobre salud, seguridad, finanzas y asuntos legales reciben clasificaciones de riesgo más altas.
Ver documento oficial →Open Worldwide Application Security Project
OWASP identifica los riesgos de seguridad más críticos para aplicaciones de LLM. Utilizamos este marco para detectar patrones de alucinación, señales de contaminación de datos de entrenamiento, artefactos de inyección de prompts e indicadores de fabricación de resultados en texto generado por IA.
Ver documento oficial →Organización Internacional de Normalización
ISO/IEC 42001 especifica los requisitos para un sistema de gestión de IA. Referenciamos este estándar para prácticas de gobernanza responsable de IA, aseguramiento de la calidad de los resultados de IA y establecimiento de confianza a través de la gestión sistemática de riesgos relacionados con la IA.
Ver documento oficial →Descomposición de afirmaciones: El texto enviado se descompone en afirmaciones factuales individuales y verificables.
Verificación por búsqueda web: Cada afirmación se busca en la web en vivo para encontrar evidencia a favor o en contra. Se recopilan fuentes reales para evaluar si la afirmación está verificada, contradicha o es inverificable.
Clasificación de riesgo: Cada afirmación se clasifica bajo el marco de riesgo de la EU AI Act (mínimo, limitado, alto, inaceptable) según su potencial de daño si es falsa.
Citación de fuentes: Se proporcionan URLs reales de los resultados de búsqueda web para cada afirmación, enlazando directamente a la evidencia utilizada para la verificación.
Puntuación ponderada: La puntuación general de confianza (0-100) se calcula con ponderación por severidad — las afirmaciones falsas en categorías de alto riesgo (salud, seguridad, finanzas) se penalizan más que las inexactitudes triviales.