Cómo verificamos las noticias sobre Inteligencia Artificial Generativa.
Este flujo adapta la metodología SIFT (Stop, Investigate, Find better coverage, Trace the original) y el flujo de verificación de Verificat (5 pasos) al dominio específico de noticias sobre laboratorios de IA, modelos, benchmarks y el ecosistema tech.
La metodología fue desarrollada durante la Microcredencial en Verificación de la Información y Fact-Checking de la UAB en colaboración con Verificat.
Tratamos cada post o noticia como si fuera la salida de un LLM y le hacemos un eval. La simetría SIN ALUCINACIONES ↔ CON ALUCINACIONES es deliberada.
El modelo-post no alucinó.
Hay letra pequeña.
Cierto como slogan, engañoso como hecho.
Se lo alucinó un LLM.
El LLM necesita contexto.
Solo existe en Twitter, Polymarket o un subreddit.
No todas las fuentes pesan igual. Para el dominio IA usamos una jerarquía de 4 niveles:
Primarias oficiales
System cards, blog posts oficiales del lab, release notes, papers arXiv del lab
Secundarias tier 1
TechCrunch, CNBC, Fortune, NYT, The Hacker News, MIT Tech Review
Secundarias especializadas
Transformer News, Import AI, LessWrong, Ars Technica, The Verge
Terciarias (requieren corroboración)
Twitter/X, Polymarket, Reddit, Medium, Substack individuales, leaks
Regla de oro: un claim solo puede ser ✅ SIN ALUCINACIONES con al menos 1 fuente T1 o 2 fuentes T2 independientes. Claims sustentados solo por T3-T4 son automáticamente 🐦 RUMOR DE X.
No es un desmentido al autor. Verificamos las noticias e informaciones, no a las personas.
No es periodismo de opinión. Las opiniones se etiquetan como tales, no se verifican como hechos.
No es automático. El juicio humano decide veredictos. Las herramientas solo reúnen evidencia.