Metodología

Cómo verificamos las noticias sobre Inteligencia Artificial Generativa.

Base metodológica

Este flujo adapta la metodología SIFT (Stop, Investigate, Find better coverage, Trace the original) y el flujo de verificación de Verificat (5 pasos) al dominio específico de noticias sobre laboratorios de IA, modelos, benchmarks y el ecosistema tech.

La metodología fue desarrollada durante la Microcredencial en Verificación de la Información y Fact-Checking de la UAB en colaboración con Verificat.

Sistema de veredictos

Tratamos cada post o noticia como si fuera la salida de un LLM y le hacemos un eval. La simetría SIN ALUCINACIONES ↔ CON ALUCINACIONES es deliberada.

SIN ALUCINACIONES

El modelo-post no alucinó.

SÍ, PERO...

Hay letra pequeña.

💨 HUMO

Cierto como slogan, engañoso como hecho.

🤖 CON ALUCINACIONES

Se lo alucinó un LLM.

📖 PIDE CONTEXTO

El LLM necesita contexto.

🐦 RUMOR DE X

Solo existe en Twitter, Polymarket o un subreddit.

Jerarquía de fuentes

No todas las fuentes pesan igual. Para el dominio IA usamos una jerarquía de 4 niveles:

T1

Primarias oficiales

System cards, blog posts oficiales del lab, release notes, papers arXiv del lab

T2

Secundarias tier 1

TechCrunch, CNBC, Fortune, NYT, The Hacker News, MIT Tech Review

T3

Secundarias especializadas

Transformer News, Import AI, LessWrong, Ars Technica, The Verge

T4

Terciarias (requieren corroboración)

Twitter/X, Polymarket, Reddit, Medium, Substack individuales, leaks

Regla de oro: un claim solo puede ser ✅ SIN ALUCINACIONES con al menos 1 fuente T1 o 2 fuentes T2 independientes. Claims sustentados solo por T3-T4 son automáticamente 🐦 RUMOR DE X.

Qué NO es este sitio

No es un desmentido al autor. Verificamos las noticias e informaciones, no a las personas.

No es periodismo de opinión. Las opiniones se etiquetan como tales, no se verifican como hechos.

No es automático. El juicio humano decide veredictos. Las herramientas solo reúnen evidencia.