Coffee Break: Señal y Ruido

Ep549_B: Agujeros Negros; IAlucinaciones; Engranajes; Materia Oscura; Doom Neuronal

Mar 12, 2026
Gastón Giribet, profesor e investigador en física y astronomía, aporta perspectiva experta. Hablan sobre por qué los grandes modelos lingüísticos alucinan y qué incentivos métricos los afectan. Describen experimentos de engranajes que no se tocan y su física de acoplamiento. Presentan el mejor mapa de materia oscura con JWST. Y debaten el uso de neuronas biológicas jugando Doom y el hype asociado.
Ask episode
AI Snips
Chapters
Books
Transcript
Episode notes
INSIGHT

Alucinaciones Inevitablemente Estadísticas

  • Las alucinaciones de LLMs son inevitables a nivel estadístico: existe un porcentaje mínimo de respuestas plausibles pero incorrectas derivado del preentrenamiento.
  • Los autores formalizan matemáticamente ese límite y distinguen respuestas plausibles correctas de plausibles incorrectas dentro del modelo base.
INSIGHT

Benchmarks Incentivan Las Alucinaciones

  • Los benchmarks que premian precisión penalizan decir "no lo sé", incentivando a los modelos a inventar respuestas en vez de mostrarse prudentes.
  • Esto genera un sesgo de diseño: empresas optimizan métricas que reducen la propensión del modelo a reconocer incertidumbre.
ADVICE

No Usar LLMs Como Wikipedia Directa

  • Evita usar LLMs como fuente primaria de datos enciclopédicos; úsalos para tareas creativas o de razonamiento, y verifica hechos con fuentes externas.
  • Héctor recomienda pedir al modelo que indique al final qué afirma con seguridad y qué duda.
Get the Snipd Podcast app to discover more snips from this episode
Get the app