
Coffee Break: Señal y Ruido Ep549_B: Agujeros Negros; IAlucinaciones; Engranajes; Materia Oscura; Doom Neuronal
Mar 12, 2026
Gastón Giribet, profesor e investigador en física y astronomía, aporta perspectiva experta. Hablan sobre por qué los grandes modelos lingüísticos alucinan y qué incentivos métricos los afectan. Describen experimentos de engranajes que no se tocan y su física de acoplamiento. Presentan el mejor mapa de materia oscura con JWST. Y debaten el uso de neuronas biológicas jugando Doom y el hype asociado.
AI Snips
Chapters
Books
Transcript
Episode notes
Alucinaciones Inevitablemente Estadísticas
- Las alucinaciones de LLMs son inevitables a nivel estadístico: existe un porcentaje mínimo de respuestas plausibles pero incorrectas derivado del preentrenamiento.
- Los autores formalizan matemáticamente ese límite y distinguen respuestas plausibles correctas de plausibles incorrectas dentro del modelo base.
Benchmarks Incentivan Las Alucinaciones
- Los benchmarks que premian precisión penalizan decir "no lo sé", incentivando a los modelos a inventar respuestas en vez de mostrarse prudentes.
- Esto genera un sesgo de diseño: empresas optimizan métricas que reducen la propensión del modelo a reconocer incertidumbre.
No Usar LLMs Como Wikipedia Directa
- Evita usar LLMs como fuente primaria de datos enciclopédicos; úsalos para tareas creativas o de razonamiento, y verifica hechos con fuentes externas.
- Héctor recomienda pedir al modelo que indique al final qué afirma con seguridad y qué duda.

