Coffee Break: Señal y Ruido

Ep549_A: Agujeros Negros; IAlucinaciones; Engranajes; Materia Oscura; Doom Neuronal

Mar 12, 2026
Gastón Giribet, doctor en Ciencias Físicas y profesor en NYU, autor sobre agujeros negros. Hablan de su libro y avances en agujeros negros. Analizan por qué los modelos de lenguaje alucinan, su entrenamiento y riesgos. También comentan eventos para ver el eclipse y conexiones entre creatividad de IA y descubrimientos científicos.
Ask episode
AI Snips
Chapters
Books
Transcript
Episode notes
INSIGHT

Alucinaciones Son Fabulación Verosímil

  • Las alucinaciones de los LLM son fabulación verosímil, no dragones rosas; reproducen relatos plausibles pero falsos.
  • Héctor compara errores humanos (recuerdos equivocados) y explica que las redes neuronales también generan respuestas coherentes pero no necesariamente verdaderas.
ADVICE

No Usar LLMs Para Hechos Verificables

  • No uses un LLM como sustituto directo de Google para hechos verificables; consulta fuentes enciclopédicas para datos concretos.
  • Héctor recomienda buscar fechas o datos en Google/Wikipedia en lugar de pedirlos al modelo.
INSIGHT

Creatividad Versus Precisión En Modelos

  • Hay una tensión fundamental entre creatividad y precisión: pedir creatividad al modelo aumenta la probabilidad de inventar datos.
  • Héctor subraya que usar un LLM para hechos enciclopédicos es inapropiado; para eso está Google o Wikipedia.
Get the Snipd Podcast app to discover more snips from this episode
Get the app