
Coffee Break: Señal y Ruido Ep549_A: Agujeros Negros; IAlucinaciones; Engranajes; Materia Oscura; Doom Neuronal
Mar 12, 2026
Gastón Giribet, doctor en Ciencias Físicas y profesor en NYU, autor sobre agujeros negros. Hablan de su libro y avances en agujeros negros. Analizan por qué los modelos de lenguaje alucinan, su entrenamiento y riesgos. También comentan eventos para ver el eclipse y conexiones entre creatividad de IA y descubrimientos científicos.
AI Snips
Chapters
Books
Transcript
Episode notes
Alucinaciones Son Fabulación Verosímil
- Las alucinaciones de los LLM son fabulación verosímil, no dragones rosas; reproducen relatos plausibles pero falsos.
- Héctor compara errores humanos (recuerdos equivocados) y explica que las redes neuronales también generan respuestas coherentes pero no necesariamente verdaderas.
No Usar LLMs Para Hechos Verificables
- No uses un LLM como sustituto directo de Google para hechos verificables; consulta fuentes enciclopédicas para datos concretos.
- Héctor recomienda buscar fechas o datos en Google/Wikipedia en lugar de pedirlos al modelo.
Creatividad Versus Precisión En Modelos
- Hay una tensión fundamental entre creatividad y precisión: pedir creatividad al modelo aumenta la probabilidad de inventar datos.
- Héctor subraya que usar un LLM para hechos enciclopédicos es inapropiado; para eso está Google o Wikipedia.

