
Inteligencia Artificial con Jon Hernandez Estamos creando una IA que nadie podrá controlar - Connor Leahy
8 snips
Feb 26, 2026 Connor Leahy, fundador de EleutherAI y activista en seguridad de IA, impulsa modelos open source y advierte sobre riesgos de superinteligencia. Habla sobre la rápida evolución de los LLM, la opacidad y comportamiento emergente de las redes neuronales. Debate proliferación del código abierto, la carrera de empresas tecnológicas y la urgencia de gobernanza y regulación para evitar riesgos civilizatorios.
AI Snips
Chapters
Transcript
Episode notes
Riesgo Civilizatorio De La Superinteligencia
- Connor Leahy alerta que el avance hacia superinteligencia transferirá decisivamente poder económico y político de humanos a IAs.
- Si no sabemos cómo controlarla, una IA mucho más inteligente que humanos podría decidir el futuro y dejarnos sin voz colectiva.
Escalado Rápido Revelado Por GPT-2
- Connor recuerda que cada año las capacidades de los LLM superan las expectativas pasadas y recalibra plazos de AGI hacia cortos períodos.
- Señala que GPT-2 le hizo ver la escalabilidad por tamaño y cómputo y desde entonces los saltos anuales sorprenden a expertos.
Regula Desarrollo Antes Que Despliegue
- Connor propone regular el desarrollo, no solo el despliegue: exigir casos de seguridad proactivos antes de entrenar modelos peligrosos.
- Lo compara con exigir informes de seguridad y modelado detallado antes de construir reactores nucleares.

