Inteligencia Artificial con Jon Hernandez

Estamos creando una IA que nadie podrá controlar - Connor Leahy

8 snips
Feb 26, 2026
Connor Leahy, fundador de EleutherAI y activista en seguridad de IA, impulsa modelos open source y advierte sobre riesgos de superinteligencia. Habla sobre la rápida evolución de los LLM, la opacidad y comportamiento emergente de las redes neuronales. Debate proliferación del código abierto, la carrera de empresas tecnológicas y la urgencia de gobernanza y regulación para evitar riesgos civilizatorios.
Ask episode
AI Snips
Chapters
Transcript
Episode notes
INSIGHT

Riesgo Civilizatorio De La Superinteligencia

  • Connor Leahy alerta que el avance hacia superinteligencia transferirá decisivamente poder económico y político de humanos a IAs.
  • Si no sabemos cómo controlarla, una IA mucho más inteligente que humanos podría decidir el futuro y dejarnos sin voz colectiva.
INSIGHT

Escalado Rápido Revelado Por GPT-2

  • Connor recuerda que cada año las capacidades de los LLM superan las expectativas pasadas y recalibra plazos de AGI hacia cortos períodos.
  • Señala que GPT-2 le hizo ver la escalabilidad por tamaño y cómputo y desde entonces los saltos anuales sorprenden a expertos.
ADVICE

Regula Desarrollo Antes Que Despliegue

  • Connor propone regular el desarrollo, no solo el despliegue: exigir casos de seguridad proactivos antes de entrenar modelos peligrosos.
  • Lo compara con exigir informes de seguridad y modelado detallado antes de construir reactores nucleares.
Get the Snipd Podcast app to discover more snips from this episode
Get the app