

Investigando la investigación
Horacio Pérez-Sánchez
“Investigando la Investigación” es un podcast que abre la caja negra de lo que significa investigar. Parte de la ciencia, pero se adentra también en humanidades, arte, filosofía y poesía, e incluso en lo cotidiano, donde habitan preguntas y aprendizajes. Va más allá de lo académico o industrial, explorando la curiosidad en todas sus formas. Con un tono espontáneo y conversacional, entre entrevistas y reflexiones en vivo, muestra que investigar es una forma de mirar, aprender y conectar con el mundo, desde el laboratorio hasta la vida común.
Episodes
Mentioned books

Mar 26, 2026 • 27min
390. ¿Qué nos enseñan la creación musical y la improvisación sobre cómo surgen las ideas?
En este episodio retomo una idea que llevaba tiempo rondándome: hasta qué punto los procesos de investigación, creación y composición musical comparten una misma lógica de fondo. No tanto a nivel superficial, sino en cómo se generan, organizan y conectan las ideas. A partir de mi experiencia reciente volviendo a Ableton Live, un software de producción musical que permite crear, editar y combinar sonidos mediante loops y pistas, utilizo la creación musical como un laboratorio para observar estos procesos en acción.El punto de partida es el modo sesión de Ableton, que permite trabajar de forma no lineal, combinando elementos en tiempo real. Esto introduce una improvisación que no es completamente libre, pero tampoco está encorsetada. El problema aparece cuando queremos que esa exploración tenga sentido: demasiadas opciones pueden bloquear el avance. Para evitarlo, propongo un método iterativo basado en reducir la complejidad, empezar con pocos elementos, explorar combinaciones, seleccionar las que funcionan y dejar reposar el material antes de tomar decisiones.A partir de esas combinaciones surgen bloques principales que luego se ordenan en el tiempo. La estructura no se define al inicio, sino que emerge después. El siguiente paso es trabajar las transiciones entre esos bloques, que son las que realmente dan coherencia al conjunto. Una vez construido ese esqueleto, se añaden nuevas capas y se refina el resultado en ciclos sucesivos, con cuidado de no caer en el perfeccionismo infinito.Este proceso conecta directamente con la escritura y, en general, con la generación de ideas. También con metodologías como Zettelkasten, donde pequeñas unidades se combinan para formar estructuras más complejas. La idea de fondo es clara: crear no es tanto partir de cero como diseñar un sistema que facilite conexiones interesantes dentro de un marco con ciertas restricciones.Si quieres discutir el contenido de este episodio con otros investigadores, puedes unirte a nuestra comunidad de investigadores en https://horacio-ps.com/comunidad o seguir i newsletter para estar al tanto de contenidos extra relacionados en https://horacio-ps.com/newsletterSi el episodio te ha resultado interesante, puedes apoyarlo dándole a like, suscribiéndote o compartiéndolo en tu plataforma habitual (Spotify, Apple Podcasts, iVoox, YouTube, etc.). Es un gesto que te cuesta muy poco y que ayuda muchísimo a que este podcast siga creciendo y llegue a más personas.

Mar 18, 2026 • 12min
389. Hazte amigo del revisor 2 para mejorar tu investigación
En este episodio parto de una idea bastante simple: la investigación no está aislada de nada, ni de la imaginación ni de los personajes ficticios. De hecho, muchas veces pensamos mejor cuando somos capaces de ponerle “caras” a procesos mentales que en realidad son abstractos. Por eso empiezo con algo muy reconocible, ese ángel y ese demonio que aparecían en los dibujos cuando había que tomar una decisión. No es tanto por lo psicológico, sino por lo práctico: ya desde pequeños hemos aprendido a representar conflictos internos con figuras.A partir de ahí doy un paso más y entro en el síndrome del impostor, que en el fondo es otra versión de esas voces, pero más sofisticada y bastante más incómoda. Aquí ya no hay equilibrio entre dos opciones, sino una voz dominante que nos hace dudar continuamente de nosotros mismos. Y lo interesante es que esta voz no hay que invocarla, aparece sola. Todos la conocemos y, aunque en algunos contextos sabemos gestionarla mejor que en otros, suele ser más un freno que una ayuda.Y entonces introduzco el tercer “personaje”, que es el núcleo del episodio: el famoso Revisor 2. Algo que empieza como meme pero que en realidad refleja muy bien una experiencia común en investigación. Ese revisor que te cuestiona todo, que encuentra problemas donde no los habías visto y que, en el peor de los casos, te complica bastante la vida. Pero precisamente por eso, porque es incómodo, puede ser útil si sabemos cómo integrarlo.La idea que propongo es bastante directa: ¿por qué no traer ese Revisor 2 a nuestro propio proceso de trabajo? Es decir, cuando estamos escribiendo, diseñando un experimento o desarrollando una idea, parar un momento e invitar a esa voz crítica. No como algo destructivo, sino como una herramienta para detectar huecos, errores o supuestos que estamos dando por buenos sin cuestionarlos. Es una forma de introducir crítica antes de que venga de fuera.Ahora bien, esto no es gratis. Igual que un revisor externo puede pasarse de la raya, nuestro Revisor 2 interno también puede hacerlo. Puede hacernos perder tiempo, sobredimensionar problemas o incluso desviarnos de lo que realmente queríamos hacer. Por eso la clave no es solo invocarlo, sino aprender a responderle. Filtrar, aceptar lo que aporta valor y descartar lo que no tiene sentido.Y aquí hay un punto que me parece importante: visualizarlo ayuda. Ponerle forma, nombre o incluso asociarlo a alguien concreto hace que ese proceso sea más manejable. Deja de ser una autocrítica difusa y pasa a ser casi un diálogo. Y eso, en la práctica, facilita mucho integrarlo en el día a día de la investigación.En el fondo, el mensaje es bastante sencillo: todos tenemos ya voces internas, algunas más útiles que otras. El síndrome del impostor no lo elegimos, pero el Revisor 2 sí podemos decidir cuándo y cómo utilizarlo. Y si se usa bien, puede convertirse en una herramienta bastante potente para mejorar cómo pensamos y cómo investigamos.Si quieres discutir el contenido de este episodio con otros investigadores, puedes unirte a nuestra comunidad de investigadores en https://horacio-ps.com/comunidad o seguir i newsletter para estar al tanto de contenidos extra relacionados en https://horacio-ps.com/newsletterEpisodios relacionados: 379, 374, 372, 370Si el episodio te ha resultado interesante, puedes apoyarlo dándole a like, suscribiéndote o compartiéndolo en tu plataforma habitual (Spotify, Apple Podcasts, iVoox, YouTube, etc.). Es un gesto que te cuesta muy poco y que ayuda muchísimo a que este podcast siga creciendo y llegue a más personas.

Mar 11, 2026 • 1h 5min
388. Lo que la bioquímica sabe del aceite de oliva virgen que los titulares de nutrición no cuentan, con Jesús de la Osada
¿Qué sabemos realmente, a nivel molecular, sobre el efecto del aceite de oliva en la salud cardiovascular?Jesús de la Osada lleva más de treinta años investigando las bases moleculares de la aterosclerosis y el papel de los componentes de la dieta mediterránea en la salud cardiovascular. En este episodio repasa cómo se construye conocimiento riguroso en un área donde la divulgación de baja calidad abunda, y qué significa eso en términos de lo que podemos afirmar con fundamento sobre el aceite de oliva virgen extra.La investigación del grupo arrancó cuando los estudios disponibles medían únicamente colesterol total, un marcador tan poco específico que el aceite de oliva resultó neutro y quedó décadas fuera del foco. Con la llegada de modelos animales que reproducen aterosclerosis en semanas y el avance de la química analítica, el panorama cambió. El aceite de oliva virgen extra contiene cerca de 400 compuestos identificados. El candidato inicial, el ácido oleico por ser el componente mayoritario, fue descartado experimentalmente. El compuesto que concentra hoy el trabajo del grupo es el escualeno: el más abundante, el más estable durante el almacenamiento y el que se absorbe y acumula en órganos. Es además un intermediario universal en la biosíntesis de esteroles, lo que explica su presencia en organismos tan distintos como el olivo o el tiburón, y su coincidencia en las dos poblaciones con menor mortalidad cardiovascular históricamente documentada: la mediterránea y la japonesa.Estudiarlo de forma aislada presenta un problema importante: fuera de su matriz natural, el escualeno se oxida con facilidad. La solución que el grupo ha desarrollado en colaboración con el Instituto de Nanomateriales de Aragón es la encapsulación en nanopartículas que aíslan el compuesto y replican la protección que ejerce el propio aceite. En paralelo, trabajan con un aceite de oliva virgen enriquecido en escualeno y un compuesto fenólico, desarrollado junto a una empresa chipriota, cuyos resultados preliminares son prometedores.Dedicamos parte de la conversación a la diferencia entre evidencia in vitro y evidencia clínica, y por qué esa distinción es relevante para evaluar las afirmaciones que rodean a suplementos y nutracéuticos. El marco regulatorio para uso alimentario no exige demostrar eficacia, solo ausencia de toxicidad. Eso permite construir argumentos sobre mecanismos reales sin evidencia de que funcionen en humanos a las dosis habituales. No es necesariamente fraudulento, pero el salto entre ambas cosas rara vez se explicita.Hablamos también del estado actual del diagnóstico cardiovascular. Más allá del colesterol total y la distinción LDL/HDL, hay marcadores con mayor valor predictivo que no se usan de rutina: la Lp(a), el tamaño de las partículas de LDL, o la cuantificación de ApoB-100, que refleja el número de partículas en circulación independientemente del colesterol que transportan. La razón por la que estos marcadores no se incorporan de forma sistemática no es científica sino económica. Lo mismo ocurre con la farmacogenómica aplicada a estatinas: sabemos que los citocromos P450 implicados en su metabolismo tienen variantes con distinta actividad, pero la caracterización de cada paciente antes de prescribir sigue siendo la excepción, no la norma.Página Web del grupo: https://osada.unizar.esNuevos aceites: https://onlinelibrary.wiley.com/doi/10.1002/mnfr.70223Escualeno: https://onlinelibrary.wiley.com/doi/abs/10.1002/mnfr.201800136Aceite de oliva virgen: https://onlinelibrary.wiley.com/doi/10.1002/mnfr.201100668Nuevos modelos para estudio de aterosclerosis: https://www.imrpress.com/journal/FBL/11/1/10.2741/1852Si el episodio te ha resultado interesante, puedes apoyarlo dándole a like, suscribiéndote o compartiéndolo en tu plataforma habitual (Spotify, Apple Podcasts, iVoox, YouTube, etc.). Es un gesto que te cuesta muy poco y que ayuda muchísimo a que este podcast siga creciendo y llegue a más personas.

Mar 5, 2026 • 54min
387. Cuando una proteína "huérfana" encuentra a su familia. Con Sebastián Brauchi
En este episodio hablo con Sebastián Brauchi, investigador de la Facultad de Medicina de la Universidad Austral de Chile en Valdivia, sobre un trabajo que me llamó la atención desde el primer momento: la reclasificación de GPR89, una proteína que lleva décadas mirándosenos a la cara sin que supiéramos realmente quién era. Una proteína presente en plantas, animales y hongos, conservada durante más de mil millones de años, y cuya verdadera función quizás nunca habíamos interpretado correctamente. A veces no se trata de descubrir algo completamente nuevo, sino de mirar con otras herramientas algo que siempre ha estado ahí.GPR89 llevaba el nombre de receptor de proteína G casi por defecto, asignado en los tiempos del Proyecto Genoma Humano a proteínas de función desconocida. Lo que Sebastián y su equipo proponen, a través de análisis evolutivo comparado y herramientas de inteligencia artificial, es que en realidad estaríamos ante un transportador facilitativo con hermanas de familia que nadie ha descrito de forma rigurosa. La hipótesis se construye rastreando la proteína en distintos organismos, analizando qué partes de la secuencia se han mantenido intactas a lo largo del tiempo y cuáles han cambiado, y comparando estructuras predichas con millones de proteínas conocidas. Fue Luca Robertson, el doctorando que lleva el peso experimental del trabajo, quien descubrió durante ese rastreo bioinformático que GPR89 no es una rareza aislada sino que pertenece a una subfamilia entera de transportadores sin estudiar. Una proteína huérfana que, de repente, tiene apellidos y familia numerosa.Hablamos también de cómo funciona un laboratorio en el sur de Chile con recursos limitados —fabricando piezas de microscopio, escribiendo código propio, montando infraestructura de supercomputación desde cero— y de la filosofía que hay detrás: construir una operación lo más autocontenida posible para poder hacerse las preguntas que a uno le dan la gana sin depender de otros para lo básico. Una forma de trabajar que tiene tanto de pragmatismo como de vocación. Y terminamos con una de las ideas más honestas que se pueden decir en este oficio: que la pregunta del momento ya no es tanto cómo resolver los problemas sino qué vale la pena preguntarse. Ese juicio, esa capacidad de orientar la curiosidad, es lo que la automatización no va a reemplazar fácilmente, y lo que hay que cultivar en los estudiantes antes que cualquier otra cosa.Sobre Sebastián BrauchiBioquímico de formación, con doctorado bajo la supervisión de Ramón Latorre y postdoctorado en Harvard con David Clapham. Dirige su laboratorio en la Universidad Austral de Chile desde 2008. También es director de departamento, escalador de roca y, según él mismo, alguien que prefiere los cerros a los campus.EnlacesArtículo comentado en el episodio: https://www.csbj.org/article/S2001-0370(25)00471-4/fulltextPublicaciones de Sebastián: https://www.researchgate.net/profile/Sebastian-BrauchiContacto: sbrauchi@uach.clSi el episodio te ha resultado interesante, puedes apoyarlo dándole a like, suscribiéndote o compartiéndolo en tu plataforma habitual (Spotify, Apple Podcasts, iVoox, YouTube, etc.). Eso ayuda a que este podcast siga creciendo y llegue a más personas.

Feb 26, 2026 • 57min
386. Más allá del código: cómo la IA redefine la ingeniería del software, con Jordi Cabot
Hoy conversamos con Jordi Cabot, investigador en ingeniería del software en el Luxembourg Institute of Science and Technology (LIST) y profesor afiliado en la Universidad de Luxemburgo. Su trabajo se centra en cómo desarrollar better software faster: crear software más rápido y con menos errores mediante modelado, desarrollo dirigido por modelos e inteligencia artificial.Partimos de una pregunta central: ¿está la inteligencia artificial transformando radicalmente la ingeniería del software? Jordi defiende que el desarrollo de software es una ingeniería, no un arte. Igual que en la construcción de un edificio, primero se definen requisitos, luego se diseñan modelos y solo después se construye el sistema. El problema no es escribir código, sino asegurar que el software haga exactamente lo que el usuario necesita.Hablamos del desarrollo dirigido por modelos, donde el sistema se describe mediante modelos de datos, comportamiento e interfaz. A partir de ellos puede generarse automáticamente gran parte del código, dejando los aspectos más específicos para programación manual. Este enfoque, que hoy se comercializa como low-code, no es nuevo, pero está cobrando fuerza en el contexto actual.Analizamos también el llamado vibe coding, es decir, generar aplicaciones directamente en lenguaje natural con ayuda de modelos de lenguaje. Frente a esta aproximación, Jordi propone usar la IA para generar modelos (los “planos”) y no directamente el código final, lo que permite validar la estructura antes de construir el sistema y reducir errores ocultos.Abordamos la idea recurrente de que la IA hará desaparecer a los programadores. Según Jordi, cada revolución tecnológica ha generado ese temor, pero la realidad es que cuanto más fácil es crear software, más software se produce y mayor es la necesidad de profesionales capaces de entender, validar y diseñar sistemas complejos.También discutimos el concepto de software responsable: sistemas energéticamente sostenibles, sin sesgos, accesibles y adaptables a distintos perfiles de usuario. La IA puede facilitar esa personalización, pero también introduce riesgos que deben gestionarse con criterio.Finalmente, hablamos de su libro Research Rants y de los retos actuales del sistema científico: la presión por publicar, la competitividad extrema y el impacto creciente de la IA en la escritura y evaluación de artículos. Una conversación sobre software, inteligencia artificial y el futuro de la investigación.Enlaces:· Web de Jordi Cabot: https://jordicabot.com· Plataforma BESSER (low-code open source): https://besser-pearl.org/ · Libro Research Rants: https://research-rants.com/ y https://lowcode-book.com/· Grupo en LIST: https://www.list.lu Si el episodio te ha resultado interesante, puedes apoyarlo dándole a like, suscribiéndote o compartiéndolo en tu plataforma habitual (Spotify, Apple Podcasts, iVoox, YouTube, etc.). Es un gesto que te cuesta muy poco y que ayuda muchísimo a que este podcast siga creciendo y llegue a más personas.

Feb 19, 2026 • 24min
385. Cómo enfrentarnos a las evaluaciones de grants asistidas por IA
¿Te imaginas obtener un 94% o un 95% en una convocatoria Marie Curie y aun así quedarte fuera porque el corte está en el 96%? Eso es lo que ha ocurrido recientemente. Un umbral que hace unos años rondaba el 90–91% ahora se sitúa en cifras que rozan la perfección. Y no es un caso aislado: está pasando en proyectos europeos, ERC y otras convocatorias. El sistema se ha vuelto mucho más competitivo y la pregunta ya no es solo cómo escribir una buena propuesta, sino qué está cambiando para que necesitemos prácticamente la excelencia absoluta para entrar.Una de las causas más evidentes es el uso masivo de inteligencia artificial por parte de los solicitantes. Investigadores con buenas ideas y buen currículum, pero menos tiempo o habilidad de redacción, ahora pueden generar propuestas sólidas con apoyo de estas herramientas. Resultado: más solicitudes y, en promedio, mejor presentadas. Si aumenta el número de propuestas competitivas, el corte necesariamente sube.Pero el cambio también está en la evaluación. Cada vez hay más indicios de que se utilizan modelos de lenguaje para realizar un primer filtrado: cargar las bases, cargar la propuesta y pedir una evaluación por criterios. Después, el evaluador humano revisa las mejor puntuadas. Podemos debatir si es adecuado o no, pero lo prudente es asumir que puede estar ocurriendo y prepararse para ello.Eso implica actuar en dos niveles. Primero, competir mejor: leer en profundidad las bases, entender exactamente qué se evalúa y formular el proyecto con el lenguaje y las palabras clave que activan la máxima puntuación. No basta con tener buenas ideas; deben estar expresadas como espera la convocatoria. Segundo, simular el filtro algorítmico: evaluar nuestra propuesta con distintos modelos, varias veces, identificar patrones de debilidad y corregirlos de forma iterativa. No infinitamente, pero sí lo suficiente para eliminar puntos ciegos.Después llega la fase humana. Ahí importa la coherencia global, la claridad y la credibilidad científica. En ese punto es clave obtener feedback de supervisores, colegas con experiencia o incluso consultores especializados. Porque aunque la IA pueda filtrar, la decisión final sigue dependiendo de personas.Y una última idea estratégica: no apostar todo a una única convocatoria. Diversificar, buscar programas nicho menos masificados y reducir la densidad competitiva puede ser tan importante como optimizar el texto. La carrera investigadora implica aplicar de forma constante. Si el sistema cambia, nuestra manera de prepararnos también debe cambiar.Puedes contactarme a horacio@horacio-ps.com si quieres hablar más en detalle de todos estos procesos y recibir asistencia.

Feb 16, 2026 • 52min
384. Investigación aplicada al agua y como sobrevivir a la maratón investigadora junto a Adrián López-Ballesteros
Hoy hablamos de modelización hidrológica, pero también, y quizá sobre todo, de lo que significa investigar en España hoy.Adrián López-Ballesteros nos explica cómo se construye un modelo hidrológico, qué significa realmente eso de “gemelo digital”, cómo se calibra, por qué lo difícil no es montarlo sino hacerlo funcionar y cómo se utilizan estos modelos para responder preguntas del tipo “¿qué pasaría si…?”. Desde cambios en cultivos hasta escenarios de lluvias extremas, pasando por gestión de recursos hídricos e impacto ambiental.Entramos en dos casos muy concretos:A) Por un lado, el Mar Menor: qué está ocurriendo a nivel de cuenca, por qué la eutrofización no es un problema aislado sino sistémico y qué muestran los modelos cuando se evalúan distintas medidas de actuación. Una idea clave: las soluciones aisladas tienen efecto limitado; las combinaciones generan efectos sinérgicos mucho más relevantes. Ciencia aplicada que intenta dialogar con la administración y evaluar si las medidas que se están implementando realmente funcionan.B) Por otro lado, la DANA de Valencia (2024). Aquí la conversación se vuelve especialmente interesante: modelos hidrológicos e hidráulicos validados con “sensores sociales”, es decir, datos geolocalizados extraídos de redes sociales para contrastar hasta dónde llegó el agua y en qué momento. Ciencia frente a bulos. Modelización frente a ruido. Y una reflexión sobre cómo la frontera entre ingeniería e informática, la llamada hidroinformática, puede abrir nuevas vías de investigación y desarrollo de herramientas útiles para otros investigadores.Hablamos también de herramientas abiertas, de Google Earth Engine, de reducir la curva de aprendizaje de modelos complejos como SWAT y de qué significa “éxito” en investigación. Para Adrián, ser útil. Desarrollar herramientas que otros puedan usar. Cerrar el ciclo entre investigación, publicación y divulgación.Y, finalmente, entramos en la parte menos técnica pero más estructural: la carrera investigadora como maratón, o incluso como 90K. Becas predoctorales, Juan de la Cierva, Marie Curie, Ramón y Cajal. Competencia creciente. Inteligencia artificial y redacción de propuestas. Métricas, perfiles R1–R4, sesgo del superviviente, estabilidad, familia y decisiones personales.Una conversación honesta sobre incertidumbre, vocación, presión y equilibrio. Sobre cuándo seguir, por qué seguir y hacia dónde orientar la energía. Porque investigar no es solo publicar: es sostener en el tiempo una forma de estar en el mundo.Enlaces mencionados en el episodio:- Publicaciones de Adrián sobre Mar Menor y DANA: https://doi.org/10.1016/j.ijdrr.2025.105966 (DANA); https://doi.org/10.1016/j.jenvman.2025.125033 (Mar Menor 1); https://doi.org/10.1016/j.scitotenv.2022.160144 (Mar Menor 2); https://doi.org/10.1016/j.jhydrol.2021.127150 (Mar Menor 3)- Canal de YouTube de Adrián López-Ballesteros (@AdrLBallesteros): https://www.youtube.com/@AdrLBallesteros, https://youtube.com/playlist?list=PLc5YYSH07rwBuwL3ykA_m4CCsUJzi-VC6&si=BDtGt8OWNia3fPCH (📢Divulgación Científica🌍)- Documento “La carrera investigadora en España en una mirada”: https://www.fecyt.es/publicaciones/researcher-career-path-spain-glance- Recursos sobre perfiles R1–R4: https://www.upv.es/entidades/vinv/2025/10/03/descriptores-de-perfil-investigador-r1-r4/

Feb 7, 2026 • 50min
383. Inteligencia artificial y comportamiento social: una mirada desde los sistemas multi-agente, con Carles Sierra
Hoy exploramos el estudio de lo social desde la inteligencia artificial, centrándonos en los sistemas multiagente. Hablamos con Carles Sierra, investigador del IIIA-CSIC y referente internacional en este campo, sobre cómo los sistemas formados por múltiples agentes autónomos pueden ayudarnos a entender fenómenos sociales complejos como la cooperación, el conflicto, las normas o la confianza.Durante la conversación abordamos qué es exactamente un agente, cómo se define formalmente y qué implica que tenga autonomía, reactividad, proactividad y una dimensión social. Discutimos también dos enfoques principales para su diseño: los modelos basados en conocimientos, donde las reglas se programan explícitamente, y los modelos basados en datos, donde los agentes aprenden a partir de ejemplos. Además, hablamos del papel creciente de los modelos híbridos, que combinan grandes modelos de lenguaje con razonamiento simbólico para sortear algunas de las limitaciones actuales.Carles explica con detalle cómo su grupo utiliza estos enfoques para simular situaciones sociales reales. Un ejemplo especialmente interesante es el uso del juego cooperativo Hanabi como laboratorio para estudiar la teoría de la mente en agentes, es decir, su capacidad para inferir lo que otros agentes saben o creen. Este tipo de simulaciones no solo permite mejorar el diseño de agentes más sofisticados, sino también plantear hipótesis sobre el comportamiento humano desde una perspectiva computacional.La charla también aborda aplicaciones prácticas como la simulación de evacuaciones en contextos de emergencia o el uso de realidad virtual para entrenamiento. En todos estos escenarios es clave el trabajo conjunto con expertos en psicología, sociología o cuerpos de emergencia, lo que refuerza la dimensión multidisciplinar de esta línea de investigación.Hablamos además de la conexión con la teoría de juegos y la racionalidad, de cuellos de botella técnicos como la comunicación entre agentes, y de cómo los modelos de lenguaje actuales están empezando a ofrecer soluciones en ese frente. Carles comparte su visión sobre la evolución de este campo, los retos futuros y el contexto global, con referencias al crecimiento exponencial de la investigación en inteligencia artificial en países como China.En la parte final, reflexiona sobre su trayectoria, los momentos que más satisfacción le han dado como investigador y ofrece recomendaciones claras para quienes quieran adentrarse en este tipo de investigación.Recursos mencionados- Hanabi (juego cooperativo): https://boardgamegeek.com/boardgame/98778/hanabi- Teoría del equilibrio de Nash: https://en.wikipedia.org/wiki/Nash_equilibrium- Congreso IJCAI: https://ijcai.org/- Congreso AAMAS: https://aamas.org/- Proyecto ADA (China): red de satélites con LLMs embebidosPara contactar a Carles Sierra:- Instituto de Investigación en Inteligencia Artificial (IIIA-CSIC): https://www.iiia.csic.es/~sierra/Si el episodio te ha resultado interesante, puedes apoyarlo dándole a like, suscribiéndote o compartiéndolo en tu plataforma habitual (Spotify, Apple Podcasts, iVoox, YouTube, etc.). Es un gesto que te cuesta muy poco y que ayuda muchísimo a que este podcast siga creciendo y llegue a más personas.

Feb 4, 2026 • 17min
382. Investigación exploratoria: del cribado químico a la creación sonora
En este episodio de _Investigando la Investigación_ reflexiono sobre una forma de investigar que no siempre parte de una pregunta clara ni de una metodología cerrada: la investigación exploratoria. Una investigación que surge al hacer, al probar y al interactuar con sistemas que nos devuelven feedback, incluso cuando no sabemos exactamente qué estamos buscando.Parto del propio recorrido del podcast, que comenzó centrado en investigación académica en informática y que, con el tiempo, se ha ido abriendo a otras ciencias, a las humanidades, al arte y, en general, a cualquier contexto donde exista un proceso investigador. Tras cerca de 380 episodios, el objetivo sigue siendo el mismo: documentar y explorar cómo se investiga, dentro y fuera de los marcos académicos reglados.Para concretar esta idea, comparo dos contextos muy distintos. Por un lado, la investigación que hacemos en mi grupo de investigación, basada en el screening computacional de miles o millones de compuestos químicos para identificar posibles candidatos con utilidad farmacológica u otras aplicaciones. Se trata de un proceso altamente metodológico, algorítmico y con métricas objetivas bien definidas. Por otro lado, mi exploración personal en la creación sonora y musical, utilizando herramientas de producción digital desde una posición no profesional y completamente autodidacta.A partir de esta comparación, una de las conclusiones centrales del episodio es que la ausencia de una pregunta de investigación clara al inicio no invalida el proceso investigador. En los contextos exploratorios, la pregunta, la metodología y los criterios de evaluación pueden emerger progresivamente, a medida que el investigador interactúa con el sistema que está explorando. Además, el hecho de trabajar con respuestas subjetivas, como ocurre en la investigación sonora, no convierte la investigación en algo arbitrario: esas respuestas forman parte del propio objeto de estudio y proporcionan un feedback relevante.En este sentido, la diferencia entre una investigación más objetiva y una exploratoria no es la existencia o no de rigor, sino el tipo de señal que se obtiene. En el cribado de compuestos químicos, la molécula no responde al investigador; en la exploración sonora, el sonido sí lo hace, generando sensaciones que informan el proceso. En ambos casos, sin embargo, existe un proceso sistemático de acumulación de experiencia, reflexión y generación de conocimiento.De esta exploración musical surgen también conclusiones metodológicas concretas. Por ejemplo, he identificado flujos de trabajo que para mí resultan más eficientes, como trabajar con un número reducido de pistas o instrumentos. También he observado la importancia del caos y la aleatoriedad frente a enfoques completamente deterministas, tanto en la preparación del sistema como en la ejecución. Estas decisiones, aunque personales, forman parte del resultado de la investigación y pueden ser compartidas y discutidas.Este episodio sirve además como punto de partida de una nueva línea dentro del podcast, centrada en procesos de investigación exploratoria, especialmente en contextos donde la pregunta y la metodología se definen a posteriori. En próximos episodios entraré en ejemplos más concretos y compartiré material sonoro como apoyo, entendiendo ese resultado final casi como material suplementario, mientras que el foco principal sigue siendo el proceso investigador.Si el episodio te ha resultado interesante, puedes apoyarlo dándole a like, suscribiéndote o compartiéndolo en tu plataforma habitual (Spotify, Apple Podcasts, iVoox, YouTube, etc.). Eso ayuda a que _Investigando la Investigación_ siga creciendo y llegue a más personas.

Feb 1, 2026 • 46min
381. De escribir código a orquestar agentes: así está cambiando la programación con IA
En este episodio de Investigando la Investigación me adentro en un terreno más técnico de lo habitual para hablar de herramientas de inteligencia artificial aplicadas a la programación y, sobre todo, del cambio de paradigma que estamos viviendo en la forma de desarrollar software. Empiezo recordando cómo usábamos —y muchos seguimos usando— modelos como ChatGPT para programar: pedir fragmentos de código, copiarlos en un editor, ejecutarlos, detectar errores y volver a iterar en un proceso manual y relativamente lento. Ese enfoque sigue siendo útil, pero empieza a quedarse corto frente a lo que está apareciendo ahora.En los últimos meses han surgido muchas herramientas que introducen la llamada programación basada en agentes. Ya no hablamos solo de generar código, sino de sistemas que analizan una petición, la descomponen en tareas, orquestan agentes que trabajan en paralelo y deciden cómo implementar una solución completa. Menciono brevemente algunas de estas herramientas, pero el foco del episodio se centra en Cursor, que a día de hoy me parece una de las opciones más completas. Cursor es, en esencia, un fork de Visual Studio Code que integra este enfoque y permite trabajar con proyectos reales, con múltiples ficheros, relaciones complejas y ejecución directa del código generado.Uno de los puntos clave del episodio es entender los distintos modos de trabajo de Cursor. Por un lado está el modo pregunta, pensado para discutir ideas y requisitos sin generar código. Luego está el modo plan, donde el sistema traduce esas ideas en un plan detallado de implementación que conviene revisar con calma y nunca aceptar a la primera. A partir de ahí entramos en el modo agente o de construcción, donde la herramienta despliega uno o varios agentes que implementan el plan, a menudo en paralelo. Finalmente, el modo depuración introduce un enfoque muy interesante basado en la generación y comprobación sistemática de hipótesis para localizar errores, de una forma mucho más transparente que los métodos anteriores.También hablo de aspectos prácticos importantes, como la posibilidad de elegir distintos modelos de lenguaje según la tarea, la necesidad de controlar bien los permisos que damos a los agentes y la importancia crítica del versionado del código para poder volver atrás cuando una iteración rompe algo que antes funcionaba. Dedico además parte del episodio a explicar las limitaciones del contexto y la memoria de estos sistemas y cómo gestionar sesiones largas para evitar errores sutiles.Para cerrar, planteo una reflexión más general: el rol del programador está cambiando hacia uno más cercano al de gestor de proyectos. Cada vez menos escribimos código línea a línea y cada vez más diseñamos planes, supervisamos agentes y validamos resultados. En este nuevo escenario, el trabajo realmente crítico pasa a ser el diseño de buenos planes y, sobre todo, de tests sólidos y fiables, que se convierten en el verdadero contrato del sistema. Todo apunta a que este cambio no ha hecho más que empezar.Si este episodio te ha resultado interesante, te agradecería mucho que desde la plataforma donde lo estés escuchando le des a like, lo marques como favorito o te suscribas al podcast. Es un gesto muy sencillo, pero ayuda enormemente a que Investigando la Investigación crezca y pueda llegar cada día a más gente.PD: Episodios relacionados: 234, 240, 309, 340, 341, 378


