E033_La Unificación de la Inteligencia Visual y Científica 2025-2026 (Fin de la serie)
Ep. 33

E033_La Unificación de la Inteligencia Visual y Científica 2025-2026 (Fin de la serie)

Episode description

¿Te imaginas una IA que no solo escribe código, sino que evoluciona sus propios algoritmos para descubrir matemáticas nuevas? 🧬 En este episodio exploramos a fondo AlphaEvolve, el revolucionario agente de codificación de Google DeepMind que está redefiniendo los límites de la ciencia y la computación. A diferencia de los modelos de lenguaje tradicionales que pueden alucinar, este sistema utiliza un enfoque evolutivo para iterar, corregir y superoptimizar soluciones mediante la ejecución real de código. Desde mejorar la eficiencia de los centros de datos de Google ☁️ hasta rediseñar circuitos de hardware, analizamos cómo esta tecnología está cerrando la brecha entre la generación de ideas y el descubrimiento científico verificable. 🚀 Descubre cómo AlphaEvolve logró romper un estancamiento de 56 años al encontrar un algoritmo más rápido para la multiplicación de matrices complejas 4x4 y cómo ha resuelto problemas abiertos en combinatoria y geometría que desafiaban a los expertos. 🤯 Debatiremos sobre su capacidad para actuar como un colaborador de investigación, generando matemáticas constructivas a escala y encontrando soluciones que escapan a la intuición humana. Si te apasiona la intersección entre la Inteligencia Artificial, la ingeniería de software extrema y los grandes enigmas teóricos, este episodio es imprescindible. ¡Dale al play y acompáñanos a vislumbrar el futuro de la optimización algorítmica! 🎧⚡ Enlaces relevantes: • Paper original: AlphaEvolve: A coding agent for scientific and algorithmic discovery • Artículo en el blog de Google DeepMind sobre AlphaEvolve • Paper complementario: Mathematical exploration and discovery at scale

Download transcript (.srt)
0:09

Buenas, esto es BIMPRAXIS, el podcast donde el BIM se encuentra con la inteligencia artificial.

0:20

Exploramos la ciencia, la tecnología y el futuro desde el enfoque de la arquitectura, ingeniería y construcción.

0:28

¡Empezamos!

0:37

Bienvenidos a una entrega que es, bueno, yo diría que muy especial para nosotros.

0:42

Sí, la verdad es que sí, es un día importante.

0:45

Hoy cerramos nuestra serie, los papers que cambiaron la historia de la IA, que sabemos que os ha gustado mucho.

0:51

Y la cerramos por todo lo alto, con algo un poco diferente.

0:55

Totalmente, porque hoy no vamos a analizar un único paper histórico, como veníamos haciendo.

1:00

No, hoy hacemos algo distinto. Es que nos ha picado el gusanillo de la investigación.

1:05

Así que, bueno, durante los últimos meses, el equipo de BIMPRAXIS se ha sumergido a fondo en la vanguardia más absoluta de la IA.

1:12

Y cuando dice a fondo, no es una forma de hablar.

1:15

Para nada.

1:16

Hemos analizado cerca de 40 artículos científicos de primerísimo nivel.

1:20

Todos publicados desde el verano de 2025 hasta hoy mismo, 7 de enero de 2026. Vamos, lo más reciente de lo reciente.

1:28

El objetivo era, era detectar la corriente de fondo, ¿no? Hacia dónde va todo esto.

1:35

Exacto. Y la hemos encontrado. No es una idea aislada en un paper. Es una convergencia clarísima en casi todos los trabajos.

1:42

¿Y el concepto que lo define todo?

1:45

Todo es la IA autoevolutiva.

1:47

Justo eso. Una IA que se programa, se corrige y se mejora a sí misma.

1:52

Suena a ciencia ficción, la verdad, pero vamos a ver que no lo es para nada.

1:57

Y para que se entienda bien, nos vamos a centrar en el mejor ejemplo que hemos encontrado.

2:01

Un agente de codificación de Google DeepMind llamado AlphaEvolve.

2:05

Vale, vamos a desgranar esto. ¿Qué es exactamente este agente evolutivo?

2:10

A primera vista, una podría pensar que es simplemente otro modelo de lenguaje.

2:15

Grande. Otro LLM más.

2:17

Pero no, es mucho más.

2:19

Eso parece. AlphaEvolve no es un LLM, sino un sistema completo que orquesta a varios LLMs para que trabajen juntos.

2:27

Ah, o sea que es como un director de orquesta.

2:31

Es una buena analogía, sí. Es una cadena de montaje autónoma y su única misión es coger un programa y mejorarlo, haciendo cambios directamente en su código.

2:42

La palabra clave entonces es evolutivo.

2:45

Evolutivo. Suena muy potente. Pero, siendo un poco cínica, ¿no es solo un bucle de prueba y error a toda velocidad?

2:53

Es una pregunta buenísima. O hay algo más que lo haga realmente evolutivo en un sentido más profundo.

2:59

Ahí está el cambio de juego. Sí, es un proceso iterativo, de proponer y probar. Pero la clave es cómo aprende de ese feedback.

3:07

Claro. Propone un cambio, unos evaluadores automáticos le dan una nota, le dicen si ha sido una mejora o no,

3:14

y el sistema usa esa información para que la siguiente propuesta sea más inteligente.

3:19

O sea, no es un ensayo y error ciego, para nada. Es dirigido.

3:22

Precisamente. Es una evolución sobre sistemas anteriores, como FoundSearch, que ya eran una pasada, pero estaban más limitados.

3:31

¿Y cuál es la gran diferencia?

3:32

La escala y la complejidad. FoundSearch era un genio descubriendo pequeñas funciones, fragmentos de código.

3:38

Alfa Evolve puede coger una base de código entera con docenas de funciones que interactúan entre sí, y reescribirla de arriba a abajo para hacerla mejor.

3:47

Vale. El concepto general lo tengo. Pero suena casi a magia. ¿Cómo es ese proceso por dentro? ¿Cómo empieza una de esas vueltas de mejora?

3:56

Pues el punto de partida es humano. Un programador le da tres cosas. El programa que quiere mejorar, el código que servirá para evaluar si las mejoras funcionan…

4:06

¿El juez, por así decirlo?

4:07

Exacto.

4:08

El juez, y algunas configuraciones. A partir de ahí, se pone en marcha el bucle de descubrimiento.

4:14

Y el primer paso es que el sistema se inspire en sí mismo, ¿no? El muestreador de prompts.

4:21

Correcto.

4:22

En lugar de empezar de cero, mira las versiones del código que ya han funcionado bien, y construye una petición, un prompt, muy detallado para los LLMs.

4:32

Eso es. Y ese es un paso crucial. Con esos prompts tan ricos en contexto, los LLMs…

4:38

…entran en juego. Y ojo, no generan el programa entero de nuevo, que sería muy ineficiente.

4:44

Ah, no. ¿Qué generan, entonces?

4:46

Generan un diff.

4:48

¿Un diff? Para quien no venga del mundo del desarrollo, eso es como las sugerencias de edición de un documento de Word, ¿verdad?

4:55

Es la analogía perfecta.

4:56

No reescribe el texto, solo te dice, borra esta frase, añade esta otra aquí.

5:02

Justo eso. Es una instrucción precisa de qué líneas cambiar. Ese diff se aplica, se crea un código, y se pone en marcha el bucle de descubrimiento.

5:08

Se crea un nuevo programa candidato, y el juez automático lo evalúa y le da una puntuación.

5:13

¿Y si la puntuación es buena?

5:15

Se guarda. En una especie de salón de la fama de los mejores programas encontrados hasta ahora.

5:20

Y ese salón de la fama es lo que alimenta al muestrador de prompts para la siguiente vuelta. Es un ciclo de retroalimentación perfecto.

5:28

Exacto. Se va siendo más inteligente en cada iteración. En cada vuelta, parte de una base mejor y pide las cosas de una forma más informada.

5:36

Entiendo el bucle, pero me da la sensación…

5:38

Me da la sensación de que falta algo. ¿Qué evita que se quede dando vueltas sobre la misma idea una y otra vez?

5:43

Buena pregunta.

5:44

¿Hay algún truco, algún ingrediente secreto que lo haga tan potente?

5:48

Los hay. Y son la clave de su éxito. El primero es una genialidad llamada metaprompts.

5:54

¿Metaprompts?

5:54

Sí. Aquí la cosa se vuelve recursiva. El propio sistema no solo evoluciona el código, sino que también evoluciona los prompts con los que pide las mejoras.

6:03

Espera, espera. ¿Cómo? ¿La IA aprende a pedirse las cosas a sí misma de mejor manera?

6:08

Justo eso. Es como si un escritor no solo mejorara su novela, sino que también aprendiera a darse a sí mismo las instrucciones perfectas para inspirarse. Es una optimización a dos niveles.

6:20

Eso es fascinante. Y he visto que otro de los trucos es que no usan un único tipo de LLM.

6:26

Es una decisión muy inteligente, sí. Combinan modelos grandes y potentes, que son caros, con modelos más pequeños y baratos.

6:34

¿Y eso por qué?

6:34

Los grandes aportan la calidad, la coherencia.

6:38

Los pequeños inyectan variedad, una especie de creatividad ingenua o ruido inteligente.

6:44

A veces, una sugerencia un poco rara de un modelo pequeño es lo que saca al sistema de un atasco.

6:50

¿Un atasco? ¿Te refieres a eso que en los papers llaman máximo local?

6:55

Exacto. Un máximo local es cuando el sistema encuentra una solución que es bastante buena, y cualquier pequeño cambio que intenta la empeora.

7:03

Y se queda ahí, claro.

7:04

Se queda ahí, pensando que ha llegado a la cima, cuando en realidad hay una montaña.

7:08

Una montaña mucho más alta. Una solución mucho mejor, más lejos.

7:12

Y los modelos pequeños le dan el empujón para salir de ahí.

7:16

Eso es. Con sus ideas extrañas, a veces le ayudan a salir de ese valle y seguir buscando.

7:21

Entendido. ¿Y el tercer ingrediente es el feedback? Que no es solo un número, una puntuación.

7:27

Efectivamente. Además de la nota objetiva del juez, se pueden usar otros LLMs para que den feedback sobre cosas más abstractas, más humanas.

7:36

¿Como por ejemplo?

7:37

Por ejemplo.

7:38

Lorenzi, el código nuevo es más simple, más elegante o más fácil de entender que el anterior.

7:43

Ah, qué bueno. O sea que guía la evolución no solo hacia soluciones que funcionan, sino hacia soluciones que son buenas, en un sentido más amplio.

7:52

Precisamente.

7:53

Vale. Y toda esta arquitectura tan sofisticada no es teoría. Ha conseguido resultados que son, literalmente, históricos.

8:02

Sí, aquí es donde la cosa se pone seria.

8:04

Hablemos del primer granito, el de la multiplicación de matrices.

8:08

¿Cómo es para enmarcarlo?

8:10

Es un problema central en computación. Vamos, de los que se estudian en primero de carrera.

8:14

Y desde 1969, el algoritmo de Strassen era el rey.

8:19

Un momento. ¿Has dicho 1969?

8:23

1969. Durante 56 años, nadie había conseguido mejorarlo para un caso muy concreto.

8:31

La multiplicación de matrices complejas de 4x4. Era un techo.

8:35

56 años.

8:36

56 años.

8:36

Y entiendo que Alfa y Wolf se puso a ello.

8:39

Se puso a ello y descubrió un procedimiento completamente nuevo.

8:44

El método de Strassen necesitaba 49 multiplicaciones para resolverlo.

8:48

¿Y Alfa y Wolf?

8:49

Alfa y Wolf encontró la manera de hacerlo con 48.

8:53

Una. Parece un paso pequeño, pero romper un récord que ha durado más de medio siglo es una barbaridad. Es un hito monumental.

9:02

Y no es un caso aislado.

9:03

De los 54 tipos de multiplicaciones que analizaron, igualó las mejores soluciones conocidas en 38 casos.

9:11

¿Y en el resto?

9:12

Y encontró un método superior en 14 de ellos. Es una demostración de fuerza bruta y descubrimiento.

9:19

Y no se queda ahí. También lo han enfrentado a problemas matemáticos puros, de esos que llevan décadas abiertos.

9:25

Sí, y los resultados son igual de alucinantes. Lo probaron con más de 50 problemas de campos como el análisis, la combinatoria, la geometría.

9:33

¿Y en la matemática?

9:33

Sí.

9:33

¿Y en la matemática?

9:33

En la mayoría de casos redescubrió lo que ya sabíamos, ¿no?

9:36

En el 75% de los casos, sí. Redescubrió por sí solo las mejores soluciones que ya conocíamos. Lo cual ya es impresionante.

9:44

Pero, ¿y el otro 25%?

9:46

Ahí es donde está la magia. En el 20% de los problemas, uno de cada cinco, Alfa y Wolf descubrió un objeto matemático nuevo y mejor que cualquiera conocido hasta la fecha.

9:57

O sea, mejoró el estado del arte.

9:59

Exacto. Por ejemplo, consiguió refinar ligeramente el límite superior de la matemática.

10:03

El límite superior del problema del solapamiento mínimo de ER2. Un problema con muchísima historia.

10:09

Son pequeñas victorias que demuestran una capacidad de descubrimiento genuina.

10:13

Esto nos lleva a las aplicaciones prácticas, que es donde se ve el impacto real.

10:18

¿Cómo se está usando esto ya dentro de un gigante como Google?

10:21

Aquí es donde la cosa se traduce en millones de dólares.

10:25

Google gestiona sus centros de datos con un sistema llamado BORG.

10:28

Es un problema de planificación colosal, lo que se conoce como beanpacking.

10:33

Beanpacking. Como jugar al Tetris a una escala demencial, ¿no?

10:37

Es la mejor forma de explicarlo, sí.

10:38

Tienes que meter piezas de trabajo, que necesitan CPU y memoria, en las cajas que son los servidores, intentando no dejar huecos.

10:47

Y la eficiencia aquí es crítica. Pues usaron Alfa y Wolf para optimizar la fórmula, la heurística que decide dónde va cada pieza del Tetris.

10:56

¿Y qué encontró?

10:57

Descubrió una función sorprendentemente simple, de apenas siete líneas de código.

11:01

Pero implementar esa pequeña fórmula ha supuesto una recuperación continua del 0,7% de los recursos computacionales de toda la flota de servidores de Google.

11:11

Espera, para un momento. El 0,7% suena a poco, pero en la escala de Google. ¿De qué estamos hablando?

11:18

Estamos hablando de una cifra de ahorro y eficiencia absolutamente descomunal.

11:22

Me lo imagino.

11:22

Y hay un detalle importantísimo. En los informes cuentan que había una alternativa basada en Deep Reinforcement Learning,

11:29

que también funcionaba bien, pero prefirieron la de Alfa y Wolf.

11:34

¿Por qué?

11:35

Porque la solución de Deep Learning era una caja negra. Funcionaba, pero nadie sabía muy bien por qué.

11:41

La de Alfa y Wolf era una fórmula en código, interpretable, fácil de depurar y segura de implementar en un sistema tan crítico como Borg.

11:49

Claro. A veces la mejor solución no es la más compleja, sino la más elegante y comprensible.

11:55

Totalmente.

11:56

Es un punto clave.

11:57

Pero la cosa se vuelve todavía más loca.

11:59

La recursividad de todo esto es vertiginosa. También se usó para acelerar la propia IA, ¿no es así?

12:06

Es el ejemplo perfecto del ciclo de automejora. Alfa y Wolf optimizó esos algoritmos de multiplicación de matrices que comentábamos antes.

12:14

Ajá.

12:15

A entrenar a Gemini, el LLM, que a su vez es uno de los motores del propio Alfa y Wolf.

12:22

O sea que la IA se está acelerando a sí misma.

12:25

Se está acelerando a sí misma. No solo mejora el software de los centros de datos.

12:30

Mejora el software que la entrena a ella misma.

12:33

Es increíble.

12:34

Y no solo el software, también el hardware.

12:36

Encontró simplificaciones en el diseño de los circuitos de los aceleradores de hardware de Google, los TPUs.

12:43

O sea que está optimizando el software de gestión, el software de entrenamiento y el chip sobre el que todo eso corre.

12:50

Cierra el círculo por completo.

12:52

Cierra el círculo.

12:53

Entonces, ¿qué significa todo esto?

12:56

Está claro que no se trata solo de que una IA resuelva problemas.

12:59

Es la versatilidad con la que lo hace.

13:02

Exacto.

13:02

Puede buscar una solución directa, como la fórmula para Borg.

13:06

O puede encontrar un programa que construya esa solución.

13:10

O, y esto ya es el siguiente nivel, puede evolucionar un algoritmo de búsqueda para que sea ese algoritmo el que encuentre la solución.

13:18

Es una capacidad de abstracción a múltiples niveles.

13:22

Y esto nos lleva directamente a la siguiente pregunta.

13:25

¿Cuál es nuestro papel, el de los humanos, en todo esto?

13:28

Claro.

13:29

¿Por qué no?

13:29

¿Por qué no?

13:29

¿Por qué no?

13:29

Porque la idea no es reemplazar, sino colaborar.

13:32

Los descubrimientos de Alpha Evolve no son un punto final, son el punto de partida.

13:37

¿Colaboración con humanos o con otras IAs?

13:39

Con ambos.

13:40

Ya se está viendo un ecosistema de IAs especialistas.

13:43

Por ejemplo, un nuevo objeto matemático que descubre Alpha Evolve se le puede pasar a otra IA llamada DeepThink.

13:49

¿Para que lo analice?

13:50

Para que intente encontrar una fórmula general que explique el patrón.

13:54

Y esa fórmula, a su vez, se le puede enviar a una tercera IA, Alpha Proof,

13:58

para que genere una prueba matemática formal y rigurosa.

14:03

Alucinante.

14:04

Un equipo de investigación formado por IAs.

14:07

Y supervisado por humanos.

14:09

Hay una anécdota fantástica sobre el problema de empaquetar hexágonos.

14:13

Alpha Evolve encontró la mejor forma conocida de meter 11 y 12 hexágonos pequeños dentro de uno grande, batiendo el récord.

14:21

Vale.

14:21

Pero la solución que encontró, aunque era la más eficiente, no era perfectamente simétrica.

14:26

Algo que a un matemático le chirriaría.

14:28

Y lo haría inmediatamente.

14:30

La belleza y la simetría son importantes.

14:32

Exacto.

14:33

Un matemático, Johann Schellhorn, vio la solución y se dio cuenta de que con un pequeño ajuste manual,

14:39

un toque de intuición humana, podía hacerla perfectamente simétrica, sin perder nada de eficiencia.

14:44

Es la prueba de que la combinación es la clave.

14:46

Esa es la clave.

14:47

La combinación de la fuerza de búsqueda casi infinita de la IA con la intuición humana para la estética y la simplicidad

14:53

es donde está el verdadero potencial.

14:56

Lo que nos deja con una reflexión final...

14:58

Es una reflexión total que es casi obligatoria.

15:01

Hemos visto una IA que optimiza el software que la entrena y el hardware sobre el que corre.

15:06

Si una IA puede mejorar de forma autónoma y recurrente sus propios algoritmos y la infraestructura que la soporta,

15:13

¿qué implicaciones tiene esto a largo plazo?

15:15

Esa es la gran pregunta.

15:17

Estamos en la primera etapa de un ciclo de automejora que podría volverse exponencial.

15:22

No tenemos la respuesta, pero la tendencia que hemos identificado en estos 40 artículos,

15:26

apunta a que esta pregunta ya no es ciencia.

15:28

Es un problema de ingeniería.

15:30

Es un problema de ingeniería a corto y medio plazo.

15:33

La IA autoevolutiva no es una promesa.

15:36

Es una tendencia tangible que ya está aquí.

15:39

Y está produciendo resultados que superan décadas de investigación humana.

15:43

Ha sido un viaje increíble a través de los papers que cambiaron la historia de la IA.

15:48

Y sólo podemos daros las gracias por habernos acompañado.

15:51

Desde luego.

15:52

Pero que nadie se confunda.

15:53

Que acabe la serie no significa que se acaben nuestras exploraciones en BIMPRAXIS.

15:57

Ni mucho menos.

15:58

Para nada.

15:59

El campo de la IA avanza a una velocidad de locos.

16:01

Y seguiremos aquí.

16:02

Con el microscopio puesto sobre las publicaciones más relevantes para destilarlas y entenderlas juntos.

16:08

De hecho, para la próxima entrega ya tenemos preparado un contenido fascinante

16:12

sobre una herramienta que está cambiando las reglas del juego en cómo accedemos al conocimiento.

16:17

Una herramienta que está en boca de todos en el sector.

16:19

Y con razón.

16:20

Una herramienta que, os lo aseguro, os va a dejar perplejos.

16:26

Se capta la indirecta.

16:28

Y hasta aquí el episodio de hoy.

16:41

Muchas gracias por tu atención.

16:45

Esto es BIMPRAXIS.

16:54

Nos escuchamos en el próximo episodio.