E071_Andrej_Karpathy_De_programar_a_manifestar_software_con_agentes
Ep. 71

E071_Andrej_Karpathy_De_programar_a_manifestar_software_con_agentes

Episode description

Episodio de BIMPRAXIS: El fin de la programación y la psicosis de los agentes

La inteligencia artificial está revolucionando la forma en que creamos software y interactuamos con la tecnología. Con la capacidad de generar código y aprender de manera autónoma, los agentes de IA están cambiando el panorama de la programación y la automatización. En este episodio, exploramos cómo la inteligencia artificial está transformando la industria y qué implica este cambio para el futuro de la educación y el trabajo. Desde la creación de empresas virtuales hasta la automatización de tareas complejas, la IA está abriendo nuevas posibilidades y desafíos. ¿Qué papel jugarán los humanos en este nuevo mundo de tecnología avanzada?

Download transcript (.srt)
0:09

Buenas, esto es BIMPRAXIS, el podcast donde el

0:15

BIM se encuentra con la inteligencia artificial.

0:20

Exploramos la ciencia, la tecnología y el futuro

0:23

desde el enfoque de la arquitectura, ingeniería y

0:26

construcción.

0:28

¡Empezamos!

0:36

Muy buenas, bienvenidas, bienvenidos a un nuevo episodio

0:39

de BIMPRAXIS.

0:40

Hoy os traemos el fin de la programación,

0:43

la psicosis de los agentes y la inteligencia

0:46

automatizada.

0:47

Hola, ¿qué tal?

0:49

Pues sí, hoy tenemos un tema que, de

0:51

verdad, nos vuela la cabeza por completo.

0:54

Totalmente.

0:55

Porque, a ver, existe una imagen muy arraigada

0:57

sobre cómo se crea el software.

0:58

Ya sabes, la típica habitación a media luz,

1:01

un monitor con fondo negro y alguien tecleando

1:03

a toda velocidad.

1:04

Claro, el paradigma clásico.

1:06

Es una visión casi artesanal, como si fueras

1:09

un albañil digital poniendo un bloque de código

1:12

tras otro, línea por línea.

1:14

Exacto.

1:15

Todo lineal, predecible y bajo control.

1:17

Escribes la función, compilas, buscas el error y

1:20

repites.

1:21

Y en esa dinámica, el límite siempre ha

1:24

sido la velocidad del cerebro humano para traducir

1:27

la lógica a una sintaxis que el ordenador

1:30

entienda.

1:30

Pues preparaos porque esa imagen acaba de saltar

1:33

por los aires.

1:34

Esta inmersión a fondo arranca con una confesión

1:37

fascinante de Andrei Karpathy.

1:40

Madre mía, sí.

1:41

Uno de los nombres más respetados en el

1:44

mundo de la inteligencia artificial.

1:46

Pues fíjate.

1:47

¿Qué es la inteligencia artificial?

1:47

Confiesa que desde el pasado mes de diciembre

1:49

prácticamente no ha escrito ni una sola línea

1:51

de código.

1:52

Cero.

1:53

Es brutal.

1:54

Pasar de escribir el 80 % de sus

1:56

proyectos a delegar casi el 100 % es

1:59

un salto enorme.

2:01

Y entonces, claro, la pregunta es ¿qué hace

2:03

durante 16 horas al día?

2:05

Pues dice que está sufriendo una especie de

2:07

psicosis constante.

2:09

Sí, sí, lo de manifestar software.

2:11

Susurrando instrucciones a un enjambre de agentes autónomos.

2:15

O sea, ya no teclea.

2:17

Habla.

2:18

Y la misión de nuestro análisis de hoy

2:20

es entender este cambio radical.

2:22

Exacto.

2:23

Porque esto no solo afecta a los programadores.

2:25

Vamos a ver cómo cambia la interacción con

2:27

nuestras propias casas, cómo evoluciona la ciencia y,

2:31

sorprendentemente, por qué estas superinteligencias siguen fallando en

2:35

lo más humano.

2:36

Pues vamos a meternos de lleno.

2:37

Para visualizar este salto, hay un ejemplo buenísimo

2:41

de un desarrollador llamado Peter Steinberger.

2:43

Ah, sí, el caso de Steinberger es revelador.

2:48

Qué va, qué va.

2:49

Tiene un monitor lleno de agentes de códex

2:51

independientes.

2:52

Están operando sobre 10 repositorios diferentes a la

2:55

vez.

2:55

Es como si moviera los healers de unas

2:57

marionetas invisibles.

2:59

Da lo que ahora llamamos macroacciones.

3:02

O sea, a ver si lo entiendo.

3:03

Ya no le dices a la máquina cómo

3:04

estructurar un bucle de datos.

3:06

La instrucción es a nivel organizativo, ¿no?

3:09

Resume qué puede hacer.

3:10

Y a un segundo agente le dices que

3:12

implemente la arquitectura basándose en lo que ha

3:14

investigado el primero.

3:16

Exacto.

3:16

Y luego a un tercer agente.

3:17

Y al tercero, pon a prueba ese código

3:19

y corrige los fallos.

3:20

Es pura gestión de proyectos.

3:22

Ya no es sintaxis.

3:23

Claro, pasas de ser el peón de obra

3:25

al arquitecto que dirige a mil obreros.

3:28

Pero aquí hay un tema psicológico complejo.

3:32

Sí, la ansiedad que genera esto.

3:34

Eso es.

3:35

Históricamente, el cuello de botella era el ordenador.

3:38

Si el procesador era lento, pues te ibas

3:40

a tomar un café.

3:41

Ya.

3:42

Pero ahora el límite es tu propia capacidad

3:44

para mantener a esta fuerza bruta ocupada.

3:46

Tiene que ser súper estresante, ¿no?

3:48

O sea, saber que si no coordinas bien,

3:50

¿estás desperdiciando tu cuota de tokens mensual?

3:53

Es una ansiedad súper real.

3:55

Fíjate que recuerda mucho a la época del

3:57

doctorado hace 10 años.

3:59

Ah, por lo de las tarjetas gráficas.

4:01

Sí, sí, sí.

4:02

Si tenías las GPUs sin hacer nada, sin

4:04

exprimir los flops al máximo, era un desperdicio

4:07

imperdonable.

4:08

Te sentías culpable.

4:10

Madre mía.

4:10

Y ahora esa métrica es el token.

4:13

Si te sobran tokens, has fallado tú como

4:16

gestor.

4:16

Pues sí.

4:17

El humano es el nuevo cuello de botella.

4:20

Pero hay un matiz muy curioso en cómo

4:21

lidiamos con este estrés.

4:23

¿Te refieres a la personalidad de las inteligencias

4:25

artificiales?

4:27

Exactamente.

4:28

Porque no todas las herramientas se perciben igual.

4:30

Por ejemplo, Codex es muy seco.

4:33

Cumple su función y punto.

4:35

Es aburrido.

4:36

Ya.

4:36

Pero luego tienes modelos como Cloud, que están

4:39

diseñados para parecer el compañero de equipo entusiasta,

4:42

¿verdad?

4:42

Claro.

4:43

Y ese ajuste no es casualidad.

4:45

Reduce nuestra fricción cognitiva.

4:47

En el fondo, es solo matemáticas prediciendo palabras.

4:51

Ya, ya.

4:51

No hay nadie ahí.

4:52

No.

4:53

Pero como simula un comportamiento colaborativo, nuestro cerebro

4:56

entra al trapo.

4:58

Engancha con nuestras estructuras sociales.

5:00

Es que es muy fuerte.

5:01

Quien la orquesta llega a confesar que intenta

5:03

ganarse los elogios de Cloud.

5:05

Sí.

5:05

Le presenta ideas buenas para que la IA

5:08

le diga, oye, qué gran trabajo.

5:11

¿Qué?

5:11

¿Qué?

5:11

¿Qué?

5:11

¿Qué?

5:12

¿Qué?

5:12

¿Qué?

5:12

Es muy humano, fíjate.

5:16

Y esta necesidad de interactuar con identidades nos

5:19

lleva al siguiente nivel.

5:20

Claro.

5:21

Porque si tratamos a un agente de código

5:23

como a un colega, ¿qué pasa cuando le

5:25

damos acceso al mundo físico?

5:27

¿A nuestras casas?

5:28

Pues que la interfaz de usuario tradicional, las

5:31

apps de toda la vida, se mueren.

5:33

Hablemos del experimento de automatización doméstica.

5:35

El agente que bautizaron como Dobby, como el

5:38

elfo de Harry Potter.

5:40

Ese mismo.

5:40

Ese mismo.

5:41

Y lo mejor es que no usa una

5:43

app de domótica súper compleja.

5:45

Lo hace todo por WhatsApp.

5:46

Por WhatsApp.

5:47

Es que la anécdota de los altavoces sonos

5:49

es brutal.

5:50

Le piden a Dobby por el chat, oye,

5:52

¿puedes encontrar mis sonos?

5:53

Y sin darle ninguna instrucción más, el agente

5:56

escanea la red local por su cuenta.

5:58

Y detecta los altavoces, ve que no tienen

6:00

contraseña, deduce cómo conectarse y les pone música.

6:04

Cero apps descargadas.

6:05

Es que el mecanismo es alucinante.

6:08

Dobby no es un programa rígido.

6:09

Es un modelo que genera un plan sobre

6:11

la marcha.

6:12

O sea, usa herramientas, mira lo que le

6:14

devuelven y toma decisiones.

6:16

Y tú solo ves una conversación en WhatsApp.

6:18

La complejidad técnica desaparece por completo.

6:21

Pero es que va más allá de la

6:22

música.

6:23

Sí, sí.

6:24

Controla las luces, la temperatura del agua del

6:26

spa, la seguridad.

6:28

Todo con modelos de visión multimodal como Quewen.

6:30

El agente está mirando las cámaras.

6:32

Y si ve que llega un camión de

6:34

mensajería de FedEx, convierte esa imagen en texto

6:37

y te avisa por el chat.

6:39

Exacto.

6:39

Es fricción cero.

6:41

Piensa en cuántas apps distintas tenemos ahora mismo

6:44

en el móvil para la casa.

6:46

Uf, tela.

6:46

Una para las luces, otra para el aspirador…

6:49

Pues se acabó.

6:50

¿Para qué quieres la app de la cinta

6:52

de correr si Dobby le puede preguntar a

6:54

la base de datos y resumirte tu pulso

6:56

por chat?

6:56

Claro.

6:57

El lenguaje natural como interfaz universal.

6:59

Pero a ver, voy a hacer de abogado

7:01

del diablo.

7:02

Dime, dime.

7:03

Esto suena aterrador.

7:04

Estamos dando el control de nuestras cámaras, cerraduras

7:07

y alarmas a un sistema que sabemos que

7:09

a veces alucina e inventa cosas.

7:12

Es un escepticismo súper necesario.

7:15

Totalmente.

7:16

¿Es que de verdad alguien quiere quitar sus

7:18

botones seguros para depender de un chat que

7:20

igual se vuelve loco?

7:21

A corto plazo asusta, claro.

7:23

Pero la historia nos dice que la comodidad

7:25

siempre aplasta la cautela.

7:27

Siempre.

7:28

Ya, pero un botón físico no alucina.

7:31

Cierto.

7:31

Pero las interfaces rígidas te obligan a ti

7:34

a pensar como la máquina.

7:36

El lenguaje natural obliga a la máquina a

7:39

adaptarse.

7:39

¿Adaptarse a ti?

7:40

O sea, decirle, es hora de dormir y

7:42

que apague todo, baje la alarma y cierre.

7:44

Exacto.

7:45

A la larga, la precisión de los modelos

7:47

subirá tanto que usar botones nos parecerá prehistórico.

7:50

Bueno, aceptamos barco.

7:52

Y si esto cambia las casas, el salto

7:55

a la autoinvestigación ya es de ciencia ficción

7:57

pura.

7:58

Uf, ese es mi tema favorito.

8:00

Sacar al humano del bucle de decisión para

8:02

que la investigación no frene.

8:04

Claro.

8:04

Si el humano es el cuello de botella,

8:06

lo quitas.

8:07

Y dejas a la IA mejorando a la

8:09

IA.

8:09

Hay un experimento increíble sobre esto.

8:11

Un investigador con 20 años de experiencia ajustando

8:14

hiperparámetros a mano.

8:15

...que al experto se le habían pasado en

8:18

una sola noche.

8:19

Porque la máquina no se cansa, ¿eh?

8:21

Y no tiene sesgos de cómo deberían ser

8:23

las cosas.

8:24

Prueba miles de variantes mientras tú te haces

8:26

un café.

8:27

Pero esto es a pequeña escala.

8:29

Lo de las empresas creadas en archivos Markdown

8:31

es otro nivel.

8:32

Las empresas de Markdown, madre mía.

8:35

Imagina que el ADN de todo un laboratorio

8:37

de investigación es un símbolo.

8:39

Un simple archivo de texto con extensión .md.

8:42

Un archivo que describe la jerarquía, los roles

8:44

y cómo se comunican.

8:46

Exacto.

8:47

Como el formato Markdown es tan limpio, consume

8:50

poquísimos tokens.

8:51

Es ideal para que lo lea una IA.

8:54

Entonces puedes crear culturas de empresas artificiales.

8:57

Un archivo describe una empresa con muchas reuniones

9:00

matutinas.

9:01

Y otro archivo describe una cultura súper agresiva,

9:05

caótica y que sólo programa sin hablar.

9:07

Y las pones a competir.

9:09

Es como la evolución de las especies de

9:12

Darwin, pero en código.

9:13

Las lanzas a resolver un problema.

9:15

Y la arquitectura que lo resuelva más rápido

9:18

demuestra ser la mejor.

9:19

Sin humanos de por medio.

9:21

Y claro, esto conecta con el cómputo distribuido.

9:24

Como cuando la gente prestaba su ordenador para

9:27

buscar extraterrestres con el proyecto SETI.

9:30

Totalmente.

9:30

Generar la idea es muy difícil, pero verificar

9:33

si esa idea funciona es barato.

9:35

Pones a millones de agentes en Internet a

9:37

proponer mutaciones de código.

9:39

Y el sistema central sólo comprueba si mejora

9:42

uno.

9:42

Y fíjate en la consecuencia económica de esto.

9:45

Si avanzar depende sólo de calcular rápido, el

9:48

valor cambia.

9:48

Los famosos flops, ¿no?

9:50

Las operaciones matemáticas.

9:52

Sí.

9:53

Los flops podrían convertirse en la nueva moneda

9:56

de reserva mundial, por encima del dólar.

9:58

El poder es de quien controla el hardware.

10:01

Menudo panorama.

10:02

Es intimidante.

10:03

Pero hay un contraste muy cómico en todo

10:06

esto.

10:06

Ya sé por dónde vas.

10:07

Es que, por un lado, tenemos superinteligencias creando

10:10

empresas y optimizando código.

10:12

Pero, por otro, son profundamente mediocres.

10:14

Sí, sí.

10:15

La irregularidad de la IA.

10:17

Es fascinante.

10:18

Es como tener a un doctorando en física

10:20

cuántica fusionado en el mismo cerebro con un

10:22

niño de diez años.

10:23

Tal cual.

10:24

Por un lado, te escriben un kernel de

10:26

CUDA ultracomplejo para optimizar tarjetas gráficas sin un

10:29

solo error.

10:30

Y, por otro, le pides un chiste y

10:32

lleva cinco años contando el mismo.

10:33

El chiste de los átomos.

10:34

¿Por qué los científicos no se fían de

10:36

los átomos?

10:37

Porque se lo inventan todo.

10:39

Es malísimo y no mejoran.

10:41

Y hay una razón técnica de fondo muy

10:43

importante para esto.

10:44

El aprendizaje por refuerzo.

10:47

A ver, explícanos esto.

10:49

¿Por qué mejoran en matemáticas, pero no en

10:52

humor?

10:52

Porque en programación o en mates hay una

10:55

recompensa binaria.

10:56

El código compila o da error.

10:58

La ecuación está bien o mal.

11:01

¿Hay un verificador absoluto de la verdad?

11:03

Exacto.

11:04

Entonces la IA ajusta sus parámetros a la

11:07

velocidad de la luz.

11:08

¿Pero lo subjetivo, como el humor, carece de

11:11

un compilador?

11:12

Claro.

11:12

No hay una métrica objetiva para saber si

11:14

un chiste tiene gracia.

11:16

Depende de la cultura, del momento… Y como

11:18

no se puede medir automáticamente, el modelo se

11:21

estanca.

11:21

Se vuelve plano en las habilidades blandas humanas.

11:25

Pues esto me lleva a una pregunta clave.

11:27

Viendo este desequilibrio, ¿no deberíamos dejar de intentar

11:30

crear un único Dios de la IA?

11:33

Es una obsesión por el modelo monolítico universal.

11:35

Claro.

11:36

No tiene más sentido empezar a crear especialistas

11:38

en lugar de una entidad que sepa de

11:40

todo.

11:41

Totalmente.

11:42

Es lo que llamamos especiación.

11:44

Igual que en la biología.

11:46

O sea, inspirarnos en el reino animal.

11:49

Exacto.

11:49

La evolución no crea un solo cerebro para

11:52

todo.

11:53

Tienes el olfato súper especializado de un sabueso,

11:56

o la vista de un halcón… Entiendo.

11:58

Hay que romper esta monocultura tecnológica de modelos

12:02

gigantescos.

12:03

De modelos gigantescos que gastan muchísima energía.

12:05

Desagregar la inteligencia.

12:07

Modelos pequeñitos, baratos y súper eficientes, entrenados sólo

12:11

para analizar imágenes médicas.

12:13

O sólo para leyes.

12:15

Tiene todo el sentido.

12:16

Y hablando de especialización, llegamos al gran choque.

12:20

El mundo digital contra el mundo físico.

12:22

Los átomos contra los bits.

12:26

Uf.

12:26

La distinción fundamental.

12:29

Explica por qué el impacto en el empleo

12:31

va a ser tan asimétrico.

12:32

Es que es muy contraintuitivo.

12:34

La IA hace análisis financiero complejo o programa

12:38

a alto nivel.

12:39

Pero un robot no sabe doblar una camiseta

12:41

bien.

12:42

Porque manipular bits es gratis y va a

12:45

la velocidad de la luz.

12:46

En el mundo digital no hay fricción.

12:49

Puedes simular millones de escenarios en un segundo.

12:52

Pero en el mundo físico tienes gravedad.

12:54

Materiales imperfectos, rozamiento… Es un millón de veces

12:58

más lento y caro iterar.

13:00

Así que los trabajos digitales… …se van a

13:02

transformar muchísimo antes.

13:04

La IA va a ser como nuestro nuevo

13:06

sistema nervioso.

13:07

Seguro.

13:08

Y aquí surge una paradoja económica brutal.

13:11

Si la IA programa sola, uno pensaría que

13:14

sobran programadores.

13:15

¿No?

13:15

Claro.

13:16

Si la máquina lo hace, pues todos a

13:18

la calle.

13:18

Pues ocurre exactamente lo contrario.

13:20

La demanda de ingenieros de software sigue disparándose.

13:23

Es la paradoja de Jevons.

13:26

Espera, esto me suena.

13:27

¿Es lo de los cajeros automáticos en los

13:30

bancos?

13:30

Ese es el ejemplo perfecto, sí.

13:32

Cuando pusieron los cajeros, todo el mundo pensó

13:35

que los empleados de ventanilla desaparecerían.

13:38

Lógico.

13:38

La máquina te da el dinero.

13:40

El humano sobra.

13:41

Pero resultó que, al ser tan barato mantener

13:44

una sucursal, los bancos abrieron miles de sucursales

13:47

nuevas.

13:48

Y contrataron a más gente para vender seguros

13:51

e hipotecas.

13:51

Exacto.

13:52

Pues con el software pasa igual.

13:54

Hacer una aplicación siempre ha sido lentísimo y

13:57

carísimo.

13:57

Así que, al bajar el precio del desarrollo

14:00

con la IA, se despierta una demanda latente

14:02

inmensa.

14:03

Infinita.

14:04

Ahora la panadería del barrio o el profesional

14:06

independiente querrán su propio sistema de agentes personalizado.

14:10

Claro.

14:11

Y para construir y conectar todo eso hace

14:13

falta más gente.

14:14

Más directores de orquesta.

14:16

Exactamente.

14:17

Pero ojo.

14:18

Para que este nuevo mundo funcione bien, el

14:20

código abierto es crucial.

14:22

El open source.

14:23

Porque centralizar todo el poder en dos o

14:25

tres empresas da mucho miedo.

14:28

Históricamente, la centralización extrema siempre acaba mal.

14:32

Y el ecosistema abierto actúa como un seguro

14:35

democrático.

14:36

Aunque vayan seis u ocho meses por detrás

14:39

de los laboratorios de élite, da igual.

14:41

Hay que tener alternativas libres.

14:43

Es indispensable que cualquier persona pueda descargar y

14:48

usar estas herramientas sin pedir permiso.

14:50

Es nuestra válvula de escape.

14:52

Qué interesante.

14:53

Y fíjate, esto de democratizar el acceso me

14:57

llama la atención.

14:57

Y lleva al punto final que para mí

14:59

es el más provocador.

15:00

El futuro de la educación.

15:02

Sí.

15:02

El caso de la herramienta MicroGPT.

15:05

Eso es.

15:06

Un desarrollador consiguió reducir una red neuronal compleja

15:10

a sólo 200 líneas de código.

15:12

Una pasada de síntesis.

15:14

Es un logro técnico espectacular.

15:16

Pero lo fuerte es lo que hizo con

15:18

la documentación.

15:19

Claro.

15:20

Lo normal sería grabar un tutorial en vídeo

15:22

o escribir un manual para que nosotros los

15:24

humanos lo entendamos.

15:25

Con el esfuerzo pedagógico que eso supone.

15:28

Pues no.

15:29

Se dio cuenta de que no tiene sentido.

15:31

Escribió la explicación técnica pensando exclusivamente en que

15:34

la leyera un agente de IA.

15:36

Documentación para máquinas.

15:38

Es que la lógica es aplastante, ¿eh?

15:40

Sí.

15:40

Si el agente informático entiende el concepto perfectamente,

15:44

luego él puede darse la vuelta y explicárselo

15:46

a cualquier humano.

15:47

Y lo hará con paciencia infinita.

15:49

Adaptando las metáforas a tu nivel de conocimientos

15:51

concretos, en tu idioma, a la hora que

15:54

quieras.

15:54

El traductor universal de la complejidad.

15:57

Pero claro, aquí lanzo la reflexión final para

15:59

quienes nos escuchan.

16:00

Adelante.

16:01

Si los libros de texto y las documentaciones

16:03

del futuro se escriben para las máquinas, y

16:05

el arte de explicar bien está resuelto, ¿cuál

16:08

es el papel del maestro?

16:10

Es la gran pregunta.

16:11

¿Tu valor ya no será tener paciencia o

16:14

ser didáctico?

16:15

Exacto.

16:16

El valor estará en diseñar la ruta.

16:18

En aportar ese hallazgo original, esa intuición humana

16:22

que un sistema estadístico no puede deducir.

16:24

Habilidades puramente humanas.

16:26

Es un cambio de paradigma total para la

16:29

educación y para todos nosotros.

16:31

Pues ahí queda esa reflexión para darle una

16:32

vuelta.

16:33

Antes de despedirnos hasta el próximo programa, os

16:36

informamos de que las voces que oyes han

16:38

sido generadas por la IA de Notebook LM,

16:40

y que dirigiendo el podcast se encuentra Jurio

16:43

Pablo Vázquez, un humano que te envía saludos.

16:45

En caso de error, probablemente sean errores humanos.

16:48

Nos escuchamos.

17:00

Y hasta aquí el episodio de hoy.

17:03

Muchas gracias por tu atención.

17:14

Esto es BIMpraxis.

17:16

Nos escuchamos en el próximo episodio.