Buenas, esto es BIMPRAXIS, el podcast donde el
BIM se encuentra con la inteligencia artificial.
Exploramos la ciencia, la tecnología y el futuro
desde el enfoque de la arquitectura, ingeniería y
construcción.
¡Empezamos!
Muy buenas, bienvenidas, bienvenidos a un nuevo episodio
de BIMPRAXIS.
Hoy os traemos el fin de la programación,
la psicosis de los agentes y la inteligencia
automatizada.
Hola, ¿qué tal?
Pues sí, hoy tenemos un tema que, de
verdad, nos vuela la cabeza por completo.
Totalmente.
Porque, a ver, existe una imagen muy arraigada
sobre cómo se crea el software.
Ya sabes, la típica habitación a media luz,
un monitor con fondo negro y alguien tecleando
a toda velocidad.
Claro, el paradigma clásico.
Es una visión casi artesanal, como si fueras
un albañil digital poniendo un bloque de código
tras otro, línea por línea.
Exacto.
Todo lineal, predecible y bajo control.
Escribes la función, compilas, buscas el error y
repites.
Y en esa dinámica, el límite siempre ha
sido la velocidad del cerebro humano para traducir
la lógica a una sintaxis que el ordenador
entienda.
Pues preparaos porque esa imagen acaba de saltar
por los aires.
Esta inmersión a fondo arranca con una confesión
fascinante de Andrei Karpathy.
Madre mía, sí.
Uno de los nombres más respetados en el
mundo de la inteligencia artificial.
Pues fíjate.
¿Qué es la inteligencia artificial?
Confiesa que desde el pasado mes de diciembre
prácticamente no ha escrito ni una sola línea
de código.
Cero.
Es brutal.
Pasar de escribir el 80 % de sus
proyectos a delegar casi el 100 % es
un salto enorme.
Y entonces, claro, la pregunta es ¿qué hace
durante 16 horas al día?
Pues dice que está sufriendo una especie de
psicosis constante.
Sí, sí, lo de manifestar software.
Susurrando instrucciones a un enjambre de agentes autónomos.
O sea, ya no teclea.
Habla.
Y la misión de nuestro análisis de hoy
es entender este cambio radical.
Exacto.
Porque esto no solo afecta a los programadores.
Vamos a ver cómo cambia la interacción con
nuestras propias casas, cómo evoluciona la ciencia y,
sorprendentemente, por qué estas superinteligencias siguen fallando en
lo más humano.
Pues vamos a meternos de lleno.
Para visualizar este salto, hay un ejemplo buenísimo
de un desarrollador llamado Peter Steinberger.
Ah, sí, el caso de Steinberger es revelador.
Qué va, qué va.
Tiene un monitor lleno de agentes de códex
independientes.
Están operando sobre 10 repositorios diferentes a la
vez.
Es como si moviera los healers de unas
marionetas invisibles.
Da lo que ahora llamamos macroacciones.
O sea, a ver si lo entiendo.
Ya no le dices a la máquina cómo
estructurar un bucle de datos.
La instrucción es a nivel organizativo, ¿no?
Resume qué puede hacer.
Y a un segundo agente le dices que
implemente la arquitectura basándose en lo que ha
investigado el primero.
Exacto.
Y luego a un tercer agente.
Y al tercero, pon a prueba ese código
y corrige los fallos.
Es pura gestión de proyectos.
Ya no es sintaxis.
Claro, pasas de ser el peón de obra
al arquitecto que dirige a mil obreros.
Pero aquí hay un tema psicológico complejo.
Sí, la ansiedad que genera esto.
Eso es.
Históricamente, el cuello de botella era el ordenador.
Si el procesador era lento, pues te ibas
a tomar un café.
Ya.
Pero ahora el límite es tu propia capacidad
para mantener a esta fuerza bruta ocupada.
Tiene que ser súper estresante, ¿no?
O sea, saber que si no coordinas bien,
¿estás desperdiciando tu cuota de tokens mensual?
Es una ansiedad súper real.
Fíjate que recuerda mucho a la época del
doctorado hace 10 años.
Ah, por lo de las tarjetas gráficas.
Sí, sí, sí.
Si tenías las GPUs sin hacer nada, sin
exprimir los flops al máximo, era un desperdicio
imperdonable.
Te sentías culpable.
Madre mía.
Y ahora esa métrica es el token.
Si te sobran tokens, has fallado tú como
gestor.
Pues sí.
El humano es el nuevo cuello de botella.
Pero hay un matiz muy curioso en cómo
lidiamos con este estrés.
¿Te refieres a la personalidad de las inteligencias
artificiales?
Exactamente.
Porque no todas las herramientas se perciben igual.
Por ejemplo, Codex es muy seco.
Cumple su función y punto.
Es aburrido.
Ya.
Pero luego tienes modelos como Cloud, que están
diseñados para parecer el compañero de equipo entusiasta,
¿verdad?
Claro.
Y ese ajuste no es casualidad.
Reduce nuestra fricción cognitiva.
En el fondo, es solo matemáticas prediciendo palabras.
Ya, ya.
No hay nadie ahí.
No.
Pero como simula un comportamiento colaborativo, nuestro cerebro
entra al trapo.
Engancha con nuestras estructuras sociales.
Es que es muy fuerte.
Quien la orquesta llega a confesar que intenta
ganarse los elogios de Cloud.
Sí.
Le presenta ideas buenas para que la IA
le diga, oye, qué gran trabajo.
¿Qué?
¿Qué?
¿Qué?
¿Qué?
¿Qué?
¿Qué?
Es muy humano, fíjate.
Y esta necesidad de interactuar con identidades nos
lleva al siguiente nivel.
Claro.
Porque si tratamos a un agente de código
como a un colega, ¿qué pasa cuando le
damos acceso al mundo físico?
¿A nuestras casas?
Pues que la interfaz de usuario tradicional, las
apps de toda la vida, se mueren.
Hablemos del experimento de automatización doméstica.
El agente que bautizaron como Dobby, como el
elfo de Harry Potter.
Ese mismo.
Ese mismo.
Y lo mejor es que no usa una
app de domótica súper compleja.
Lo hace todo por WhatsApp.
Por WhatsApp.
Es que la anécdota de los altavoces sonos
es brutal.
Le piden a Dobby por el chat, oye,
¿puedes encontrar mis sonos?
Y sin darle ninguna instrucción más, el agente
escanea la red local por su cuenta.
Y detecta los altavoces, ve que no tienen
contraseña, deduce cómo conectarse y les pone música.
Cero apps descargadas.
Es que el mecanismo es alucinante.
Dobby no es un programa rígido.
Es un modelo que genera un plan sobre
la marcha.
O sea, usa herramientas, mira lo que le
devuelven y toma decisiones.
Y tú solo ves una conversación en WhatsApp.
La complejidad técnica desaparece por completo.
Pero es que va más allá de la
música.
Sí, sí.
Controla las luces, la temperatura del agua del
spa, la seguridad.
Todo con modelos de visión multimodal como Quewen.
El agente está mirando las cámaras.
Y si ve que llega un camión de
mensajería de FedEx, convierte esa imagen en texto
y te avisa por el chat.
Exacto.
Es fricción cero.
Piensa en cuántas apps distintas tenemos ahora mismo
en el móvil para la casa.
Uf, tela.
Una para las luces, otra para el aspirador…
Pues se acabó.
¿Para qué quieres la app de la cinta
de correr si Dobby le puede preguntar a
la base de datos y resumirte tu pulso
por chat?
Claro.
El lenguaje natural como interfaz universal.
Pero a ver, voy a hacer de abogado
del diablo.
Dime, dime.
Esto suena aterrador.
Estamos dando el control de nuestras cámaras, cerraduras
y alarmas a un sistema que sabemos que
a veces alucina e inventa cosas.
Es un escepticismo súper necesario.
Totalmente.
¿Es que de verdad alguien quiere quitar sus
botones seguros para depender de un chat que
igual se vuelve loco?
A corto plazo asusta, claro.
Pero la historia nos dice que la comodidad
siempre aplasta la cautela.
Siempre.
Ya, pero un botón físico no alucina.
Cierto.
Pero las interfaces rígidas te obligan a ti
a pensar como la máquina.
El lenguaje natural obliga a la máquina a
adaptarse.
¿Adaptarse a ti?
O sea, decirle, es hora de dormir y
que apague todo, baje la alarma y cierre.
Exacto.
A la larga, la precisión de los modelos
subirá tanto que usar botones nos parecerá prehistórico.
Bueno, aceptamos barco.
Y si esto cambia las casas, el salto
a la autoinvestigación ya es de ciencia ficción
pura.
Uf, ese es mi tema favorito.
Sacar al humano del bucle de decisión para
que la investigación no frene.
Claro.
Si el humano es el cuello de botella,
lo quitas.
Y dejas a la IA mejorando a la
IA.
Hay un experimento increíble sobre esto.
Un investigador con 20 años de experiencia ajustando
hiperparámetros a mano.
...que al experto se le habían pasado en
una sola noche.
Porque la máquina no se cansa, ¿eh?
Y no tiene sesgos de cómo deberían ser
las cosas.
Prueba miles de variantes mientras tú te haces
un café.
Pero esto es a pequeña escala.
Lo de las empresas creadas en archivos Markdown
es otro nivel.
Las empresas de Markdown, madre mía.
Imagina que el ADN de todo un laboratorio
de investigación es un símbolo.
Un simple archivo de texto con extensión .md.
Un archivo que describe la jerarquía, los roles
y cómo se comunican.
Exacto.
Como el formato Markdown es tan limpio, consume
poquísimos tokens.
Es ideal para que lo lea una IA.
Entonces puedes crear culturas de empresas artificiales.
Un archivo describe una empresa con muchas reuniones
matutinas.
Y otro archivo describe una cultura súper agresiva,
caótica y que sólo programa sin hablar.
Y las pones a competir.
Es como la evolución de las especies de
Darwin, pero en código.
Las lanzas a resolver un problema.
Y la arquitectura que lo resuelva más rápido
demuestra ser la mejor.
Sin humanos de por medio.
Y claro, esto conecta con el cómputo distribuido.
Como cuando la gente prestaba su ordenador para
buscar extraterrestres con el proyecto SETI.
Totalmente.
Generar la idea es muy difícil, pero verificar
si esa idea funciona es barato.
Pones a millones de agentes en Internet a
proponer mutaciones de código.
Y el sistema central sólo comprueba si mejora
uno.
Y fíjate en la consecuencia económica de esto.
Si avanzar depende sólo de calcular rápido, el
valor cambia.
Los famosos flops, ¿no?
Las operaciones matemáticas.
Sí.
Los flops podrían convertirse en la nueva moneda
de reserva mundial, por encima del dólar.
El poder es de quien controla el hardware.
Menudo panorama.
Es intimidante.
Pero hay un contraste muy cómico en todo
esto.
Ya sé por dónde vas.
Es que, por un lado, tenemos superinteligencias creando
empresas y optimizando código.
Pero, por otro, son profundamente mediocres.
Sí, sí.
La irregularidad de la IA.
Es fascinante.
Es como tener a un doctorando en física
cuántica fusionado en el mismo cerebro con un
niño de diez años.
Tal cual.
Por un lado, te escriben un kernel de
CUDA ultracomplejo para optimizar tarjetas gráficas sin un
solo error.
Y, por otro, le pides un chiste y
lleva cinco años contando el mismo.
El chiste de los átomos.
¿Por qué los científicos no se fían de
los átomos?
Porque se lo inventan todo.
Es malísimo y no mejoran.
Y hay una razón técnica de fondo muy
importante para esto.
El aprendizaje por refuerzo.
A ver, explícanos esto.
¿Por qué mejoran en matemáticas, pero no en
humor?
Porque en programación o en mates hay una
recompensa binaria.
El código compila o da error.
La ecuación está bien o mal.
¿Hay un verificador absoluto de la verdad?
Exacto.
Entonces la IA ajusta sus parámetros a la
velocidad de la luz.
¿Pero lo subjetivo, como el humor, carece de
un compilador?
Claro.
No hay una métrica objetiva para saber si
un chiste tiene gracia.
Depende de la cultura, del momento… Y como
no se puede medir automáticamente, el modelo se
estanca.
Se vuelve plano en las habilidades blandas humanas.
Pues esto me lleva a una pregunta clave.
Viendo este desequilibrio, ¿no deberíamos dejar de intentar
crear un único Dios de la IA?
Es una obsesión por el modelo monolítico universal.
Claro.
No tiene más sentido empezar a crear especialistas
en lugar de una entidad que sepa de
todo.
Totalmente.
Es lo que llamamos especiación.
Igual que en la biología.
O sea, inspirarnos en el reino animal.
Exacto.
La evolución no crea un solo cerebro para
todo.
Tienes el olfato súper especializado de un sabueso,
o la vista de un halcón… Entiendo.
Hay que romper esta monocultura tecnológica de modelos
gigantescos.
De modelos gigantescos que gastan muchísima energía.
Desagregar la inteligencia.
Modelos pequeñitos, baratos y súper eficientes, entrenados sólo
para analizar imágenes médicas.
O sólo para leyes.
Tiene todo el sentido.
Y hablando de especialización, llegamos al gran choque.
El mundo digital contra el mundo físico.
Los átomos contra los bits.
Uf.
La distinción fundamental.
Explica por qué el impacto en el empleo
va a ser tan asimétrico.
Es que es muy contraintuitivo.
La IA hace análisis financiero complejo o programa
a alto nivel.
Pero un robot no sabe doblar una camiseta
bien.
Porque manipular bits es gratis y va a
la velocidad de la luz.
En el mundo digital no hay fricción.
Puedes simular millones de escenarios en un segundo.
Pero en el mundo físico tienes gravedad.
Materiales imperfectos, rozamiento… Es un millón de veces
más lento y caro iterar.
Así que los trabajos digitales… …se van a
transformar muchísimo antes.
La IA va a ser como nuestro nuevo
sistema nervioso.
Seguro.
Y aquí surge una paradoja económica brutal.
Si la IA programa sola, uno pensaría que
sobran programadores.
¿No?
Claro.
Si la máquina lo hace, pues todos a
la calle.
Pues ocurre exactamente lo contrario.
La demanda de ingenieros de software sigue disparándose.
Es la paradoja de Jevons.
Espera, esto me suena.
¿Es lo de los cajeros automáticos en los
bancos?
Ese es el ejemplo perfecto, sí.
Cuando pusieron los cajeros, todo el mundo pensó
que los empleados de ventanilla desaparecerían.
Lógico.
La máquina te da el dinero.
El humano sobra.
Pero resultó que, al ser tan barato mantener
una sucursal, los bancos abrieron miles de sucursales
nuevas.
Y contrataron a más gente para vender seguros
e hipotecas.
Exacto.
Pues con el software pasa igual.
Hacer una aplicación siempre ha sido lentísimo y
carísimo.
Así que, al bajar el precio del desarrollo
con la IA, se despierta una demanda latente
inmensa.
Infinita.
Ahora la panadería del barrio o el profesional
independiente querrán su propio sistema de agentes personalizado.
Claro.
Y para construir y conectar todo eso hace
falta más gente.
Más directores de orquesta.
Exactamente.
Pero ojo.
Para que este nuevo mundo funcione bien, el
código abierto es crucial.
El open source.
Porque centralizar todo el poder en dos o
tres empresas da mucho miedo.
Históricamente, la centralización extrema siempre acaba mal.
Y el ecosistema abierto actúa como un seguro
democrático.
Aunque vayan seis u ocho meses por detrás
de los laboratorios de élite, da igual.
Hay que tener alternativas libres.
Es indispensable que cualquier persona pueda descargar y
usar estas herramientas sin pedir permiso.
Es nuestra válvula de escape.
Qué interesante.
Y fíjate, esto de democratizar el acceso me
llama la atención.
Y lleva al punto final que para mí
es el más provocador.
El futuro de la educación.
Sí.
El caso de la herramienta MicroGPT.
Eso es.
Un desarrollador consiguió reducir una red neuronal compleja
a sólo 200 líneas de código.
Una pasada de síntesis.
Es un logro técnico espectacular.
Pero lo fuerte es lo que hizo con
la documentación.
Claro.
Lo normal sería grabar un tutorial en vídeo
o escribir un manual para que nosotros los
humanos lo entendamos.
Con el esfuerzo pedagógico que eso supone.
Pues no.
Se dio cuenta de que no tiene sentido.
Escribió la explicación técnica pensando exclusivamente en que
la leyera un agente de IA.
Documentación para máquinas.
Es que la lógica es aplastante, ¿eh?
Sí.
Si el agente informático entiende el concepto perfectamente,
luego él puede darse la vuelta y explicárselo
a cualquier humano.
Y lo hará con paciencia infinita.
Adaptando las metáforas a tu nivel de conocimientos
concretos, en tu idioma, a la hora que
quieras.
El traductor universal de la complejidad.
Pero claro, aquí lanzo la reflexión final para
quienes nos escuchan.
Adelante.
Si los libros de texto y las documentaciones
del futuro se escriben para las máquinas, y
el arte de explicar bien está resuelto, ¿cuál
es el papel del maestro?
Es la gran pregunta.
¿Tu valor ya no será tener paciencia o
ser didáctico?
Exacto.
El valor estará en diseñar la ruta.
En aportar ese hallazgo original, esa intuición humana
que un sistema estadístico no puede deducir.
Habilidades puramente humanas.
Es un cambio de paradigma total para la
educación y para todos nosotros.
Pues ahí queda esa reflexión para darle una
vuelta.
Antes de despedirnos hasta el próximo programa, os
informamos de que las voces que oyes han
sido generadas por la IA de Notebook LM,
y que dirigiendo el podcast se encuentra Jurio
Pablo Vázquez, un humano que te envía saludos.
En caso de error, probablemente sean errores humanos.
Nos escuchamos.
Y hasta aquí el episodio de hoy.
Muchas gracias por tu atención.
Esto es BIMpraxis.
Nos escuchamos en el próximo episodio.