BIMPRAXIS

BIMPRAXIS@bimpraxis

0 followers
Follow

2026 episodes (46)

E047_Orquestando_agentes_complejos_con_LangGraph
Ep. 47

E047_Orquestando_agentes_complejos_con_LangGraph

LangGraph: La Evolución de la Inteligencia Artificial LangGraph es una herramienta revolucionaria que permite a los desarrolladores crear aplicaciones de inteligencia artificial complejas y fiables. A diferencia de su predecesor Landchain, que se enfoca en flujos de trabajo lineales, LangGraph se centra en la creación de mapas de decisiones con bucles, bifurcaciones y saltos condicionales. Esto permite a los agentes de IA “pensar” de manera más humana, tomando decisiones y corrigiendo errores de forma autónoma. Con características como la memoria a corto y largo plazo, la gestión de estado y la intervención humana, LangGraph ofrece una solución robusta para aplicaciones críticas. Aunque puede ser complejo de implementar, su capacidad para gestionar sistemas cíclicos y aprender de las interacciones lo convierte en un cambio de paradigma en el campo de la inteligencia artificial.

E046_Unstructured.io estructura tus datos para RAG
Ep. 46

E046_Unstructured.io estructura tus datos para RAG

Descubre Unstructured.io, la herramienta open source esencial para gestionar el caos de datos empresariales. Analizamos cómo este proyecto de “fontanería de datos” convierte documentos desestructurados (PDFs, Word, imágenes) en formatos limpios, actuando como la infraestructura clave para construir sistemas avanzados de Inteligencia Artificial. Exploramos a fondo la tecnología RAG (Generación Aumentada por Recuperación), su crecimiento exponencial y cómo permite a los grandes modelos de lenguaje acceder a información privada y actualizada de forma segura. Además, detallamos la evolución del RAG, desde su versión básica hasta el potente RAG agéntico, que orquesta tareas complejas y mantiene la trazabilidad de los datos sensibles de la organización.

E045_Firecrawl__Extracción_de_Datos_Web_para_Inteligencia_Artif
Ep. 45

E045_Firecrawl__Extracción_de_Datos_Web_para_Inteligencia_Artif

Descubre FireCrowl, la API open source esencial para desarrolladores que buscan datos estructurados de alta calidad para modelos de IA. Esta herramienta transforma el contenido web complejo en formatos limpios (Markdown/JSON) mediante funciones de scraping y rastreo avanzado. Analizamos su potente módulo de extracción impulsado por Gemini 2.5 Pro, que utiliza lenguaje natural para obtener información específica de forma resiliente. Abordamos, además, la importancia de comprender su sistema de coste dual (créditos versus tokens) al planificar soluciones de IA personalizadas y escalables.

E044_Agent_Zero_automatiza_tareas_y_código_localmente
Ep. 44

E044_Agent_Zero_automatiza_tareas_y_código_localmente

Episodio 44: Agency Row, el superagente de IA Agency Row es un framework de IA autónomo y en evolución que opera dentro de un entorno Docker, permitiendo a los usuarios ejecutar sus propios agentes autónomos sin restricciones de grandes corporaciones. Con capacidades como la autonomía sin parangón y la colaboración multiagente, Agency Row se destaca por su flexibilidad y potencia. Aunque requiere conocimientos técnicos y un hardware potente, ofrece una gran capacidad de personalización y puede ser utilizado para tareas como la generación de código y la administración de sistemas. Su modelo de sostenibilidad se basa en un token cripto que financia a los desarrolladores y establece una gobernanza comunitaria. Con Agency Row, la pregunta surge sobre las nuevas responsabilidades que recaen sobre el usuario para garantizar un uso ético y seguro de estas herramientas autónomas.

E043_pyRevit_y_Revit-mcp_controlan_Revit_con_IA
Ep. 43

E043_pyRevit_y_Revit-mcp_controlan_Revit_con_IA

Episodio 43: La unión de PyRevit y Revit MCP En el mundo de la arquitectura, ingeniería y construcción, la alianza entre la inteligencia artificial (IA) y el Building Information Modeling (BIM) está revolucionando la forma en que trabajamos. En este episodio, exploramos la potente combinación de PyRevit, una herramienta open source y gratuita, y Revit MCP, un framework que facilita la comunicación entre Revit y la IA. Juntos, ofrecen la capacidad de crear herramientas personalizadas y automatizar tareas complejas, abriendo un nuevo paradigma para los flujos de trabajo BIM. Con la posibilidad de ejecutar scripts en Python y conectar con la IA, las posibilidades son infinitas, pero también plantean desafíos en cuanto a seguridad y control. Descubre cómo esta pareja perfecta para exploradores y experimentadores puede democratizar la automatización BIM impulsada por IA.

E042_Bonsai_BIM
Ep. 42

E042_Bonsai_BIM

Episodio 42: Bonsai BIM, una alternativa open source para el modelado BIM Bonsai BIM es una herramienta de código abierto que permite trabajar directamente en el formato IFC, el estándar internacional Open BIM. Esta herramienta, anteriormente conocida como Blender Beam, se presenta como una alternativa a gigantes como Revit o Archicad, ofreciendo una solución gratuita y accesible para la autoría y el modelado BIM. Con capacidades para crear muros, forjados, puertas y ventanas, y generar planos de planta, alzados y secciones directamente desde el modelo IFC, Bonsai BIM busca revolucionar el flujo de trabajo BIM con su enfoque en la transparencia total de los datos y la interoperabilidad.

E041_Con IA podemos crear Scripts para Revit sin saber programar
Ep. 41

E041_Con IA podemos crear Scripts para Revit sin saber programar

Episodio 41: Vibe Coding y el Poder de la Inteligencia Artificial en la Creación de Herramientas El “vibe coding” promete revolucionar la forma en que creamos herramientas, permitiendo a profesionales sin conocimientos de programación generar soluciones personalizadas para su trabajo. En este episodio, exploramos cómo la inteligencia artificial puede convertir descripciones en código funcional, analizando un ejemplo práctico de creación de una herramienta de control de calidad para Revit. Descubriremos cómo la colaboración entre humanos y máquinas puede desbloquear nuevas posibilidades y reducir barreras técnicas, permitiendo a expertos en diversas áreas crear soluciones innovadoras sin necesidad de conocimientos de programación.

E040_Dos vías para automatizar Revit con IA
Ep. 40

E040_Dos vías para automatizar Revit con IA

La integración de la inteligencia artificial (IA) en el mundo del Building Information Modeling (BIM) es un tema cada vez más relevante. En este contexto, se exploran dos enfoques opuestos para aprovechar la IA en Autodesk Revit: por un lado, el plugin BeamLogic Copilot, que ofrece una solución lista para usar y permite a los usuarios interactuar con su modelo de manera conversacional; por otro, el framework de código abierto Revit MCP, que proporciona una herramienta modular y personalizable para desarrolladores. Ambas opciones tienen sus ventajas y desventajas, y la elección entre ellas dependerá de las necesidades específicas de cada estudio o empresa.

E039_El_USB_de_la_ciencia_El_Protocolo_SCP
Ep. 39

E039_El_USB_de_la_ciencia_El_Protocolo_SCP

Descubriendo el Futuro de la Ciencia: El Protocolo de Contexto Científico (SCP) El avance científico se enfrenta a un desafío significativo: la integración de conocimientos y recursos dispersos. Para abordar esto, surge el Protocolo de Contexto Científico (SCP), una iniciativa que aspira a crear un estándar abierto y una red global de agentes científicos autónomos. Esto permitiría la colaboración fluida entre investigadores y recursos de todo el mundo, acelerando el descubrimiento y la innovación. Con una plataforma funcional ya en marcha y más de 1.600 recursos disponibles, el SCP abre un camino hacia una ciencia más escalable, multi-institucional y autónoma. Sin embargo, también plantea importantes preguntas éticas y políticas sobre la gobernanza y el uso responsable de esta tecnología.

E038_El_salto_de_Word2Vec_a_BERT
Ep. 38

E038_El_salto_de_Word2Vec_a_BERT

Entendiendo el significado de las palabras con IA La inteligencia artificial puede aprender a entender el significado de las palabras a través de modelos como Word2Vec, Glove y FastText, que utilizan vectores para representar las relaciones semánticas entre palabras. Estos modelos pueden aprender a partir de grandes cantidades de texto y capturar relaciones complejas, como la similitud entre palabras y la relación entre conceptos. Sin embargo, tienen limitaciones, como la creación de representaciones estáticas que no dependen del contexto. El modelo BERT, desarrollado por Google en 2018, revolucionó este campo al introducir un enfoque bidireccional que permite al modelo leer y entender el texto de manera más similar a como lo hace un humano.

E037_Beethoven y la IA: Rompiendo las cuerdas
Ep. 37

E037_Beethoven y la IA: Rompiendo las cuerdas

🎹 ¿Sabías que el genio de Beethoven dependía de una tecnología que apenas acababa de inventarse? 🎼 Viajamos a la Viena de finales del siglo XVIII para descubrir cómo la revolución industrial del piano permitió una expresividad y un rango dinámico antes tecnológicamente imposibles. Exploramos cómo las mejoras en el hardware permitieron al artista romper con lo establecido y crear un nuevo tipo de arte, transformando para siempre la experiencia humana. ✨ 🧠 Hoy, nuestros teclados controlan instrumentos mucho más extraños y potentes: la Inteligencia Artificial. ⚡️ Analizamos el ensayo Measure Up de Dean W. Ball para entender por qué los modelos de lenguaje son los pianos de nuestra era y cómo, al igual que Beethoven, debemos atrevernos a romper las cuerdas de estos nuevos simuladores cognitivos para descubrir su verdadero potencial y ver si realmente dan la talla. 🚀 Fuentes: • Measure Up - Dean W. Ball

E036_¿La IA debe imitar nuestros defectos o corregirlos?
Ep. 36

E036_¿La IA debe imitar nuestros defectos o corregirlos?

¿Alguna vez te has preguntado si la Inteligencia Artificial debería imitar nuestros defectos o corregirlos? 🤖 En este episodio exploramos el fascinante dilema entre “enmascarar o reflejar”, analizando un experimento masivo donde modelos como Gemini, GPT y Claude simularon una elección de líderes en un escenario de supervivencia 🌊. Descubre por qué algunas IAs actúan como un espejo fiel de los prejuicios humanos (incluyendo el sesgo de género), mientras que otras intentan ponerse una máscara de meritocracia para tomar decisiones más óptimas, aunque menos “humanas”. 🎭 Los hallazgos revelan una tensión crítica para el futuro de la tecnología social: mientras unos modelos replican nuestra tendencia a sobre-elegir líderes masculinos 👔, otros logran mejores resultados ignorando las señales sociales. Analizamos qué ocurre cuando ocultamos la identidad a la IA y por qué el contexto es la clave de todo. ¡Dale al play ▶️ para descubrir si queremos que la tecnología sea nuestro reflejo exacto o nuestra mejor versión posible! 🚀 Fuentes: • To Mask or to Mirror: Human-AI Alignment in Collective Reasoning (ACL Anthology)

E035_Thinking Machines Lab: Crea y entrena tus propios modelos de IA con Tinker
Ep. 35

E035_Thinking Machines Lab: Crea y entrena tus propios modelos de IA con Tinker

🚀 ¿El fin de la era de los chatbots genéricos? Mira Murati (ex-CTO de OpenAI) regresa a lo grande con Thinking Machines Lab tras levantar 2.000 millones de dólares. Pero no esperes otro clon de ChatGPT; su propuesta, Tinker, es una revolución técnica diseñada para devolverte el control absoluto. 🧠 En este episodio desglosamos qué es exactamente esta “cocina industrial” de IA que promete resolver el gran talón de Aquiles de los modelos actuales: la consistencia y el razonamiento fiable, permitiendo a los desarrolladores cocinar sus propios modelos sin preocuparse por la infraestructura pesada. 🛠️ Olvídate de los prompts mágicos; aquí venimos a hablar de ingeniería real. Analizamos cómo Tinker abstrae la complejidad de los clústeres de GPUs para que, con tu propio script de Python y tus datasets, puedas entrenar desde modelos multimodales que “ven” interfaces hasta agentes autónomos que aprenden por ensayo y error en entornos simulados. 🎓 Descubre si tienes lo necesario para pasar de usuario a arquitecto de IA y cómo esta herramienta permite crear modelos expertos capaces de interactuar con software de ingeniería o medicina. 🎧 ¡Dale al play para entender el futuro de la IA personalizada!

E034_La historia de Perplexity
Ep. 34

E034_La historia de Perplexity

En este episodio, analizamos cómo un fanboy de Larry Page está utilizando el “dilema del innovador” en contra del gigante de las búsquedas: mientras Google teme canibalizar sus millonarios ingresos publicitarios, Perplexity ofrece respuestas directas, citadas y precisas. Descubre cómo esta startup actúa como un director de orquesta 🎻 de la inteligencia artificial, integrando múltiples modelos para priorizar la velocidad y la veracidad sin los costes imposibles de sus competidores. De valer 520 millones a 14.000 millones de dólares en tiempo récord 🚀, Perplexity se ha convertido en el unicornio más codiciado del momento. Exploramos su crecimiento explosivo de usuarios, los rumores de alianzas estratégicas con Apple 🍏 o Samsung que podrían cambiar las reglas del juego en nuestros móviles, y qué significa realmente el concepto técnico de “perplejidad” en los modelos de lenguaje. Dale al play ▶️ para entender si estamos ante el fin de la hegemonía de los “10 enlaces azules” y quién ganará este nuevo Juego de Tronos de la IA. ⚔️

E033_La Unificación de la Inteligencia Visual y Científica 2025-2026 (Fin de la serie)
Ep. 33

E033_La Unificación de la Inteligencia Visual y Científica 2025-2026 (Fin de la serie)

¿Te imaginas una IA que no solo escribe código, sino que evoluciona sus propios algoritmos para descubrir matemáticas nuevas? 🧬 En este episodio exploramos a fondo AlphaEvolve, el revolucionario agente de codificación de Google DeepMind que está redefiniendo los límites de la ciencia y la computación. A diferencia de los modelos de lenguaje tradicionales que pueden alucinar, este sistema utiliza un enfoque evolutivo para iterar, corregir y superoptimizar soluciones mediante la ejecución real de código. Desde mejorar la eficiencia de los centros de datos de Google ☁️ hasta rediseñar circuitos de hardware, analizamos cómo esta tecnología está cerrando la brecha entre la generación de ideas y el descubrimiento científico verificable. 🚀 Descubre cómo AlphaEvolve logró romper un estancamiento de 56 años al encontrar un algoritmo más rápido para la multiplicación de matrices complejas 4x4 y cómo ha resuelto problemas abiertos en combinatoria y geometría que desafiaban a los expertos. 🤯 Debatiremos sobre su capacidad para actuar como un colaborador de investigación, generando matemáticas constructivas a escala y encontrando soluciones que escapan a la intuición humana. Si te apasiona la intersección entre la Inteligencia Artificial, la ingeniería de software extrema y los grandes enigmas teóricos, este episodio es imprescindible. ¡Dale al play y acompáñanos a vislumbrar el futuro de la optimización algorítmica! 🎧⚡ Enlaces relevantes: • Paper original: AlphaEvolve: A coding agent for scientific and algorithmic discovery • Artículo en el blog de Google DeepMind sobre AlphaEvolve • Paper complementario: Mathematical exploration and discovery at scale

E032_La destilación del conocimiento en los modelos de lenguaje grandes (LLM)
Ep. 32

E032_La destilación del conocimiento en los modelos de lenguaje grandes (LLM)

¿Alguna vez te has preguntado cómo logramos que los gigantescos Modelos de Lenguaje Grande (LLMs) quepan en dispositivos más pequeños sin perder su “inteligencia”? 🧠✨ En este episodio desglosamos el fascinante mundo de la Knowledge Distillation (Destilación de Conocimiento), la técnica maestra que transfiere la sabiduría de un modelo “profesor” masivo a un “alumno” ágil y eficiente. 📱 Pero hay una trampa en los métodos actuales: descubriremos por qué los atajos populares, como guardar solo las probabilidades más altas (Top-K), están creando modelos sesgados y peligrosamente sobreconfiados en sus errores. 🚫🔍 Nos sumergimos en la última investigación de 2025, “Sparse Logit Sampling”, que propone una solución elegante y poderosa: la Random Sampling Knowledge Distillation. 📉💡 Analizamos cómo este nuevo enfoque utiliza el muestreo por importancia para lograr estimaciones imparciales almacenando apenas 12 tokens (frente a los miles habituales), reduciendo drásticamente el almacenamiento sin sacrificar la calidad del aprendizaje. 🚀 Dale al play para entender cómo esta técnica preserva la información crítica de la “cola” de probabilidades y está redefiniendo la eficiencia en la IA con un coste computacional mínimo. 🎧🔥 Enlaces relevantes: • Paper original: Sparse Logit Sampling: Accelerating Knowledge Distillation in LLMs (ArXiv) • Conceptos básicos: Destilación de Conocimiento (Wikipedia)

E031_Los modelos de lenguaje pequeños son el futuro
Ep. 31

E031_Los modelos de lenguaje pequeños son el futuro

¿Y si te dijera que el futuro de la Inteligencia Artificial no está en hacer los modelos más grandes, sino más pequeños? 🤔 Mientras el mundo sigue maravillado con la capacidad de conversación humana de los LLMs masivos, una nueva investigación plantea que los Small Language Models (SLMs) son la verdadera clave para escalar la IA Agéntica. 🤖 En este episodio, desglosamos por qué utilizar modelos gigantes para tareas repetitivas es ineficiente y cómo los SLMs están demostrando ser suficientemente poderosos, mucho más adecuados y necesariamente más económicos para los sistemas autónomos que vienen. Sumérgete con nosotros en el fascinante concepto de los sistemas agénticos heterogéneos, una arquitectura donde múltiples modelos colaboran y donde la especialización supera a la generalización. 💡 Hablaremos sobre la propuesta de convertir agentes basados en LLM a versiones SLM más ligeras y rápidas, reduciendo drásticamente los costes de despliegue sin sacrificar rendimiento. Si quieres entender por qué la agilidad y la eficiencia operativa están a punto de destronar al tamaño bruto en la industria de la IA, este análisis es para ti. ¡Dale al play y adelántate a la próxima gran tendencia tecnológica! 🚀📉 Fuentes mencionadas: • Paper: Small Language Models are the Future of Agentic AI (arXiv)

E030_La IA que muestra cómo piensa: "o1"
Ep. 30

E030_La IA que muestra cómo piensa: "o1"

¿Te imaginas una IA que piensa antes de responder? 🧠 En este episodio exploramos el lanzamiento de OpenAI o1, el nuevo modelo que rompe con lo establecido al utilizar una profunda cadena de pensamiento interna. A diferencia de sus predecesores, este sistema se toma su tiempo para razonar, identificar errores y descomponer problemas complejos paso a paso. Descubre cómo esta tecnología ha logrado superar a expertos humanos (PhD) en física, química y biología 🧪, y posicionarse entre los 500 mejores estudiantes de matemáticas de EE. UU. 🎓✨. Analizamos qué significa realmente este salto cualitativo desde GPT-4o: desde su impresionante percentil 89 en programación competitiva 💻 hasta su capacidad para mejorar drásticamente la seguridad y alineación del modelo gracias a su razonamiento 🛡️. ¿Estamos ante el fin de la IA que solo “predice” palabras y el inicio de la IA que deduce? Dale al play ▶️ y acompáñanos a descifrar los secretos, la estrategia de “ocultar el pensamiento” y el inmenso potencial de aprender a razonar con los nuevos LLM. ¡No te lo pierdas! 🚀 Fuente: OpenAI: Aprender a razonar con los LLM

E029_Llama 3: el terremoto del código abierto
Ep. 29

E029_Llama 3: el terremoto del código abierto

🦙 ¿Está Llama 3 a la altura de GPT-4? En este episodio desgranamos el paper “The Llama 3 Herd of Models”, donde se presenta la nueva familia de modelos fundacionales que está sacudiendo el panorama de la Inteligencia Artificial. Analizamos a la joya de la corona: un Transformer denso de 405.000 millones de parámetros con una impresionante ventana de contexto de 128K tokens. Descubre cómo este ““rebaño”” (herd) de modelos nativos domina tareas complejas de programación 💻, razonamiento lógico 🧠 y multilingüismo 🌍, ofreciendo una calidad comparable a los sistemas cerrados líderes del mercado. 🔬 Pero la evolución va más allá del texto. Exploramos el enfoque composicional de Llama 3 para integrar capacidades multimodales de imagen, video 📹 y voz 🗣️, las cuales ya muestran un rendimiento competitivo frente al estado del arte. Además, discutimos la implementación de Llama Guard 3, el guardián diseñado para garantizar la seguridad tanto en las entradas como en las salidas del modelo. Si quieres entender la arquitectura detrás de esta revolución y qué significa para el futuro de la IA, ¡dale al play y acompáñanos en este análisis técnico! 🎧✨ Fuentes: • The Llama 3 Herd of Models (arXiv:2407.21783)

E028_Abrir el capó de Claude Sonnet
Ep. 28

E028_Abrir el capó de Claude Sonnet

¿Alguna vez te has preguntado qué “piensa” realmente una IA antes de responderte? 🧠 En este episodio nos adentramos en la fascinante investigación de Anthropic sobre Claude 3 Sonnet, donde han logrado abrir la “caja negra” de las redes neuronales a gran escala. 🔓 Utilizando una técnica llamada Sparse Autoencoders, los investigadores han extraído millones de características interpretables, creando un mapa detallado de la mente del modelo. Descubriremos cómo han identificado neuronas específicas para conceptos tan variados como el Golden Gate Bridge 🌁, errores de programación sutiles 💻, e incluso abstracciones complejas como la ironía o la poesía. 🤯 Pero lo más sorprendente no es solo ver estas características, sino controlarlas. 🎛️ Analizaremos cómo este avance permite “sintonizar” el comportamiento del modelo, amplificando o suprimiendo rasgos vinculados a la adulación, el engaño 🤥 o el conocimiento peligroso sobre armas biológicas ☣️. Es un paso crucial para la seguridad de la IA, permitiéndonos entender y mitigar riesgos ocultos antes de que ocurran. 🛡️ Dale al play para explorar cómo la interpretabilidad mecánica está cambiando las reglas del juego y qué sucede realmente cuando obligas a una IA a obsesionarse con un puente. 🌉✨ Fuentes relevantes: • Scaling Monosemanticity: Extracting Interpretable Features from Claude 3 Sonnet

E027_KAN vs. MLP: Una nueva arquitectura de redes neuronales
Ep. 27

E027_KAN vs. MLP: Una nueva arquitectura de redes neuronales

¿Y si los Multi-Layer Perceptrons (MLPs) que sustentan la mayor parte de la IA actual tuvieran una alternativa más eficiente? 🧠 En este episodio nos adentramos en el fascinante mundo de las Kolmogorov-Arnold Networks (KANs), una nueva arquitectura inspirada en el teorema de representación de Kolmogorov-Arnold que desafía el diseño clásico de las redes neuronales. A diferencia de los modelos tradicionales con funciones fijas en los nodos, las KANs trasladan la complejidad a las conexiones, utilizando funciones de activación aprendibles en los propios pesos. 📉 Analizamos cómo este cambio, aparentemente sencillo, permite que redes mucho más pequeñas superen a grandes MLPs en precisión y eficiencia. ✨ Más allá del rendimiento, las KANs abren la puerta a una interpretabilidad visual sin precedentes, rompiendo la opacidad de la “caja negra” del aprendizaje profundo. 🔍 Descubre cómo estas redes no solo ajustan datos, sino que actúan como colaboradores capaces de ayudar a los científicos a (re)descubrir leyes matemáticas y físicas. Si te interesa el futuro de las arquitecturas de IA, las nuevas leyes de escalado neuronal y cómo modelos más compactos pueden resolver problemas complejos, ¡dale al play ▶️ y acompáñanos en este viaje hacia la próxima generación del Deep Learning! 🚀 Paper original: KAN: Kolmogorov-Arnold Networks (arXiv)

E026_La era de los LLMs de 1 solo bit
Ep. 26

E026_La era de los LLMs de 1 solo bit

🚀 ¿Estamos ante una revolución en la eficiencia de la IA? En este episodio desgranamos el fascinante paper “The Era of 1-bit LLMs”, donde se presenta BitNet b1.58, una variante que promete cambiar las reglas del juego. A diferencia de los modelos tradicionales que requieren gran precisión, esta arquitectura reduce cada parámetro a un sistema ternario {-1, 0, 1}. ¿Lo más sorprendente? 🧠 Logra igualar el rendimiento y la perplejidad de los modelos Transformer de precisión completa (FP16) pero con un consumo de recursos drásticamente menor. ⚡ Este avance no es solo una curiosidad técnica; define una nueva ley de escalado para el entrenamiento de futuras generaciones de LLMs. Analizamos cómo esta tecnología consigue ser mucho más rentable en términos de latencia, memoria y consumo energético, abriendo además la puerta al diseño de hardware específico optimizado para 1-bit. 📉 Si quieres entender cómo la inteligencia artificial puede volverse más sostenible, rápida y accesible sin sacrificar potencia, dale al play y acompáñanos en este análisis. 🎧 Fuentes relevantes: • The Era of 1-bit LLMs: All Large Language Models are in 1.58 Bits (arXiv)

E025_Mamba: Nueva Arquitectura Eficiente para la IA
Ep. 25

E025_Mamba: Nueva Arquitectura Eficiente para la IA

🧠 ¿Es el fin del dominio absoluto de los Transformers? Aunque los modelos actuales son increíbles, tienen un talón de Aquiles: se vuelven ineficientes con textos muy largos. En este episodio, exploramos el revolucionario paper “Mamba”, una nueva arquitectura presentada por Albert Gu y Tri Dao que propone una alternativa fascinante: los Espacios de Estados Selectivos (SSMs). Descubre cómo este modelo logra realizar un razonamiento basado en el contenido —la pieza que faltaba en las alternativas anteriores— permitiendo propagar o descartar información selectivamente, todo sin necesidad de los costosos bloques de atención ni MLPs. 🚀 ⚡ Más rápido, más eficiente y con un alcance masivo. Analizamos los impresionantes resultados de Mamba: una inferencia 5 veces más rápida que los Transformers y un escalado lineal capaz de procesar secuencias de hasta un millón de longitud. Lo más sorprendente es que el modelo Mamba-3B no solo supera a Transformers de su mismo tamaño, sino que iguala el rendimiento de aquellos que son el doble de grandes. Si quieres entender el futuro de la IA en lenguaje, audio y genómica, dale al play para conocer la arquitectura que promete redefinir el Deep Learning. 🎧✨ Fuentes: • Mamba: Linear-Time Sequence Modeling with Selective State Spaces (arXiv:2312.00752)

E024_Tu modelo de lenguaje es secretamente un modelo de recompensa
Ep. 24

E024_Tu modelo de lenguaje es secretamente un modelo de recompensa

¿Te has preguntado por qué alinear los grandes modelos de lenguaje (LLMs) con las preferencias humanas sigue siendo un reto tan grande? 🤔 Tradicionalmente, el aprendizaje por refuerzo con retroalimentación humana (RLHF) ha sido el estándar de oro, pero es un proceso notoriamente complejo, inestable y costoso. En este episodio, analizamos el paper que propone un cambio de paradigma total: “Direct Preference Optimization: Your Language Model is Secretly a Reward Model”. Descubriremos la teoría de que tu propio modelo de lenguaje ya esconde la clave para alinearse, eliminando la necesidad de la maquinaria pesada del aprendizaje por refuerzo tradicional. 🛠️ Hablaremos de DPO, un algoritmo innovador que simplifica radicalmente el entrenamiento al transformar el problema de alineación en una simple pérdida de clasificación. 📉 Olvídate de entrenar modelos de recompensa separados o de lidiar con muestreos constantes durante el ajuste fino; DPO ofrece una solución estable, ligera y de alto rendimiento que iguala o supera a los métodos actuales como PPO. 🚀 Si quieres entender la técnica que está haciendo que el control y el ajuste fino de la IA sean más accesibles y eficientes que nunca, ¡no te pierdas este análisis a fondo! 🎧✨ Fuentes y enlaces de interés: • 📄 Paper Original (arXiv): Direct Preference Optimization

E023_Muñecas rusas o Cómo esconder IAs gigantes en embeddings diminutos
Ep. 23

E023_Muñecas rusas o Cómo esconder IAs gigantes en embeddings diminutos

¿Te imaginas entrenar una IA una sola vez y que su “cerebro” pueda adaptarse dinámicamente a cualquier dispositivo, desde un potente servidor hasta un móvil antiguo? 📱💻 En este episodio desgranamos el paper “Matryoshka Representation Learning”, una propuesta fascinante que rompe con la rigidez de los modelos tradicionales. Al igual que las famosas muñecas rusas 🪆, esta técnica permite crear embeddings anidados que codifican la información en diferentes niveles de granularidad, logrando una flexibilidad inédita sin coste adicional durante la inferencia. Descubre cómo es posible conseguir representaciones hasta 14 veces más ligeras manteniendo la misma precisión en clasificación y logrando una aceleración masiva en tareas de recuperación de datos 🚀. Analizamos por qué esta arquitectura “elástica” se integra a la perfección con modelos de visión y lenguaje modernos (como BERT o ViT) y cómo resuelve el dilema de los recursos limitados sin sacrificar la robustez. ¡Dale al play para entender cómo esconder IAs gigantes en espacios diminutos! 🎧✨ Fuentes: • Paper: Matryoshka Representation Learning (arXiv)

E022_Instruct GPT: Alinear la Ia es mejor que escalarla
Ep. 22

E022_Instruct GPT: Alinear la Ia es mejor que escalarla

“¿Sabías que hacer más grandes a los modelos de lenguaje no los hace necesariamente mejores siguiendo instrucciones? 🤖 En este episodio desgranamos el paper fundamental que cambió el rumbo de la inteligencia artificial moderna: “Training language models to follow instructions with human feedback”. Analizamos por qué los modelos masivos, como el GPT-3 original, a menudo fallaban al generar respuestas veraces o útiles, llegando incluso a ser tóxicos si no estaban correctamente alineados con la intención del usuario. 🛡️ Exploraremos la paradoja de cómo el simple aumento de parámetros no garantiza una IA más servicial y segura. Descubre la metodología detrás de InstructGPT y cómo el uso de feedback humano mediante aprendizaje supervisado y por refuerzo marcó un antes y un después. 🚀 Profundizaremos en un dato revelador: cómo un modelo 100 veces más pequeño (1.3B de parámetros) logró superar al gigante GPT-3 (175B) en las preferencias de los usuarios, ofreciendo respuestas más certeras y menos tóxicas. ¡Dale al play ▶️ para entender cómo pasamos de máquinas que solo predicen texto a asistentes que realmente comprenden lo que les pedimos! 🧠✨ Fuentes: • Training language models to follow instructions with human feedback (ArXiv)”

E021_Cadena de pensamiento. Desbloqueando el razonamiento de la IA
Ep. 21

E021_Cadena de pensamiento. Desbloqueando el razonamiento de la IA

¿Alguna vez te has preguntado cómo lograr que una Inteligencia Artificial no solo responda, sino que realmente razone ante problemas complejos? 🧠✨ En este episodio desglosamos el influyente paper “Chain-of-Thought Prompting Elicits Reasoning in Large Language Models”. Exploraremos cómo una técnica sorprendentemente sencilla —generar una ““cadena de pensamiento”” o una serie de pasos intermedios de razonamiento 🔗— permite que los modelos de lenguaje grandes (LLMs) desbloqueen habilidades cognitivas que parecían fuera de su alcance, mejorando drásticamente su rendimiento en tareas de lógica, aritmética y sentido común. Los resultados son impactantes: descubre cómo un modelo de 540B parámetros, utilizando tan solo 8 ejemplos de esta técnica, logró superar el rendimiento del state-of-the-art (incluso a un GPT-3 con finetuning) en el desafiante benchmark de problemas matemáticos GSM8K 📊. Analizaremos por qué mostrar el ““proceso mental”” marca la diferencia entre una alucinación y el éxito absoluto en tareas simbólicas. ¡Dale al play ▶️ para entender la estrategia esencial que cambió la forma en que hacemos prompt engineering! 🚀 Fuentes: • Paper Original: Chain-of-Thought Prompting Elicits Reasoning in Large Language Models (Wei et al., 2022)

E020_Generar imágenes mediante ¿principios termodinámicos?
Ep. 20

E020_Generar imágenes mediante ¿principios termodinámicos?

🎨 ¿Te imaginas generar imágenes de alta calidad utilizando principios de la termodinámica? En este episodio, desglosamos el paper fundamental de Jonathan Ho, Ajay Jain y Pieter Abbeel que ha impulsado una revolución en la síntesis de imágenes. Exploramos los Modelos Probabilísticos de Difusión de Eliminación de Ruido (Denoising Diffusion Probabilistic Models), una clase fascinante de modelos de variables latentes que, inspirados en la termodinámica del no equilibrio, aprenden a revertir el ruido para reconstruir datos visuales complejos con una fidelidad asombrosa. 🌪️ 🚀 Descubre cómo estos modelos logran una calidad de muestra que rivaliza con las potentes ProgressiveGAN en LSUN y obtienen puntuaciones FID de vanguardia (3.17) en CIFAR10. Analizaremos su novedosa conexión con la dinámica de Langevin y el emparejamiento de puntuación de eliminación de ruido, además de explicar su esquema de descompresión progresiva que generaliza la decodificación autorregresiva. ¡Dale al play para entender la ciencia exacta detrás de la magia de la generación de imágenes! 🎧✨ Fuentes: Denoising Diffusion Probabilistic Models (arXiv:2006.11239)

E019_El aprendizaje con pocos ejemplos (Few-shot learners)
Ep. 19

E019_El aprendizaje con pocos ejemplos (Few-shot learners)

🧠 ¿Te has preguntado por qué a los humanos nos basta con un par de ejemplos para aprender algo nuevo, mientras que la IA tradicional necesitaba miles de datos? En este episodio exploramos el paper fundacional que transformó para siempre el Procesamiento del Lenguaje Natural: “Language Models are Few-Shot Learners”. Descubre la arquitectura detrás de GPT-3, el modelo que, con sus colosales 175 mil millones de parámetros (10 veces más que sus predecesores), rompió todos los esquemas demostrando que una inteligencia artificial puede ser generalista y competente sin necesidad de costosos reentrenamientos específicos (fine-tuning). 🚀 🎙️ Acompáñanos a analizar cómo este modelo logra hazañas sorprendentes simplemente recibiendo instrucciones de texto: desde traducción y corrección gramatical, hasta resolver aritmética de tres cifras 🧮 y generar artículos de noticias que los evaluadores humanos apenas pueden distinguir de la realidad. Desglosamos qué significa realmente el aprendizaje few-shot (de pocos intentos) y por qué la capacidad de GPT-3 para adaptarse “al vuelo” a nuevas tareas marcó el inicio de la era moderna de la IA Generativa. ¡Dale al play para entender los cimientos de la revolución tecnológica actual! 🌐✨ Fuentes y enlaces: • Paper original en arXiv: Language Models are Few-Shot Learners

E018_AlphaGo: Anatomía de una Victoria (para la IA)
Ep. 18

E018_AlphaGo: Anatomía de una Victoria (para la IA)

¿Te imaginas una máquina capaz de desarrollar algo parecido a la intuición humana? 🧠 Durante décadas, el antiguo juego del Go ⚫⚪ fue considerado el “Everest” de la inteligencia artificial, un desafío que se creía imposible de vencer mediante la fuerza bruta debido a su inmensidad matemática (¡más posiciones posibles que átomos en el universo!). En este episodio, exploramos la historia de AlphaGo, el programa que rompió todos los pronósticos al derrotar al campeón europeo Fan Hui por 5 a 0 🏆, logrando un hito que los expertos situaban al menos a una década de distancia. Descubre la fascinante arquitectura técnica que lo hizo posible: una combinación híbrida de Redes Neuronales Profundas (que seleccionan movimientos y evalúan posiciones como un experto) 🕸️ y el algoritmo de Árbol de Búsqueda Monte Carlo (MCTS) 🌲. Analizaremos cómo este sistema no se limitó a calcular, sino que aprendió jugando millones de partidas contra sí mismo mediante aprendizaje por refuerzo 🔄, alcanzando una tasa de victoria del 99.8% contra otros programas de vanguardia. ¡Dale al play ▶️ y acompáñanos a entender el momento exacto en que la IA dejó de simplemente procesar datos para empezar a “entender” el juego! 🚀 Fuentes: • Paper original en Nature: Mastering the game of Go with deep neural networks and tree search • Artículo sobre el Árbol de búsqueda Monte Carlo (Wikipedia)

E017_Redes Generativas Antagónicas (GANs)
Ep. 17

E017_Redes Generativas Antagónicas (GANs)

🎙️ ¿Qué ocurre cuando enfrentas a dos inteligencias artificiales entre sí? En este episodio, analizamos el paper seminal que transformó el aprendizaje automático: ““Generative Adversarial Networks”” (2014). Descubre el fascinante marco propuesto por Ian Goodfellow y sus colaboradores, donde se entrena simultáneamente a dos modelos en un juego minimax de dos jugadores 🎮. Por un lado, un modelo generativo (G) intenta capturar la distribución de los datos para crear imitaciones perfectas 🎨; por el otro, un modelo discriminativo (D) actúa como un juez severo 🕵️‍♂️, calculando la probabilidad de que una muestra provenga de los datos reales o sea una falsificación creada por su rival. 💡 Acompáñanos a desgranar cómo este proceso adversarial entrena al sistema para que el generador aprenda a maximizar los errores del discriminador, utilizando perceptrones multicapa y backpropagation 🧠 sin necesidad de complejas cadenas de Markov. Si quieres entender la arquitectura matemática donde el equilibrio se alcanza cuando la IA ya no puede diferenciar la realidad de la ficción (llevando al discriminador a una probabilidad del 50%), ¡no te pierdas este episodio! 👇 Dale al play para comprender el origen teórico de las IAs generativas. Fuentes: • Generative Adversarial Networks (arXiv:1406.2661)

E016_AlexNet e ImageNet: El nacimiento del DeepLearning
Ep. 16

E016_AlexNet e ImageNet: El nacimiento del DeepLearning

“🗓️ 30 de septiembre de 2012: una fecha que marcó el verdadero inicio de la revolución del Deep Learning. En este episodio, viajamos a los orígenes para descubrir cómo AlexNet y el colosal dataset ImageNet rompieron todos los esquemas de la visión por computadora. Exploraremos la audaz visión de pioneros como Fei-Fei Li, quien entendió antes que nadie que la clave para una mejor IA no estaba solo en los modelos, sino en reflejar la diversidad del mundo real a través de datos masivos 📊. Te contaremos cómo, inspirados por WordNet y utilizando el poder del crowdsourcing con Amazon Mechanical Turk, lograron etiquetar millones de imágenes cuando el resto de la comunidad científica lo consideraba una locura imposible. 🚀 Descubre cómo el equipo formado por Alex Krizhevsky, Ilya Sutskever y Geoffrey Hinton aprovechó por primera vez la potencia de las GPUs para entrenar una red neuronal de 60 millones de parámetros, superando las limitaciones de hardware de la época. Analizaremos las innovaciones técnicas clave, como las Convolutional Neural Networks (CNNs) profundas y la función ReLU, que permitieron a AlexNet aplastar a la competencia en el desafío ILSVRC 2012 con una ventaja abismal de casi 10 puntos porcentuales 🏆. Dale al play ▶️ para entender cómo este ““Big Bang”” tecnológico transformó la inteligencia artificial de una curiosidad académica poco práctica a la fuerza dominante que hoy impulsa el mundo. Fuentes y enlaces relevantes: • AlexNet and ImageNet: The Birth of Deep Learning - Pinecone • Paper original: ImageNet Classification with Deep Convolutional Neural Networks (NeurIPS 2012)”

E015_Inicio de la serie "Los Papers que Cambiaron la Historia de la IA"
Ep. 15

E015_Inicio de la serie "Los Papers que Cambiaron la Historia de la IA"

🎙️ ¡Estrenamos serie! Bienvenidos al primer episodio de “Los Papers que Cambiaron la Historia de la IA”, nuestro viaje especial a lo largo de este enero de 2026. ⏳ Retrocedemos hasta 1986, al corazón del “Invierno de la IA”, un momento oscuro donde la financiación había desaparecido y las redes neuronales se consideraban juguetes inútiles incapaces de aprender. En este capítulo, desenterramos la fascinante historia detrás del artículo de apenas cuatro páginas publicado en Nature que demostró que los críticos estaban equivocados, resucitando una disciplina entera y plantando la semilla de la revolución tecnológica actual. ❄️🔥 🧠 En este episodio te explicamos de forma sencilla qué es la Retropropagación (Backpropagation), el motor matemático que permitió el nacimiento del Deep Learning y que hoy sigue impulsando desde GPT-5 hasta los coches autónomos. Además, analizamos el impacto humano y científico de este hallazgo: desde el Premio Nobel de Física 2024 otorgado finalmente a Geoffrey Hinton, hasta el necesario homenaje a David Rumelhart, el visionario que falleció antes de ver cómo su trabajo cambiaba el mundo. Dale al play ▶️ para entender el origen exacto de la inteligencia artificial moderna.

E014_La arquitectura Transformer que arrancó la revolución de la IA
Ep. 14

E014_La arquitectura Transformer que arrancó la revolución de la IA

¿Te has preguntado cómo la IA pasó de tropezar con frases simples a escribir ensayos complejos y generar vídeo? 🤖 Antes de 2017, las máquinas leían “por una rendija”, palabra por palabra, olvidando a menudo el principio de la frase al llegar al final. Todo cambió con el paper legendario “Attention Is All You Need”. En este episodio, destripamos la arquitectura Transformer, el verdadero motor que impulsa a gigantes actuales como GPT-4, Claude y Sora. 🚀 Descubre cómo el mecanismo de Self-Attention 🧠 dotó a las máquinas de una “memoria fotográfica”, permitiéndoles procesar todo el contexto de golpe y paralelizar el aprendizaje masivo. Pero la tecnología no se detiene y los Transformers no son perfectos. 🛑 Analizamos su talón de Aquiles: un coste computacional que se dispara y un consumo energético voraz. ⚡ ¿Qué viene después? Miramos hacia el horizonte (2025-2026) para presentarte a los sucesores que buscan romper estas barreras: desde las arquitecturas Mamba 🐍 y modelos híbridos como Jamba, hasta la visión de JEPA propuesta por Yann LeCun. Si quieres entender la ingeniería detrás del hype y saber hacia dónde evoluciona la próxima generación de IA, dale al play ▶️ y acompáñanos en este viaje técnico y fascinante.

E013_IA en Edificación Industrial: El Informe de Realidad 2026
Ep. 13

E013_IA en Edificación Industrial: El Informe de Realidad 2026

📅 Estamos en 2026 y la burbuja del hype ha estallado: la IA no es la varita mágica que nos prometieron, pero ignorarla ya no es una opción si quieres proteger tus márgenes. En este episodio analizamos sin filtros la realidad técnica y económica de la Inteligencia Artificial en la edificación industrial, dejando atrás los titulares sensacionalistas para centrarnos en lo que realmente factura 💶. Descubre por qué la tecnología ha pasado de ser una ventaja competitiva “sexy” a un requisito de supervivencia indispensable ante la cronificación de la falta de mano de obra y la presión de los costes. 🏗️ Desgranamos qué herramientas han sobrevivido al filtro del mercado y cuáles eran puro humo: desde la utilidad real del diseño generativo y la monitorización de obra hasta el fracaso de los robots autónomos en entornos no estructurados. Además, abordamos la verdad incómoda que pocos quieren admitir: cómo la IA ha dejado en evidencia la mediocridad de los modelos BIM actuales y por qué, lejos de eliminar a los técnicos, ha creado una necesidad crítica de expertos humanos capaces de auditar los algoritmos 🧠. 👉 Dale al play para entender si tu empresa está invirtiendo en futuro o si, simplemente, está automatizando el caos.

E012_Ingeniería de lo Imposible: La Máquina de Litografía EUV
Ep. 12

E012_Ingeniería de lo Imposible: La Máquina de Litografía EUV

Este episodio de Bimpraxis se adentra en la ingeniería detrás del producto comercial más complejo jamás construido: la máquina de litografía ultravioleta extrema (EUV) de ASML, la única tecnología capaz de salvar la Ley de Moore y seguir reduciendo el tamaño de los transistores. Analizamos cómo funciona este sistema, considerado imposible durante 30 años, el cual opera mediante un proceso que implica disparar láseres a 50,000 gotas de estaño microscópicas por segundo para generar un plasma 40 veces más caliente que la superficie del Sol, todo con el fin de imprimir patrones nanoscópicos en los microchips. Descubrimos los desafíos técnicos casi inconcebibles que se superaron, como la fabricación de los espejos más lisos del universo —donde una imperfección del tamaño de una carta sobre la superficie de la Tierra sería inaceptable— y la coordinación de cientos de miles de componentes con una precisión atómica. Acompáñanos a explorar la historia de persistencia de científicos e ingenieros que, enfrentando el escepticismo global y riesgos financieros enormes, lograron crear la herramienta esencial que hoy impulsa toda la tecnología moderna, desde nuestros teléfonos inteligentes hasta la inteligencia artificial.

APIcultores vs Tractoristas del campo contextual: El futuro híbrido de las interconexiones IA
Ep. 11

APIcultores vs Tractoristas del campo contextual: El futuro híbrido de las interconexiones IA

En este episodio exploramos la evolución de la conectividad digital a través de dos analogías clave: los Apicultores y los Tractoristas. Mientras el apicultor (API: Application Programming Interface) realiza un trabajo artesanal y preciso conectando aplicaciones “flor por flor” mediante reglas específicas para extraer datos, el tractorista del contexto (MCP: Model Context Protocol) maneja maquinaria pesada estandarizada que prepara todo el terreno para que la Inteligencia Artificial opere de forma autónoma y escalable. Analizaremos cómo esta tecnología permite pasar de la configuración manual de “cables” a un modelo donde la IA descubre y utiliza herramientas por sí misma, actuando como un “traductor universal” que elimina la fricción técnica. Sin embargo, la verdadera potencia reside en la hibridación de ambos mundos, ya que el tractorista necesita inevitablemente la infraestructura cuidada por el apicultor. Discutiremos por qué el MCP no elimina a la API, sino que funciona como una “cabina” inteligente que envuelve las conexiones tradicionales, permitiendo unir la robustez y previsibilidad de los datos estructurados con la flexibilidad de los agentes modernos. Descubre en qué casos te conviene subirte al tractor para automatizar tareas complejas sin perder la precisión y el control que ofrece la cosecha manual de datos.

La IA ya tiene un servicio diplomático para intermediar por ti ¿Qué son los MCP (Model Context Protocol)?
Ep. 10

La IA ya tiene un servicio diplomático para intermediar por ti ¿Qué son los MCP (Model Context Protocol)?

En este episodio exploramos el Model Context Protocol (MCP), la tecnología que actúa como el nuevo servicio diplomático de la Inteligencia Artificial. Hasta ahora, los grandes modelos de lenguaje eran genios aislados, encerrados en su propio conocimiento congelado; el MCP rompe este aislamiento proporcionando un “lenguaje seguro y estandarizado” que funciona como un traductor universal entre la IA y el mundo exterior. Veremos cómo este protocolo elimina la necesidad de crear integraciones frágiles y personalizadas para cada servicio, permitiendo que tu IA negocie directamente con tus bases de datos y aplicaciones favoritas sin barreras lingüísticas técnicas. Descubre cómo esta innovación transforma a los chatbots pasivos en agentes intermediarios capaces de actuar en tu nombre. Al igual que un cuerpo diplomático sigue normas estrictas, el MCP permite a la IA “descubrir” dinámicamente qué herramientas tiene disponibles en tiempo real y ejecutar acciones —desde gestionar tickets en Jira hasta consultar informes de ventas— operando siempre bajo rigurosos protocolos de permisos y seguridad que tú controlas. Acompáñanos para entender el futuro de una IA que no solo charla, sino que presenta sus credenciales y opera eficazmente en el ecosistema digital real.

Cómo ChatGPT elige la siguiente palabra
Ep. 09

Cómo ChatGPT elige la siguiente palabra

En este episodio, desmitificamos la aparente “magia” detrás de los Grandes Modelos de Lenguaje (LLM) para entender qué sucede realmente en el milisegundo que transcurre desde que enviamos un prompt hasta que aparece el texto. Contrario a la intuición, descubrimos que el modelo no tiene una respuesta predefinida ni un plan oculto; genera el contenido una pieza a la vez, construyendo la respuesta sobre la marcha mediante un proceso puramente probabilístico y no a través de un entendimiento consciente. Analizamos cómo el sistema evalúa constantemente más de 100.000 opciones posibles para elegir el siguiente fragmento de información. Nos adentramos en la arquitectura técnica desglosando las cinco etapas críticas del proceso: desde la tokenización, que convierte palabras en secuencias numéricas, hasta los embeddings, que transforman esos números en vectores de significado capaces de entender relaciones semánticas (como la cercanía entre “Python” y “JavaScript”). Exploramos el funcionamiento del Transformer y su mecanismo de “atención”, que permite al modelo entender el contexto de una frase, y detallamos cómo parámetros como la temperatura y el sampling controlan la delgada línea entre una respuesta precisa y una incoherente. Finalmente, discutimos las implicaciones prácticas de esta mecánica para el uso profesional de la IA. Explicamos por qué ocurren las “alucinaciones” —el modelo prioriza patrones de plausibilidad sobre la verdad fáctica— y por qué los límites de contexto son una restricción computacional cuadrática inevitable y no una decisión arbitraria del software. Concluimos que comprender que la IA es un mecanismo de predicción y no una fuente de verdad es esencial para controlar mejor sus resultados en tareas técnicas y de programación.

Karen Hao: OpenIA funciona como un nuevo imperio colonial
Ep. 08

Karen Hao: OpenIA funciona como un nuevo imperio colonial

Gustavo Entrala entrevista a la investigadora Karen Hao, quien expone una visión crítica sobre el ascenso de OpenAI y la industria de la inteligencia artificial. Hao sostiene la tesis de que estas compañías operan como nuevos imperios coloniales que monopolizan el conocimiento, explotan mano de obra barata en países en desarrollo y consumen recursos naturales de forma alarmante. La autora revela que dentro de estas empresas existe un fervor cuasi religioso respecto a la creación de una inteligencia superior, lo cual justifica decisiones éticas cuestionables. Además, el contenido detalla la compleja relación entre Sam Altman y Elon Musk, así como la transición de la organización hacia un modelo lucrativo. Finalmente, el texto advierte sobre los costes humanos y ambientales ocultos detrás del desarrollo tecnológico actual. Por último, Hao subraya la importancia de mantener un pensamiento crítico y la acción colectiva para evitar que estas corporaciones controlen el futuro global. Karen Hao es una reconocida periodista, ingeniera mecánica por el MIT y experta en inteligencia artificial (IA) que escribe para medios como The Atlantic, dirige la serie AI Spotlight del Pulitzer Center y ha trabajado para The Wall Street Journal y MIT Technology Review, enfocándose en el impacto social de la IA y desmitificando la tecnología para el público general, siendo considerada una de las personas más influyentes en el campo de la IA.

Qué es el Nested Learning que plantea Google
Ep. 07

Qué es el Nested Learning que plantea Google

Un grupo de investigadores de Google Research ha presentado un artículo científico titulado “Nested Learning: The Illusion of Deep Learning”, el cual propone una arquitectura revolucionaria para superar las limitaciones actuales de la inteligencia artificial. El texto explica que los modelos vigentes, basados en Deep Learning, sufren de “amnesia anterógrada” porque sus conocimientos se congelan tras el entrenamiento y no pueden aprender en tiempo real sin corromperse. La nueva propuesta sugiere imitar el cerebro humano mediante la arquitectura “Hope”, la cual utiliza capas de aprendizaje rápido y lento para que la IA procese información nueva constantemente. Según la fuente, este avance permitiría que modelos como ChatGPT o Gemini evolucionen de ser simples “loros cibernéticos” a sistemas capaces de razonar y mejorar de forma autónoma. Si este enfoque de aprendizaje anidado tiene éxito, podría marcar el inicio de la Inteligencia Artificial General (AGI), alcanzando un nivel de capacidad intelectual similar al humano. El autor subraya que, a diferencia de otras propuestas, este estudio ya ha sido revisado por pares y aprobado por la comunidad científica internacional. #AI #IA #NestedLearning #DeepMind #GoogleResearch

Yann LeCun: Los límites de los LLM y la propuesta de los Modelos de Mundo de Yann LeCun
Ep. 06

Yann LeCun: Los límites de los LLM y la propuesta de los Modelos de Mundo de Yann LeCun

El experto Yann LeCun, galardonado con un Premio Turing y pionero del reconocimiento de imágenes, sostiene que los modelos de lenguaje actuales han alcanzado un límite insuperable porque carecen de una comprensión verdadera de la realidad física. A través de su nueva iniciativa, propone sustituir la arquitectura de los chats convencionales por sistemas denominados JEPA, los cuales aprenden mediante la observación de videos y representaciones abstractas. Estos modelos de mundo permiten que la inteligencia artificial comprenda conceptos básicos como la gravedad o la permanencia de objetos, habilidades que un niño adquiere de forma natural pero que el texto no puede transmitir. La propuesta enfatiza la investigación abierta y el desarrollo de capacidades de planificación interna en lugar de la simple predicción de palabras. En última instancia, el autor argumenta que la verdadera inteligencia general solo se logrará cuando las máquinas puedan simular y predecir consecuencias dentro del entorno físico real.

Demis Hassabis: De los modelos de lenguaje (LLM) a los modelos de mundo (WM)
Ep. 05

Demis Hassabis: De los modelos de lenguaje (LLM) a los modelos de mundo (WM)

Entrevista a Demis Hassabis, CEO de Google DeepMind y premio Nobel por sus aportaciones al diseño de proteínas con IA, quien analiza el progreso actual y los desafíos futuros de la inteligencia artificial general (AGI). El texto destaca hitos científicos como AlphaFold y el desarrollo de Gemini 3, subrayando el potencial de la IA para revolucionar la ciencia de materiales, la fusión nuclear y la medicina. Hassabis explica la importancia de los modelos de mundo y la simulación para otorgar a las máquinas una comprensión física y espacial más profunda. Asimismo, aborda temas críticos como la seguridad, la necesidad de consistencia en el razonamiento y el impacto socioeconómico que podría traer una revolución tecnológica diez veces más rápida que la industrial. Finalmente, reflexiona sobre la consciencia, la naturaleza computable del universo y su misión personal de guiar esta tecnología hacia un beneficio global y responsable.

Ilya Sutskever: la IA será un superaprendiz
Ep. 04

Ilya Sutskever: la IA será un superaprendiz

Análisis de la entrevista con Ilya Sutskever (coautor de ChatGPT y discípulo del Nobel Geoffrey Hinton), quien analiza la transición de la era del escalado masivo hacia una nueva etapa centrada en la investigación cualitativa. Sutskever sostiene que los modelos actuales carecen de la capacidad de generalización humana, por lo que propone el desarrollo de funciones de valor internas que permitan un aprendizaje más eficiente y autónomo. El experto argumenta que la superinteligencia no será un oráculo estático, sino un superaprendiz capaz de dominar cualquier tarea mediante la iteración y el aprendizaje continuo. Asimismo, destaca la importancia de una alineación ética basada en el respeto a la vida sintiente y la necesidad de un despliegue gradual para mitigar riesgos sociales. Finalmente, reflexiona sobre el gusto investigador, sugiriendo que la simplicidad conceptual y la inspiración biológica son claves para superar las limitaciones técnicas actuales del aprendizaje profundo.

Geoffrey Hinton: la IA Actual nos parecerá prehistórica en 5 años
Ep. 03

Geoffrey Hinton: la IA Actual nos parecerá prehistórica en 5 años

En una reciente entrevista al Premio Nobel Geoffrey Hinton, el “Padrino de la Inteligencia artifical”, analiza el futuro de la inteligencia artificial y su impacto en la sociedad durante la próxima década. El experto predice avances revolucionarios en la medicina, especialmente en la precisión de diagnósticos radiológicos, y en la educación a través de tutores personalizados altamente eficaces. Hinton explica que los modelos actuales parecerán prehistóricos en cinco años, destacando que el razonamiento de las máquinas ahora se asemeja más al procesamiento biológico que a la lógica tradicional. Asimismo, aborda la evolución de la robótica, la creación de agentes autónomos y las diferencias técnicas entre el aprendizaje de las redes neuronales y el cerebro humano. El texto concluye con una visión optimista sobre cómo la IA acelerará el descubrimiento científico en áreas como las matemáticas y la biología molecular.

IA y BIM: Transformación Digital y Automatización en Construcción
Ep. 02

IA y BIM: Transformación Digital y Automatización en Construcción

Hoy analizamos la convergencia estratégica entre el Building Information Modeling (BIM) y la Inteligencia Artificial (IA) para transformar el sector de la construcción. Los textos detallan cómo el aprendizaje automático y el procesamiento de lenguaje natural permiten automatizar tareas críticas como la verificación de normativas, la detección de interferencias y el diseño generativo. Se presentan herramientas de vanguardia, como Autodesk Forma y Finch 3D, que optimizan la viabilidad de proyectos y reducen significativamente la huella de carbono. Además, se destaca la evolución del BIM Manager hacia un rol de estratega de datos, capaz de liderar la creación de gemelos digitales inteligentes. En conjunto, los artículos demuestran que esta sinergia tecnológica no solo incrementa la eficiencia operativa, sino que redefine la precisión y sostenibilidad en la arquitectura moderna.