Home / Inteligencia Artificial / Netflix ya usó IA en una escena… y millones de personas no lo notaron

Netflix ya usó IA en una escena… y millones de personas no lo notaron

Escena de edificio colapsando generada con inteligencia artificial en serie de Netflix El Eternauta

Dos segundos.
Una toma.
Un edificio colapsando en Buenos Aires.

Millones de personas lo vieron.

Y casi nadie se dio cuenta de que Netflix ya estaba usando inteligencia artificial en esa escena.

🗞️ Lectura rápida

Netflix usó IA generativa en una toma de efectos visuales de El Eternauta — específicamente en el Episodio 6, minuto 59:49, donde se ve un edificio colapsando en Buenos Aires. No lo anunciaron en ningún making-of ni comunicado de prensa creativo: lo reveló el co-CEO Ted Sarandos durante el earnings call del 17 de julio de 2025, frente a inversores.

El resultado fue 10 veces más rápido y más barato que con VFX tradicionales. La serie ya tenía 29 millones de espectadores cuando salió la noticia. El debate que siguió no fue sobre la calidad de la toma — nadie la había cuestionado — sino sobre qué significa que esto ya esté pasando y que no lo veamos venir.


La serie donde pasó: El Eternauta

Para entender por qué este caso genera tanto ruido, hay que saber de qué serie estamos hablando. El Eternauta es una historieta argentina publicada originalmente en 1957, escrita por Héctor Germán Oesterheld e ilustrada por Francisco Solano López.

La premisa es ciencia ficción pura: una nevada tóxica cae sobre Buenos Aires, mata a quien toca y desata una invasión alienígena. Los sobrevivientes, gente común del barrio, resisten.

Netflix la convirtió en serie de seis episodios, con Bruno Stagnaro como showrunner, estreno el 30 de abril de 2025 y 96% en Rotten Tomatoes. Llegó al número uno global entre series en idioma no inglés con 10.8 millones de visualizaciones en su primera semana, presente en el Top 10 de 87 países. Éxito masivo. Ninguna queja sobre la calidad. Hasta que llegó el chisme.

Dos segundos que nadie notó — hasta que alguien los mencionó en una llamada con inversores

La toma está en el minuto 59:49 del Episodio 6, “Cold Tomato Juice”. Un edificio del centro de Buenos Aires colapsando, integrado en un montaje de flashback.

Dos segundos, aproximadamente. Lo que en lenguaje de edición sería apenas un par de frames largos.

Nadie lo detectó. Ninguna reseña lo mencionó. Ningún espectador levantó la mano.

La producción ya era técnicamente ambiciosa desde el día uno: 35 escenarios virtuales, más de 50 locaciones, reconstrucción digital de Buenos Aires mediante fotogrametría y escaneo 3D. La IA no cayó del cielo en una producción convencional — entró en una maquinaria que ya dependía de herramientas digitales de alto nivel. Eso importa para entender la historia completa.

El pipeline detrás de la escena

El trabajo fue ejecutado por Eyeline Studios, el grupo de innovación de producción dentro de Scanline VFX, la casa de efectos visuales ligada a Netflix.

Usaron modelos de difusión de video disponibles comercialmente vía licencias enterprise — probablemente herramientas como Runway, aunque Netflix no confirmó el nombre exacto. Los artistas construyeron el plano combinando los escaneos reales de Buenos Aires, producción virtual y generación de video con IA.

Kevin Baillie, Head of Studio de Eyeline, lo resumió bien:

“La salsa secreta no está en cómo generas el video, está en cómo traes todos los ingredientes juntos.”

El detalle que lo cambia todo: ¿por qué lo dijeron en un earnings call?

Aquí está el verdadero chisme, y conviene no pasarlo por alto.

El Eternauta se estrenó el 30 de abril de 2025. La noticia del uso de IA salió el 17 de julio de 2025 — casi tres meses después. No fue un making-of en YouTube. No fue una entrevista creativa con el director. No fue un comunicado de prensa sobre innovación técnica. Fue Ted Sarandos hablando con inversores en el earnings call del segundo trimestre de Netflix, reportando resultados financieros.

Ese contexto lo dice todo. Netflix no lo presentó como un logro artístico — lo presentó como un argumento de eficiencia y escalabilidad ante personas que miden el rendimiento en dólares. Y las citas de Sarandos confirman exactamente eso:

“Using AI-powered tools, they were able to achieve an amazing result with remarkable speed — that VFX sequence was completed 10 times faster than it could have been with traditional tools. And also, the cost of it just wouldn’t have been feasible for a show on that budget.”

— Ted Sarandos, Co-CEO de Netflix, Q2 2025 Earnings Call

La frase clave no es “diez veces más rápido”. La frase clave es “no habría sido factible con ese presupuesto”. Netflix no defendió la IA únicamente como herramienta creativa — la defendió como la diferencia entre una escena que existe y una que no. Eso abre una lectura muy específica: la IA no llegó como mejora opcional, llegó porque el presupuesto no alcanzaba para hacerlo de otra forma.

Y sí, también dijeron lo de “real people doing real work with better tools” — el intento de enmarcar todo como evolución natural y no como sustitución. Si quieres más contexto sobre cómo Netflix viene construyendo su infraestructura de IA, ya conté aquí qué pasó cuando compraron InterPositive, la startup de Ben Affleck. No es un movimiento aislado.

La reacción: entre curiosidad, miedo… y algo de confusión

Cuando se supo que Netflix había usado inteligencia artificial en una escena de la serie, las reacciones no tardaron en aparecer.

Algunos lo vieron como una señal del futuro: una herramienta nueva que puede ayudar a hacer escenas que antes simplemente no cabían en el presupuesto.

Otros lo tomaron con más desconfianza. La conversación sobre inteligencia artificial en Hollywood lleva rato calentándose, sobre todo después de las huelgas de guionistas y actores en 2023, donde uno de los temas principales fue precisamente el uso de estas tecnologías. Puedes ver parte de esas discusiones en las protecciones sobre IA que negoció la WGA.

Pero hay otro grupo que quedó en medio de todo esto: los artistas de efectos visuales.

Son los que construyen ciudades digitales, explosiones, criaturas… y muchas de las cosas que hacen posible el cine moderno. También son, históricamente, uno de los departamentos con menos estabilidad en la industria.

Por eso el anuncio de Netflix abrió otra pregunta incómoda: si una escena puede hacerse diez veces más rápido con IA, ¿qué pasa con las personas que antes hacían ese trabajo?

Al mismo tiempo, también apareció otra discusión más simple: comunicación.

Algunos titulares empezaron a decir que “Netflix hizo los VFX con IA”, cuando en realidad se trataba de una sola toma de dos segundos dentro de una producción enorme hecha por equipos humanos.

Y ahí se mezclaron dos conversaciones distintas: la del futuro del trabajo creativo… y la del miedo a una tecnología que mucha gente todavía no entiende del todo.

¿En qué momento el trabajo artesanal dejó de ser artesanal?

Aquí es donde yo me quedo pensando, y donde creo que vale la pena pararse un momento.

La discusión de “IA vs. trabajo humano” en VFX parte de una premisa que ya traía broncas antes de que llegara cualquier modelo generativo: ¿desde cuándo el CGI es trabajo artesanal? Un artista de efectos visuales que modela un edificio en Maya, lo ilumina en Houdini y lo compone en Nuke también está usando herramientas digitales que hace cincuenta años no existían. El stop-motion sí sigue siendo artesanal, en el sentido más literal. Pero las películas de Pixar o Disney se producen con pipelines de software que tienen más código que pinceles. Y eso no significa que no haya creatividad humana detrás — significa que el oficio evolucionó.

La pregunta que creo que realmente importa no es “¿IA sí o IA no?” — esa batalla ya está perdida para quien quiera pelearla. La pregunta es: ¿quién controla el resultado, quién toma las decisiones creativas, y quién se lleva el crédito? Un artista prompteando en Runway no es lo mismo que un algoritmo generando contenido sin supervisión humana. Eyeline Studios no reemplazó a su equipo con un bot — usaron herramientas nuevas para hacer algo que de otra forma no existiría.

Eso no quiere decir que no haya riesgo real de desplazamiento laboral. Lo hay. Pero el debate se vuelve más honesto cuando dejamos de romantizar el CGI tradicional como si fuera talla en madera, y empezamos a hablar de lo que realmente está en juego: quién decide qué se hace, con qué herramientas, con qué presupuesto, y con cuánta gente.

Lo que esto significa para producciones como las de aquí

Este punto me parece estratégicamente importante y poco discutido: Netflix eligió una producción latinoamericana para hacer su primer experimento público con IA en metraje final. No lo probaron en una superproducción de Hollywood con presupuesto infinito. Lo probaron en una serie argentina con ~15 millones de dólares de presupuesto estimado — donde la diferencia entre “se puede hacer” y “no se puede hacer” la puso la IA.

La lectura optimista: la IA puede democratizar efectos de escala para mercados que no tienen el presupuesto de Marvel. Una producción mexicana, argentina, colombiana o peruana podría aspirar a secuencias que antes eran inaccesibles. Eso es real y vale la pena decirlo.

La lectura crítica: también podría normalizarse la lógica de “como hay IA, el presupuesto de VFX se reduce” — y ese ahorro no necesariamente llega al equipo creativo. Si Netflix puede decir “usamos IA porque con ese presupuesto era la única opción”, el siguiente paso lógico es presionar más los presupuestos con el argumento de que la IA cubre el resto. Eso sí es un problema estructural.

Y a todo esto hay que sumarle que Netflix ya compró InterPositive, fusionó Eyeline Studios con Scanline VFX y confirmó segunda temporada de El Eternauta con más uso de IA generativa en el pipeline. Esto no fue un experimento aislado. Fue el primer paso documentado de una estrategia.

Entonces, ¿está bien o está mal?

Honestamente: creo que esta pregunta ya no es la más útil.

Lo que pasó en El Eternauta era inevitable — no esa serie específica, sino ese momento: la primera vez que IA generativa llegara al metraje final de una producción masiva sin que nadie lo notara. Iba a pasar. Ya pasó. Y va a seguir pasando, con más frecuencia y en más partes del proceso.

Lo que sí vale cuestionarse es cómo pasa: con qué nivel de transparencia hacia el espectador, con qué protecciones para los trabajadores del sector, con qué distribución del ahorro generado, y con cuánta honestidad en la comunicación. Netflix reveló esto en un earnings call, no en una conversación creativa. Eso nos dice dónde tienen puesta la brújula.

Seguro habrá trabajos que desaparezcan. También habrá especialidades nuevas que ahorita no existen — igual que el trabajo de “artista de efectos visuales digitales” no existía antes del CGI, y hoy es una industria completa. La tecnología no detiene su marcha por las broncas que nos genera. Lo que sí podemos hacer es decidir cómo nos colocamos frente a ella: como espectadores pasivos, como trabajadores sin información, o como creativos que entienden las herramientas y exigen condiciones justas para usarlas.

Dos segundos. Un edificio. Buenos Aires. Nadie lo notó. Eso ya es historia de la industria.


¿Quieres seguir el tema? Chécate la sección de Inteligencia Artificial y la de Audiovisual — hay más contexto sobre cómo la IA está cambiando la producción de contenido en tiempo real.

Etiqueta:

Deje un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *