Home / Noticias / Resumen semanal de IA generativa — Semana 11 / 2026

Resumen semanal de IA generativa — Semana 11 / 2026

Resumen semanal de IA generativa semana 11 de 2026 con noticias de Canal+, Peacock, YouTube deepfakes, Meta, Helios y LTX-2.3

📌 Lectura rápida

Canal+ metió a Google y OpenAI directo en su pipeline de producción — anuncio oficial. Peacock estrenó el primer host de reality generado por IA de la televisión americana. YouTube amplió su herramienta de detección de deepfakes a políticos, periodistas y funcionarios. Según The Information, OpenAI planea integrar Sora dentro de ChatGPT. Según el New York Times, Meta retrasó “Avocado” y evalúa opciones. Y dos modelos open-source de video — Helios y LTX-2.3 — llegaron a HuggingFace con pesos abiertos.

Abajo está todo contado con más detalle, datos y fuentes.


📖 Las noticias

1️⃣ Canal+ integra Veo 3 de Google y OpenAI en producción audiovisual

Fecha: 11 de marzo de 2026 · Anuncio oficial

El grupo mediático francés Canal+ firmó acuerdos multi-año con Google Cloud y con OpenAI para integrar IA generativa en sus flujos de producción y distribución de contenido.

Datos clave:

  • Google Cloud indexará la biblioteca completa de Canal+, creando una base de datos multimodal de video, audio y texto.
  • OpenAI potenciará la búsqueda semántica y la recomendación de contenido para suscriptores — por ejemplo, búsquedas como “comedia romántica emotiva para esta noche”.
  • Veo 3 se usará para previsualizar escenas antes de filmar y para recrear momentos históricos a partir de imágenes de archivo. Canal+ confirma que el entorno garantiza protección total de derechos y propiedad de assets.
  • Despliegue inicial en junio 2026 para Europa y África.
  • Canal+ también anunció una alianza separada con Sky para coproducción de drama en inglés.

📎 Fuente: Reuters, 11 mar 2026

🔗 Relacionado en The Pixel Bro: Netflix también integró IA en producción con la compra de InterPositive


2️⃣ Peacock estrena “Your Bravoverse”: el primer host de reality generado por IA

Fecha: 12–13 de marzo de 2026 · Anuncio oficial de NBCUniversal

NBCUniversal lanzó Your Bravoverse en Peacock: un feed personalizado de clips de reality shows narrado por un avatar generativo del presentador Andy Cohen, construido con tecnología de la empresa británica Synthesia.

Datos clave:

  • El avatar fue entrenado exclusivamente con grabaciones de Cohen en estudio, para replicar su voz y sus gestos.
  • El sistema combina más de 5,000 horas de contenido Bravo y puede generar hasta 600 mil millones de variantes distintas de feed.
  • Todos los videos están etiquetados como generados por IA — NBCU lo destacó en el contexto de las negociaciones de contrato activas con los sindicatos de Hollywood.
  • El avatar podrá mencionar marcas durante las interacciones, abriendo un nuevo formato publicitario para Peacock.
  • Peacock también anunció una IA de corte en tiempo real para transmitir juegos de la NBA en formato vertical.
  • Antecedente: NBCU ya probó una versión de solo voz AI de Cohen en los Juegos Olímpicos París 2024. Your Bravoverse agrega el video.

📎 Fuente: Variety, 13 mar 2026

🔗 Relacionado en The Pixel Bro: Netflix ya había usado IA en una escena de El Eternauta sin que nadie lo notara


3️⃣ YouTube amplía su herramienta de detección de deepfakes a políticos, periodistas y funcionarios

Fecha: 10 de marzo de 2026 · Anuncio oficial de YouTube

YouTube expandió el acceso a su herramienta de detección de likeness por IA — que ya estaba disponible para ~4 millones de creadores del Partner Program — a un grupo piloto de funcionarios de gobierno, candidatos políticos y periodistas.

Datos clave:

  • La herramienta funciona de forma similar a Content ID pero para rostros: detecta videos que usan la imagen de alguien generada con IA.
  • Para unirse al piloto, los participantes deben verificar identidad con selfie en video y credencial oficial de gobierno.
  • Una vez verificados, acceden a un dashboard en YouTube Studio con los videos detectados y pueden solicitar su eliminación.
  • Importante: “La detección no garantiza la eliminación.” YouTube evaluará cada solicitud considerando excepciones como parodia y sátira.
  • YouTube no divulgó qué políticos o periodistas forman parte del piloto inicial.
  • Los datos de verificación no se usarán para entrenar modelos de IA de Google — solo para alimentar la herramienta de detección.
  • El CEO de YouTube, Neal Mohan, declaró que la transparencia en IA es una de sus prioridades top de 2026.
  • Próximos pasos: YouTube estudia extender la detección a voces sintéticas y evalúa permitir monetizar la likeness detectada, similar a Content ID.

📎 Fuente: TechCrunch, 10 mar 2026 | Axios, 10 mar 2026

🔗 Relacionado en The Pixel Bro: Semana 8 — Presión legal sobre deepfakes de Seedance 2.0 con Disney y Paramount


4️⃣ Según The Information: OpenAI planea integrar Sora dentro de ChatGPT

Fecha: 11–12 de marzo de 2026 · Reporte — sin anuncio oficial de OpenAI

Según un reporte de The Information, citado por The Verge y otros medios, OpenAI planea integrar su generador de video Sora directamente dentro de ChatGPT.

Datos clave (según lo reportado):

  • La integración convertiría a ChatGPT en plataforma multimedia completa: texto, imagen, audio y video desde una sola interfaz.
  • Sora continuaría disponible como app independiente.
  • El movimiento podría afectar los precios de suscripción de ChatGPT, dado el alto costo computacional del video generativo.
  • Contexto verificable: Las instalaciones de la app standalone de Sora cayeron 45% mes a mes en enero 2026 y salió del top 100 de Apple App Store.

📎 Fuente: The Verge / The Information, 12 mar 2026

🔗 Relacionado en The Pixel Bro: Semana 10 — Google también integró ProducerAI + Lyria 3 + Veo en un solo pipeline


5️⃣ Según el New York Times: Meta retrasa “Avocado” y evalúa licenciar Gemini de Google

Fecha: 12 de marzo de 2026 · Reporte del NYT — sin anuncio oficial de Meta

Según un reporte del New York Times, citado por Reuters, Meta retrasó nuevamente su modelo de siguiente generación, internamente llamado “Avocado”, y líderes de la empresa evaluaron licenciar temporalmente Gemini de Google. Reuters aclara que no hay decisión final anunciada.

Datos clave (según lo reportado):

  • Avocado no alcanza el rendimiento de Gemini 3.0 de Google, OpenAI ni Anthropic en razonamiento lógico, programación y comportamiento agéntico.
  • Es la tercera postergación del modelo: estaba planeado para finales de 2025, luego para Q1 2026.
  • Si se concretara el licenciamiento, usuarios de Meta AI en WhatsApp, Instagram y Facebook recibirían respuestas de infraestructura Google bajo marca Meta AI, sin indicación visible del cambio.
  • El siguiente modelo ya tiene nombre interno: “Watermelon”.
  • En paralelo, Meta desarrolla “Mango”, enfocado en generación de imagen y video, para competir con Sora.

📎 Fuente: QZ / New York Times vía Reuters, 12 mar 2026


6️⃣ Helios: modelo open-source de video, 14B parámetros — pesos abiertos en HuggingFace

Fecha: Lanzado ~4 de marzo / en circulación activa semana 11

ByteDance y la Universidad de Pekín publicaron Helios en HuggingFace y GitHub, un modelo de generación de video con pesos abiertos bajo licencia Apache 2.0.

Datos clave:

  • 14 mil millones de parámetros.
  • Alcanza 19.5 FPS en una sola GPU NVIDIA H100.
  • Genera videos de hasta un minuto de duración.
  • Licencia Apache 2.0 — uso comercial permitido sobre los pesos publicados.
  • Tres versiones disponibles en HuggingFace: Base, Mid y Distilled.

📎 Fuente: HuggingFace — Helios-14B | GitHub

🔗 Relacionado en The Pixel Bro: ByteDance, TikTok “vendido” y el drama de Seedance/Seedream


7️⃣ LTX-2.3 de Lightricks: video 4K / 50 FPS con audio sincronizado — pesos abiertos en HuggingFace

Fecha: Lanzado ~5 de marzo / en circulación activa semana 11

Lightricks publicó LTX-2.3 en HuggingFace, una actualización mayor de su modelo de generación de video LTX-2, con pesos abiertos disponibles para descarga.

Datos clave:

  • 22 mil millones de parámetros.
  • Generación de video 4K nativo a 50 FPS.
  • Audio sincronizado incluido en la generación.
  • Soporte para portrait mode hasta resolución 1080×1920 — formato nativo para Reels y Shorts.

📎 Fuente: HuggingFace — LTX-Video-2.3

🔗 Relacionado en The Pixel Bro: Semana 8 — El video generativo bajo presión legal; ahora también llega con modelos abiertos


8️⃣ GTC 2026 de NVIDIA: preshow el 13 de marzo

Fecha: Preshow 13 de marzo / Keynote 16 de marzo · En curso

La conferencia anual de NVIDIA inició su preshow el viernes 13 de marzo. El keynote principal de Jensen Huang está programado para el lunes 16 de marzo en el SAP Center de San José, California.

Datos clave:

  • Más de 30,000 asistentes de 190 países.
  • Preshow arrancó el 13 de marzo a las 8:30 am PT.
  • NVIDIA y ComfyUI anunciaron en el contexto del GDC (también esta semana) que el rendimiento en GPUs RTX es 40% más rápido vs. septiembre 2025. Con RTX 50 Series + formato NVFP4: 2.5x más rápido y 60% menos uso de VRAM.
  • LTX-2.3 y FLUX.2 Klein ya disponibles optimizados para RTX.

📎 Fuente: NVIDIA GTC 2026 (sitio oficial)

🔗 Relacionado en The Pixel Bro: GTC 2026 ya aparecía como evento clave en el resumen de Semana 10


📊 Cifras clave de la semana

DatoValorFuente
Horas de contenido Bravo en “Your Bravoverse”+5,000 horasNBCU / Variety
Variantes posibles de feed en Peacock600 mil millonesNBCU / Variety
Creadores con acceso previo a herramienta de YouTube~4 millonesYouTube / TechCrunch
Parámetros de Helios (ByteDance)14BHuggingFace
FPS de Helios en 1 GPU H10019.5 FPSHuggingFace
Parámetros de LTX-2.3 (Lightricks)22BHuggingFace
Resolución máxima LTX-2.34K / 50 FPSHuggingFace
Postergaciones acumuladas de Meta Avocado3 (según NYT)NYT vía Reuters
Caída instalaciones app Sora (enero 2026)–45% mes a mesThe Information
Mejora velocidad RTX 50 Series en ComfyUI vs sept. 20252.5x / –60% VRAMNVIDIA / GDC
Asistentes GTC 2026+30,000 de 190 paísesNVIDIA

🔮 Lo que hay que vigilar la próxima semana

  1. Keynote de Jensen Huang en GTC 2026 (lunes 16 de marzo, 11am PT, SAP Center, San José) — se esperan anuncios sobre arquitectura Rubin y nuevas capacidades de IA generativa. nvidia.com/gtc
  2. Confirmación oficial de Meta — si hay anuncio sobre el licenciamiento de Gemini o nueva fecha para Avocado.
  3. Confirmación oficial de OpenAI — si hay comunicado sobre la integración de Sora en ChatGPT y posible ajuste de precios.
  4. Reacción de sindicatos de Hollywood ante el avatar AI de Andy Cohen en Peacock, con negociaciones activas con NBCU.
  5. Expansión de herramienta de YouTube — el siguiente paso anunciado es abrir el acceso a cualquier funcionario, candidato político y periodista, más allá del grupo piloto actual.

🔗 Ver también en The Pixel Bro


Etiqueta:

Deje un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *