Censura en IA: eso fue lo que se volvió la reacción automática cuando lo de Grok se salió de control.
Lo de Grok en enero fue un caso de manual: una herramienta nueva, una función que se vuelve tendencia por lo que la gente decide hacer con ella, el tema se sale de control en la conversación pública y la respuesta de la industria termina siendo casi siempre la misma: recortar capacidades y llamarlo “seguridad”.
La historia (la de verdad) no es solo “la gente hizo cosas raras con IA”. Es que Grok bajó la barrera para editar imágenes de personas reales con prompts tipo “ponla en bikini” y variantes, y eso escaló rápido dentro de X. Reuters lo describió justo así: subir una foto, escribir el prompt y listo. Reuters
Y ahí entra mi postura, sin rodeos: estoy en contra de la censura como solución general, porque en la práctica no resuelve el problema. Lo mueve, lo vuelve más atractivo y de paso le pega a los usos normales. Y sí: esto ya está afectando a otros modelos, no solo a Grok.
En la primera semana de enero el tema ya estaba en medios grandes y en gobiernos. Reuters reportó presión pública y política por el uso para generar imágenes sexualizadas, incluyendo preocupación por casos donde aparecían menores o contenido relacionado. Reuters Además, se empezó a ver el efecto “bola de nieve”: watchdogs y reguladores listando el caso como ejemplo de riesgo sistémico. Tech Policy Press incluso armó un tracking de cómo se iba moviendo la respuesta regulatoria a partir del reporte de Reuters. Tech Policy Press
Luego vino el movimiento típico de plataforma: el 9 de enero Reuters reportó que limitaron la generación de imágenes en X a usuarios de pago tras el backlash. Reuters Y aun así, a mediados de mes, The Guardian documentó que seguía siendo posible generar y publicar clips de “strip to bikini” a partir de fotos de mujeres reales, sin que se viera una moderación efectiva antes de que quedara público. The Guardian
Censura en IA: el efecto dominó
Hasta aquí, muchos lo contarían como “problema → parche”. Pero lo interesante fue el choque de grupos que empujaron la conversación… y cómo ese choque terminó empujando a la industria hacia el mismo lugar: más filtros para todo.
Había un bloque que presionó fuerte por cortes inmediatos, y su lógica era simple: si el sistema permite esto a escala, la plataforma está facilitando daño y tiene que detenerlo ya. Ahí entran reguladores, gobiernos y marcos legales como el de la Unión Europea. A finales de enero, la Comisión Europea anunció una investigación formal bajo la DSA sobre Grok y también sobre sistemas de recomendación de X. Comisión Europea AP resumió el mismo punto: el caso escaló tanto que llegó con presión simultánea de varios países y con fiscalías en EE. UU. pidiendo explicaciones sobre cómo se iba a prevenir el abuso. AP
En paralelo existía otro bloque (más grande de lo que suena) que no estaba defendiendo el abuso, sino cuestionando el método: “si tu respuesta es bloquear a martillazos, te llevas entre las patas a la gente que usa la herramienta para trabajo real”. Ese bloque incluye creadores, agencias, e-commerce, gente de moda, fotografía, marketing… y en general cualquiera que no puede operar con un modelo que se espanta con cualquier cosa que huela a “cuerpo”.
Y aquí es donde, para mí, el tema deja de ser Grok y se vuelve industria.
Porque el resultado más visible de enero no es solo que X intentó limitar Grok. Es que el caso le dio permiso cultural a que los demás se pongan más estrictos, por miedo a su propio escándalo.
Tu ejemplo de Google no es invento: Google publicó una nota contando que el nombre “Nano Banana” se volvió marca interna y que “Nano Banana Pro” es el upgrade asociado a su modelo de imagen más reciente. Google Blog ¿Y qué empieza a pasar cuando el ecosistema entra en modo “cúbrete”? Que se disparan los falsos positivos.
En el foro oficial de developers de Google hay reportes directos de regresiones en IMAGE_SAFETY, donde casos de uso de moda/e-commerce (ropa interior, lencería, prendas de catálogo) empiezan a ser bloqueados aunque sean editoriales y no explícitos. No es “drama”, es gente diciendo “esto funcionaba y ahora no”. Google AI Developers Forum
Ese es el punto: el abuso existe, sí, pero la respuesta automática de “censura amplia” termina castigando a todos. Y cuando esa respuesta se normaliza, se vuelve estándar: Grok hoy, otro modelo mañana, y así hasta que generar imágenes útiles se sienta como caminar en un campo minado.
¿Y por qué digo que la censura empeora el problema?
Porque bloquear una función no elimina la intención. Solo cambia la ruta. La gente que quiere hacerlo se va a herramientas más opacas, flujos externos o soluciones diseñadas específicamente para eso. Y ahí hay menos visibilidad, menos fricción y menos enforcement. El resultado puede ser peor, no mejor.
Y además está el incentivo social: lo prohibido se vuelve “la función que ya no te dejan”, y eso la vuelve más deseable para cierto tipo de usuarios. Internet funciona así aunque nos guste o no.
Para rematar: muchas de estas olas se queman por sí solas. Se saturan, pierden novedad y la gente se va a otra cosa. Pero cuando lo conviertes en “prohibido”, le alargas la vida: lo conviertes en reto, en tutorial, en workaround.
Yo no estoy diciendo “no hagan nada”. Estoy diciendo algo más básico: dejen de vender censura como solución. Si el problema es abuso y escala, la respuesta tiene que atacar abuso y escala, no convertir el modelo en un detector paranoico que bloquea cualquier cosa “por si acaso”.
Porque si la industria decide que la salida fácil es recortar capacidades cada vez que hay presión, lo que se muere no es el abuso: se muere el uso legítimo.
Y eso —para creativos, marcas y gente que construye con estas herramientas— es el verdadero retroceso.

Relacionado en The Pixel Bro: Inteligencia Artificial · Resumen semanal — Semana 5 / 2026 · Resumen semanal — Semana 4 / 2026 · Resumen semanal — Semana 3 / 2026 · Motos + IA · Sobre mi
