¿Civitai o el bazar oscuro de los deepfakes de mujeres reales?

Civitai anda ahí, en la cuerda floja. Una plataforma que, según un estudio preparado por expertos de Stanford e Indiana University, no solo vende contenido generado por IA al uso, sino que permite la compraventa de archivos llamados LoRAs: instrucciones hechas en serio para entrenar modelos mainstream de IA –como el famosísimo Stable Diffusion– y que convierten las máquinas en artesanas de deepfakes, muchos de ellos de mujeres reales. Y no es una anécdota. De media, entre mediados de 2023 y finales de 2024, el 90% de peticiones para generar contenido mediante deepfakes tenían como objetivo a mujeres (sí, mujeres reales, no personajes de videojuegos ni películas). Y la mayoría para usos sexuales y ultraviolentos, a pesar de que Civitai explicitaba prohibirlo.

Estas peticiones o «bounties» se pagan con la moneda interna de la plataforma, llamada Buzz, convertible mediante gift cards o cripto desde que la pasarela bancaria tradicional los cortó en mayo de 2025 por obvias razones de ética y posible ilegalidad. ¿Para proximidad, o ya para huida? Ahí está el quid del asunto. Pero lo terrorífico no es solo la capacidad técnica, sino la ética que emana un mercado que literalmente encarga modelos «de alta calidad» con tatuajes, cuerpos enteros, cambios de color de cabello (sí, ese nivel de detalle), y que puede apuntar hasta a tu «esposa» para hacer deepfakes personalizados. Civitai básicamente ha diseñado un hervidero donde la creación de pornografía no consentida se convierte en pan de cada día.

La cantidad de contenido adulto subido ha escalado hasta que hoy representa el grueso de las solicitudes semanales en la plataforma. Eso, junto con la enseñanza explícita que ofrece la web en cuanto a cómo manipular las imágenes y generar pornografia o poses específicas con esos modelos. La cosa huele… no solo a irresponsabilidad, sino a una dejadez descarada por parte de la empresa y sus inversores —que incluyen a Andreessen Horowitz, uno de los VC más gordos del sector—, quienes no han respondido a las preguntas al respecto.

Vamos, que Civitai más que mercado de IA, parece agencia de creación de fantasmas digitales sin control real.

LoRA: las instrucciones que dan vida a los deepfakes sexualizados

El núcleo duro en todo este drama es el sistema LoRA (Low-Rank Adaptation). Vender modelos genéricos de IA que pinten paisajes o retratos está ya trillado, pero LoRA es otra cosa: se trata de ficheros con instrucciones hiper específicas para entrenar IA a fin de que produzcan imágenes de personas reales, con rasgos reconocibles y en escenarios detallados al milímetro. Civitai ha permitido comerciar con estas LoRAs para crear deepfakes de famosos como Charli D’Amelio o Gracie Abrams (sí, la influencer y la cantante), cuyos perfiles públicos fueron usados como referencia para modelar.

Es importante destacar que el 86% de las solicitudes para deepfakes involucraban estas LoRAs. Clientes exigían «alta calidad», con precisión en tatuajes, cuerpos enteros y hasta la opción de cambiar el color del cabello para que el contenido fuera «creíble». Algunos casos incluían nichos tan específicos como artistas ASMR. Sí, pura obsesión, y no cualquier obsesión.

El sistema de recompensa económica para estos pequeños “modeladores” va entre $0.50 y $5 por cada LoRA aceptada. No nos engañemos: esa mierda es gran negocio para algunos, barato pero rentable; una economía paralela donde proliferan modelos destinados a fines turbios.

Y ojo, Civitai ni siquiera se esfuerza en bloquear esta práctica. Cuando en mayo de 2025 anunciaron eliminar todo el contenido deepfake —lo que suena a gesto surface level—, el desastre ya estaba servido: las solicitudes viejas siguen vivas, y muchos de los mejores modelos para estas peticiones están aún disponibles para compra. ¿Moderación? Más bien marketing barato para lavar la cara.

¿Dónde está la responsabilidad de los inversores? Andreessen Horowitz, tu cheque está en juego

En noviembre de 2023, Andreessen Horowitz metió 5 millones de dólares en Civitai. A estas alturas, ya sabemos que no es raro ver a fondos de capital riesgo inyectando plata en startups con tanto hype como con flancos éticos graves. Pero ¿qué ocurre cuando el ojo del pez gordo está sobre un negocio que literal y fraudulentamente potencia la deepfake pornografía basada en mujeres reales? Aquí no hay «límites borrosos», hay mala praxis, y un puñado de ignorancia voluntaria.

En una entrevista, el CEO de Civitai, Justin Maier, hablaba de democratizar el acceso a modelos de IA y de facilitar que la creación de contenido de IA deje de ser para ingenieros super especializados y se abra a todos. Suena bien… hasta que esto se traduce en que cualquiera con algo de dinero o cripto puede obtener el modelo perfecto para fabricar no-consensuales porno digital.

Andreessen Horowitz no ha contestado sobre el asunto (vale, gran sorpresa). Ni se han posicionado en la polémica de que esta inversión financia indirectamente la industria de deepfakes sexuales no autorizados. Y ojo, no es la única empresa problemática en su cartera: Botify AI, otra startup financiada por a16z, está bajo la lupa por reproducir conversaciones con avatares digitales muy sospechosos, que involucran a menores de edad y conversaciones sexualizadas. Sí, eso también es real.

Cuando la línea entre inversión rentable y toxicidad digital se desdibuja, uno tiene que preguntar en serio… ¿qué están fomentando estos fondos?

El dilema legal: ¿Qué puede hacer un marketplace cuando el tamaño de la bestia es gigantesco?

Aquí entramos en un terreno fangoso: la responsabilidad legal de plataformas como Civitai está lejos de estar clara, y la discusión sobre la Sección 230 de la Communications Decency Act (CDA) americana es un tema candente y pendiente de revisión.

La Sección 230 protege a las empresas tecnológicas de ser responsables por el contenido que generan los usuarios, pero no les permite facilitar activamente actividades ilegales. Por ejemplo, si una plataforma pusiera en circulación materiales ilegales de forma consciente, como contenido sexual no consentido generado por IA, claramente podría salirse de la protección que da esta ley.

Ryan Calo, profesor experto en IA y leyes tecnológicas de la Universidad de Washington, deja claro que «no se puede facilitar intencionalmente transacciones ilegales». Entonces, ¿dónde queda Civitai con su sistema que vende LoRAs y enseñanzas explícitas para manipular modelos hacia porno no consensuado? No es ni lo uno ni lo otro: es un gris tóxico que ni los abogados ni la ley federal parecen tener aún claro cómo sancionar.

No ayuda que la moderación de la plataforma sea casi delegada a la comunidad. Los usuarios pueden reportar automoderación, pero la plataforma no toma la iniciativa más allá de etiquetar ciertas peticiones y dar la posibilidad de eliminarlas solo si la persona afectada lo pide.

Este parásito moral diluye la responsabilidad detrás de un «hacer nada» deliberado. Mientras tanto, las decenas de deepfakes de mujeres reales siguen circulando, y la legislación se queda corta para proteger a las víctimas. La ley va a la zaga, y los victimarios se aprovechan del vacío legal.

2024 y más deepfakes: una escalada y un problema que nadie quiere ver

Miremos datos: la cifra de contenido pornográfico generado por IA en Civitai no deja de crecer. Los investigadores encontraron que es ya la mayoría de peticiones semanales. Si añadimos el contexto global de 2024, con el reforzamiento de la IA en todos los ámbitos, podemos trazar una línea directa entre mayor capacidad técnica y descontrol absoluto en cuanto a contenido no consensuado.

Notorio también es que Civitai enseña en su plataforma artículos escritos por usuarios explicando cómo desbloquear censuras, manipular ángulos y poses, y usar herramientas externas para saturar el contenido deepfake puro. Esto va más allá de ser una burbuja pasajera: aquí se está incitando a una industria sin escrúpulos.

¿Y la reacción? Civitai cortó relaciones con su procesador de pagos para contenido explícito en mayo de 2025, pero sigue ofreciendo alternativas para seguir comprando Buzz en criptomonedas o gift cards. Es el equivalente a decir “no tenemos responsabilidad, pero que cada uno pague como quiera”.

Como puntualiza Matthew DeVerna, investigador principal del estudio, la empresa parece interesada en hacer «lo mínimo posible» para poder fomentar lo que ellos llaman “creatividad” en la plataforma. Literalmente la creatividad para la deepfake pornografía y el abuso digital. A estas alturas, ya no es descuido, es indiferencia.

AI y la pendiente resbaladiza de los deepfakes no consensuales

La inteligencia artificial avanza a velocidades de vértigo, pero el debate ético y regulatorio va por detrás, lento, torpe. La construcción de mercados abiertos como Civitai, donde cualquiera puede no solo descargar modelos básicos sino incluso customizar la IA para que dibuje tu amiga, la vecina o tu ídolo cantando desnuda, raya en lo irresponsable. No es un «hack de la creatividad», es un peligro real y palpable.

Mientras grandes jugadores como OpenAI o Anthropic intentan (más o menos) frenar que la IA se use para generar abusos infantiles, la pornografía generada con retratos de adultos reales queda en la sombra. No hay miedo suficiente de parte ni de las plataformas, ni mucho menos de los inversores. Y la ley sigue sin respuesta clara en la mayoría de países.

Que la mayoría de peticiones sean ahora NSFW en Civitai revela un síntoma más profundo: el ecosistema de IA está colonizado por demandas tóxicas, y mientras se siga ganando dinero y generando ruido, nadie se baja del barco.

¿El futuro? Probablemente más deepfakes, más complicaciones legales y éticas, y mercados underground que aprovechen esta grieta digital. ¿Un mundo donde las caras y cuerpos de la gente real sean manipulables sin su consentimiento? Bienvenido a la distopía que ya pisa fuerte, cortesía IA.

¿Pero esto funciona de verdad? Y si es así, ¿qué hacemos?

Sí, funciona. De manera aterradora. Civitai es la prueba palpable de que hoy por hoy, las herramientas para hacer deepfakes con un nivel de realismo casi impecable están a la venta, el que pague puede obtenerlas y producirlas. Y aunque la plataforma dice prohibir deepfakes, la realidad es que esa política es más papel mojado que una forma efectiva de control.

¿Y qué? Pues pocas cosas buenas. Los modelos están ahí, las peticiones fueron premiadas, el contenido sigue circulando y la moderación brilla por su ausencia estratégica. Mientras tanto, las víctimas directas —mujeres reales— afrontan un daño personal, ético, psicológico y social sin un escudo legal, ni una defensa técnica contundente.

La pregunta que deja esta historia es mucho más pesada: ¿queremos un futuro donde la inteligencia artificial sea la herramienta definitiva para el abuso digital sin fronteras? Porque la tecnología, tan maravillosa como sea, siempre tendrá en sus entrañas a quienes la usan para lo peor. ¿Quién pone límite? ¿La ley? ¿Las plataformas? ¿Los inversores? A día de hoy, ninguna de esas respuestas convence realmente.

Así que la próxima vez que un modelo de IA pinte un rostro perfecto y hermoso, recuerda que ese lienzo digital puede ser la víctima invisible de un fallo monumental en ética y responsabilidad. Civitai es solo la punta del iceberg.
¿Hasta cuándo vamos a fingir que esto no es nuestro problema?

Por Helguera

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *