Casi 13 mil firmantes exigen fin al uso no autorizado de sus obras
La inteligencia artificial (IA) está sembrando el pánico en el mundo creativo, y los artistas han decidido tomar acción. Casi 13,000 autores, músicos, actores y figuras clave de diversas ramas del arte han emitido una contundente carta abierta en protesta contra el uso sin licencia de sus obras para entrenar sistemas de IA.
Entre los firmantes se encuentran reconocidas celebridades como Kevin Bacon, Julianne Moore, Rosario Dawson, F. Murray Abraham, el escritor James Patterson y el líder de Radiohead, Thom Yorke, según reporta The Washington Post.
Amenaza injusta y destructiva
El mensaje de la carta es claro: "El uso sin licencia de obras creativas para entrenar IA generativa es una amenaza injusta y destructiva para los medios de vida de quienes crean esas obras". Este grito de auxilio refleja la creciente preocupación de los creadores por el futuro de sus profesiones, ante el rápido avance de las tecnologías de IA que, en muchos casos, explotan sus obras sin permiso ni compensación.
- Noticia relacionada: Dominicana Music Week 2025 promete una vibrante celebración musical
El malestar no es reciente. A principios de este año, más de 200 músicos y compositores, respaldados por la Artists Rights Alliance, también protestaron contra el uso irresponsable de la IA en la industria musical, temiendo que sus voces e imágenes sean robadas y utilizadas sin su consentimiento.
Apropiación ilegal de derechos de autor
El movimiento sigue ganando fuerza. En julio, más de 15,000 escritores, incluyendo nombres de peso como Jennifer Egan y Margaret Atwood, exigieron a las grandes empresas de IA que detuvieran la apropiación ilegal de sus trabajos protegidos por derechos de autor para entrenar sistemas de IA sin el debido reconocimiento ni pago, recoge Prensa Latina, que también se apoyó en el sitio ARTnoticias.
La carta más reciente no solo busca detener la expansión de estas prácticas abusivas, sino que exige que las compañías de IA obtengan el consentimiento de los creadores, reconozcan su autoría y, lo más importante, los compensen de manera justa.
Esto es, para los artistas, una batalla por la supervivencia en un mundo donde la IA amenaza con borrar los límites entre lo humano y lo artificial.
Pueden ser difíciles de identificar
Las señales de que el arte y la literatura están siendo utilizados para entrenar sistemas de inteligencia artificial (IA) sin el consentimiento de los creadores pueden ser difíciles de identificar directamente, pero hay varios indicios que los artistas y autores pueden observar a partir de la respuesta de la propia inteligencia artificial (ChatGPT):
1. Creaciones similares o clonadas
Los artistas o escritores pueden notar que obras generadas por IA son extrañamente similares a sus propios trabajos, en estilo, contenido o estructura. Esto podría sugerir que sus creaciones fueron incluidas en los conjuntos de datos para entrenar estos sistemas sin autorización.
2. Modelos de IA imitando estilos reconocidos
Si notas que modelos de IA generan arte, música, o textos que claramente imitan el estilo de un artista o autor específico sin que ellos hayan dado su consentimiento, es un fuerte indicio de que sus obras han sido utilizadas para entrenar el sistema.
3. Ausencia de créditos o compensación
Muchas plataformas de IA no revelan de manera transparente qué datos fueron usados para entrenar sus modelos. Si tus obras o aquellas de creadores conocidos aparecen como influencias reconocibles en las creaciones de IA, y no hay crédito o compensación, es probable que tus obras hayan sido utilizadas de manera no autorizada.
4. Sistemas de IA produciendo contenidos altamente específicos
Los sistemas de IA que pueden generar narrativas complejas o imágenes detalladas en un estilo particular suelen estar entrenados en grandes cantidades de contenido específico. Si encuentras IA que pueden crear en un estilo muy especializado, puede ser una señal de que se han utilizado grandes colecciones de obras de arte o literatura para entrenarlos.
5. Cambios en el mercado creativo
Si ves un aumento en la cantidad de obras generadas por IA en el mercado, lo que reemplaza o desplaza la demanda de trabajos originales de autores o artistas humanos, es una señal de que estas herramientas están entrenadas y optimizadas con contenido artístico o literario preexistente.
6. Uso de "Conjuntos de datos abiertos"
Algunos desarrolladores de IA usan grandes conjuntos de datos de acceso abierto para entrenar sus modelos. Aunque estos conjuntos de datos pueden incluir obras bajo licencias abiertas, a veces incluyen obras con derechos de autor no respetados. Si un creador ve su trabajo en alguna plataforma de IA o en modelos sin haber dado permiso, es probable que se haya utilizado indebidamente.
7. Modelos de IA que reproducen fragmentos literales
A veces, los modelos de IA generan fragmentos literales o casi idénticos a pasajes, letras de canciones o párrafos de textos protegidos por derechos de autor. Si ves una reproducción literal de una obra tuya o de un colega, es probable que su trabajo haya sido parte de un conjunto de datos no autorizado.
8. Plataformas de IA que no revelan datos de entrenamiento
Si las plataformas de IA no revelan de manera transparente los conjuntos de datos utilizados para entrenar sus modelos, es un indicio de que podrían estar utilizando obras de arte y literatura sin consentimiento ni licencia. Los creadores de IA a menudo usan grandes volúmenes de contenido de internet sin dar detalles claros de sus fuentes.
9. Algoritmos generativos de estilo multidisciplinario
Si las IAs están produciendo resultados que combinan varios estilos artísticos o literarios en uno solo, puede ser una señal de que han sido entrenadas con una amplia gama de obras de varios artistas y autores sin tener en cuenta los derechos individuales.
Estos indicios pueden ayudar a los creadores a estar alertas y tomar medidas, como investigar más a fondo, unirse a organizaciones que protejan los derechos de los creadores, o incluso emprender acciones legales si es necesario.