El director ejecutivo de la plataforma de video considera sería una "clara violación" de sus políticas
El director ejecutivo de YouTube, Neal Mohan, plantea preocupaciones sobre el posible uso de contenido de creadores de la plataforma para entrenar modelos de IA, generando un debate sobre ética y políticas.
Mohan expresa inquietud ante la posibilidad de que OpenAI haya utilizado vídeos de YouTube para entrenar su modelo de IA, Sora. Esto, según Mohan, constituiría una violación de las políticas de la plataforma.
Sora, presentado por OpenAI en febrero, es un modelo capaz de generar escenas de vídeo realistas a partir de texto, utilizando contenido previo como referencia. La cuestión surge sobre el origen de estos datos y si incluyen vídeos de plataformas como YouTube, Instagram o Facebook.
Las Expectativas de los Creadores y las Políticas de YouTube
Mohan destaca que los creadores de contenido que eligen YouTube esperan que su trabajo esté protegido por los términos del servicio. La posible utilización de sus vídeos para entrenar modelos de IA plantea interrogantes sobre la integridad y la protección de su propiedad intelectual.
"Cuando un creador sube su arduo trabajo a nuestra plataforma, tiene ciertas expectativas", subraya Mohan. La descarga no autorizada de contenido, incluidas transcripciones o fragmentos de vídeo, violaría estas expectativas y los términos de uso de la plataforma.
Contratos Individuales y Transparencia en el Uso de Datos
En contraste, Mohan señala que el uso de vídeos de YouTube para entrenar el modelo de IA de Google, Gemini, se rige por contratos individuales con los creadores. Estos contratos especifican si se permite o no el uso del contenido con este fin, enfatizando la importancia de la transparencia y el consentimiento.
El debate planteado por Mohan destaca la necesidad de una mayor claridad y responsabilidad en el uso de datos para el desarrollo de IA, así como la importancia de proteger los derechos y las expectativas de los creadores de contenido en plataformas como YouTube.