YouTube obligará a usuarios que informen si usan inteligencia artificial en videos

Con el creciente uso de la inteligencia artificial para generar videos sintéticamente, YouTube anunció que obligará a sus creadores a informar cuando los videos que suben han sido creados total o parcialmente con esta tecnología.

YouTube implementará actualizaciones que informarán a las personas cuando el contenido que están viendo es artificial. Especialmente en los casos en que el contenido aborda temas sensibles, como elecciones, conflictos en curso y crisis de salud pública, o funcionarios públicos.

Los creadores que no revelen esta información pueden estar sujetos a la eliminación de contenido, la suspensión del Programa de socios de YouTube u otras sanciones. YouTube trabajará con los creadores antes de que esto se implemente para asegurar la comprensión de estos nuevos requisitos.

La plataforma informará a los espectadores que el contenido puede ser artificial de dos maneras: la primera, se agregará una nueva etiqueta al panel de descripción que indica que parte del contenido fue alterado o generado digitalmente. Y, en segundo lugar, para ciertos tipos de contenido sobre temas sensibles, se aplicará una etiqueta más prominente al reproductor de video.

Hay algunas áreas en las que una etiqueta por sí sola puede no ser suficiente para mitigar el riesgo de daño, y algunos medios sintético. Por ello, independientemente de si están etiquetados o no, se eliminarán de la plataforma si violan los Lineamientos de la Comunidad.

Y en el futuro, a medida que se implementen estas nuevas actualizaciones, el contenido creado por los productos y funciones de inteligencia artificial generativa de YouTube se etiquetará claramente cómo: generado por inteligencia artificial.

Opciones para creadores, espectadores y artistas

En los próximos meses se permitirá solicitar la eliminación de contenido generado por inteligencia artificial generativa u otro contenido modificado que simule a un individuo identificable, incluida su cara o voz, mediante el proceso de Reclamo de Privacidad.

No todo el contenido se eliminará de YouTube, y se considerará una variedad de factores al evaluar estas solicitudes. Esto podría incluir si el contenido es una parodia o sátira, si la persona que realiza la solicitud puede ser identificada de manera única, o si presenta a un funcionario público o individuo conocido, en cuyo caso puede haber un estándar más alto.

También YouTube está permitirá que sus socios musicales soliciten la eliminación de contenido de música generado por inteligencia artificial que imita la voz de canto o el estilo de rap único de un artista. Al determinar si conceder una solicitud de eliminación, se considerarán factores como si el material es objeto de informes de noticias, análisis o crítica de las voces sintéticas.

Estas solicitudes de eliminación estarán disponibles para los sellos discográficos o distribuidores que representan a los artistas que participan en los primeros experimentos de música con inteligencia artificial en YouTube. En los próximos meses, se ampliará el acceso a disqueras y distribuidores adicionales.

Inteligencia artificial para impulsar moderación de contenido

YouTube cuenta con más de 20 mil supervisores en Google que operan en todo el mundo para cumplir los Lineamientos de la Comunidad. En los sistemas, los clasificadores de IA ayudan a detectar contenido potencialmente violatorio a gran escala, y los verificadores trabajan para confirmar si el contenido realmente ha cruzado los límites de las políticas. Esta tecnología está aumentando continuamente, tanto en velocidad como en la precisión de los sistemas de moderación de contenido.

Uno de los claros efectos ha sido la identificación de nuevas formas de abuso. Cuando surgen nuevas amenazas, los sistemas tienen relativamente poco contexto para comprenderlas e identificarlas a gran escala. Pero la inteligencia artificial generativa contribuye a expandir rápidamente el conjunto de información con el que se entrenan los clasificadores de esta herramienta, lo que significa que se puede identificar y capturar este contenido mucho más rápido. La mejora de velocidad y precisión de los sistemas también permiten reducir la cantidad de contenido dañino al que están expuestos los supervisores humanos.

Scroll al inicio