Google, Meta y OpenAI anuncian medidas para identificar los contenidos creados con inteligencia artificial | Tecnología

Google, Meta y OpenAI anuncian medidas para identificar los contenidos creados con inteligencia artificial | Tecnología

Google, Meta y OpenAI han anunciado en los últimos días distintas medidas para que sea más fácil identificar imágenes o archivos que han sido producidos o retocados con inteligencia artificial (IA). Estas iniciativas se enmarcan en el temor a que la difusión indiscriminada de mensajes falsos condicione los resultados de elecciones o tenga otras consecuencias inesperadas. Las tres compañías ya habían anunciado que tratarán de impedir el uso de la IA en los procesos electorales de 2024.

Tras años de invertir miles de millones de euros en mejorar la capacidad de la inteligencia artificial generativa, las tres plataformas se han unido a la Coalición para la Procedencia y Autenticidad de Contenido (C2PA por las siglas en inglés), que propone un certificado estándar y reúne a buena parte de la industria digital, a medios de comunicación como la BBC o The New York Times a bancos y a fabricantes de cámaras. Las empresas admiten en sus comunicados que no hay por ahora una solución única, ni eficaz en todos los casos, para la identificación de contenido generado con IA.

Las iniciativas varían entre marcas visibles en las propias imágenes y mensajes disimulados en los metadatos del archivo o en los píxeles que han sido generados artificialmente. Con su herramienta aún en fase beta, SynthID, Google también dice haber encontrado un modo de identificar audios.

El estándar C2PA para introducir información en los metadatos de la imagen tiene numerosas debilidades técnicas, identificadas con detalle por desarrolladores. La propia OpenAI, que usará C2PA en Dall-3 (su generador de imágenes), advierte en su comunicado que no hay que fiarse excesivamente de sus posibilidades: “Metadatos como C2PA no son una solución milagrosa para abordar cuestiones de procedencia. Puede eliminarse fácilmente de forma accidental o intencionada. Una imagen que carece de estos metadatos puede haber sido generada o no con ChatGPT o con nuestra API”, señalara la compañía creadora del chatbot que ha popularizado la inteligencia artificial generativa.

Leer más  “El sistema falla donde menos te lo esperas”. Así evaluaron GPT-4 estos dos españoles por encargo de OpenAI | Tecnología

Las compañías no dan plazos claros para la introducción completa de sus medidas. Este 2024 es un año lleno de citas electorales en países importantes y la influencia de contenido generado por IA puede ser explosiva. La necesidad de protegerse preventivamente es vital. “Estamos desarrollando esta capacidad y en los próximos meses empezaremos a aplicar etiquetas en todos los idiomas que admite cada aplicación”, dice Nick Clegg, presidente de Asuntos Públicos de Meta, en su comunicado.

Meta promete no solo etiquetar visualmente las imágenes que generen sus herramientas de IA, sino también detectar e identificar las que se cuelguen en sus redes: Instagram, Facebook y Threads, siempre que sea posible. “Podemos etiquetar imágenes de Google, OpenAI, Microsoft, Adobe, Midjourney y Shutterstock a medida que ponen en marcha sus planes para añadir metadatos a las imágenes creadas por sus herramientas”, dice Clegg.

Google aplicará sus métodos a YouTube. Aunque estos enfoques dicen representar lo último dentro de lo que es técnicamente posible ahora mismo, la empresa cree que su método creado con SynthID puede sobrevivir modificaciones voluntarias para ocultarlo, como “agregar filtros, cambiar colores y guardar con varios esquemas de compresión con pérdida, que son los más utilizados para archivos JPEG”.

Puedes seguir a EL PAÍS Tecnología en Facebook y X o apuntarte aquí para recibir nuestra newsletter semanal.

By Juan Francisco Melgar

You May Also Like