Meta etiquetará las imágenes generadas por IA

Por | febrero 6, 2024

El control de los riesgos que implica la inteligencia artificial sigue sobre la mesa de los tomadores de decisiones en empresas e instituciones. En este contexto, Meta anunció que en «los próximos meses» empezará a etiquetar imágenes generadas con IA en sus redes Facebook, Instagram y Threads.

El presidente de Asuntos Globales de la big tech, Nick Clegg, señaló en un comunicado que Meta está trabajando con otras empresas de la industria en estándares técnicos comunes para identificar contenido de IA, incluidos videos y audios.

«Estamos creando herramientas líderes en la industria que pueden identificar marcadores invisibles para que podamos etiquetar imágenes de Google, OpenAI, Microsoft, Adobe, Midjourney y Shutterstock«, destacó Clegg.

nicke clegg habla sobre las caracteristicas del mercado de america latina y su importanci para meta
Nick Clegg, presidente de Asuntos Globales de Meta

Los usuarios también pueden usar Meta AI para crear imágenes fotorrealistas mediante texto. No obstante, la herramienta aclara que la IA ha participado en algún proceso de la creación de la imagen. Lo hace con marcadores visibles que se pueden ver en las fotos, y con marcas de agua invisibles y metadatos incrustados en los archivos de imagen.

Los 10 CEO más mediáticos de 2022-2023. El primero no te sorprenderá

Polémicas con imágenes generadas por IA

Anteriormente al anuncio, la Junta de Supervisión de Meta apoyó que permaneciera en sus redes un video manipulado del presidente de Estados Unidos, Joe Biden, que salió a la luz en enero.

Este contenido utiliza imágenes de Biden colocando una pegatina que dice «Yo voté» sobre el pecho de su nieta adulta. Son imágenes reales de octubre, pero la edición repite el momento en que la mano de Biden se aproxima al pecho de su nieta para que parezca que la tocó de manera inapropiada.

«La publicación de Facebook no viola la política de Medios Manipulados de Meta, que se aplica únicamente a videos creados mediante IA y a contenido que muestra a personas diciendo cosas que no dijeron», explica la Junta de Supervisión. «Dado que el video de esta publicación no fue modificado usando IA y muestra al presidente Biden haciendo algo que no hizo (no algo que no dijo), no viola la política existente».

Foto: EFE/John G. Mabanglo

Además, el organismo resalta que la alteración de este vídeo es obvia y, por lo tanto, es poco probable que engañe al «usuario promedio» sobre su autenticidad.

«Sin embargo, la Junta está preocupada por la política de Medios Manipulados en su forma actual, considerándola incoherente, carente de justificación persuasiva y enfocada inapropiadamente en cómo se ha creado el contenido, en lugar de qué daños específicos pretende prevenir (por ejemplo, a procesos electorales)», agrega. «Meta debería reconsiderar esta política rápidamente, dado el número de elecciones en 2024″.

Se calcula que unos 4,000 millones de ciudadanos de 70 países están llamados a votar durante el año 2024.

A finales de enero, redes sociales como X, Instagram y Threads optaron por suprimir las búsquedas de «Taylor Swift inteligencia artificial (IA)» tras la filtración de imágenes falsas de la cantante estadounidense posiblemente creadas con IA.

Con la popularidad de la IA generativa, cada vez circulan por Internet más deepfake que usan la cara de famosos para estafas difundidas en las redes sociales. Algunos de los blancos han sido el youtuber MrBeast, cuyo nombre real es Jimmy Donaldson y tiene más de 237 millones de seguidores, o el premiado actor Tom Hanks.

Información de la agencia EFE

Te puede interesar: Por qué las ‘big tech’ ganaron en conjunto US$94,000 millones en el último trimestre de 2023

Suscríbete a la revista y regístrate a nuestros newsletters para recibir el mejor contenido en tu buzón de entrada.