Google anunció este miércoles una nueva función, llamada ‘acerca de esta imagen’, para que los usuarios puedan descubrir si una imagen fue creada con inteligencia artificial (IA) y obtener información adicional sobre la fotografía.
Mediante esta función, a la que se puede acceder con Circle to Search o Google Lens, los usuarios pueden determinar rápidamente si una imagen es falsa al acceder a los metadatos de la imagen, la fuente y si hay una marca de agua de Google AI presente «para ayudar a determinar su legitimidad».
«Es importante recordar que la persona que publica una imagen puede agregar o eliminar metadatos. Cuando estén disponibles, se podrán ver los metadatos que los creadores y editores de imágenes han agregado a una imagen, incluidos los campos que pueden indicar que ha sido generada o mejorada por IA», explica la gerente de producto Nidhi Hebbaren en un comunicado.
Además, esta función puede identificar si la imagen se generó con IA, siempre que contenga la marca de agua SynthID de Google DeepMind incrustada en sus píxeles.
Otra información a la que podrá acceder el usuario es a «más contexto», como las páginas webs que la han publicado y qué han dicho sobre la imagen diversas fuentes, como sitios de noticias y de verificación de datos.
«Esta información puede ser útil para evaluar las afirmaciones que se hacen sobre una imagen y para ver evidencia y perspectivas de otras fuentes», anota Hebbaren.
‘Acerca de esta imagen’ está disponible en 40 idiomas a nivel mundial, como el español, el francés, el alemán, el hindi, el japonés y el portugués, entre otros.
Google modifica su buscador para ocultar ‘deepfakes’
Google también anunció nuevas funciones de seguridad en línea para facilitar la eliminación de ‘deepfakes’ -cuando mediante la IA se pone la cara de una persona en el cuerpo de otra y/o se manipula lo que la persona dice- de su buscador, para evitar que aparezcan en los primeros lugares de los resultados de búsqueda.
El primer paso es la petición por parte del usuario de un ‘deepfake’ explícito, el sistema de Google intentarán filtrar todos los resultados explícitos en búsquedas similares y eliminar cualquier imagen duplicada.
«Con cada nuevo avance tecnológico, surgen nuevas oportunidades para ayudar a las personas, pero también nuevas formas de abuso que debemos combatir (…) Se produjo un aumento preocupante en las imágenes y los vídeos generados (con IA) que muestran a personas en contextos sexualmente explícitos, distribuidos en la web sin su consentimiento», indica en un comunicado la gerente de producto, Emma Higham.
En este sentido, Higham detalla que varios expertos y víctimas ayudaron a crear estas nuevas funciones.
«Estos esfuerzos están diseñados para brindar a las personas una mayor tranquilidad, especialmente si les preocupa que aparezca contenido similar sobre ellas en el futuro», anota la trabajadora de Google.
Las páginas web que sufran una cantidad sustancial de eliminaciones por imágenes explícitas falsas serán degradadas en las clasificaciones de búsqueda de Google.
«También es necesario distinguir el contenido explícito que es real y consensuado (como las escenas de desnudos de un actor) del contenido falso explícito (como los ‘deepfakes’ que presentan a dicho actor). Si bien diferenciar este tipo de contenido es un desafío técnico para los motores de búsqueda, estamos realizando mejoras constantes para mostrar mejor el contenido legítimo y bajar la clasificación del contenido falso explícito», anota Higham. EFE
800noticias
Tu opinión es importante para nosotros, déjanos tu comentario y síguenos en Instagram, Twitter, Facebook y YouTube recibe de inmediato los hechos noticiosos y análisis tal como están ocurriendo con nuestro grupo de WhatsApp