Etiquetando lo “sintético”: la estrategia para regular la inteligencia artificial generativa

0

Por: Nicolás Vilela. CEO de ZTZ


A mediados del 2023, un grupo de empresas tecnológicas firmó un acuerdo con autoridades de Estados Unidos, con el objetivo de avanzar en la regulación de la inteligencia artificial generativa; o sea, la que es capaz de elaborar contenido nuevo -ya sea en forma de imágenes, texto, audio, video u otros tipos de datos- por medio de descripciones de texto que imitan el estilo o la estructura de datos previamente analizados.

Entre los gigantes que participaron en este pacto se encontraron Adobe, Microsoft, Google, Meta y OpenAI. El acuerdo, que vale decir que no es vinculante, contempló el desarrollo de mecanismos para facilitar la identificación de contenido audiovisual generado por sistemas de inteligencia artificial, mediante la aplicación de etiquetas o marcas de agua reconocibles.

Estas acciones buscan trascender más allá del producto digital en sí mismo y tienen como finalidad prevenir la distribución indiscriminada y perjudicial de este tipo de materiales. Políticos y organizaciones que luchan contra las campañas de desinformación también están observando de cerca estos avances, pues ya se prevén posibles dificultades éticas y sociales derivadas de su uso sin control.

Dentro de la asociación Content Authenticity Initiative, Adobe introdujo un “icono de transparencia”, respaldado por empresas también pertenecientes al grupo como Microsoft, Leica, Nikon y Truepic. Este símbolo, denominado CR (Content Credentials), se colocó en la esquina superior derecha de imágenes y videos creados o modificados con herramientas de IA. Al hacer clic en la marca, se desplegó una tarjeta informativa con detalles sobre su autoría, con el objetivo de establecer estándares técnicos para certificar su autenticidad.

Google, a través de su plataforma YouTube, también ha tomado caminos similares. Aunque los elementos técnicamente manipulados que engañan a los espectadores ya están prohibidos en sus sistemas, la plataforma implementará actualizaciones que informarán a los usuarios cuando lo que se está viendo sea falso. Esta medida se enfocará, especialmente, en lo relacionado con temas sensibles como elecciones, conflictos y crisis de salud pública, así como en los discursos de funcionarios públicos. Los creadores que no cumplan con estas directrices podrían enfrentar la eliminación de contenido y otras sanciones.

Y recientemente, Meta anunció que tanto Instagram como Facebook incorporarán etiquetas para identificar el origen de lo expuesto, con énfasis en aquello generado por motores de inteligencia artificial. Éstas mostrarán “AI Info” junto al nombre del usuario, buscando alertar cuando eso pueda no ser verídico. Se ha conocido que la compañía está considerando otras formas de destacar el origen de una imagen, pero desde ya estas decisiones marcan un paso importante en la lucha contra la desinformación en dos de las redes sociales más ocupadas en el mundo.

Los grandes estandartes del progreso digital en la era de la información y los datos están asumiendo un papel crucial en el establecimiento de estándares para el uso de la inteligencia artificial. Y no me sorprendería que cada vez aparezcan nuevas decisiones en torno a la protección frente al material manipulado o peligroso para la población. Si bien estos logros son alentadores, a mi juicio, el asunto sigue requiriendo la participación consciente y activa de todos los actores que componen la sociedad.

¿Por qué? Porque así podemos contribuir entre todos a establecer los límites, a velar por nuestra privacidad y nuestro derecho a estar correctamente informados, junto con conocer lo necesario para diferenciar lo hecho por un humano de lo “sintético”. Por ello, tan necesario como el etiquetado de calidad para los contenidos digitales es también, para mí, el compromiso de que sigamos aportando más ideas y soluciones para resolver estos y otros desafíos. Los gigantes tecnológicos ya dieron el primer paso.


El contenido expresado en esta columna de opinión es de exclusiva responsabilidad de su autor y no representa necesariamente la visión ni línea editorial de Poder y Liderazgo.


 

Compartir

Acerca del autor

Comments are closed.