Las compañías de inteligencia artificial más importantes del mundo se han unido en un encuentro con el presidente de los Estados Unidos, Joe Biden, con el propósito de presentar un método definitivo para detectar deepfakes y contenido generado por IA. Han propuesto el uso de marcas de agua como una solución simple y efectiva para identificar este tipo de contenido.
Diversas plataformas como ChatGPT, MidJourney, Stable Diffusion, Google Bard y el Chat de Bing, llevarán una marca de agua para su identificación. Sin embargo, aún se desconoce cómo se aplicará esta marca de agua y si será visible o invisible.
Además de este innovador método, las empresas se han comprometido a tomar otras medidas para reducir los riesgos asociados con la IA. Esto incluye someterse a controles internos y externos por parte de expertos en seguridad independientes, así como compartir información con gobiernos y académicos.
Asimismo, se implementarán restricciones en el desarrollo de armas biológicas, químicas o radiológicas, así como en herramientas utilizadas por ciberdelincuentes y en la discriminación de razas y géneros. Todo ello con el objetivo de garantizar un uso ético y seguro de la IA.
El acuerdo se basa en la idea de que ninguna compañía individual puede garantizar la seguridad total en el ámbito de la IA, por lo que es necesario el trabajo conjunto y la colaboración de múltiples empresas.
El principal objetivo de esta iniciativa es prevenir el uso ilegal y delictivo de los deepfakes y del contenido fraudulento generado por IA. Con estas medidas, se busca proteger la integridad de la información y evitar posibles consecuencias adversas.
Esta reunión entre las compañías de IA y el presidente Biden marca un paso importante en la búsqueda de soluciones para garantizar la seguridad y el uso responsable de la inteligencia artificial. La colaboración entre instituciones y empresas se presenta como la clave para afrontar los desafíos que esta tecnología plantea en la sociedad actual.