BERLÍN- Directivos de las empresas Adobe, Amazon, Google, IBM, Meta, Microsoft, OpenAI y TikTok se reunieron en la Conferencia de Seguridad de Múnich para dar a conocer un nuevo marco de trabajo para responder a las deepfakes, que son imágenes falsas que son generadas con inteligencia artificial, mismas que son utilizadas para engañar de forma deliberada a los votantes.
El nombre oficial con el que se conoce a este acuerdo es “La industria tecnológica contra el uso engañoso de la IA en las elecciones de 2024”, según un comunicado de Microsoft. Se dio a conocer que otras 12 compañías, entre ellas X de Elon Musk, se comprometieron a firmar el acuerdo.
TE PUEDE INTERESAR: Elon Musk está difundiendo desinformación sobre las elecciones, pero hace mucho que desaparecieron los verificadores de datos de X
“Todo el mundo reconoce que ninguna empresa tecnológica, ningún gobierno, ninguna organización de la sociedad civil por sí sola puede afrontar el advenimiento de esta tecnología y su posible uso nefario”, explicó Nick Clegg, presidente de asuntos globales de Meta, la empresa matriz de Facebook e Instagram, en una entrevista que concedio a The Associated Press antes de la conferencia.
De acuerdo con el comunicado de Microsoft, este acuerdo es un cúmulo de compromisos con el propósito de implementar tecnología que neutralice el contenido dañino que es generado por IA y que tiene como objetivo a engañar a los votantes. Los firmantes, continúa Microsoft, “se comprometen a trabajar en colaboración en herramientas para detectar y abordar la distribución en línea de dicho contenido de IA, impulsar campañas educativas y brindar transparencia, entre otras medidas concretas”. Así mismo esn incluidos “un amplio conjunto de principios, incluida la importancia de rastrear el origen del contenido engañoso relacionado con las elecciones y la necesidad de crear conciencia pública sobre el problema. El acuerdo es un paso importante para proteger a las comunidades en línea contra contenidos dañinos de IA y se basa en el trabajo en curso de las empresas individuales”.
Así mismo, este acuerdo se centra en las imágenes, audios y video que son cada vez más realistas generados con inteligencia Artificial “que falsean o alteran engañosamente la apariencia, voz o acciones de candidatos políticos, funcionarios electorales y otros participantes cruciales en una elección democrática, o que proporcionan información falsa a los votantes acerca de cuándo, dónde y cómo pueden votar legalmente”, expresó Clegg.
TE PUEDE INTERESAR: Elecciones presidenciales en EU: La mayaría de los estadounidenses piensa que su país va en dirección equivocada y hay temor de que la IA desinforme
“El contenido digital abordado por el acuerdo consiste en audio, video e imágenes generados por inteligencia artificial que falsifican o alteran engañosamente la apariencia, la voz o las acciones de candidatos políticos, funcionarios electorales y otras partes interesadas clave en una elección democrática, o que brindan información falsa. a los votantes sobre cuándo, dónde y cómo pueden votar”, precisa el comunicado de Microsoft.
Si bien, las empresas firmantes no se comprometen a prohibir o borrar las deepfakes, en vez de eso, el acuerdo traza los métodos que van a ser utilizados con el propósito de detectar y etiquetar el contenido que es considerado engañoso cuando sea creado o difundido en sus plataformas; además, las compañías firmantes van a compartirse entre ellas los mejores métodos, así como también se proporcionarán “respuestas veloces y proporcionales” cuando ese contenido empiece a propagarse.
ESTOS SON LOS OCHO COMPROMISOS DEL ACUERDO:
1. Desarrollar e implementar tecnología con el propósito de mitigar los riesgos relacionados con el contenido electoral engañoso de IA, incluidas herramientas de código abierto cuando corresponda.
2. Evaluar los modelos dentro del alcance de este Acuerdo para comprender los riesgos que pueden presentar con respecto al contenido electoral engañoso de IA.
3. Buscar detectar la distribución de este contenido en sus plataformas
4. Buscar abordar adecuadamente estos contenidos detectados en sus plataformas.
5. Fomentar de la resiliencia intersectorial al contenido electoral engañoso de IA.
6. Proporcionar transparencia al público sobre cómo la empresa lo aborda.
7. Continuar colaborando con un conjunto diverso de organizaciones de la sociedad civil global y académicos.
8. Apoyar los esfuerzos para fomentar la conciencia pública, la alfabetización mediática y la resiliencia de toda la sociedad.
Estos compromisos serán aplicados cuando sean relevantes para los servicios que proporciona cada empresa, precisa Microsoft.
2024, UN AÑO EN EL QUE REALIZARÁN VARIAS ELECCIONES EN EL QUE INTENTA EVITAR LA DESINFORMACIÓN
En este 2024, en más de 50 de llevarán acabo elecciones, en las cuales está convocada casi la mitad de la humanidad mayor de edad, como lo expresó recientemente el secretario general de la ONU, António Guterre. De acuerdo con la compañía Clarity, que cita el portal CNBC, existe una cantidan elevada de inormación engañosa con contenido o intención política y precisa Clarity que estos contenidos se incrementan en un 900 % de año en año.
En opinión de Christopher Heusgen, presidente de la Conferencia de Seguridad de Munich, dada en el comunicado publicado por Microsoft, “las elecciones son el corazón palpitante de las democracias. El Acuerdo Tecnológico para combatir el uso engañoso de la IA en las elecciones de 2024 es un paso crucial para promover la integridad electoral, aumentar la resiliencia de la sociedad y crear prácticas tecnológicas confiables”.
Dana Rao, asesora general y directora de confianza de Adobe, expresó que “la transparencia genera confianza”, afirmó en el comunicado de Microsoft, y continuó explicando que “es por eso que estamos entusiasmados de ver este esfuerzo para construir la infraestructura que necesitamos para brindar contexto al contenido que los consumidores ven en línea. Dado que este año se celebrarán elecciones en todo el mundo, debemos invertir en campañas de alfabetización mediática para garantizar que la gente sepa que no pueden confiar en todo lo que ven y oyen en línea, y que existen herramientas para ayudarles a comprender lo que es verdad”.
Por su parte, Kent Walker, presidente de Asuntos Globales de Google, detalló en el mismo texto publicado en el sitio web de Microsoft, que “la democracia se basa en elecciones seguras y protegidas”, y prosigue asegurando que “Google ha estado apoyando la integridad electoral durante años, y el acuerdo de hoy refleja un compromiso de la industria contra la desinformación electoral generada por IA que erosiona la confianza. No podemos permitir que el abuso digital amenace la oportunidad generacional de la IA para mejorar nuestras economías, crear nuevos empleos e impulsar el progreso en salud y ciencia”.
Christina Montgomery, vicepresidenta y directora de privacidad y confianza de IBM, precisó en mismo comunicado, que “las campañas de desinformación no son nuevas, pero en este año excepcional de elecciones, con más de 4 mil millones de personas acudiendo a las urnas en todo el mundo, se necesitan medidas concretas y cooperativas para proteger a las personas y las sociedades de los riesgos amplificados del contenido engañoso generado por IA” y añadió que, “es por eso que IBM reafirmó hoy nuestro compromiso de garantizar una IA segura, confiable y ética, firmando el ‘Acuerdo tecnológico para combatir el uso engañoso de la IA en las elecciones de 2024’ junto con pares de la industria en la Conferencia de Seguridad de Munich”.
Por su parte, Nick Clegg, presidente de Asuntos Globales de Meta, hace incapié en el mismo comunicado que “con tantas elecciones importantes este año, es vital que hagamos todo lo posible para evitar que la gente sea engañada por el contenido generado por IA”, y reasaltó que “este trabajo es más grande que el de cualquier empresa y requerirá un gran esfuerzo por parte de la industria, el gobierno y la sociedad civil. Con suerte, este acuerdo puede servir como un paso significativo de la industria para enfrentar ese desafío”.
Anna Makanju, vicepresidenta de Asuntos Globales de OpenAI, asegura en el texto publicado por Microsoft que “estamos comprometidos a proteger la integridad de las elecciones aplicando políticas que prevengan el abuso y mejorando la transparencia en torno al contenido generado por IA”, y reitera “esperamos trabajar con socios de la industria, líderes de la sociedad civil y gobiernos de todo el mundo para ayudar a proteger las elecciones del uso engañoso de la IA”.
Para Theo Bertram, vicepresidente de Política Pública Global de TikTok, “es crucial que la industria trabaje junta para proteger a las comunidades contra la IA engañosa y engañosa en este histórico año electoral”, comentó en el comunicado de Microsoft y contúa “esto se basa en nuestra inversión continua para proteger la integridad electoral y promover prácticas responsables y transparentes de contenido generado por IA a través de reglas sólidas, nuevas tecnologías y asociaciones de alfabetización mediática con expertos”.
Linda Yaccarino, directora ejecutiva de X, señala en el texto publicado por Microsoft que “en los procesos democráticos de todo el mundo, cada ciudadano y empresa tiene la responsabilidad de salvaguardar elecciones libres y justas, por eso debemos comprender los riesgos que el contenido de IA podría tener en el proceso. X se dedica a desempeñar su papel, colaborando con sus pares para combatir las amenazas de la IA y al mismo tiempo proteger la libertad de expresión y maximizar la transparencia”.
Con información de las Agencias The Associated Press, EFE y Microsoft.