La inteligencia artificial está transformando nuestras vidas, pero su impacto en las elecciones está generando preocupación. Los expertos temen que la IA pueda crear y difundir contenido sintético que desinforme a los votantes y socave la integridad electoral.
Una rueda de prensa con especialistas explora estas preocupaciones y destaca los esfuerzos para mitigar los riesgos de cara a las elecciones presidenciales estadounidenses de 2024.
IA y desinformación electoral
Jonathan Stein, Director Ejecutivo de California Common Cause, advierte que la IA está “acelerando las amenazas al sistema electoral”. Señala que crear contenido sintético se ha vuelto alarmantemente fácil, lo que permite que la desinformación se propague rápidamente. “Lo que antes requería un presupuesto de estudio y un equipo de producción ahora se puede hacer con unos pocos clics”, dice Stein.
Un ejemplo notable involucró al Departamento de Justicia de los EE. UU., que descubrió una campaña de desinformación rusa que utilizaba miles de perfiles falsos de redes sociales generados por IA, haciéndose pasar por estadounidenses. “2024 será la primera elección con IA en la que los deep fakes y la desinformación tendrán el poder de inundar nuestro discurso político,” advierte Stein.
Vigilancia comunitaria y esfuerzos legislativos
California Common Cause ha lanzado Cited: The California Initiative for Technology and Democracy para combatir la desinformación generada por IA. Stein enfatiza la vigilancia comunitaria: “Nuestras comunidades y nuestros votantes no están preparados para estas amenazas. Necesitan aumentar su escepticismo hacia la información política en 2024”. La organización está promoviendo controles legislativos y educación pública para reconocer contenido engañoso. “Es nuestro deber proteger a nuestras comunidades”, añade Stein.
Desinformación de IA en las comunidades inmigrantes
Jinxia Niu, representante de Chinese for Affirmative Action, destaca el papel de la IA en la propagación de la desinformación electoral en comunidades inmigrantes. Explica, “La desinformación se presenta de muchas formas, desde fotos generadas por IA de Trump con simpatizantes afroamericanos hasta ataques al presidente Biden, todos ampliamente difundidos por influencers en las redes sociales.” El desafío es enorme, con más de 600 piezas de desinformación documentadas solo el año pasado.
“Cuando la desinformación se traduce al chino, a menudo pasa desapercibida,” explica Jinxia Niu, “Muchos en nuestra comunidad no tienen acceso a información oportuna y precisa. “Subraya la necesidad de verificación de hechos en el idioma de cada comunidad, así como recursos comunitarios para combatir este problema creciente.
Desafíos para los verificadores de hechos
Las organizaciones de verificación de hechos enfrentan obstáculos significativos debido a la escasez de fondos. “Somos un equipo pequeño con recursos limitados”, admite Jinxia Niu. “Tenemos tres empleados a tiempo completo y verificadores de hechos a tiempo parcial. Simplemente no tenemos la capacidad, especialmente con el auge de las imágenes generadas por IA”.
Las aplicaciones de mensajería encriptada como WeChat, Telegram y WhatsApp dificultan la intervención, ya que estas son “plataformas digitales culturalmente íntimas, lo que significa que solo aquellos con fluidez cultural y de idioma pueden acceder a ellas”, añade.
Jinxia enfatiza la necesidad de más apoyo en la comunidad. “Realmente necesitamos empoderar y asignar más recursos para la verificación de hechos en el idioma y los medios étnicos o noticias comunitarias”, concluye.
Perspectivas de Brandon Silverman, CrowdTangle
Brandon Silverman, exdirector ejecutivo de CrowdTangle, ofrece perspectivas sobre el impacto de las redes sociales en el discurso público. Destaca cómo la desinformación a menudo proviene de “fuentes élite y de confianza dentro de los ecosistemas mediáticos”, no solo de bots o cuentas extranjeras. Silverman explica que la mayoría de la desinformación cae en una zona gris: engañosa, pero no técnicamente falsa, lo que dificulta la aplicación de normas.
“Una de las percepciones erróneas más grandes sobre la desinformación en general es que la gran mayoría de ella en muchas de estas plataformas no viola ninguna de sus reglas específicas”, afirma Silverman. Enfatiza la necesidad de abordar narrativas consistentes en lugar de piezas individuales de contenido.
Política y Soluciones Colaborativas
Silverman aboga por políticas mejoradas en IA y redes sociales. Sugiere usar ingresos por publicidad digital para financiar medios étnicos y periodismo local, dirigiendo recursos a comunidades desatendidas. “Necesitamos más recursos para personas como tú, y eso es una parte importante de cualquier solución futura”, explica.
Concluye destacando el papel del periodismo en garantizar un público informado. “Es fundamentalmente responsabilidad del periodismo y la industria de noticias también ayudar a asegurar que tengamos un público informado”, afirma. Los esfuerzos colaborativos entre organizaciones son cruciales para enfrentar la desinformación y los desafíos relacionados.
En conclusión, el auge de la desinformación generada por IA presenta una amenaza significativa para los procesos democráticos en general. A medida que nos acercamos a las elecciones presidenciales estadounidenses de 2024, es crucial que individuos, comunidades y organizaciones se mantengan vigilantes e informados.
Implementar medidas legislativas, promover la educación comunitaria y fomentar la colaboración entre las partes interesadas puede salvaguardar los sistemas electorales y garantizar un proceso democrático justo. Es una responsabilidad colectiva que requiere la participación y conciencia de todos los involucrados.