SAN FRANCISCO – A pocos días de las elecciones presidenciales de Estados Unidos, los votantes latinos se enfrentan a anuncios en español y a una nueva forma de mensajería política en la era de la inteligencia artificial: modelos de chatbot que generan información sin fundamento sobre el derecho al voto.
Los modelos de inteligencia artificial (IA) están generando una corriente de engaños relacionados con las elecciones que son más comunes en español que en inglés, uno de los grupos de más rápido crecimiento y más influyentes del país está enturbiando la calidad de la información que llega a los votantes latinos. un análisis de dos medios de comunicación no comerciales.
A los grupos de derechos de los votantes les preocupa que los modelos de IA puedan exacerbar la brecha de información para los votantes hispanos, tanto demócratas como republicanos.
La vicepresidenta Kamala Harris, la candidata demócrata, estará en un evento de campaña en Las Vegas el jueves con la cantante Jennifer López y la banda mexicana Maná. Por su parte, el expresidente republicano Donald Trump, que busca regresar al poder, visitó este martes la zona hispana de Pensilvania, dos días después de que uno de los oradores hiciera comentarios despectivos sobre Puerto Rico en un mitin en Nueva York. .
Dos organizaciones de noticias, Proof News y Factcheck, se han asociado con el Laboratorio de Ciencia, Tecnología y Valores Sociales para probar cómo algunas IA populares responden a preguntas e indicaciones específicas antes de las elecciones.
Más de la mitad de las respuestas a la encuesta en español contenían información incorrecta, en comparación con el 43 por ciento de las respuestas en inglés.
El modelo Llama 3 de Meta, que impulsa el asistente de inteligencia artificial (IA) de WhatsApp y Facebook Messenger, fue uno de los que peor desempeño tuvo en la prueba, con casi dos tercios de las respuestas incorrectas en español, mientras que en inglés y la mitad.
Por ejemplo, cuando alguien pregunta qué significa ser un votante “únicamente federal”, no responde. En Arizona, los votantes federales no proporcionan al estado prueba de su ciudadanía estadounidense porque están registrados para votar en un formulario no requerido y sólo pueden votar en elecciones presidenciales o del Congreso. Sin embargo, el modelo Meta AI respondió incorrectamente que los votantes “solo federales” son personas que viven en territorios estadounidenses como Puerto Rico o Guam y no pueden votar en las elecciones presidenciales.
Respondiendo a la misma pregunta, el modelo Claude de Anthropic dirigió a los usuarios a contactar a las autoridades electorales “en su país o región”, como México o Venezuela.
El modelo Gemine AI de Google también se equivocó. Cuando se le pidió que definiera el Colegio Electoral, Géminis dio una respuesta absurda sobre “manipular votos”.
La portavoz de Meta, Tracy Clayton, dijo que Llama 3 estaba destinada a ser utilizada por desarrolladores para crear otros productos. Dijo que Meta entrena sus modelos sobre reglas de seguridad y responsabilidad para reducir la probabilidad de compartir respuestas de votación incorrectas.
Alex Sanderford, jefe de políticas y cumplimiento de Anthropic, dijo que la compañía realizó cambios para manejar mejor las solicitudes en español para dirigir a los usuarios a recursos autorizados sobre temas relacionados con la votación.
Google no respondió a las solicitudes de comentarios.
Durante meses, los defensores del derecho al voto han advertido que los votantes hispanohablantes están expuestos a una avalancha de desinformación e información falsa y engañosa proveniente de fuentes en línea y modelos de inteligencia artificial. El nuevo análisis proporciona más evidencia de que los votantes deberían tener más cuidado sobre dónde obtienen su información, dijo Lydia Guzmán, quien hace campaña para los votantes hispanos en la organización independiente Chicanos Por La Causa.
“Cada votante debe hacer una investigación adecuada, no sólo en un sitio, sino en varios sitios, ver toda la información correcta en conjunto y obtener la información correcta de organizaciones confiables. “Es importante pedir información”, dijo Guzmán.
Formados con grandes cantidades de material de Internet, los modelos de lenguaje a gran escala, llamados LLM, producen respuestas generadas por IA, pero tienden a inventar respuestas ilógicas. Incluso si los votantes hispanohablantes no utilizan chatbots, pueden estar expuestos a modelos de IA que utilizan herramientas, aplicaciones o sitios web que dependen de ellos.
Es probable que estas incertidumbres tengan un mayor impacto en los estados con grandes poblaciones hispanas, como Arizona, Nevada, Florida y California.
Por ejemplo, un tercio de todos los votantes de California son latinos; Según el Instituto de Política Latina de UCLA de la Universidad de California en Los Ángeles, uno de cada cinco votantes elegibles habla sólo español.
En California, el abogado Rommell López se considera un votante independiente. Tiene varias cuentas de redes sociales y utiliza el chatbot ChatGPT de OpenAI. Cuando intentó investigar las acusaciones infundadas de que los inmigrantes comían mascotas, encontró una sorprendente cantidad de respuestas diferentes en Internet, algunas de las cuales fueron generadas por IA. Al final decidió confiar en el sentido común.
“Podemos confiar en la tecnología, pero no al 100%”, dijo López, de 46 años, que vive en Los Ángeles. “Al fin y al cabo, son máquinas”.
Salomón informó desde Miami. El escritor de AP Jonathan J. Cooper contribuyó desde Phoenix, Arizona.
__