IA generativa em campanhas políticas

Nas últimas notícias de tecnologia, a Microsoft e o Google começaram a treinar campanhas políticas no uso de ferramentas generativas de IA, como os chatbots Copilot e Gemini. Desde o início de 2024, dezenas de grupos políticos participaram nestas sessões, aprendendo a aproveitar a IA para agilizar tarefas como escrever e editar e-mails e mensagens de texto de angariação de fundos.
Estes programas de formação, que incluíram mais de 600 participantes só nos EUA, visam ajudar as campanhas a poupar tempo e a reduzir custos, tal como faria qualquer pequena empresa.
Mitigando Riscos e Promovendo Autenticação
Embora essas ferramentas de IA ofereçam vantagens significativas, elas também apresentam riscos. A Microsoft e o Google integraram lições sobre autenticação de conteúdo em suas sessões de treinamento para mitigar a disseminação de desinformação gerada por IA.
Técnicas como "credenciais de conteúdo" da Microsoft e SynthID do Google visam colocar marca d'água em conteúdo criado por IA, garantindo autenticidade. Essas medidas são parte de um compromisso mais amplo de grandes empresas de tecnologia para evitar que suas ferramentas de IA contribuam para a interrupção eleitoral.
Desafios da desinformação gerada pela IA
Apesar desses esforços, os desafios permanecem. A campanha de Biden enfrentou recentemente um escândalo de falsificação barata envolvendo clipes adulterados que espalharam desinformação sobre o presidente Biden. Tais incidentes ressaltam o potencial de ferramentas de IA serem mal utilizadas em contextos políticos.
Embora as empresas de tecnologia tenham prometido tomar "precauções razoáveis" para evitar o uso indevido, nenhum dos métodos de autenticação atuais é infalível. Além disso, tanto o Copilot quanto o Gemini têm lutado com consultas básicas, como identificar com precisão o vencedor da eleição presidencial de 2020, levantando preocupações sobre sua confiabilidade.
O futuro da IA nas eleições
Seis meses antes da eleição de 2024, a big tech está fornecendo tanto as ferramentas quanto as salvaguardas para IA em campanhas políticas. No entanto, garantir o uso ético da IA e prevenir a disseminação de desinformação pode exigir intervenção governamental para padronizar tecnologias de autenticação.
Até lá, a responsabilidade recai sobre a indústria de IA para evitar erros significativos na criação ou detecção de conteúdo prejudicial.