Como a IA pode influenciar as eleições americanas de 2024

Com as campanhas para as eleições de 2024 nos EUA já em andamento, qual impacto a IA pode ter na divulgação de conteúdos pelos candidatos?

24/07/20235 minutos
Salvar
ia-eleicoes-americanas-2024
Com as campanhas para as eleições presidenciais dos EUA para 2024 já em curso, há preocupação com o impacto do uso da IA. Recente e surpreendentemente, o time de campanha do candidato à presidência, Ron Desantis, divulgou imagens supostamente forjadas de Donald Trump e Antony Fauci, criadas através de IA. Pouco tempo antes, uma provável imagem do Pentágono sob ataque, também produzida por IA, causou instabilidade momentânea no mercado de ações, resultando em um pronunciamento do Departamento de Defesa Americano. Será que as campanhas políticas e os governos estrangeiros irão empregar essas ferramentas para manipular a opinião pública de maneira mais eficiente, talvez até para disseminar mentiras e gerar incertezas? Ainda é possível identificar imagens geradas digitalmente, e alguns defendem que a IA generativa não passa de uma versão mais sofisticada do Photoshop. Contudo, a detecção de textos produzidos por chatbots de IA se mostra uma tarefa complexa, instigando temores entre os estudiosos que investigam como a desinformação se propaga no ambiente digital. "O texto gerado pela IA pode ser o paraíso dos propagandistas", afirmou Shelby Grossman, pesquisador do Stanford Internet Observatory, em uma palestra recente. Estudos anteriores apontam que, apesar de as estratégias de alfabetização midiática atuais ainda serem úteis, há razões para nos preocuparmos com o impacto dessa tecnologia no processo democrático.

IAs podem moldar opiniões

Pesquisadores de Stanford e Georgetown, utilizando um grande modelo de linguagem, predecessor do ChatGPT, criaram narrativas fictícias capazes de influenciar a opinião do público americano quase tanto quanto exemplos verídicos de propaganda russa e iraniana. Esses grandes modelos de linguagem atuam como algoritmos de autocompletar extremamente eficientes. Eles elaboram textos palavra a palavra, desde poesia até receitas, treinados em imensas quantidades de texto escrito por seres humanos e alimentados com esses modelos. O ChatGPT, que oferece uma interface de chatbot fácil de usar, é o exemplo mais notório, mas existem outros modelos semelhantes em operação. Os referidos modelos foram utilizados, entre outras funções, para sintetizar publicações de redes sociais e criar títulos de notícias fictícias para serem usados em experimentos de laboratório de alfabetização midiática. Eles são uma forma de IA generativa, assim como os modelos de aprendizado de máquina que geram imagens.

Como a IA pode influenciar nas eleições

A equipe de pesquisa selecionou artigos de campanhas atribuídas à Rússia ou alinhados com o Irã, utilizando as principais ideias e argumentos desses artigos como orientações para o modelo gerar novas histórias. Diferentemente do texto gerado por máquina encontrado naturalmente, essas histórias não possuíam sinais evidentes de sua origem, como frases começando com "como um modelo de linguagem de IA ...". Para evitar tópicos já pré-concebidos pelos americanos, a equipe optou por criar novos artigos sobre o Oriente Médio, já que muitos dos antigos artigos de propaganda russa e iraniana se concentravam nessa região. Alguns desses artigos fictícios alegavam que a Arábia Saudita financiaria o muro na fronteira entre os EUA e o México; outros sustentavam que as sanções ocidentais causaram a escassez de suprimentos médicos na Síria. Para avaliar o impacto dessas histórias na opinião pública, o time apresentou diferentes narrativas - algumas originais, outras geradas por computador - a grupos de participantes desavisados do experimento e perguntou se concordavam com a ideia principal da história. Os resultados dos grupos foram então comparados com os de pessoas que não haviam lido as histórias - produzidas por máquina ou não. O estudo revelou que quase metade dos participantes que leram as histórias afirmando que a Arábia Saudita financiaria o muro na fronteira concordaram com a alegação. A porcentagem de pessoas que leram as histórias geradas por máquinas e concordaram com a ideia foi de 10 pontos percentuais menor do que aquelas que leram a propaganda original. Embora haja uma diferença significativa, ambos os resultados foram substancialmente mais altos do que a linha de base - cerca de 10%. Para a questão dos suprimentos médicos sírios, a IA se aproximou mais - a porcentagem de pessoas que concordaram com a alegação após ler a propaganda gerada pela IA foi de 60%, ligeiramente abaixo dos 63% que concordaram depois de ler a propaganda original. Ambos os índices estão bem acima dos 35% para pessoas que não leram a propaganda, seja ela produzida por humanos ou máquinas. Os pesquisadores de Stanford e Georgetown descobriram que, com uma pequena intervenção humana, os artigos gerados por modelos podem influenciar a opinião do leitor mais do que a propaganda estrangeira que serviu de base para o modelo de computador. Seu trabalho está atualmente sob revisão.

Detectar conteúdos de IA ainda é um desafio

Atualmente, ainda existem algumas maneiras de identificar imagens geradas por IA, porém o software destinado a detectar texto gerado por máquina - como o classificador da OpenAI e o GPTZero - geralmente falha. Algumas soluções técnicas como inserir uma marca d'água no texto gerado pela IA foram propostas. Mesmo que os marketeiros recorram à IA, as plataformas ainda podem contar com indicadores mais baseados no comportamento do que no conteúdo, como a detecção de redes de contas que amplificam mutuamente suas mensagens, e grandes quantidades de contas criadas simultaneamente.
🚀Gostou do conteúdo? Continue lendo as principais notícias do mercado de IA. 📩Assine a nossa newsletter e fique por dentro de tudo sobre a Inteligência Artificial. Imagem: Glaad.org
Salvar

Inscreva-se em nossa newsletter!

Receba semanalmente, atualizações, ferramentas, tutoriais e prompts em seu e-mail.