O perigoso uso da IA para prever e reprimir protestos

O perigoso uso da IA para prever e reprimir protestos
Compartilhar

 

 

Previsão de conflitos com inteligência artificial está evoluindo rapidamente. Regimes autoritários do Oriente Médio podem muito bem estar entre os primeiros a usá-la para impedir protestos, antes mesmo que eles comecem.

E se o governo da Tunísia soubesse o que aconteceria após Mohamed Bouazizi atear fogo ao próprio corpo numa praça pública?

Imagine se, em dezembro de 2010, o governo autoritário da Tunísia, então chefiado pelo ditador Ben Ali, soubesse o que aconteceria depois de um humilde vendedor de frutas atear fogo ao próprio corpo numa praça pública.

A autoimolação do vendedor de frutas Mohamed Bouazizi acabou levando a manifestações em massa e à fuga de Ben Ali do país. A revolução tunisiana virou o estopim de protestos em massa em países vizinhos que mudariam o Oriente Médio, durante o período que ficou conhecido como Primavera Árabe.

Mas e se o regime autoritário da Tunísia tivesse ferramentas baseadas em inteligência artificial (IA) capazes de prever a revolução que se aproximava? Talvez ele pudesse ter evitado mais protestos ou prendido líderes do nascente movimento antigovernista antes que ele crescesse.

O regime de Ben Ali não tinha essas ferramentas. Mas alguns dos atuais governos autoritários no Oriente Médio têm – pelo menos até certo ponto. E o potencial para que elas sejam usadas para reprimir a dissidência política antes mesmo que ela nasça está crescendo, à medida que a previsão de conflitos baseada em IA evolui.

A IA muda a previsão de conflitos

Analistas sempre tentaram prever riscos futuros. Mas, nos últimos anos, a existência de enormes quantidades de dados e poder computacional, bem como os avanços em aprendizado de máquina, faz com que modelos computacionais sejam cada vez mais capazes de usar dados sobre eventos passados para prever eventos futuros.

No sentido geopolítico, os pontos positivos da previsão de conflitos incluem garantir uma melhor alocação de recursos e uma maior preparação de países e organizações humanitárias.

Mas pesquisadores na comunidade de previsão de conflitos também estão preocupados com o possível uso indevido desse tipo de tecnologia, como diz o professor de economia e ciência de dados Christopher Rauh, da Universidade de Cambridge, no Reino Unido.

Rauh é um dos fundadores de uma organização chamada ConflictForecast, que usa uma combinação de aprendizado de máquina e expertise humana para “detectar novos e sutis sinais de risco de conflito em países que não estão em guerra”.

“Sim, nós nos preocupamos que agentes mal-intencionados possam usar alguns dos dados, e por isso não publicamos previsões sobre protestos, por exemplo”, explica Rauh. “Nosso modelo é adaptável e, com um pequeno ajuste, poderíamos produzi-las facilmente. Mas, como protestos podem ser uma expressão saudável de democracia, não publicamos esses dados.”

Rauh diz que a previsão de conflitos ainda não é suficientemente refinada para ser facilmente usada de forma indevida por estados autoritários. “Esses modelos trabalham com médias para detectar situações de alto risco. Eles não fazem mágica”, explica. “Mas, à medida que as previsões melhoram e a disponibilidade de dados aumenta, os riscos podem ser maiores.”

Como funciona a previsão de conflitos?

Assim como outros modelos de aprendizado de máquina – frequentemente chamados de inteligência artificial – o modelo precisa primeiro “aprender” com muitos dados de origens diferentes.

Isso pode incluir desde reportagens na mídia até informações fornecidas por rastreadores de conflitos em tempo real, como a organização sem fins lucrativos Armed Conflict Location and Event Data, nos EUA, ou o programa de dados de conflito da Universidade de Uppsala, na Suécia. Ou ainda indicadores econômicos, dados demográficos, taxas de mortalidade infantil, até mesmo monitoramento de localização por celular e tráfego aéreo, ou qualquer outra informação que os pesquisadores considerarem relevante.

Uma das coisas mais importantes é que deve haver muita informação histórica, de preferência abrangendo mais de uma década, explica Rauh, para que o modelo possa detectar padrões de comportamento.

“Não existe atualmente nenhum sistema baseado em IA que consiga prever perfeitamente pontos de tensão geopolítica ou antecipar suas implicações”, escreveram pesquisadores do Instituto Alan Turing, no Reino Unido, em março de 2025.

Os desafios incluem falta de capacidade computacional, dados escassos ou incorretos e o fato de ser muito difícil prever ações inesperadas de indivíduos, como o vendedor de frutas tunisiano Mohamed Bouazizi ou líderes que optam por renunciar em vez de lutar.

“Para funcionar como anunciado, as ferramentas devem ser treinadas em conjuntos de dados existentes, o que significa que elas vão recriar erros, vieses ou falhas presentes nos dados reais”, diz Damini Satija, diretora do Amnesty Tech, parte da Anistia Internacional. “Ainda mais crítico é que essas ferramentas dependem da suposição de que comportamentos humanos complexos e variáveis podem ser reduzidos a indicadores simples. No contexto da previsão de crimes ou reincidência, isso já foi desacreditado.”

Mas a previsão de conflitos, análises de risco e de ameaças baseada em IA pode melhorar e já está avançando tanto no setor público quanto no privado.

Países do Oriente Médio entre os primeiros

Quando, e se, essa tecnologia estiver perfeccionada, algumas das autocracias do Oriente Médio poderão estar entre os primeiros governos a usar a previsão de conflitos baseada em IA para reprimir a dissidência.

“O Oriente Médio está na interseção entre adoção tecnológica e poder político há muito tempo”, observou o pesquisador da Universidade de Manchester, Arash Beidollahkhani, num artigo para a revista acadêmica Democratization. “Tradicionalmente, os governos autoritários da região têm se apoiado em vigilância, censura e coerção. As tecnologias de IA, desde o reconhecimento facial até a análise preditiva, ampliaram exponencialmente essas capacidades.”

Países como Arábia Saudita, Emirados Árabes Unidos, Irã, Egito e Bahrein já usaram computação avançada contra movimentos de oposição.

O Egito monitorou comunicações digitais e processou ativistas por postagens nas redes sociais. A Nova Capital Administrativa do país está sendo desenvolvida como uma cidade inteligente com mais de 6 mil câmeras nas ruas, algo que especialistas em direitos digitais já criticaram como propenso a abusos pelo atual governo.

A Arábia Saudita usa tecnologia de reconhecimento facial para gerenciamento de multidões em Meca e Medina e planeja incluir sistemas de vigilância e reconhecimento de emoções em cidades inteligentes como Neom, ainda em construção.

Provavelmente são os Emirados Árabes Unidos (EAU) que estão melhor posicionados para usar previsões baseadas em IA para suprimir dissidência. O país é um dos mais avançados do mundo no uso do que se conhece como policiamento preditivo.

O policiamento preditivo analisa dados para prevenir crimes futuros, usando previsões estatísticas para identificar locais onde crimes provavelmente serão cometidos ou pessoas propensas a cometê-los.

Os EAU já têm vários projetos de “cidades seguras” que envolvem a análise de enormes quantidades de dados de vigilância, incluindo reconhecimento facial e análise comportamental. Também dispõem dos vastos recursos financeiros e das conexões privadas e políticas para integrar ainda mais previsões baseadas em IA à sociedade emiradense. Como outros governos autocráticos na região, o dos EAU não precisa se preocupar em prestar contas ao público ou ser transparente sobre como dados coletados estão sendo usados.

E muitas das ferramentas dos Emirados Árabes Unidos vêm da China, que já está usando tecnologias baseadas em IA para reprimir dissidência.

Nem sequer sair para protestar

“Se um governo de qualquer tipo tem objetivos explícitos ou implícitos de reprimir a dissidência, não há o que o impeça de tentar usar ferramentas de IA para isso”, diz Satija, diretora do Amnesty Tech.

Ela e outros ativistas de direitos digitais afirmam que os sistemas atuais, como o policiamento preditivo, já representam uma ameaça séria. Eles já são usados contra dissidentes, diz Satija, e têm um efeito “absolutamente intimidante”.

Se ativistas acreditam que serão identificados mais facilmente, então eles nem sequer protestam. “Nossas maiores preocupações dizem respeito à infraestrutura existente e ao que ela já possibilita”, diz Satija.

Fonte:    www.dw.com.br


Compartilhar
0 0
Happy
Happy
0 %
Sad
Sad
0 %
Excited
Excited
0 %
Sleepy
Sleepy
0 %
Angry
Angry
0 %
Surprise
Surprise
0 %