IA generativa, ética e as eleições de 2024 I Por Luiz Scarpino

Por Luiz Scarpino *

 

As tecnologias estão assombrando os mais tradicionalistas, empolgando entusiastas contemporâneos, porém decididamente traça novas perspectivas em tantas áreas do conhecimento: já se fala do “fim” de certas posições no mercado de trabalho, por exemplo.

 

Na ecosfera do mundo político-eleitoral possibilita novas formas de comunicação com o eleitorado e no modo de produzir campanhas.

 

A “conquista” do voto, a construção de respostas ao eleitorado, os mecanismos para gerar apoio, antipatia ou reforçar sentimentos pré-concebidos, como as ideologias totalitárias, encontra na IA (Inteligência Artificial) generativa novos meios para ocorrer.

 

Alertas para limites

 

Atentos a tais instrumentos, cabe ponderar alguns limites ético-jurídicos sobre como a IA pode se posicionar como instrumento tecnocientífico “a serviço” dos mais elevados padrões do desenvolvimento democrático.

 

É o caso de, em primeiro lugar, reconhecer as vulnerabilidades e os grupos vulneráveis a ataques. Crianças e idosos, por exemplo, são grupos populacionais mais suscetíveis de serem enganados em golpes ou manipulações que, na IA foram turbinados.

 

Os riscos advindos da IA devem ser mapeados e a partir do nível de interação em áreas sensiveis aos direitos humanos , responsabilidades maiores ou menores devem ser dirigidas às empresas que disponibilizam tais ferramentas.

 

Imagine uma empresa que crie um chatbot para interagir com humanos: é preciso que tal mecanismo não predisponha ou induza uma pessoa a sofrimento psicológico ou propicie uma fúria violenta diante de uma indignação induzida ou reforçada !

 

Também uma preocupação clara é de conter a posição abusiva das plataformas que podem trazer danos tanto ao mercado (concentração excessiva que inibe surgimento de novas companhias) e principalmente dos usuários, aos quais são bombardeados com conteúdos não desejados porém induzidos pelos algoritmos.

 

Nesse sentido uma maior transparência e abertura para auditorias independentes e a estudiosos são ferramentas justas para equilíbrio das relações sociais.

 

Ações preventivas

 

Dentre tantas medidas, preventivas (como educação midiática e inoculação para preparar para desinformação) se faz crescente o foco na responsabilização dos produtores de conteúdos de razoável alcance, como os influenciadores digitais; atualmente a notoriedade para atingir o grande público saltou da centralidade no passado das mídias tradicionais (rádio, TV, jornais e revistas) para a dispersão de celebridades digitais.

 

O ser humano deve ser em todas as medidas o centro para o qual deve convergir as preocupações e não no mercado ou na tecnologia em si.

 

Cite-se dois cenários: uma envolvendo a União Europeia e outra, sobre algumas condições para as eleições de 2024 aprovadas pelo Tribunal Superior Eleitoral que impactará as campanhas municipais.

 

Na União Europeia

 

Recentemente a União Europeia(UE) baseada em sua sólida estruturação jurídica que visa conciliar a proteção da liberdade de expressão com a garantia dos mais valiosos direitos humanos, considerando a Lei dos Serviços Digitais (DSA- “Digital Service Act”)pediu esclarecimentos às “big techs” (Meta, Google dentre outros), sobre o uso da IA generativa nas eleições, especialmente com as “alucinações”, informações falsas sem escrúpulos, além da disseminação viral das deepfakes.

 

Também na UE chegou-se a um novo acordo político para regulamentar a transparência da propaganda política mirando as eleições para o Europarlamento, como parte das ações para proteger a integridade eleitoral e apoiar um debate democrático aberto.

 

Estipulou-se que os anúncios políticos terão de ser claramente identificados, bem como os dados do contratante e indicação do público-alvo a quem direcionada, de modo a dar clareza aos usuários da diferença de conteúdos orgânicos daqueles que são impulsionados com fins políticos, inclusive com um repositório de anúncios.

 

Vale ressaltar a estrutura protetiva da UE quanto a proteção de dados pessoais assegura que apenas usuários que tenham consentido poderão receber anúncios direcionados e amplificados, sendo proibido o uso de dados pessoais sensíveis (aqueles ligados a raça, religião, orientação sexual) para fins eleitorais.

 

E no Brasil?

 

Em sentido semelhante ao da Europa é seguida pelo Brasil a partir das inovações da Resolução da propaganda eleitoral em 2024 aprovadas pelo TSE (Resolução 23.732/24). Além dos pontos de transparência nos anúncios e do repositório, novas situações relacionadas ao uso de IA nas propagandas foram introduzidas.

 

Chatbots estão proibidos e também o uso de técnicas realísticas como deepfake, seja para propaganda propositiva e principalmente naquela negativa (que endereça críticas a adversários). Porém o uso de IA para produção de conteúdos é lícita desde que seja rotulada (inserção de marca d’água) para não confundir o eleitor. A preocupação crescente com a desinformação e os ataques aos valores democráticos encontra respaldo na proteção da integridade e da normalidade do processo eleitoral.

 

Infrações menores certamente ocorrerão e para tanto, multas devem bastar, embora situações mais graves devam receber respostas duras, como o reconhecimento de abuso de poder, com potencial cassação da candidatura, perda do cargo e inelegibilidade.

 

Afinal, a política serve para tocar nas principais feridas da sociedade, pois só assim se pode discutir os reais problemas, as possíveis e cabíveis soluções diante de propostas críveis e adequadas para cada cidadão.

 

A liberdade do eleitor depende de eleições livres de manipulações e o uso ético da IA é um imperativo.

 

*Luiz Scarpino é Advogado especialista em Direito Digital, Público e Eleitoral

Curta e compartilhe:

Redacao RNE

Leia mais →

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *