Por Luiz Scarpino *
As tecnologias estão assombrando os mais tradicionalistas, empolgando entusiastas contemporâneos, porém decididamente traça novas perspectivas em tantas áreas do conhecimento: já se fala do “fim” de certas posições no mercado de trabalho, por exemplo.
Na ecosfera do mundo político-eleitoral possibilita novas formas de comunicação com o eleitorado e no modo de produzir campanhas.
A “conquista” do voto, a construção de respostas ao eleitorado, os mecanismos para gerar apoio, antipatia ou reforçar sentimentos pré-concebidos, como as ideologias totalitárias, encontra na IA (Inteligência Artificial) generativa novos meios para ocorrer.
Alertas para limites
Atentos a tais instrumentos, cabe ponderar alguns limites ético-jurídicos sobre como a IA pode se posicionar como instrumento tecnocientífico “a serviço” dos mais elevados padrões do desenvolvimento democrático.
É o caso de, em primeiro lugar, reconhecer as vulnerabilidades e os grupos vulneráveis a ataques. Crianças e idosos, por exemplo, são grupos populacionais mais suscetíveis de serem enganados em golpes ou manipulações que, na IA foram turbinados.
Os riscos advindos da IA devem ser mapeados e a partir do nível de interação em áreas sensiveis aos direitos humanos , responsabilidades maiores ou menores devem ser dirigidas às empresas que disponibilizam tais ferramentas.
Imagine uma empresa que crie um chatbot para interagir com humanos: é preciso que tal mecanismo não predisponha ou induza uma pessoa a sofrimento psicológico ou propicie uma fúria violenta diante de uma indignação induzida ou reforçada !
Também uma preocupação clara é de conter a posição abusiva das plataformas que podem trazer danos tanto ao mercado (concentração excessiva que inibe surgimento de novas companhias) e principalmente dos usuários, aos quais são bombardeados com conteúdos não desejados porém induzidos pelos algoritmos.
Nesse sentido uma maior transparência e abertura para auditorias independentes e a estudiosos são ferramentas justas para equilíbrio das relações sociais.
Ações preventivas
Dentre tantas medidas, preventivas (como educação midiática e inoculação para preparar para desinformação) se faz crescente o foco na responsabilização dos produtores de conteúdos de razoável alcance, como os influenciadores digitais; atualmente a notoriedade para atingir o grande público saltou da centralidade no passado das mídias tradicionais (rádio, TV, jornais e revistas) para a dispersão de celebridades digitais.
O ser humano deve ser em todas as medidas o centro para o qual deve convergir as preocupações e não no mercado ou na tecnologia em si.
Cite-se dois cenários: uma envolvendo a União Europeia e outra, sobre algumas condições para as eleições de 2024 aprovadas pelo Tribunal Superior Eleitoral que impactará as campanhas municipais.
Na União Europeia
Recentemente a União Europeia(UE) baseada em sua sólida estruturação jurídica que visa conciliar a proteção da liberdade de expressão com a garantia dos mais valiosos direitos humanos, considerando a Lei dos Serviços Digitais (DSA- “Digital Service Act”)pediu esclarecimentos às “big techs” (Meta, Google dentre outros), sobre o uso da IA generativa nas eleições, especialmente com as “alucinações”, informações falsas sem escrúpulos, além da disseminação viral das deepfakes.
Também na UE chegou-se a um novo acordo político para regulamentar a transparência da propaganda política mirando as eleições para o Europarlamento, como parte das ações para proteger a integridade eleitoral e apoiar um debate democrático aberto.
Estipulou-se que os anúncios políticos terão de ser claramente identificados, bem como os dados do contratante e indicação do público-alvo a quem direcionada, de modo a dar clareza aos usuários da diferença de conteúdos orgânicos daqueles que são impulsionados com fins políticos, inclusive com um repositório de anúncios.
Vale ressaltar a estrutura protetiva da UE quanto a proteção de dados pessoais assegura que apenas usuários que tenham consentido poderão receber anúncios direcionados e amplificados, sendo proibido o uso de dados pessoais sensíveis (aqueles ligados a raça, religião, orientação sexual) para fins eleitorais.
E no Brasil?
Em sentido semelhante ao da Europa é seguida pelo Brasil a partir das inovações da Resolução da propaganda eleitoral em 2024 aprovadas pelo TSE (Resolução 23.732/24). Além dos pontos de transparência nos anúncios e do repositório, novas situações relacionadas ao uso de IA nas propagandas foram introduzidas.
Chatbots estão proibidos e também o uso de técnicas realísticas como deepfake, seja para propaganda propositiva e principalmente naquela negativa (que endereça críticas a adversários). Porém o uso de IA para produção de conteúdos é lícita desde que seja rotulada (inserção de marca d’água) para não confundir o eleitor. A preocupação crescente com a desinformação e os ataques aos valores democráticos encontra respaldo na proteção da integridade e da normalidade do processo eleitoral.
Infrações menores certamente ocorrerão e para tanto, multas devem bastar, embora situações mais graves devam receber respostas duras, como o reconhecimento de abuso de poder, com potencial cassação da candidatura, perda do cargo e inelegibilidade.
Afinal, a política serve para tocar nas principais feridas da sociedade, pois só assim se pode discutir os reais problemas, as possíveis e cabíveis soluções diante de propostas críveis e adequadas para cada cidadão.
A liberdade do eleitor depende de eleições livres de manipulações e o uso ético da IA é um imperativo.
*Luiz Scarpino é Advogado especialista em Direito Digital, Público e Eleitoral