Inteligência artificial se sofistica, turbina deep fakes e aumenta preocupação em ano eleitoral
Especialista da Codeminer42, boutique brasileira de desenvolvimento de software, alerta para a dificuldade em identificar o que é real ou não. “O ‘só acredito vendo’ não cabe mais”
O Tribunal Superior Eleitoral (TSE) deve anunciar, em março, as novas regras para o uso de inteligência artificial nas eleições deste ano. A medida responde ao avanço acelerado e sofisticado dessa tecnologia, que permite a criação de imagens, áudios e vídeos falsos praticamente indistinguíveis da realidade, as chamadas deepfakes.
O debate ganhou urgência diante do potencial dessas ferramentas de influenciar a opinião pública, manipular informações e comprometer a integridade do processo democrático. A expectativa é que a nova regulamentação estabeleça parâmetros claros sobre responsabilidade, transparência e limites no uso de conteúdos gerados por IA durante esse período.
“Se, na eleição presidencial anterior, a de 2022, a preocupação era com as fake news, o alerta se volta agora, em 2026, para as deepfakes”, sublinha o sócio da Codeminer42, Carlos Lopes. A Codeminer42 é uma boutique brasileira de desenvolvimento de softwares, com atuação no Brasil e no exterior, especialmente nos Estados Unidos, e que aloca profissionais altamente qualificados no mercado, inclusive com ampla experiência em inteligência artificial.
Para Carlos Lopes, sócio da Codeminer42, deepfakes serão vilões nas eleições 2024
Máximas como “só acredito vendo” ou “imagens valem mais que mil palavras” não cabem mais no atual cenário, avalia o especialista, que recentemente participou de um evento em Nova Iorque que abordou as últimas tendências da IA no mercado. “O desafio agora, além de tecnológico, é social. Quando a manipulação se torna praticamente imperceptível, o impacto recai diretamente sobre a confiança pública e isso exige respostas regulatórias e educativas igualmente sofisticadas.”
Carlos Lopes cita, como termômetro da gravidade da situação, declaração recente, à imprensa, do diretor do Instagram, Adam Mosseri. “‘Você não pode mais confiar nos seus olhos para dizer o que é real’, ele disse. Porque é exatamente isso: não basta mais ‘ver para crer’; é preciso ter outros meios para separar o joio do trigo, identificar o que é ou não real”.
Até existem softwares e plataformas para detectar se um conteúdo é fruto de inteligência artificial ou não. Entretanto, na prática, essa verificação não é simples nem acessível à maioria das pessoas, observa Lopes. Em um cenário eleitoral marcado por uma avalanche de vídeos, áudios, imagens e textos circulando em alta velocidade, torna-se inviável para o eleitor comum checar, individualmente, a autenticidade de cada material.
“Além disso, uma parcela significativa da população, possivelmente a maioria, não possui conhecimento técnico, familiaridade com essas ferramentas ou tempo disponível para utilizá-las de forma adequada”, afirma.
O especialista também chama atenção para outro ponto crítico: a limitação das próprias tecnologias de detecção. “As ferramentas que tentam identificar conteúdo gerado por IA ainda apresentam falhas relevantes. Em muitos casos, classificam conteúdos legítimos como artificiais e, em outros, deixam passar materiais produzidos por inteligência artificial sem qualquer alerta. Isso cria um ambiente de incerteza, no qual nem sempre é possível confiar plenamente na análise automática”, explica.
Para Lopes, a atuação da Justiça Eleitoral, estabelecendo regras, monitoramento e estimulando o eleitor a participar, comunicando e denunciando conteúdos falsos, é um esforço importante e válido. “Porque, além dos materiais de campanha oficiais, mais fáceis de fiscalizar, haverá a circulação das deepfakes, como vídeos, áudios e imagens adulterados com uso de IA, capazes de simular falas e situações que nunca aconteceram”.
Mas então, tudo isso significa que estamos perdidos, em um beco sem saída, fadados a conviver com processos eleitorais tumultuados pelo uso indevido da tecnologia?
Para o executivo da Codeminer42, a resposta é não. Para médio e longo prazo, há algumas estratégias sendo concebidas pela indústria de tecnologia. Lopes menciona a possibilidade dos equipamentos de captação, como câmeras fotográficas, de vídeo ou mesmo smartphones, contarem com uma espécie de assinatura digital, um identificador (ID) de cada imagem produzida. “Essa assinatura ou ID seria um meio de confirmar que o conteúdo é legítimo e não feito por IA”.
Ou seja, o próprio avanço tecnológico e a sofisticação da inteligência artificial permitem que esses recursos sejam aplicados para detectar deepfakes e combater sua difusão, observa. “Se, por um lado, a IA sofisticada é utilizada para a produção de deepfakes e outros conteúdos falsos, a mesma IA avançada e outras ferramentas possibilitam identificar a falsificação, por mais perfeita que possa parecer”.
Ademais, há um componente fundamental nesse trabalho, acrescenta Lopes: trata-se da inteligência humana. A formação e a capacitação continuada de desenvolvedores qualificam profissionais para, com o auxílio da IA e de outros recursos, atuarem na elaboração de sistemas cada vez mais seguros e aptos à identificação de conteúdos falsos, fraudes e outras ciberameaças.
“Iniciativas que envolvam capacitação contínua e qualificação técnica são fundamentais para que o mercado esteja preparado tanto para absorver as inovações quanto para enfrentar os desafios que elas impõem. Na Codeminer42, por exemplo, investimos na formação de profissionais em plataformas e metodologias voltadas ao uso responsável e estratégico da inteligência artificial, garantindo alta performance, senso crítico e responsabilidade no desenvolvimento e aplicação dessas soluções”.
Fundada em 2011, a Codeminer42 conta hoje com um time de mais de 80 desenvolvedores, alocados, em sua maioria, em projetos de tecnologia de empresas no exterior. A boutique de desenvolvimento de software tem sede em São Paulo e operação nos Estados Unidos.
MAIS INFORMAÇÕES
Sobre a Codeminer42: https://www.codeminer42.com
Leia também: Fake news corroem a democracia e IA acelera o colapso informacional

Deixe um comentário