quinta-feira, 29 de fevereiro de 2024

O problema será quando ninguém souber o que é falso ou real, diz deepfaker

 Por Mateus Camillo São Paulo

Hashtag - Bruno Sartori, especialistas em deepfakes
 Bruno Sartori, especialista em manipulação de vídeos - Divulgação

Para Bruno Sartori, especialista em manipulação de vídeo, governos precisam agir para não perder controle sobre tecnologia

O deepfaker Bruno Sartori, 34, criado em Unaí (MG), viralizou nas redes sociais em 2018, no início do governo Bolsonaro, ao criar um vídeo em que o ex-presidente se transformava na rainha da Inglaterra. A partir daquele momento, os memes entraram em uma nova era no Brasil, com uma série de vídeos bem-humorados de Sartori.

As produções em que ele se especializou consistem em vídeos manipulados que utilizam inteligência artificial (IA) e alteram o rosto de pessoas de forma praticamente imperceptível.

Um dos primeiros deepfakes a se espalhar, feito pelo diretor Jordan Peele ainda em 2018, simulava falas falsas do ex-presidente americano Barack Obama. O tempo de produção das peças, entretanto, era muito mais lento e podia chegar a 30 dias. Por isso, não era algo tão disseminado. Hoje, a Sora, o "ChatGPT de vídeo", é capaz de criar instantaneamente material de até um minuto a partir de pedidos feitos em texto.

O avanço acelerado da tecnologia pode representar riscos a eleições, à democracia, e até à vida em sociedade.

O #Hashtag conversou com Sartori sobre os recentes avanços na inteligência artificial e os rumos que os deepfakes devem tomar.

Em 2018 você fez alguns deepfakes que viralizaram no Twitter. De lá pra cá, a manipulação e a criação de vídeos tornaram-se mais fáceis, com o avanço da inteligência artificial e de plataformas como a Sora. Estamos em uma nova era?
Os códigos responsáveis pela geração de conteúdo sintético avançaram consideravelmente desde o último ano. O salto tecnológico foi significativo e a tendência é de que esses avanços se tornem cada vez mais frequentes. Estamos praticamente ingressando em uma nova era a cada mês.

Criar um deepfake hoje pode ser realizado até mesmo com um celular. A qualidade dos deepfakes em vídeo, no entanto, ainda é relativamente baixa se comparada àquela dos produzidos com softwares profissionais. Essa falta de qualidade pode ser benéfica para o uso indevido da internet, uma vez que contribui para ocultar imperfeições que poderiam revelar a manipulação.

Você acha que as eleições municipais no Brasil e nos EUA deste ano sofrerão grande interferência das deepfakes? As manipulações podem atingir um grau incontrolável?
Houve uma massificação da tecnologia. Os códigos ficaram mais ágeis e hoje não é preciso grandes máquinas para criar mídia gerada por IA. Esses dois fatores colaboram para que mais pessoas mal-intencionadas possam produzir conteúdo enganoso. Se há mais pessoas criando, sem dúvida o risco para um processo eleitoral aumenta.

Por enquanto, acho que não perdemos o controle, mas as autoridades precisam agir rapidamente e obrigar as redes sociais a sinalizar que aquele conteúdo foi produzido com inteligência artificial para que haja uma efetiva redução de danos.

O colunista Ronaldo Lemos escreveu recentemente na Folha: "Não dá mais para confiar em vídeo". Você concorda?
As manipulações ainda são perceptíveis para os profissionais da área, mas como as outras pessoas vão desconfiar que aquilo que elas estão vendo não é de verdade se a maioria delas não sabe que há formas de se criar esse conteúdo manipulado?

O "ver para crer" já não é mais uma garantia de veracidade desde 2017, quando o primeiro código para gerar deepfakes foi lançado. Por enquanto, peritos são capazes de identificar esse tipo de conteúdo. O problema maior será quando os códigos estiverem tão avançados a ponto de nem mesmo esses profissionais conseguirem distinguir o falso do real.

Se não dá mais para confiar em vídeos, o que precisamos fazer para voltar a confiar?
Obrigando as grandes plataformas a sinalizar claramente que aquele conteúdo é gerado por IA. Elas têm essa capacidade, já anunciaram que possuem essas ferramentas, mas não o fazem porque não há pressão das autoridades. Identificar esse conteúdo gera enormes gastos com processamento de dados e elas querem evitá-los o máximo possível. Eu não descartaria a ideia de que até fazem lobby para que essa obrigação seja postergada.

Por outro lado, o governo precisa urgentemente criar campanhas educativas para instruir a população sobre as possibilidades de criação da inteligência artificial, pois as pessoas não vão desconfiar de manipulações realísticas se não souberem que isso é possível.

Como esses avanços interferem no seu trabalho? Como você segue se especializando em inteligência artificial para seguir sendo uma referência na área?
Eu trabalho de várias formas. Na criação de vídeos para a internet, por exemplo, não é apenas a inteligência artificial que faz o trabalho. Tenho um roteiro para garantir que o conteúdo seja engraçado e viralize. Há contexto, piadas e associações de temas. Esse é o meu diferencial nesse ponto, tanto que você não vê outros trabalhos assim circulando pela internet. Quando algum outro vídeo com deepfake aparece, geralmente é apenas uma troca de rosto simples, sem um roteiro para dar sentido àquilo.

Há cerca de quatro anos, criei uma empresa que produz mídia sintética para atender às demandas do mercado. Os clientes buscam por mim porque confiam na qualidade do produto, uma vez que deepfakes produzidos por aplicativos não possuem a qualidade que grandes produções exigem.


RAIO-X | BRUNO SARTORI, 34

Jornalista, natural de Iturama (MG) e criado em Unaí (MG), trancou a faculdade de Direito e largou um estágio para dedicar-se integralmente à área tecnológica. Atualmente mora em São Paulo e tem uma empresa de produção de mídia sintética, a Sintetica.ai.

Fonte:  https://www1.folha.uol.com.br/blogs/hashtag/2024/02/o-problema-sera-quando-ninguem-souber-o-que-e-falso-ou-real-diz-deepfaker.shtml

Nenhum comentário:

Postar um comentário