Por Mateus Camillo São Paulo
Para Bruno Sartori, especialista em manipulação de vídeo, governos precisam agir para não perder controle sobre tecnologia
O deepfaker Bruno Sartori, 34, criado em Unaí (MG), viralizou nas redes sociais em 2018, no início do governo Bolsonaro, ao criar um vídeo em que o ex-presidente se transformava na rainha da Inglaterra. A partir daquele momento, os memes entraram em uma nova era no Brasil, com uma série de vídeos bem-humorados de Sartori.
As produções em que ele se especializou consistem em vídeos manipulados que utilizam inteligência artificial (IA) e alteram o rosto de pessoas de forma praticamente imperceptível.
Um dos primeiros deepfakes a se espalhar, feito pelo diretor Jordan Peele ainda em 2018, simulava falas falsas do ex-presidente americano Barack Obama. O tempo de produção das peças, entretanto, era muito mais lento e podia chegar a 30 dias. Por isso, não era algo tão disseminado. Hoje, a Sora, o "ChatGPT de vídeo", é capaz de criar instantaneamente material de até um minuto a partir de pedidos feitos em texto.
O avanço acelerado da tecnologia pode representar riscos a eleições, à democracia, e até à vida em sociedade.
O #Hashtag conversou com Sartori sobre os recentes avanços na inteligência artificial e os rumos que os deepfakes devem tomar.
Em 2018 você fez alguns deepfakes que viralizaram no Twitter.
De lá pra cá, a manipulação e a criação de vídeos tornaram-se mais
fáceis, com o avanço da inteligência artificial e de plataformas como a
Sora. Estamos em uma nova era?
Os códigos responsáveis pela geração de conteúdo sintético avançaram
consideravelmente desde o último ano. O salto tecnológico foi
significativo e a tendência é de que esses avanços se tornem cada vez
mais frequentes. Estamos praticamente ingressando em uma nova era a cada
mês.
Criar um deepfake hoje pode ser realizado até mesmo com um celular. A
qualidade dos deepfakes em vídeo, no entanto, ainda é relativamente
baixa se comparada àquela dos produzidos com softwares profissionais.
Essa falta de qualidade pode ser benéfica para o uso indevido da
internet, uma vez que contribui para ocultar imperfeições que poderiam
revelar a manipulação.
Você acha que as eleições municipais no Brasil e nos
EUA deste ano sofrerão grande interferência das deepfakes? As
manipulações podem atingir um grau incontrolável?
Houve uma massificação da tecnologia. Os códigos ficaram mais ágeis e
hoje não é preciso grandes máquinas para criar mídia gerada por IA.
Esses dois fatores colaboram para que mais pessoas mal-intencionadas
possam produzir conteúdo enganoso. Se há mais pessoas criando, sem
dúvida o risco para um processo eleitoral aumenta.
Por enquanto, acho que não perdemos o controle, mas as autoridades
precisam agir rapidamente e obrigar as redes sociais a sinalizar que
aquele conteúdo foi produzido com inteligência artificial para que haja
uma efetiva redução de danos.
O colunista Ronaldo Lemos escreveu recentemente na Folha: "Não dá mais para confiar em vídeo". Você concorda?
As manipulações ainda são perceptíveis para os profissionais da área,
mas como as outras pessoas vão desconfiar que aquilo que elas estão
vendo não é de verdade se a maioria delas não sabe que há formas de se
criar esse conteúdo manipulado?
O "ver para crer" já não é mais uma garantia de veracidade desde 2017,
quando o primeiro código para gerar deepfakes foi lançado. Por enquanto,
peritos são capazes de identificar esse tipo de conteúdo. O problema
maior será quando os códigos estiverem tão avançados a ponto de nem
mesmo esses profissionais conseguirem distinguir o falso do real.
Se não dá mais para confiar em vídeos, o que precisamos fazer para voltar a confiar?
Obrigando as grandes plataformas a sinalizar claramente que aquele
conteúdo é gerado por IA. Elas têm essa capacidade, já anunciaram que
possuem essas ferramentas, mas não o fazem porque não há pressão das
autoridades. Identificar esse conteúdo gera enormes gastos com
processamento de dados e elas querem evitá-los o máximo possível. Eu não
descartaria a ideia de que até fazem lobby para que essa obrigação seja
postergada.
Por outro lado, o governo precisa urgentemente criar campanhas educativas para instruir a população sobre as possibilidades de criação da inteligência artificial, pois as pessoas não vão desconfiar de manipulações realísticas se não souberem que isso é possível.
Como esses avanços interferem no seu trabalho? Como você
segue se especializando em inteligência artificial para seguir sendo uma
referência na área?
Eu trabalho de várias formas. Na criação de vídeos para a internet, por
exemplo, não é apenas a inteligência artificial que faz o trabalho.
Tenho um roteiro para garantir que o conteúdo seja engraçado e viralize.
Há contexto, piadas e associações de temas. Esse é o meu diferencial
nesse ponto, tanto que você não vê outros trabalhos assim circulando
pela internet. Quando algum outro vídeo com deepfake aparece, geralmente
é apenas uma troca de rosto simples, sem um roteiro para dar sentido
àquilo.
Há cerca de quatro anos, criei uma empresa que produz mídia sintética para atender às demandas do mercado. Os clientes buscam por mim porque confiam na qualidade do produto, uma vez que deepfakes produzidos por aplicativos não possuem a qualidade que grandes produções exigem.
RAIO-X | BRUNO SARTORI, 34
Jornalista, natural de Iturama (MG) e criado em Unaí (MG), trancou a faculdade de Direito e largou um estágio para dedicar-se integralmente à área tecnológica. Atualmente mora em São Paulo e tem uma empresa de produção de mídia sintética, a Sintetica.ai.
Fonte: https://www1.folha.uol.com.br/blogs/hashtag/2024/02/o-problema-sera-quando-ninguem-souber-o-que-e-falso-ou-real-diz-deepfaker.shtml
Nenhum comentário:
Postar um comentário