domingo, 3 de dezembro de 2023

‘Mídias sociais deveriam ser reguladas igual a indústria do cigarro’; leia entrevista

 Por Guilherme Guerra

Max Fisher, jornalista do 'The New York Times', descreve quais os efeitos das redes sociais na sociedade

Max Fisher, jornalista do 'The New York Times', 
descreve quais os efeitos das redes sociais na sociedade  
Foto: Daniel Teixeira/Estadão - 1/12/2023

Jornalista americano Max Fisher, autor de ‘A máquina do caos’, descreve em livro como as redes sociais e plataformas foram feitas para viciarem usuários

Há duas décadas, plataformas digitais como Facebook, Instagram, YouTube, TikTok e X (ex-Twitter) aperfeiçoaram-se para fisgar o bem mais precioso da internet: a atenção do usuário. A vencedora entre elas é aquela que consegue manter em seus domínios o maior número possível de pessoas por mais tempo e com a maior frequência. Ou seja, são serviços desenvolvidos para serem viciantes — e as consequências para jovens e adultos já podem ser sentidas na sociedade, de desinformação à problemas de saúde mental.

“As mídias sociais deveriam ser reguladas igual a indústria do cigarro”, diz o repórter americano Max Fisher, do jornal The New York Times, ao Estadão. De passagem pelo Brasil para ser palestrante no Festival piauí de Jornalismo, que acontece neste sábado e domingo na Cinemateca Brasileira, o jornalista é autor do livro-reportagem A máquina do caos (Ed. Todavia, 512 p., R$ 99), em que desenvolvedores e executivos dessas companhias descrevem como criaram essas plataformas para serem viciantes.

Para Fisher, é necessário algum tipo de regulamentação que coíba o alcance dessas plataformas, que fazem nada ou muito pouco para coibir as notícias falsas que, num extremo, abalam democracias. “O produto dessas empresas de tecnologia é como os cigarros: é inerentemente prejudicial e sempre vai ser prejudicial para você”, continua ele. “Não se pode ir até a Philip Morris e dizer: ‘Ei, faça cigarros mais saudáveis’, porque esse não é o negócio da empresa. Mas o que se pode fazer é dificultar o acesso dos consumidores ou proibir o uso de determinados produtos químicos.”

Outra comparação levantada por Max Fisher está em como essas plataformas são desenvolvidas para serem iguais a máquinas caça-níquel de cassinos, que fisgam seus clientes com cores e sons exagerados para se tornarem mais atraentes. “Sabemos agora, por meio de estudos neurológicos, que realmente estar nas mídias sociais produz uma resposta química no corpo. Ou seja, se falássemos disso em qualquer outro contexto, seria vício”, critica.

Na tentativa de regulamentar esse aspecto, a União Europeia exige agora que todas as plataformas digitais com mais de 45 milhões de usuários mensais permitam uma versão “sem algoritmos”, ou seja, sem conteúdo sugerido por inteligência artificial — na prática, isso significa ver postagens em ordem cronológica, por exemplo. No entanto, plataformas onde não há algoritmos, como WhatsApp e Telegram, também são problemáticas.

“O pecado original não é o algoritmo, mas sim a otimização para o engajamento, ou seja, todos esses mecanismos diferentes que têm o objetivo de produzir o máximo possível de engajamento entre você e a plataforma”, explica Fisher. Esses mecanismos incluem os botões de “curtir”, “compartilhar”, “visualizações” e até a tela infinita. “Os mecanismos para aumentar o engajamento também aumentam o discurso de ódio, a desinformação e todos esses outros tópicos.”

Agora, há outro desafio para as plataformas digitais: a inteligência artificial (IA) generativa, que permite criar conteúdos como textos, imagens, vídeos e áudios com comandos simples — ou seja, criar e impulsionar desinformação fica ainda mais fácil. Pelo mundo todo, pelo potencial apocalíptico do aprendizado de máquinas, a discussão é regulamentar essa tecnologia, antes que seja tarde demais. “O governo dos EUA aprendeu uma lição com a era da mídia social”, diz Fisher, citando a intenção da administração de Joe Biden em discutir o assunto - em outubro, o democrata emitiu uma ordem executiva na qual tenta regular os usos problemáticos da nova tecnologia.

Abaixo, leia os trechos da entrevista ao Estadão.

Como os algoritmos mudam nossa percepção do mundo?

Quando as pessoas abrem uma plataforma de mídia social, seja o Facebook, Instagram ou Twitter, elas pensam que o que estão vendo são as opiniões das pessoas da sua comunidade, sejam seus amigos, familiares ou jornalistas. E você acha que isso é apenas uma espécie de janela para o mundo e a aceita. Mas o que você está obtendo, na verdade, é essa visão de mundo deliberadamente distorcida. Toda plataforma tem um conjunto de algoritmos, que escolhe as coisas que você vê e seleciona, em um universo inteiro de publicações e vídeos de pessoas que você segue ou que você não segue. Esse algoritmo vai selecionar e apresentar os conteúdos de forma que essa seja a maneira mais eficaz de fazer com que você passe o máximo de tempo possível na plataforma. E isso é muito enganoso.

No livro, o sr. compara esse processo a um cassino.

Na verdade, são as pessoas que projetaram essas plataformas que fazem a comparação com máquinas de caça-níqueis. Eles queriam que as plataformas funcionassem como máquinas caça-níqueis em termos de cores, luzes piscantes, o que é chamado de “feedback háptico”, que é quando o telefone vibra. E o objetivo é explicitamente imitar uma máquina caça-níqueis para causar dependência. E sabemos agora, por meio de estudos neurológicos, que realmente estar nas mídias sociais produz uma resposta química no corpo. Ou seja, se falássemos disso em qualquer outro contexto, seria vício.

Por que deixamos essas plataformas correrem soltas, se no mundo físico nós regulamos os cassinos e máquinas de caça-níqueis?

Quando as mídias sociais começaram, ninguém sabia o que elas se tornariam, inclusive as pessoas que a projetavam. Eles sabiam que queriam torná-las viciantes para vender…

O Vale do Silício tem um ditado: ‘Movimente-se rápido e quebre as coisas’.

Sim. Se você for à sede do Facebook, esse ditado está nas paredes, o que é algo realmente interessante. Não estou dizendo que essas pessoas não são responsáveis, pois essas empresas se movimentaram sem pensar em quais seriam as consequência. Quando as consequências se tornaram aparentes, fizeram o possível para se protegerem desse conhecimento; e depois para tentar suprimi-lo. Se você voltar o relógio para 2008 e 2009, quando a mídia social começou, eu achava que era ótima, que seria essa coisa fantástica que faria tudo o que as empresas de mídia social prometiam. Que nos uniria, que traria democracia. Em retrospecto, fica muito claro por que as plataformas que estavam sendo desenvolvidas da maneira como foram desenvolvidas se tornaram tão prejudiciais. Mas ninguém previu isso.

Apps de mídias sociais são desenvolvidos para prender o usuário na tela
Apps de mídias sociais são desenvolvidos para prender o usuário na tela Foto: Dado Ruvic/Reuters - 13/7/2021

Seu livro mostra que todos os executivos e muitos funcionários dessas empresas sabiam desses efeitos das plataformas sociais. Quem é o culpado?

No caso do Facebook, é muito fácil dizer que os executivos sabiam, porque eles estavam encomendando todos esses estudos internos sobre os efeitos da plataforma (nas pessoas), pois se trata de uma empresa muito grande. E há partes da empresa que não estavam no comando. Mas havia pessoas nesses tipos de bolsões minoritários, que queriam pelo menos pensar sobre qual é o impacto que estamos tentando estudar. Assim, encomendaram todos esses estudos entre 2016 e 2019 sobre os efeitos das plataformas. Eles sabiam disso tudo, viram por suas próprias evidências de sua própria empresa. E continuaram a mentir publicamente e a dizer que não havia evidências de que as plataformas estivessem fazendo todas as coisas que dissemos que estavam fazendo agora. Já as outras plataformas não tinham esses estudos internos, mas era só porque não queriam descobrir.

No Brasil, os problemas não são só os algoritmos. Há também aplicativos de mensagens como WhatsApp e Telegram, que não são plataformas com algoritmos. O problema está apenas nos algoritmos ou nas plataformas sociais como um todo?

O WhatsApp tem muitos problemas semelhantes, embora não seja algorítmico. Isso mostra que há muitas maneiras de construir plataformas sociais modernas que amplificam certas tendências que os algoritmos exageraram e certamente exacerbaram. O pecado original não é o algoritmo, mas sim a otimização para o engajamento, ou seja, todos esses mecanismos diferentes que têm o objetivo de produzir o máximo possível de engajamento entre você e a plataforma. E isso é algo que está embutido no scroll e, de repente, é transferido para o botão de compartilhamento. Os mecanismos para aumentar o engajamento também aumentam o discurso de ódio, a desinformação e todos esses outros tópicos. É projetar um sistema que vai colocar na sua frente o que for necessário para que você passe mais tempo na plataforma, o que não é algo que pareça tão inerentemente tóxico. Mas, devido à maneira como a mente humana funciona, há um conjunto específico de emoções, impulsos e atitudes que funcionam melhor para o engajamento.

No livro, o sr. escreveu que essas empresas, seus executivos e seus funcionários não sabem mais como os algoritmos funcionam. Essa é uma batalha perdida? Podemos voltar ao algoritmo e corrigi-lo?

Tecnicamente, é possível, mesmo que a forma como ele opere seja tão complicada e tão opaca. Há duas escolas de pensamento sobre se isso é possível na prática: uma diz que podemos criar regulamentações que melhorem o algoritmo e que sejam direcionadas para longe do ódio e da desinformação, e outra coisa é realmente garantir que as empresas as cumpram. E há outro ponto de vista, que é aquele com o qual eu simpatizo um pouco mais, que diz que essas empresas são como as empresas de cigarros e que o produto delas é como os cigarros: é inerentemente prejudicial, sempre vai ser prejudicial, sempre vai ser ruim para você. Não se pode ir até a Philip Morris e dizer: “Ei, faça cigarros mais saudáveis”, porque esse não é o negócio da empresa. Mas o que se pode fazer é dificultar o acesso dos consumidores aos cigarros ou proibir o uso de determinados produtos químicos nos cigarros. Se olharmos para a regulamentação das empresas de cigarros como um modelo, é um pouco deprimente, porque as empresas de cigarros continuam matando muitos milhões de pessoas todos os anos. Mas elas têm sido muito eficazes em tornar muito mais difícil conseguir cigarros, o que faz com que muito menos crianças comecem a fumar ainda jovens. E as mídias sociais têm um efeito muito mais viciante se você começar a usá-las quando for mais jovem.

Deveríamos tratar as mídias sociais como tratamos os cigarros?

Do ponto de vista dos problemas que causa e da regulação, faz sentido. Para você e para mim, que somos viciados em nossos telefones, a melhor solução é tratar como cigarro, álcool e qualquer outra droga que temos na vida. Você não bebe álcool antes de dirigir um carro. Provavelmente, não deveria tentar obter notícias da mídia social da mesma forma. Essa é a melhor coisa que podemos fazer como indivíduos.

Hoje, existe a inteligência artificial (IA) generativa. Muitas pessoas estão preocupadas com essa mistura de IA generativa e mídia social, especialmente para as eleições americanas no próximo ano. Ainda há algo a ser feito a respeito disso em dezembro de 2023? É tarde demais?

O governo dos EUA aprendeu uma lição com a era da mídia social. E isso é algo que, se você conversar com pessoas de qualquer um dos grandes órgãos federais, e até mesmo com reguladores, eles falarão sobre onde estão. Quando a mídia social começou, eles não fizeram absolutamente nada para regulamentar, e simplesmente deixaram as empresas fazerem o que quisessem. E isso é algo a que muitas pessoas em grandes e importantes órgãos federais estão realmente atentas, pois consideram isso um grande erro. Quando começaram a regulamentar a mídia social, era muito mais difícil reverter uma tecnologia já dominada pelas empresas. Portanto, hoje, com a inteligência artificial, eles estão tentando ser muito mais proativos. E o motivo pelo qual me concentro nos EUA é que, se forem grandes empresas americanas, como na maioria das vezes são, isso dependerá do governo dos EUA. É muito, muito difícil coagir essas empresas a fazer algo diferente se você não estiver nos Estados Unidos, porque essa é a base delas. O atual governo americano tentou estabelecer regulamentações antes que a tecnologia fosse desenvolvida. Não tenho ideia se isso será suficiente, mas é pelo menos mais do que fizemos há 15 anos.

Ao final do livro, o sr. fala sobre a comparação com o filme 2001: Uma Odisseia No Espaço, em que a solução encontrada foi desligar a inteligência artificial HAL. Deveríamos fazer o mesmo com essas empresas?

Provavelmente não é possível simplesmente ir ao Facebook e dizer: “Estamos trancando seus escritórios e esta empresa não existe mais”. Muitas pessoas com quem conversei e que estudam as plataformas propuseram alguma versão de não fechar as empresas inteiras, mas fechar alguns aspectos delas, como fechar o algoritmo. Como, por exemplo, Jack Dorsey (fundador e ex-CEO do Twitter) propôs ao desativar o botão curtir. A única coisa que me faz hesitar em relação aos aspectos do fechamento é que eles simplesmente inventarão outra coisa para maximizar o engajamento, porque esse é o modelo de negócios. Algumas pessoas diriam que não é possível resolver esse problema das mídias sociais até que se resolva o capitalismo.

Ainda há algum lado positivo nas mídias sociais?

Com certeza. Houve muitas coisas positivas que a mídia social fez e continua a fazer para elevar vozes ou comunidades que normalmente não fazem parte da conversa. O movimento Black Lives Matter (Vidas Negras Importam) não teria acontecido sem as mídias sociais. Antes do feed de notícias, em 2009, que criou a mídia social moderna como a conhecemos, essas plataformas eram apenas um compartilhamento direto de publicações. Isso era algo que trazia muito de bom sem muito de ruim.

Fonte:  https://www.estadao.com.br/link/cultura-digital/a-maquina-do-caos-entrevista-max-fisher/ 02/12/23

Nenhum comentário:

Postar um comentário