Carlos Fioravanti e Yuri Vasconcelos
Cientista da computação alerta para o risco de a internet e suas ferramentas digitais aumentarem a discriminação e a desigualdade social
Ao longo deste ano e até abril do próximo, o engenheiro e cientista da computação Virgílio Augusto Fernandes Almeida vai examinar, como pesquisador do Instituto de Estudos Avançados da Universidade de São Paulo (IEA-USP), as vantagens e as desvantagens da interação entre as pessoas e os algoritmos, que captam e filtram informações da internet, selecionam notícias, recomendam filmes, decidem sobre a qualidade do tratamento médico para cada paciente, enfim, influenciam e, por vezes, moldam a ação humana e a organização social (ver Pesquisa FAPESP no 266).
Em uma conversa por plataforma de vídeo de sua casa, em um condomínio na serra em Nova Lima, na Região Metropolitana de Belo Horizonte, Almeida expôs suas preocupações e propostas sobre problemas atuais, como a moderação de conteúdo e a definição de papéis do governo, das empresas e dos usuários da internet. Ele é casado com a engenheira Rejane Maria, tem dois filhos, Pedro, de 40 anos, e André, de 38, um neto e outro chegando nos próximos meses.
Em
maio, você publicou um artigo com os cientistas políticos Fernando
Filgueiras, da Universidade Federal de Goiás, e Ricardo Mendonça, da
UFMG, sobre governança do mundo digital. Como é trabalhar com o pessoal
das ciências humanas?
Tem sido ótimo. Estou aprendendo
muito. Não é simples fazer um trabalho multidisciplinar. Existe a
dificuldade da linguagem, dos padrões das outras áreas de cultura e do
conhecimento prévio, mas temos de achar um jeito de avançar. Juntos,
estamos escrevendo um livro para a Universidade de Oxford sobre o
impacto dos algoritmos nas instituições da sociedade.
As ciências sociais podem contribuir para a governança dos algoritmos?
Sim,
e muito, porque os algoritmos e as tecnologias que eles controlam têm
um impacto social. Como as pessoas reagem? Como alteram comportamentos
em função disso? O mundo digital é um ambiente público, e as pessoas
mostram lados desconhecidos e não civilizados, principalmente nos
comentários. É um mundo que, facilmente, pode enganar. Escrevi durante
muitos anos para o Estado de Minas, sempre tentando combinar a
literatura com as tecnologias computacionais para ajudar as pessoas a
verem outros lados da realidade. Em um artigo, usei um livro do escritor
argentino Bioy Casares [1914-1999], em que o narrador se apaixona por
uma moça bonita. Era um amor impossível, porque as imagens dela eram
criação de uma máquina.
Outro artigo seu, de 2016, com o advogado Danilo Doneda, já tratava da governança por e dos algoritmos.
Conheci
Danilo, um especialista em proteção de dados pessoais, quando trabalhei
em Brasília, e começamos a discutir a governança dos e por algoritmos. O
que significa isso? As plataformas digitais são governadas por
algoritmos. Não tem gente trabalhando nas plataformas. Os algoritmos
governam as plataformas dizendo o que vai ganhar visibilidade com base
nos dados e gostos pessoais que elas cada vez coletam mais. Essa é a
governança por algoritmo, que tem se expandido para outros casos. No
setor financeiro, é o algoritmo que diz se uma pessoa pode ou não
receber um empréstimo. No transporte por aplicativo, é o algoritmo que
vai dar o trajeto e o preço da passagem. Em um mundo de quase 8 bilhões
de pessoas, com inúmeros problemas, os algoritmos são essenciais para
controlar o fluxo aéreo e a distribuição de energia. São essenciais, mas
também decidem sobre a vida das pessoas de modo nem sempre considerado
justo. Os potenciais problemas disso são: discriminação, exclusão de
grupos e injustiça. O outro lado é a governança dos algoritmos, entender
como funcionam e como deve ser exigido deles algum tipo de
transparência. Nos Estados Unidos, vários tribunais usam um programa
chamado Compass, que mostra se um réu tem direito ou não à liberdade
condicional. Nem o governo nem os juízes sabem os critérios de análise
desse algoritmo. Os criadores do programa não abrem porque alegam se
tratar de segredo comercial, com base na legislação do país.
O que tem sido proposto a respeito da governança dos algoritmos?
O
governo e a sociedade civil de vários países têm discutido essa
questão. Um ponto sobre o qual já existe algum consenso é que os
algoritmos têm que ser justos, transparentes e explicáveis. São
critérios muito difíceis de aplicar, porque um algoritmo é um código
complexo de dados que muda a cada instante. A maior parte deles usa
aprendizado de máquina e varia de acordo com o que está aprendendo. Na
Europa, uma das preocupações é que os algoritmos devem ser explicáveis
para uma pessoa que se sinta prejudicada por uma decisão. Quando Danilo e
eu escrevemos esse artigo, queríamos aplicar as ideias de governança da
internet na governança dos algoritmos, estabelecendo, por exemplo, que
eles deveriam seguir regras preestabelecidas por comissões
multissetoriais em cada país.
Deu certo?
Não,
porque o problema continua. Há dois anos, um aluno de mestrado, Manoel
Ribeiro, orientado pelo meu colega Wagner Meira Jr. e por mim, fez um
trabalho que teve impacto mundial. Ele estudou como as opiniões das
pessoas vão se radicalizando nos grupos do YouTube com diferentes
gradações políticas. Mostrou que uma pessoa poderia começar em um grupo,
no centro, e evoluir para a radicalização, que defendia a supremacia
branca (ver Pesquisa FAPESP nº 287).
Mas não conseguimos identificar o papel do algoritmo. Tudo isso é
medido do lado de fora. Não conseguimos acessar o lado de dentro, porque
as empresas não abrem os algoritmos. Isso é muito grave.
Não devemos levar para o espaço on-line a desigualdade do espaço físico, mas não é o que se vê
O que mais seu grupo tem estudado?
Um
aluno que terminou o doutorado em 2019, Gabriel Magno, fez a seguinte
pergunta: os valores sociais e morais migram do mundo físico para o
mundo on-line? Para responder, ele analisou 1,2 bilhão de tweets, usando
uma base de pesquisa sociológica, a Word Value Server [WVS], e técnicas
de inteligência artificial para mapear os tweets de 50 países. Em
alguns, as visões do mundo físico e digital coincidem, mas em outros são
diferentes, por causa do acesso e das restrições de gênero. No Oriente,
as mulheres têm muito mais limitações para se manifestar. No Brasil,
alguns valores coincidem e outros não. A Argentina é muito interessante:
a questão do aborto vista por um sociólogo é diferente da do movimento
mais progressista que aparece na internet. Magno participou de um
trabalho com uma ex-aluna, Camila Araújo. Ela criou um robô que ia nas
ferramentas de busca Google e Bing em 42 países e procurava por mulheres
bonitas e mulheres feias. Ela optava pela resposta de imagem e usava um
algoritmo de inteligência artificial para estimar a faixa de idade, a
raça e a cor das pessoas que respondiam. Caímos para trás vendo os
resultados.
O que eles apontaram?
Na Nigéria e
no Quênia, o padrão de beleza era mulher loira e nova. Isso é muito
importante, porque os jovens vão se mirando nisso para se posicionar no
mundo. Para ver por que isso acontecia, Camila e Gabriel começaram a
levantar de onde vinham as fotos que representavam mulher bonita e
mulher feia. Viram que as imagens poderiam ser agrupadas em torno das
linguagens, inglês, espanhol, português, chinês. No grupo do inglês,
eram dominadas pelos países mais ricos, como Estados Unidos, Canadá,
Austrália, Inglaterra. Os países da África colonizados, que falavam
inglês, recebiam as imagens, mas não representavam a população deles.
Para ter um resultado que seja compatível com a demografia do lugar, era
preciso fazer uma opção de busca local, não global.
Ou seja, a forma como coletamos os dados interfere no resultado da pesquisa.
Sim. Uma linha de pesquisa muito recente nos Estados Unidos e na Inglaterra trata exatamente disso. É o data colonialism
ou colonialismo de dados. É um assunto preocupante, porque as grandes
empresas precisam dos dados do mundo inteiro para treinar os algoritmos
faciais e fazer recomendação de sites ou notícias, mas os países mais
pobres não têm o domínio da tecnologia, só têm os dados, que cedem sem
saber e sem querer. É como uma ação colonialista, porque as grandes
empresas operam nesses países, extraindo não mais o recurso natural, mas
a informação, que usam para ampliar seu domínio econômico.
Quais as discussões de seu grupo da Universidade Harvard?
O
Centro Berkman Klein para Internet e Sociedade foi criado há mais de 20
anos. Multidisciplinar, é próximo da escola de direito, mas também
envolve as de engenharia, computação e medicina. Desigualdade econômica e
social e discriminação racial, étnica e de orientação sexual são os
temas que permeiam grande parte dos afiliados e grupos de pesquisa. A
diferença entre o território físico e o digital é outro tema quente. A
governança é estabelecida, na maior parte dos casos, por poucas empresas
situadas no hemisfério Norte, em especial nos Estados Unidos. Pergunto:
elas se aplicam ao mundo digital inteiro? As regras deveriam ser as
mesmas?
O que você pensa?
Claro que não
deveriam. As culturas e os hábitos são diferentes. A desigualdade entre
países ricos e pobres é tremenda. Uma de minhas inquietações é que a
governança do mundo digital está sendo feita não só por governos, mas
também por empresas, que conseguem monitorar muito mais do que os
serviços secretos de países e podem usar as informações com intuito
totalitário. Outra preocupação é que não devemos levar para o espaço
on-line a desigualdade do espaço físico, mas não é o que se vê.
Pesquisadores norte-americanos analisaram milhões de dados sobre a
internação de pessoas em hospitais do país. O algoritmo que fazia a
recepção e determinava o encaminhamento do paciente definia o limite de
custos do tratamento, em função do seguro saúde. Os pesquisadores viram
que, para duas pessoas que se internam com o mesmo nível de gravidade,
uma negra e outra branca, o algoritmo atribuía um orçamento menor à
negra. Com isso, os médicos teriam menos recursos para tratar dos
pacientes negros. O mais impressionante é que os dados desse programa,
usado para planejar o atendimento, coincidiam com o comportamento dos
hospitais do sistema de saúde. A pesquisa evidenciou uma discriminação,
que poderia ser corrigida.
De que modo?
Esses
sistemas pertencem a empresas, que têm objetivos comerciais. Mas a
computação e a engenharia podem ter o papel de identificar essas falhas
sociais, como a discriminação, mostrar para a sociedade como essas
plataformas operam e refutar os argumentos das empresas. Em 2015, a
então presidente Dilma Rousseff foi convidada para uma visita aos
Estados Unidos. Fiz parte da comitiva, porque era secretário de Política
de Informática do MCTI. Em uma reunião organizada pela ex-secretária de
Estado americana Condoleezza Rice estavam, entre outros, o Mark
Zuckerberg, do Facebook, Erick Schmidt, do Google, Dara Khosrowshah, da
Uber, todos em uma sala e a presidente no centro, respondendo às
perguntas deles. Fiquei atrás, observando. Nenhum desses megaempresários
perguntou se o Brasil daria algum incentivo para atrair as empresas
deles, mas fizeram perguntas de ordem operacional e regulatória, se algo
poderia ou não ser feito e quais eram as regras. As empresas, pelo
menos boa parte delas, querem regras, que a gente chama de regulação,
porque criam segurança e podem minimizar problemas. Um deles, bem
difícil de se resolver, é a moderação de conteúdo.
Por quê?
A
moderação de conteúdo é local e depende do idioma, da cultura e do
prestígio político e econômico de cada região. No Facebook, grande parte
dos recursos de moderação é dedicada a cinco países de língua inglesa;
para línguas e países menos importantes, é muito menos elaborada. A
moderação também é difícil porque um conteúdo que hoje poderia ser
aceito em certos grupos muitas vezes é considerado ofensivo em outros. A
tecnologia pode resolver? Em parte, porque milhões de vídeos sobem a
cada minuto e centenas de milhões de mensagens se tornam disponíveis
para todos a cada dia. A moderação de conteúdo requer algoritmos e o
apoio de um exército de pessoas para agir quando os algoritmos ficam na
faixa cinzenta, quando não se sabe se algo poderia ou não ser aceito. Os
algoritmos pegam pornografia infantil, mas há um nível de sutileza
muito grande em temas políticos e religiosos. É importante que as leis
responsabilizem as empresas sobre os conteúdos indesejados e elas possam
aperfeiçoar seus sistemas. É um problema complexo dessa nova sociedade
digital global.
Já há princípios nessa nova ordem digital?
Alguns
países estão formulando regras. A União Europeia criou uma legislação, a
Digital Service Act, que ainda não entrou em vigor. A Alemanha definiu o
que é conteúdo ilegal on-line; o país já tinha uma regulação voltada ao
off-line, por causa do nazismo. Um fundamento na Europa é: os direitos e
as responsabilidades off-line têm de permanecer no on-line. No Brasil, o
PL 2.630 [Projeto de Lei nº 2.630/20, que institui a Lei Brasileira de
Liberdade, Responsabilidade e Transparência na Internet] estabelece
esses limites, mas parou no Congresso. O que tenho visto é que as crises
que fazem as coisas andarem. O Marco Civil da Internet saiu depois que o
Edward Snowden vazou informações de segurança dos Estados Unidos em
2013 e a Lei Geral de Proteção de Dados Pessoais depois do caso da
Cambridge Analítica [empresa britânica que em 2014 recolheu informações
de até 87 milhões de usuários do Facebook e as utilizou para influenciar
a opinião de eleitores em vários países]. As regras também têm de ter
uma dosagem porque, se você define certos conteúdos como ilegais, pode
ser que as empresas de tecnologia, com receio de multas ou de
penalidades, se antecipem, comecem a barrá-los e passem a exercer
censura política ou econômica.
Para governar o espaço digital, temos de reunir todos os participantes, governo, empresas e sociedade civil
Você trabalhou em empresas durante 10 anos, antes de se tornar professor da UFMG, em 1989. O que fez?
No
quarto e quinto anos do curso de engenharia, fui estagiário do centro
de computação da UFMG. Depois, em 1973, quando me formei, fiz concurso
para a área de sistemas da Petrobras, no Rio. Dois anos depois, tive uma
oferta, voltei para Belo Horizonte e fiquei oito anos no setor de
planejamento de sistemas na Cemig [Companhia Energética de Minas
Gerais]. Lá, eu tentava entender como funcionavam aqueles sistemas e
imaginar como poderia melhorar sua função. Tudo era distante das
pessoas, tanto que o computador ficava em uma redoma. Me mandaram fazer o
mestrado e fui. Meu orientador na PUC [Pontifícia Universidade
Católica] do Rio era Daniel Menasce. Viramos amigos e escrevemos seis
livros juntos. Os anos de empresa me ajudaram muito a focar e buscar
resultados. Quando terminei o mestrado, fui me interessando por novas
questões e pensei em fazer o doutorado nos Estados Unidos. Meu pai falou
assim: “Acho uma insanidade você largar um emprego bom e ir para os
Estados Unidos com dois filhos pequenos”. Fui mesmo assim, e depois de
muitos anos vi que meu pai estava certo. O retorno ao Brasil foi
difícil, porque não tinha vínculo formal de emprego, e fiquei dois anos
como bolsista aguardando abertura de concurso na UFMG, pois queríamos
continuar morando em Belo Horizonte.
Como foi seu trabalho no governo?
No
final de 2010, recebi um telefonema de Jorge Kalil, um cientista de São
Paulo, me convidando para jantar na casa dele. Ele havia chamado alguns
integrantes da Academia Brasileira de Ciências, da qual eu já era
membro, para conversas sobre ciência e tecnologia. Nesse jantar estava o
senador Aloizio Mercadante, que viria a ser o ministro dessa pasta.
Mercadante queria que eu assumisse a Secretaria de Política de
Informática, um das cinco do ministério. Eu nunca tinha estado no
governo. Fiquei muito preocupado, porque Brasília é outro mundo, mas um
amigo da faculdade de filosofia me deu um conselho interessante: “Nos
relacionamentos em Brasília, fique sempre na sala, nunca entre na
cozinha. Mantenha uma distância formal”. Foi muito útil. Fiquei cinco
anos em Brasília.
Como foi esse período?
A
secretaria tinha a função de formular e acompanhar as políticas, na
época, de informática – hoje talvez fosse chamada de políticas digitais.
Como secretário, eu era também o coordenador do Comitê Gestor da
Internet, o CGI, criado em 1995. No CGI, aprendi sobre os problemas de
governança da internet, ou seja, que seria preciso estabelecer regras de
modo que a sociedade pudesse acompanhar o funcionamento desse
território digital e participar de sua organização. A internet começava a
crescer muito e a entrar em negócios e em governos, mas ainda não havia
regras. Ocorreu um fato que deu uma dimensão maior à secretaria e fez
com que eu tivesse um papel mais ativo do que imaginava.
Que fato foi esse?
No
final de 2013, explodiram as revelações de Snowden sobre as espionagens
do governo norte-americano pelo mundo. Elas mostraram, inclusive, que a
presidente Dilma e empresas brasileiras, como a Petrobras, haviam sido
espionadas. A presidente nomeou formalmente uma comissão para tratar
dessa questão: “Precisamos ter uma resposta do país e pensar quais são
as regras para a internet”, recomendou. O caso Snowden deixou o mundo
preocupado, sem saber o que fazer com a crescente espionagem digital.
Havia um desconforto também com o fato de que a organização responsável
por estabelecer nomes e domínios, os endereços na internet, a Icann
[Internet Corporation for Assigned Names and Numbers, Corporação da
Internet para Atribuição de Nomes e Números], estava na Califórnia e,
portanto, sujeita à legislação local, embora o impacto fosse global. A
resposta do Brasil foi levantar a necessidade de uma reunião global. No
fim de 2013, eu estava em uma reunião em Seul na Coreia do Sul e recebi
um telefonema do ministro Marco Antonio Raupp [1938-2021]: “Vá para
Bali, Indonésia, porque vamos começar um processo para criar uma reunião
internacional no Brasil para discutir essa questão da espionagem e o
futuro da internet”. Participei de várias reuniões em Londres com o
objetivo de montar uma grande reunião internacional, que passou a ser
chamada de NETmundial. Não era uma reunião de governo. É difícil pensar a
governança da internet exatamente porque não se trata apenas de
governo. Os cabos submarinos e toda a infraestrutura da internet são de
empresas privadas de telecomunicações. O desenvolvimento dos conteúdos e
serviços digitais é da sociedade. Nos servidores, rodam softwares de
uso livre. É um mundo que não é de governos, embora os governos tenham,
cada vez mais, a pretensão de governar. Há a sociedade civil, o setor
privado e a academia, já que parte de tudo isso nasceu de projetos
acadêmicos nos Estados Unidos, financiados pelo setor militar. É um
espaço multissetorial. Para governar isso, tem de colocar junto todos os
participantes. Era justamente a missão do CGI brasileiro. São 21
membros, nove de governo, quatro de setor privado, quatro de ONG
[organizações não governamentais], três da comunidade acadêmica e um
representante de notório saber em assuntos de internet, indicado pelo
ministério. Nenhum setor tem, isoladamente, a maioria dos votos.
Como fecham as decisões?
Tudo
tem de ser negociado. A negociação demora, mas, uma vez obtido o
consenso, a decisão tem duração e aceitação mais abrangentes do que se
fosse unilateral. Durante os cinco anos em que eu fui o coordenador,
evitei votações, porque a votação separa e cria grupos. É preferível que
o processo se estenda e se encontre um denominador comum. É dificílimo,
mas, com paciência, dá certo. Eu era apenas o coordenador e tentava
achar um consenso. Para viabilizar a NETmundial em abril de 2014, a
presidente trabalhou com líderes do Congresso para aprovar a legislação
do Marco Civil da Internet. O grande ponto de interrogação era a chamada
neutralidade de redes. As empresas não queriam neutralidade de rede,
mas a questão política levou o Congresso a aprovar e, na abertura da
reunião da NETmundial, em 23 de abril de 2014, a presidente sancionou a
Lei do Marco Civil da Internet.
O que é a neutralidade de rede?
As
comunicações na internet utilizam protocolos chamados TCP/IP [protocolo
de controle de transmissão/protocolo da internet]. Os conteúdos são
quebrados em pequenos pacotes e transitam pela rede. Têm origem e
destino. A neutralidade de rede implica que as empresas por onde passam
os pacotes não podem tratar diferentemente os pacotes em razão da origem
ou do destino. Elas têm que ser neutras, não podem interferir. Na época
isso era importante porque estabelecia que uma empresa de
telecomunicação não poderia bloquear o Skype, por exemplo, mesmo se
concorresse com o serviço dela de voz. Outra preocupação é que essas
empresas não poderiam dar um tratamento especial a um determinado
serviço ou outro.
Quero identificar formas de colaboração que preservem a individualidade e não deixem o algoritmo fazer tudo
As empresas aceitaram a neutralidade?
Foi
uma negociação difícil, mas o Marco Civil da Internet dava uma garantia
às empresas, porque gerou um ambiente estável e seguro. Estava na lei
que qualquer conteúdo só poderia ser removido com uma ordem judicial. Se
não fosse o marco civil, a confusão na eleição de 2018 poderia ser
ainda maior, porque um político poderia querer tirar da internet um
conteúdo que o desagradasse. O Brasil foi um dos pioneiros na
neutralidade de rede e na organização multissetorial da internet.
Tínhamos um prestígio imenso. À NETmundial, compareceram 1.100 pessoas,
de mais de 100 países, ministros de Estado e 100 jornalistas
internacionais. Os debates eram ao vivo e havia 30 hubs internacionais.
Os grupos discutiam os temas sempre em salas separadas e a tela onde se
faziam as alterações de textos era projetada para todo mundo ver o que
estava sendo operado. Nas reuniões formais, tinha um palco grande com
quatro microfones: um para representantes dos governos, um para o setor
privado, um para a sociedade civil e outro para a comunidade técnica e
acadêmica. Se alguém de um governo falava, o próximo não poderia ser de
outro governo, teria de esperar os representantes dos outros três
setores.
O que saiu dessa conferência?
Dois
documentos, o primeiro, com 10 princípios para a governança da internet,
e outro, um road map, um caminho para o futuro. A aprovação foi por
aclamação. Só três países, Índia, Cuba e Rússia, não aceitaram os
documentos. O prestígio que o Brasil ganhou foi enorme. Em 2017, me
convidaram para integrar uma comissão internacional de 25 pessoas para
discutir normas para a segurança do ciberespaço. Essa comissão se reuniu
durante dois anos em vários países, mas não veio ao Brasil, porque já
tinha ocorrido mudanças no governo. Perdemos relevância.
Em abril você assumiu a cátedra Oscar Sala do Instituto de Estudos Avançados da USP. Quais são os seus planos?
O
tema que escolhi é a interação humano-algoritmo, porque sofremos a
influência dos algoritmos o tempo todo. Quando você está assistindo a um
filme na Netflix, o algoritmo, repentinamente, sugere outra coisa e,
muitas vezes, você aceita e segue para outro filme. Os chamados
algoritmos de recomendação tentam direcionar o comportamento das
pessoas. Muitas vezes ocorre o que a gente poderia chamar de efeito
manada, quando o algoritmo joga em uma direção indesejada, deixando de
lado o que as pessoas realmente querem. Precisamos entender melhor essa
redução da função do ser humano e o aumento da função do algoritmo. Tem
um termo interessante no meio, complacência, quando a gente se acostuma
com as coisas e segue o que o Google indica. Mas será que o que ele me
recomenda naquela consulta é o que eu realmente deveria olhar? Quero
entender essa interação de um ponto de vista mais amplo, não só da
computação, mas das ciências humanas. O que me preocupa é também
identificar outras formas de colaboração, que preservem a
individualidade e não deixem o algoritmo fazer tudo.
*Professor emérito do Departamento de Ciência da Computação da Universidade Federal de Minas Gerais (UFMG) e professor associado do Centro Berkman Klein para Internet e Sociedade, da Universidade Harvard, nos Estados Unidos, ele tem olhado há anos com desconfiança para os algoritmos – mais recentemente, com colegas da ciência política.
Especialidade
Ciência da computação
Instituição
Universidade Federal de Minas Gerais (UFMG)
Formação
Graduação em engenharia elétrica pela UFMG (1973), mestrado em informática pela Pontifícia Universidade Católica do Rio de Janeiro (1980) e doutorado em ciência da computação pela Vanderbilt University (1987)
Produção
170 artigos científicos e coautoria em seis livros publicados em inglês e traduzidos para português, coreano e russo
Como secretário de Política de Informática do Ministério da Ciência, Tecnologia e Inovações (MCTI), cargo que ocupou entre 2011 e 2016, e coordenador do Comitê Gestor da Internet no Brasil (CGI), esse mineiro de Belo Horizonte participou da elaboração das regras que organizaram o mundo digital no país e acompanhou a gestação do Marco Civil da Internet, aprovado em 2014.
Durante anos, no caderno Pensar do jornal Estado de Minas, e desde 2019 no Valor Econômico, em parceria com o economista Francisco Gaetani, da Fundação Getulio Vargas, ele traz esses temas para o grande público, frequentemente se valendo de trechos das obras de seus autores preferidos, como o argentino Jorge Luis Borges (1899-1986), o alemão Thomas Mann (1875-1955) e os mineiros João Guimarães Rosa (1908-1967) e Carlos Drummond de Andrade (1902-1987).
Revista Pesquisa FAPESP - Edição 319 - set. 2022
Nenhum comentário:
Postar um comentário