Por Patrícia Campos Mello São Paulo
O autor israelense Yuval Harari, em Beverly Hills, na Califórnia, em setembro de 2018
-
Emily Berl/10.set.18/The New York Times
Em entrevista à Folha sobre seu novo livro que aborda o assunto,
autor de 'Sapiens' defende que ferramenta seja regulada como carros e
remédios
O israelense Yuval Noah Harari, um dos autores mais populares da atualidade, alerta para um futuro aterrador em seu novo livro, "Nexus: Uma Breve História das Redes de Informação, da Idade da Pedra à inteligência artificial", cujo lançamento mundial ocorre nesta terça-feira (3).
Segundo ele, a humanidade está pisando no acelerador do desenvolvimento da inteligência artificial, mas não sabe como freá-la.
"A IA é a tecnologia mais poderosa já criada pela humanidade, porque é a primeira que pode tomar decisões: uma bomba atômica não pode decidir quem atacar, nem pode inventar novas bombas ou novas estratégias militares. Uma IA, ao contrário, pode decidir sozinha atacar um alvo específico e pode inventar novas bombas", diz à Folha o historiador, que vendeu 45 milhões de exemplares com "Sapiens", "Homo Deus" e "21 Lições para o Século 21".
Para Harari, o primeiro passo é concordar que "precisamos regular a IA da mesma forma que regulamos produtos, medicamentos e carros". Leia a seguir a entrevista, feita por email.
Por que o sr. decidiu escrever um livro sobre tecnologia e inteligência artificial?
Este não é um livro apenas sobre IA. Ele explora a história das redes de
informação desde a Idade da Pedra. A ideia é ter uma perspectiva
histórica sobre a revolução da IA estudando o impacto das revoluções de informação anteriores.
Por exemplo, como a invenção do livro levou à Bíblia e ao cristianismo.
Como a invenção da imprensa levou a uma onda de teorias da conspiração,
caça às bruxas e guerras religiosas na Europa do século 16. E como os
soviéticos usaram a tecnologia da informação moderna para criar sua
polícia secreta.
O objetivo é entender a interação entre tecnologia e seres humanos.
Especialistas em IA acham difícil entender como uma nova tecnologia
influenciará a religião, a cultura e a política. Especialistas em
computação tendem a ter visões ingênuas sobre a história.
Em um ensaio de junho de 2023,
o bilionário Marc Andreessen disse que a inteligência artificial não
destruirá o mundo; na verdade, pode salvá-lo. Faz sentido?
Andreessen está certo ao dizer que a IA pode melhorar muito nossas
vidas. Ela pode criar o melhor sistema de saúde da história e ajudar a
prevenir o colapso ecológico. Mas não devemos ignorar suas ameaças.
É a tecnologia mais poderosa já criada pela humanidade porque é a
primeira que pode tomar decisões. Uma bomba atômica não pode decidir
quem atacar nem pode inventar novas bombas ou estratégias militares. Uma
IA, ao contrário, pode decidir sozinha atacar um alvo específico e pode
inventar novas bombas, estratégias e até novas IAs.
A coisa mais importante a saber sobre a IA é que ela não é uma
ferramenta em nossas mãos —é um agente autônomo, fazendo coisas que não
esperávamos. O que acontecerá conosco quando milhões de agentes não
humanos começarem a tomar decisões sobre nós e a criar coisas novas —de
novos medicamentos a novas armas, de novos textos religiosos a novos
tipos de dinheiro?
No livro, o sr. menciona várias vezes o ex-presidente Jair Bolsonaro como exemplo de líder populista que usou a informação como arma. Por que lhe pareceu importante incluí-lo?
Muitos livros sobre a revolução da IA focam demais os Estados Unidos
e ignoram o resto do mundo. Mas alguns dos piores efeitos da IA podem
ser sentidos em lugares como o Brasil antes dos EUA. Vimos isso
anteriormente na história, por exemplo, com a Revolução Industrial.
O senhor fala sobre o perigo de a IA, sem mecanismos de
autocorreção, ser usada por líderes autoritários. Qual seria o cenário
no Brasil, com um líder autoritário governando com a ajuda da IA?
Um grande perigo é a criação de regimes de vigilância total.
Ao longo da história, ditadores quiseram monitorar toda a população 24
horas por dia para garantir que todos estavam obedecendo às suas ordens e
ninguém estava resistindo ou mantendo opiniões dissidentes. No entanto,
até agora os ditadores não conseguiam fazer isso.
Primeiro, faltavam espiões suficientes. Por exemplo, a ditadura militar
no Brasil nos anos 1970 não conseguia seguir 100 milhões de cidadãos
brasileiros 24 horas por dia. Isso teria exigido 200 milhões de agentes
da polícia secreta (porque até mesmo os agentes do DOI-Codi precisavam
dormir às vezes).
Em segundo lugar, a ditadura não tinha analistas suficientes. Se
todos os dias os espiões coletassem informações sobre 100 milhões de
brasileiros, de onde o regime poderia obter analistas suficientes para
processar todas essas informações?
Com a IA, um futuro ditador não precisaria de milhões de agentes
humanos para espionar todo mundo. Smartphones, computadores, câmeras,
microfones e drones poderiam fazer isso. Nem precisaria de milhões de
analistas humanos. A IA poderia processar a enorme quantidade de
informações e punir qualquer dissidência.
Isso já está acontecendo em algumas partes do mundo. No Irã, por exemplo, existem leis rígidas que obrigam as mulheres a usarem o hijab
sempre que saem de casa. Anteriormente, era difícil fazer cumprir essas
leis. Mas o regime iraniano agora usa IA. Mesmo que uma mulher dirija
seu próprio carro sem hijab, as câmeras de reconhecimento facial
identificam esse crime.
Quais são os mecanismos de autocorreção essenciais para garantir que a IA seja segura?
Precisamos criar instituições que possam identificar rapidamente
problemas e reagir a eles. Serão novas instituições regulatórias que
atrairão alguns dos maiores talentos e serão financiadas por um imposto
sobre os lucros dos gigantes de tecnologia.
Criar apenas uma instituição regulatória será perigoso, porque ela
terá poder demais. Precisamos aderir ao princípio democrático da divisão
de poder.
Há entusiastas da IA que nos dizem que não precisamos dessas
instituições no momento. Regulamentações retardariam o desenvolvimento e
talvez dessem vantagem a competidores em outros países. Eles dizem que,
no futuro, se descobrirmos que a IA é perigosa, podemos focar nossos
esforços na segurança. Mas isso é insano.
Quando você aprende a dirigir um carro, a primeira coisa que ensinam é
como brecar. Só depois de saber como usar os freios é que ensinam como
apertar o acelerador. Isso também se aplica à IA.
Quanto ao argumento de que investir em segurança daria vantagem a
competidores —isso é um absurdo. Se seus concorrentes desenvolverem um
carro sem freios, isso significa que você também deve desenvolver um
carro tão perigoso?
RAIO-X | Yuval Noah Harari, 48
Nascido em Israel, é professor na Universidade Hebraica em Jerusalém e
pesquisador na Universidade de Cambridge. Formado em história militar e
medieval na Universidade Hebraica, tem doutorado pela Universidade de
Oxford. Autor dos best-sellers mundiais "Sapiens - Uma Breve História da Humanidade", "Homo Deus - Uma Breve História do Amanhã" e "21 Lições para o Século 21", traduzidos para 65 idiomas.
Nenhum comentário:
Postar um comentário