Leia ou releia a entrevista a Luís Moniz Pereira, Especialista em Inteligência Artificial
Luís
Moniz Pereira, 70 anos, professor catedrático aposentado, há uma
década, da Faculdade de Ciência e Tecnologia da Universidade Nova de
Lisboa, dedica-se agora a tempo inteiro à Inteligência Artificial (IA),
como investigador no Laboratório de Ciência Computacional e Informática.
Neste tempo, consolidou ideias sobre a forma de introduzir conceitos
morais e éticos nas máquinas, de modo a prevenir os riscos associados à
sua crescente autonomia e que já hoje as habilita, por exemplo, a
disparar sem ordem humana. É esse o tema que levará ao Festival de
Filosofia de Abrantes, que decorre entre 9 e 18 de novembro.
Em que medida a Inteligência Artificial está a tomar conta das nossas vidas?
Na
verdade, a Inteligência Artificial ainda não chegou. Ou chegou apenas
uma pequena amostra. A maior parte do que hoje se chama com
espetacularidade Inteligência Artificial é aquilo que, em Ciências da
Computação, os cientistas mais rigorosos apelidam de Data Science.
Essencialmente, é uma tecnologia que reconhece padrões ou imagens. O
tradutor do Google ou a Siri, que traduzem frases completas, não
percebem absolutamente nada. Limitam-se a recorrer a uma enorme base de
dados para encontrarem frases muito parecidas. Isso não deixa de ser
útil, mas a IA é muito mais do que isso – significa um todo que envolve
imaginar, argumentar, provar teoremas matemáticos, e tudo continua
ausente. Portanto, a IA ainda vai tomar conta das nossas vidas de
maneiras muito mais sofisticadas.
As máquinas vão pensar?
Claro.
Digamos que são mais um utensílio que os humanos vão ter, como em
tempos tiveram o arco e a flecha. O desafio é pôr o pensamento fora do
cérebro, transpor para outro hardware todas as nossas capacidades
cognitivas, criatividade incluída. Da mesma forma que os biólogos
pensaram em criar vida num laboratório, outros cientistas pensam em
colocar inteligência noutro suporte. Não será num tubo de ensaio,
certamente.
Desta amostra de IA, como lhe chama, o que mais o surpreendeu?
Surpreendeu-me
muito o Watson, a máquina da IBM que ganhou o concurso [televisivo de
cultura geral] Jeopardy. O jogo exige muito conhecimento e algum
raciocínio. Houve ali uma combinação de tecnologias e de saberes
desenvolvidos pela IA para tornar aquilo possível. Já não é só um
programazinho para uma coisa muito específica.
Se faz raciocínios já não é só uma máquina que analisa padrões e imagens.
Justamente.
Os robôs autónomos são outra forma da IA que me surpreendeu. Já não é o
robô que faz sempre o mesmo, começa a ter autonomia. São os drones, os
carros sem condutor, os robôs que vão à mercearia pela rua fora e fazem a
entrega das compras. A simbiose homem-máquina vai ser o futuro e,
certamente, as máquinas vão tornar-se mais humanas. A autonomia
obriga-as a conviver connosco e, para se inserirem na sociedade, vão
precisar de regras sociais e morais. Até mesmo na convivência entre
elas. Imaginemos uma equipa de robôs a fazer a segurança num centro
comercial. Eles terão de se coordenar na reação a um roubo, um incêndio,
um ataque, seja o que for.
Esse cenário pressupõe que não exista um humano a supervisionar?
As
máquinas podem estar em Marte, no fundo do mar, numa missão de
salvamento no topo de uma montanha ou a lidar com uma tragédia qualquer,
um terramoto, um tsunâmi... Cada vez haverá mais robôs com esse grau de
iniciativa e que não podem estar à espera das instruções de um humano,
além de que a máquina que está no terreno tem muito mais informação do
que o humano que está longe. É o que já acontece com os drones
autónomos, que são capazes de identificar caras e têm autonomia para
atacar. Ainda não a usam, ou é-lhes negado que a usem, mas a tecnologia
existe e pode começar a ser utilizada de um momento para o outro, até
porque o inimigo também a tem.
As grandes potências estão numa corrida para terem o melhor desse tipo de armamento?
Temos
o exemplo do projeto da Google com o Departamento de Defesa dos Estados
Unidos da América, que contribui com o seu know how de gestão de
imagens para a identificação de caras. Os drones conseguem reconhecer
pessoas no meio de uma manifestação, coisa que também já se faz na
China. Não se trata de um clima de guerra, mas as autoridades têm uma
espécie de ficha em que vão pondo as coisas boas e más das pessoas e em
que lhes atribuem pontos que determinam a rapidez do acesso à saúde, ao
emprego, a uma casa, etc. Sabem quem contactou com fulanos suspeitos,
quem encomendou alguma coisa pela internet, quem andou a ler artigos
sobre o fabrico de explosivos – é uma espécie de controlo social através
de ferramentas de IA.
Foi um dos 56 cientistas e
académicos que apelaram, em abril, ao boicote a uma universidade
sul-coreana, devido ao envolvimento num projeto para desenvolver robôs
de guerra autónomos. Há um risco demasiado elevado de haver um engano
nos algoritmos ou até de serem criados algoritmos com as piores
intenções?
Ainda não há técnicas de informática que
certifiquem as propriedades morais das máquinas. Estamos muito atrasados
na criação de um software de segurança, com padrões internacionais, que
também as protejam, por exemplo, de ataques de hackers. E enquanto uma
bomba atómica exige tecnologia muito complicada, já os drones estão ao
alcance de todos. Hão de aparecer robôs para roubar e matar, ou um drone
que entra por uma janela com um explosivo sem ninguém saber quem o
enviou. É muito difícil ter a certeza de que as máquinas não fazem nada
de errado, e aí entramos no campo da moral.
Tem sido esse o centro das suas investigações. Porque diz que estamos muito atrasados na introdução de uma moral nas máquinas?
Sabemos
pouco sobre a nossa moral, e as teorias não se entendem quanto a esta
questão. Temos várias religiões no mundo e, entre os seus pares, são
todos muitos bonzinhos, mas com os outros já não o são. Porque a moral
evoluiu para se criar coesão dentro de determinado grupo, e a Humanidade
encontra-se nesta encruzilhada em que ainda não foi capaz de se ver
como um único grupo, à escala planetária.
Não existindo
uma moral universal, como se poderão minimizar as divergências para
impor alguma ordem na autonomia crescente dos robôs?
Não
podemos esperar que eles tenham logo uma moral completa que se aplique a
todos os casos. Podemos criar uma base moral, com um conjunto de regras
gerais, e depois o informático configura o programa de acordo com as
regras morais específicas de cada cultura. E também tem de haver a
possibilidade de o robô ir revendo a sua moral à medida que as situações
se desenrolam. Mas estamos longe de poder produzir esse software, além
de também nos encontrarmos atrasados a nível legal. Imagine-se um
acidente entre dois carros sem condutor. Quem é o culpado? É o carro? É o
Estado? É o fabricante? É o proprietário? Os especialistas de Direito,
como não percebem nada de máquinas, estão à espera para ver o que
acontece.
Ao nível da introdução de conceitos morais nas máquinas, falamos de um futuro a que distância?
Vai
depender do investimento que se faça, mas serão umas boas dezenas de
anos, e é por isso digo que estamos atrasados. The Future of Life
Institute, que reuniu grandes nomes da ciência e tecnologia, como o Elon
Musk e o já falecido Stephen Hawking, é uma instituição privada sem
fins lucrativos que levanta o problema da segurança na corrida à IA, por
analogia à corrida às armas nucleares. Este ano, escolheu dez projetos
para apoiar, entre 200 candidatos, e o meu é um deles. O objetivo é
precisamente criar mecanismos que levem as empresas de IA a
desenvolverem software que promova a segurança das máquinas.
Qual o ponto de partida para se concretizar um objetivo desses?
Há
várias maneiras, por exemplo com incentivos ou penalizações, conforme o
grau de colaboração com outras empresas do setor. Cada interveniente
quer ser o primeiro a ter determinado produto para ganhar mais dinheiro,
mas deixa de receber informação partilhada da concorrência se descurar a
segurança, por exemplo. Ou fica sem acesso ao fundo de financiamento
para o qual todos contribuíram no início. O projeto passa por mostrar
que, definindo-se certas regras de jogo, com diferentes consequências,
quanto mais longe se estiver disposto a ir na cooperação com os outros,
mais recompensas se terá.
Alinha com a tese de que as máquinas nos vão roubar empregos e criar maior desigualdade social entre pobres e ricos?
É
inevitável. O próprio trilho da nossa espécie diz-nos que há sempre uns
que beneficiam mais do que outros. E com a amplificação tecnológica, os
ricos são cada vez mais ricos e os pobres cada vez mais pobres.
Acredito que vamos evoluir para uma sociedade de castas, no sentido em
que teremos acima de todos os donos dos robôs, depois os administradores
das máquinas, a seguir os seus executivos e, por fim, os explorados.
Para uns criarem riqueza vão ter de explorar outros. Isso vai gerar
revoltas, e os robôs serão usados para proteger as castas mais elevadas e
dominar a população.
Como nos filmes de ficção científica?
Nós
já estamos bastante robotizados nas nossas vidas de consumo permanente.
As crianças estão tão habituadas ao smartphone que nem sabem lidar com
as outras. As pessoas são transformadas em meros objetos de consumo e
serão ainda mais mal pagas. Como o software vai ser cada vez mais
cognitivo, as máquinas e os robôs vão substituindo os humanos com uma
perversidade que é como se estivéssemos a marcar golo na própria baliza.
Há centenas de milhares de pessoas a ganhar dinheiro no ensino das
máquinas. Estão a trabalhar para ficarem sem emprego.
Já não vamos a tempo de virar o jogo a nosso favor?
Vamos
caminhar para uma “uberização” de todas as profissões. Está um
arquiteto numa “uber” de arquitetos e recebe uma chamada a solicitar os
seus serviços durante três horas, para verificar se uma planta está
conforme os regulamentos. “Está livre?” “Sim, estou, vou a caminho.” Vai
ser assim.
Olha o futuro com preocupação?
É
uma questão ideológica. A Humanidade cria instrumentos que permitem
aproveitar recursos da Natureza. Pergunta-se: quem beneficia com isso?
Porque há de ser o grande beneficiado o presidente da empresa tal, que a
criou com vários contributos da sociedade envolvente, a começar nas
universidades? Como a sociedade está cada vez mais globalizada, deve ser
o todo a beneficiar da riqueza que produz. Tem de haver uma
distribuição muito maior, mas o que se vê é que o hiato está a aumentar e
não a diminuir. Em vez de ser posta ao serviço de todos, a IA vai
agravar esse problema de uma maneira muito aguda. A máquina é mais
barata do que o humano para executar as mesmas tarefas. Cada vez mais,
as pessoas vão viver num limiar de sobrevivência e a consumir coisas que
não lhes interessam para nada. Seremos como aquelas quintas de galinhas
e porcos em que os animais vivem todos ao molho, só a produzir riqueza
para outros.
É um cenário catastrófico.
Por
isso é que ninguém fala dele. É completamente tabu. Tenho 70 anos e a
mim este cenário já não me vai afetar, mas acho que não está muito
distante.
É para o século XXI?
É certamente para o século XXI.
-----------------Foto de Diana Tinoco
Fonte: http://visao.sapo.pt/atualidade/entrevistas-visao/2018-11-18-A-maquina-e-mais-barata-do-que-o-Homem-para-executar-as-mesmas-tarefas.-As-pessoas-vao-viver-num-limiar-de-sobrevivencia
Nenhum comentário:
Postar um comentário