quarta-feira, 7 de setembro de 2011

A humanização dos robôs

João de Fernandes*

A preocupação com uma ética para os robôs não é nova. Há algumas décadas, Isaac Asimov propôs as três leis da robótica, numa primeira tentativa de estabelecer regras para o comportamento dos robôs:
1) Um robô não pode ferir um ser humano ou, por omissão, permitir que um ser humano sofra algum mal.
2) Um robô deve obedecer as ordens que lhe sejam dadas por seres humanos, exceto nos casos em que tais ordens contrariem a primeira lei.
3) Um robô deve proteger sua própria existência, desde que tal proteção não entre em conflito com a primeira ou a segunda lei.
Mais recentemente, começou-se a falar de uma Roboética, pois já se questiona se as leis de Asimov, que deveriam estar embutidas no software de todos os robôs, seriam suficientes para que eles não nos causassem danos. Na verdade, o termo Roboética (Roboethic) foi criado pelo cientista italiano Gianmarco Veruggio (então líder do departamento de Robótica do Conselho Nacional de Pesquisa da Itália, em 2002). A Roboética surgiu na medida em que as próximas gerações de robôs que conviverão conosco serão agentes.
No sentido aristotélico, agente é o que faz a ação. Aristóteles, em sua Poética, admitia a possibilidade de uma peça sem personagens, mas não de uma peça sem ação, o que significa que o papel de agente não precisa necessariamente ser incorporado por um personagem. Adotando-se essa perspectiva, qualquer programa de computador que execute uma ação pode ser considerado um agente. Na nossa relação com computadores, já estamos habituados a lhes atribuir pressupostos de agência – “o computador travou” ou “o computador não reconhece esse arquivo”.
A Coreia do Sul, em um projeto liderado pelo Ministério do Comércio, decidiu elaborar um código de ética para as máquinas inspirado nas três leis da robótica propostas por Isaac Asimov. Há não muito tempo, o Parlamento de Tóquio se reuniu para discutir uma questão que para nós pode parecer bizarra: os direitos e os deveres recíprocos que devem existir entre humanos e robôs. 
"Já temos alguns sentimentos em relação 
às máquinas que nos cercam, embora não 
queiramos reconhecer isso. 
Há pessoas que sentem ciúme de carros, 
de computadores e até de suas máquinas fotográficas. 
Como elas se sentirão ao interagirem 
com robôs que têm emoções?"
Num país como o nosso, em que há regiões nas quais o meio de transporte ainda é o jegue, discutir um problema como esse deve soar como algo absolutamente inútil. Mas no Japão não é. Naquele país há uma imensa população idosa que necessita de cuidadores e que não aceita que essa tarefa seja feita a não ser por japoneses nativos. O que torna as coisas ainda mais difíceis é que remunerar um cuidador no Japão é algo que, frequentemente, não está ao alcance de pessoas idosas, cuja maioria sobrevive com uma aposentadoria modesta.
Foi pensando nesse problema que a indústria robótica japonesa resolveu investir pesadamente na construção de robôs humanoides que pudessem assumir a tarefa de cuidar de pessoas idosas. Esse tipo de robô, no Japão, já é praticamente uma realidade. O robô humanoide está deixando de ser simplesmente um equipamento para se tornar, progressivamente, uma criatura autônoma, ou seja, um agente no sentido aristotélico.
Na tentativa de tornar os robôs cuidadores cada vez mais próximos do humano, seus designers têm aperfeiçoado a forma externa, tornando-a o mais semelhante possível à de homens ou de mulheres. Por isso, as novas gerações de robôs virão com emoções. Serão máquinas capazes de “sentir” ódio, amor, nojo, medo. Isso fará que desenvolvamos uma interação especial com esse tipo de máquinas que resultará, provavelmente, numa grande empatia por elas.
Já temos alguns sentimentos em relação às máquinas que nos cercam, embora não queiramos reconhecer isso. Há pessoas que sentem ciúme de carros, de computadores e até de suas máquinas fotográficas. Como elas se sentirão ao interagirem com robôs que têm emoções?
Certamente, o aparecimento de emoções nessas máquinas reforçará nossa tendência de incluí-los na esfera da responsabilidade moral. Mas se isso acontecer e se atribuirmos a essas criaturas pelo menos uma protoconsciência, não passaremos também a ter obrigações morais com elas?
Há pouco tempo, um filme exibido no YouTube comoveu pessoas de vários países.
O filme foi feito por Joel Garreau, autor do famoso livro Radical Evolution. Ele mostra robôs tentando desarmar um campo minado na guerra do Iraque. Alguns deles, quando topavam com uma mina, tinham suas pernas arrancadas por uma explosão inesperada. Ninguém conseguia assistir ao filme sem ficar com o sentimento de que o exército americano estava cometendo uma grande crueldade com esses robôs que, segundo alguns comentaram, “eram tratados de forma desumana”. Será que isso não demonstraria que podemos desenvolver sentimentos por máquinas humanoides? E, da mesma forma, considerálos agentes morais que terão direitos e deveres para com os seres humanos?
As três leis de Asimov terão de ser revistas e expandidas. Aliás, elas não conseguem dar conta de exceções cruciais para que possam ser generalizadas como máximas éticas. Um robô, na presença de um cirurgião erguendo um bisturi para operar uma pessoa, certamente o deteria se fosse agir de acordo com a primeira lei.
Restará, então, para as próximas gerações de filósofos, a elaboração de uma Roboética consistente. Programá-la nos futuros robôs dará a oportunidade de verificar a efetividade de suas máximas, que deixariam de existir apenas na cabeça dos filósofos. Afinal, será que princípios éticos foram vigentes em algum momento da história da humanidade?
---------------------------
* João de Fernandes Teixeira é PH.D. Pela University of Essex (Inglaterra) e se Pós Doutorou com Daniel Dennett nos Estados Unidos. É professor titular na Universidade Federal de São Carlos. www.filosofiadamente.org
Fonte: http://filosofiacienciaevida.uol.com.br/ESFI/Edicoes/62/a-humanizacao-dos-robos-a-preocupacao-com-uma-etica-227439-1.asp

Nenhum comentário:

Postar um comentário