Artigo de Paolo Benanti
31 Março 2023
Se a máquina vale em sentido econômico, o ser humano tem um valor que não é mensurável nem em valores numéricos de dados nem em valores econômicos em uma balança.
O comentário é de Paolo Benanti, frei franciscano da Terceira Ordem Regular, professor da Pontifícia Universidade Gregoriana, de Roma, e acadêmico da Pontifícia Academia para a Vida. Em português, é autor de “Oráculos: entre ética e governança dos algoritmos” (Unisinos, 2020).
O artigo foi publicado por Avvenire, 30-03-2023. A tradução é de Moisés Sbardelotto.
Eis o texto.
O mundo das inteligências artificiais (IA) está em agitação. Na semana passada, a OpenAi, líder nesse setor, revelou à humanidade inteira a sua mais recente criação: GPT-4. Um produto com uma sigla incompreensível, mas que, em pouquíssimo tempo, encheu as colunas dos jornais e as páginas dos blogs.
Os resultados obtidos na OpenAi são, sem dúvida, surpreendentes. Se lermos o documento técnico que foi publicado no momento do lançamento, veremos capacidades inimagináveis. O GPT-4 pode partir de uma pergunta textual associada a uma imagem, mostra que sabe reconhecer o que está na imagem e unir os diversos elementos em um quadro de sentido: resolver um problema matemático ou responder ao que há de estranho em uma foto.
O GPT-4 aceita solicitações que consistem tanto em imagens quanto em texto, o que – paralelamente à configuração somente de texto – permite ao usuário especificar qualquer tarefa de visão ou de linguagem.
Em particular, o modelo gera outputs de texto com dados de input constituídos por texto e imagens entrelaçados arbitrariamente. Em uma série de domínios – incluindo documentos com texto e fotografias, diagramas ou capturas de tela – o GPT-4 mostra capacidades semelhantes aos dos inputs somente de texto.
Temos um modelo que, figurativamente, une “audição”, no sentido de que ele ouve o nosso pedido escrito, e “visão”, mostrando uma “percepção artificial” de uma imagem. O mais surpreendente é que o GPT-4 pode fazer coisas que os pesquisadores não esperavam que ele soubesse fazer.
Ainda no documento citado lemos:
“Muitas vezes surgem novas capacidades nos modelos mais poderosos. Alguns deles são particularmente interessantes: a capacidade de criar e agir em planos de longo prazo, de acumular poder e recursos (‘busca de poder’) e de exibir um comportamento que é cada vez mais ‘agêntico’ [agentic]. Nesse contexto, ‘agêntico’ não se refere à humanização dos modelos de linguagem ou à senciência, mas sim a sistemas caracterizados pela capacidade, por exemplo, de alcançar objetivos que podem não ter sido concretamente especificados e que não apareceram no treinamento, pelo foco em alcançar objetivos específicos e quantificáveis, e por fazer planos de longo prazo”.
Se olharmos para a fonte citada nas notas ao texto, lemos, sem meias palavras: “Usamos o termo ‘agência’ para sublinhar o fato cada vez mais evidente de que os sistemas de ML [machine learning] não estão completamente sob o controle humano”.
Portanto, os pesquisadores se dão conta de que o próprio modo como treinaram o sistema – não apenas utilizando dados, mas também premiando algumas respostas e punindo outras mediante interação com humanos e o uso de modelos de recompensa baseados em regras – transmite ao modelo dois elementos: a capacidade de adotar estratégias de longo prazo e a busca de poder e recursos em sua interação com o input.
Os engenheiros que desenvolveram o GPT-4 nos dizem que o sistema poderia ter seu próprio “plano interno e poderia agir para adquirir os recursos e os modos para alcançá-lo”.
Tudo isso não porque ele seja uma espécie de gênio do mal, mas provavelmente porque, na aprendizagem por reforço, os treinadores, ao “premiarem” ou “punirem” o GPT-4 emitem juízos, e estes nunca são construídos apenas sobre uma coisa em si mesma, mas sobre uma coisa em mérito a um fim.
Intuitivamente, podemos pensar que o sistema incorpora esses “microfragmentos” de finalidade das avaliações no processo de reforço, fazendo emergir uma finalidade global de uma maneira análoga àquela com que faz emergir informações a partir dos dados.
Se é isso que sabemos sobre o GPT-4, o Google, com seu PaLM – um sistema do mesmo tipo –, parece ter alcançado resultados ainda mais poderosos e surpreendentes, a ponto de atrasar seu lançamento público por medo dos efeitos.
Mas quanto vale tudo isso? De um ponto de vista comercial, muitíssimo. A Microsoft, depois de adquirir as licenças do sistema, está lançando uma série de produtos nos quais o GPT-4 ajudará o usuário a fazer suas tarefas. Ele chama esses sistemas de Copilot.
Devemos nos acostumar com a ideia de uma transformação abrangente do trabalho, em que teremos um copiloto que nos orienta e nos auxilia em todos os âmbitos da vida? Para além dos problemas sociais, a pergunta que surge, então, é quanto vale o ser humano nesta nova época caracterizada pelas inteligências artificiais.
Essa pergunta foi respondida nos últimos dias pelo Papa Francisco, que, ao falar aos participantes dos Minerva Dialogues – uma mesa de debate na qual estão presentes muitos atores de primeiro plano desse mundo – disse:
“O conceito de dignidade humana – este é o centro – nos impõe que reconheçamos e respeitemos o fato de que o valor fundamental de uma pessoa não pode ser medido por um conjunto de dados. [...] Não podemos permitir que os algoritmos limitem ou condicionem o respeito pela dignidade humana, nem que excluam a compaixão, a misericórdia, o perdão e, sobretudo, a abertura à esperança de uma mudança da pessoa.”
Se a máquina vale em sentido econômico, o ser humano tem um valor que não é mensurável nem em valores numéricos de dados nem em valores econômicos em uma balança.
A dignidade humana, no centro da algorética, pergunta-nos quais relações e qual sociedade queremos.
Fonte:
Nenhum comentário:
Postar um comentário