terça-feira, 11 de outubro de 2011

Não existe sistema inteligente?

Marcelo Pita e Fernando Buarque*

Em ciência, como em várias outras atividades humanas, algumas polêmicas surgem em torno de tópicos específicos, muitas vezes pela importância e densidade de conceitos que encerram, ou ainda por sua polissemia. No começo de agosto passado foi veiculado no Jornal da Ciência (JC-email 4313, de 02 de agosto de 2011) um artigo intitulado "Não existe sistema inteligente", publicado originalmente no jornal Estado de Minas no final de Julho. Esse texto apresenta uma série de argumentos que defendem a visão de que não há (nem haverá) sistemas de computação que poderiam ser rotulados de inteligentes.
Não obstante a correta crítica ao exagero de uso do termo "inteligente" nos dias de hoje, a visão e os argumentos apresentados parecem ter se fixado em apenas uma parte da extensão do tópico "inteligência", não ter considerado apropriadamente uma multitude de pesquisadores e pesquisas existentes e, eventualmente, não ter aprofundado suficientemente o debate em seus aspectos filosófico e técnico. Não fosse a possibilidade, certamente não intencional, de alguma desqualificação de pesquisas em Ciência Cognitiva e da Computação que tratam de inteligência artificial com seriedade, o presente artigo seria desnecessário. Esperamos, portanto, trazer algumas visões e informações que ampliem este tão interessante debate.

Inteligência -
 A palavra "inteligência" representa um desses conceitos sobrecarregados usados para referenciar um grande conjunto de capacidades que permeiam a cognição humana. Para complicar, conceitos com similar potencial de gerar confusões semânticas, como pensamento, razão, entendimento, evolução, consciência, vida, dentre outros, são facilmente incorporados em tentativas informais, e até mesmo formais, de definir a inteligência. Contudo, um dos poucos pontos em comum entre a maioria das tentativas é a certeza de que a inteligência se expressa, em seres humanos e mesmo em outros animais, por meio de habilidades cognitivas fundamentadas no aprendizado. A questão aqui posta é se podemos construir sistemas que possuam inteligência.
Se aceitarmos axiomaticamente que a inteligência também se instrumentaliza via aprendizado, podemos então, à la Turing, substituir a questão "é possível construir sistemas inteligentes?" por "é possível construir sistemas que aprendem?".
Mas o que é aprender? Objetivamente, é a capacidade que seres possuem de se auto-organizar dinamicamente a fim de maximizar seu sucesso em um ambiente. Por exemplo, quando estamos começando a aprender xadrez não fazemos movimentos muito espertos, mas por meio da experiência de acertar e errar repetidamente, nosso cérebro aprende a produzir movimentos que maximizem os acertos. Esse exemplo foi oferecido justamente também para que a própria noção de sucesso seja posta em perspectiva. Ou seja, aproveitamos para arguir que sucesso não precisa necessariamente estar ligado diretamente à sobrevivência. Neste caso, o cérebro é a estrutura na qual ocorre o aprendizado. Continuando o raciocínio, citamos agora outras estruturas naturais que possuem factualmente a capacidade de aprender: sistemas imunológicos, colônias de formigas e porque não, a própria evolução como propôs Darwin. Claro que nos dois últimos exemplos, a noção de aprendizado é mais ampla pois não mais está individualizada.
Nesta rápida análise acerca da inteligência, é muito importante destacar três constatações: (i) uma visão antropocêntrica é completamente desnecessária, ou se usada é limitante; (ii) a inteligência, enquanto expressa por meio de habilidades cognitivas fundamentadas no aprendizado, não deve ser confundida com outros fenômenos cognitivos propriamente; (iii) a individualização da inteligência também é limitante do conceito, já que coletivamente pode haver aprendizado.
De fato, a inteligência não é exclusividade de seres humanos, nem o modo humano de se comportar inteligentemente é o único. Não se deve, portanto, julgar a inteligência de um sistema apenas pela sua capacidade de imitar ações humanas ou muito menos de usar a linguagem humana como referencial. Quanto ao segundo ponto, note-se que outros fenômenos, como a consciência, também podem emergir a partir de estruturas de aprendizado como o cérebro, podendo até influenciar reflexivamente em muitas habilidades cognitivas, mas mesmo assim, isso não as torna pré-requisitos para a inteligência. Portanto, um sistema pode, facilmente, ser inteligente sem ser consciente. O terceiro ponto reforça tacitamente o primeiro, já que ignorar aprendizado coletivo seria negar a inteligência envolvida no processo de evolução natural (e também negar a poderosa sinergia que emerge da interação de seres simples, como abelhas).
Então um entendimento mais universal (não antropocêntrico) da inteligência, que a coloque como (mais) um dos fenômenos emergentes possíveis de estruturas capazes de aprender, é de suma importância para avançarmos com mais largura no próximo questionamento desta análise: é possível construir estruturas de aprendizado?

Inteligência Artificial -
O termo Inteligência Artificial (IA) foi cunhado por John McCarthy em 1956, que definiu IA como "a ciência e engenharia de fazer máquinas inteligentes". Mas o interessante é que pelo menos uma década antes do surgimento desse termo já havia importantes trabalhos na área, a maioria em modelos conexionistas conhecidos hoje por redes neurais artificiais. Conexionismo, como proposto, é uma forma de pensar sistemas nos quais a inteligência emerge de estruturas de aprendizado representadas por redes compostas de unidades de processamento simples. A inspiração dos conexionistas foi/é o cérebro, que nada mais é que uma rede imensa, dinâmica auto-organizável de células nervosas altamente especializadas (mas simples) - os neurônios, que por sua vez se conectam a milhares de outros resultando num processamento amplamente paralelo e não linear.
Um segundo movimento se desenvolveu quase que em paralelo ao conexionismo, iniciado por Herbert Simon e Allen Newell, com seus provadores automáticos de teoremas. Os trabalhos de Simon e Newell trouxeram para a IA sistemas baseados em aprendizado simbólico usando linguagens lógicas fortemente inspiradas nos mecanismos de inferência humana. Neste caso, as estruturas de aprendizado representam conceitos que possuem conexão direta com o mundo real (diferentemente da representação altamente distribuída dos modelos conexionistas). Além disso, há importantes diferenças de processamento; nos sistemas simbólicos, novos conhecimentos são incorporados (ou aprendidos) em grande parte por novas percepções (fatos) e inferências lógicas dedutivas (e não pelas induções dos sistemas conexionistas).
É razoável afirmar que por um longo tempo houve confrontos ideológicos entre modelos conexionistas e simbólicos, mas atualmente a visão dominante é integrativa, como em sistemas híbridos; por exemplo, nós humanos podemos manipular símbolos mas nossa representação de conhecimento é completamente distribuída. E nesse processo de amadurecimento, a área de IA evoluiu bastante e incorporou muitos novos modelos e abordagens com diferentes estruturas de aprendizado. Isso possibilitou a representação e resolução de vários tipos de problemas que exigem habilidades cognitivas não triviais, tais como classificação, busca, processamento de linguagem natural, etc. Mas, importante, em qualquer um desses casos, não há o que se discutir: a inteligência dos sistemas não é um produto de programação explícita de regras. Ela emerge de estruturas de aprendizado artificiais. Pensar que a inteligência é fruto direto da programação é retroceder ao pensamento talvez de Ada (Lovelace) nos primórdios da Computação, como bem refuta Turing em seu artigo para a revista Mind na década de 50 (ver a seguir).
A busca por um modelo geral de inteligência que incorpore todos os outros e eventualmente permita que sistemas se igualem ou excedam as habilidades cognitivas humanas ficou conhecida como IA forte. O que se convencionou chamar de IA fraca, por outro lado, consiste no uso de sistemas inteligentes em problemas (muitas vezes extremamente complexos) que envolvam a necessidade de aprendizado mas que não necessariamente incorporem aspectos de consciência, ética, crenças, desejos e intencionalidade.
O argumento mais inocente contra a IA é afirmar que sistemas inteligentes só são assim possíveis porque seus programadores (que são inteligentes) codificaram regras que criam a aparência de comportamento inteligente. Quando Arthur Samuel desenvolveu no final da década de 50 um programa jogador de xadrez que aprendia com vitórias e derrotas, e que havia se tornado melhor que próprio Samuel nesta atividade, ele não codificou no sistema todos os truques que fazem um bom jogador de xadrez, o que seria impossível. Ao invés de tentar programar todas as regras e jogadas do xadrez, Arthur Samuel deu um passo à frente criando uma estrutura de aprendizado artificial que permitiu ao programa se tornar cada vez melhor através de milhares de tentativas com erros e acertos. Samuel define o aprendizado de máquinas como "o campo de estudo que dá a computadores a habilidade de aprender sem serem explicitamente programados". Sistemas verdadeiramente inteligentes não são explicitamente programados.
Outro tipo comum de crítica à IA, tão inocente quanto creditar a inteligência do sistema ao programador, é questionar se um sistema inteligente pode revelar Inteligência quando se compõe apenas de programas (imutáveis) de computador, um sistema operacional e hardware que não são inteligentes individualmente. Ora, esse argumento nega as evidências de existência da evolução e da inteligência (humana) como fenômeno emergente. Encontramos uma grande quantidade de fenômenos emergentes inteligentes na natureza, a começar pelo próprio homem. Estruturas de aprendizado naturais estão apoiadas sobre uma infraestrutura química/biológica que não são necessariamente, de longe, inteligentes.

O teste de inteligência de Turing -

Os ecléticos trabalhos de Alan Turing, considerado por muitos como o pai da Ciência da Computação e da Inteligência Artificial, no fundo foram motivados pela possibilidade de construção de máquinas inteligentes. Um de seus artigos mais famosos, Computer Machinery and Intelligence, publicado na revista Mind, trata especificamente disto. No artigo ele propõe um teste de inteligência, conhecido como teste de Turing, que trata da questão "máquinas podem pensar?" ("Can machines think?"). O interessante é que Turing escreveu esse trabalho há 60 anos para instruir seus concidadãos dessa possibilidade.
De forma genial, Turing propõe um jogo de imitação e afirma que se um computador puder estabelecer um diálogo aberto e justo com um humano de forma natural, sem o ser humano ter a convicção de que se trata de outro humano ou de um computador, o sistema terá passado no teste (de "ser inteligente"). O teste de Turing reduz a avaliação de inteligência de sistemas artificiais à sua capacidade de imitar um dos mais interessantes produtos cognitivos humanos: a linguagem escrita.
Não obstante sua importância, o teste de Turing representa apenas um primeiro ensaio em torno das questões da IA e se máquinas podem pensar. Embora a habilidade humana de dialogar seja uma obra prima da nossa inteligência, ela não é a única evidência de inteligência em um sistema. O ponto aqui é que nem todo tipo de inteligência computacional envolve produção de resultados que são representados em linguagem humana. Afirmar que somente o que é veiculado em linguagem humana é inteligente é o mesmo que afirmar que gênios da matemática não são inteligentes porque usam abstrações em formalismo matemático, muitos deles absolutamente não representáveis de outro modo. De forma mais simplista, seria equivalente também a afirmar que cães, gatos, chimpanzés e golfinhos jamais poderiam ser rotulados de inteligentes.

Sistemas inteligentes artificiais -
A maioria de nós usa sistemas inteligentes artificiais todos os dias, eventualmente, sem nunca ter se dado conta. Por exemplo, quando fazemos uma busca no Google ou usamos seu recurso de autocompletar, estamos fazendo uso de um sistema inteligente. Quando o Facebook detecta faces em fotografias publicadas por usuários ou sua máquina fotográfica digital detecta sorrisos, um sistema inteligente está trabalhando muito para nós. Quando mandamos uma carta para um amigo e esta carta é automaticamente separada com base no endereço de destino, um sistema inteligente é que faz o reconhecimento de caracteres manuscritos. Quando a Amazon ou outra loja na internet faz boas recomendações de produtos com base no seu perfil, também de forma discreta existe um sistema inteligente responsável por aprender as preferências e as refinar com o tempo.
Enfim, atualmente a quantidade de programas que foram preparados para aprender, e portanto melhorarem com o tempo, inseridos em aplicações usuais é enorme. Em nenhum desses sistemas um programador ensinou as tarefas ao computador, pelo contrário, o programador usa o seu tempo e inteligência para criar condições nas quais as informações disponíveis sejam utilizadas e combinadas com outras eventualmente preexistentes para que o desempenho do sistema aumente de forma automática; a isso podemos sem traumas referenciar como capacidade de aprender e, portanto, ser inteligente. Nós humanos funcionamos de forma análoga; por isso todos - inclusive os sistemas artificiais preparados para assim funcionar, podem tranquilamente ser referidos como inteligentes. Claro que os frequentemente anunciados "prédios inteligentes" ou "brinquedos inteligentes" são abusos do conceito, já que muitas vezes o prédio é referido como inteligente apenas por conter cabeamento estruturado para dados e os brinquedos por se moverem ao cumprirem scripts (à la Ada).
Hoje muitos sistemas manipulam conceitos, estabelecem conexões entre eles, inferem novos, reveem alguns, podem estar cientes de contextos, e muito mais. E dado o crescente interesse em aplicações de computação social e para a Web semântica (aquela que além da atual vai ter alguma "consciência" do contexto/temática), sistemas inteligentes se tornarão cada vez mais comuns e poderosos. Ainda bem, pois livrará a inteligência do homem (essa tão peculiar) para outros aspectos mais agradáveis de nossa experiência humana (que nenhum computador vai poder experimentar)!

Reflexões complementares -

John Searle
Concluímos este artigo destacando que qualquer conotação às aplicações atuais em inteligência artificial como algo simples deve urgentemente ser repensada - pois não há nada simples em muitas das construções teóricas e aplicações correntes dessa área. E se críticas necessitarem ser tecidas, sugerimos que argumentos contrários tenham uma profundidade filosófica aceitável, como por exemplo as de John Searle (conhecido por sua "Sala Chinesa").
Aliás, há uma década tivemos (Fernando) o privilégio de, num mesmo mês, assistir o embate de ideias de Searle e Daniel Dennett, exatamente sobre o tema desse artigo. Lá, debateu-se assuntos certamente mais importantes que saber se os estádios brasileiros vão ficar prontos para a Copa de 2014: "the ghost in the machine", epifenomenologia, solipsismo, livre-arbítrio, cibernética e muitos outros.
De qualquer forma, estamos convencidos de que, além de toda a aplicabilidade da IA na indústria, críticas mais profundas à área devem vir e certamente a fortalecerão epistemologicamente. Por isso mesmo é que não há nenhuma grande Universidade no mundo hoje que não possua laboratórios bem produtivos, dedicados para pesquisas em IA desde os seus aspectos teóricos-filosóficos até suas aplicações práticas. No que diz respeito à indústria, o conhecimento em "aprendizado de máquinas" ficou no topo da lista publicada pela Computerworld em seu artigo "12 IT skills that employers can't say no".
Ficamos felizes ao podermos brevemente ampliar um pouco mais este fascinante debate que não é novo e certamente vai perdurar por algum tempo. Por fim, gostaríamos de sugerir outros debates análogos a este no sentido de fortalecer a ciência brasileira; precisamos romper com a prática da "filosofia de fim de semana". Certamente, esta parte de um problema maior: a formação conteudista que teima em não nos deixar. Essa que faz com que muitos egressos (e mesmo presentes) das universidades brasileiras não se importam em aprofundar seus conhecimentos, suas áreas de pesquisa ou mesmo suas práticas profissionais, apenas porque a transferência de conteúdo já aconteceu ou parece estar acontecendo bem. O que obviamente não é de longe verdade, infelizmente.

Explicando -Do Blog:

Sala Chinesa
 
Um homem que não sabe chinês é posto em uma sala. Pedaços de papel com tracinhos são passados por baixo da porta. O homem tem uma longa lista de instruções complicadas, do tipo "Sempre que você vir [risco, risco, risco], escreva [rabisco, rabisco, rabisco]". Algumas das regras mandam-no passar seus próprios rabiscos de volta por baixo da porta.
Ele adquire prática em seguir as instruções. Sem que ele saiba, os riscos e rabiscos são caracteres chineses, e as instruções são um programa de inteligência artificial para responder a questões sobre histórias em chinês. Pelo que pode julgar a pessoa que está do outro lado da porta, existe um falante nativo do chinês naquela sala.
Ora, se entender consiste em rodar um programa de computador adequado, aquele sujeito deve entender chinês, pois está rodando um programa assim. Mas o sujeito não entende chinês, nem uma palavra; ele está apenas manipulando símbolos. Portanto, o entendimento - e, por extensão, qualquer aspecto da inteligência - não é o mesmo que manipulação de símbolos ou computação.
Sala Chinesa, de John Searle, foi extraído do livro "Como a Mente Funciona", de Steven Pinker, Ed. Cia. das Letras

---------------------------------------
*Marcelo Pita é mestre em Engenharia de Computação, Pesquisador do CIRG/UPE e Analista do Serpro. Fernando Buarque é doutor em Inteligência Artificial (Imperial College London), pesquisador do CNPq e professorda Escola Politécnica da Universidade de Pernambuco.
Imagem da Internet

Nenhum comentário:

Postar um comentário