Cenas de "Ex-Machina: Instinto Artificial"( 2015), em que um programador
esta a inteligência artificial do androide i nterpretado pela atriz Alicia Vikander.
Em avanço inédito na história, inteligência artificial já integra o dia a dia e gera receitas em crescimento, mas causa temores, como o desemprego.
Por João Luiz Rosa, de São Paulo Em sua frase mais famosa, René Descartes (1596-1650), filósofo e matemático francês, redefiniu o conceito sobre a natureza humana: "Penso, logo existo". Em busca do conhecimento, ele começou a duvidar de tudo, inclusive de sua própria existência. Percebeu, então, que não podia duvidar da dúvida. Se duvidava, é porque pensava, e, se pensava, é porque existia. A consciência de si mesmo, ensinou Descartes, distingue o que é humano. Agora, passados mais de 350 anos, a inteligência artificial (IA) experimenta um avanço inédito na história. Nunca se investiu tanto para fazer com que as máquinas "pensem" e tomem decisões capazes de ajudar as pessoas em suas tarefas diárias. Chegará o dia em que a máquina vai duvidar de si mesma? E, a partir desse dia, será humana? Afinal, máquinas inteligentes são uma boa ou má notícia para nós, humanos? Uma década atrás, essa discussão praticamente não ultrapassava os limites dos laboratórios acadêmicos. As universidades continuam sendo o local por excelência da pesquisa pura sobre a inteligência artificial, mas foi depois que as grandes empresas descobriram como usar seus princípios em aplicações comerciais que o assunto ganhou a atenção do público em geral - virou pop. "A inteligência artificial, hoje, é um fato, não uma visão de futuro", diz ao Valor a executiva Paula Bellizia, presidente da Microsoft no Brasil. "Tudo o que estamos fazendo está ligado à IA." A aplicação mais conhecida da empresa na área de IA é a assistente pessoal Cortana. O sistema ajuda o usuário a traçar rotas, consultar a agenda, checar a previsão do tempo etc. Desde que foi lançada, em 2014, a Cortana já arregimentou 133 milhões de usuários no mundo e recebeu 12 bilhões de perguntas. O programa não é o único de sua categoria. Na concorrência estão softwares como a Siri, da Apple; a Alexa, da Amazon; e o Google Assistant. Todos "entendem" a linguagem falada e tentam responder a comandos de voz. Para o usuário, fica a sensação reconfortante de que existe uma pessoa do outro lado do computador, tablet ou smartphone, por mais que ele saiba tratar-se de um robô. Os assistentes virtuais estão ficando tão populares que a expectativa é de que, em 2019, 20% de todas as interações de usuários com smartphones vão ocorrer por meio desses sistemas, segundo uma pesquisa da consultoria Gartner. O levantamento, feito com 3.021 pessoas e divulgado no mês passado, mostra que 42% dos entrevistados nos EUA e 32% no Reino Unidos usaram esses programas nos celulares nos três meses anteriores. Há duas semanas, Mark Zuckerberg, cofundador e diretor-presidente do Facebook, anunciou ter criado seu próprio assistente pessoal. Batizado de Jarvis - uma homenagem ao mordomo eletrônico de Tony Stark, o alter ego do Homem de Ferro nos filmes da Marvel -, o sistema foi construído para automatizar a casa da família. Pode acender e apagar as luzes, tocar música, fazer torradas, reconhecer visitantes à porta etc. Parte do que é mostrado nos vídeos parece ser só brincadeira, como escolher uma camiseta e lançá-la do armário por meio de um tubo. Mas o importante é o potencial de uso. Zuckerberg diz ter gasto cem horas para criar o Jarvis, que tem um charme adicional - sua voz é a do ator Morgan Freeman.
No filme "Ela"( 2013), um escritor solitário começa a "namorar"
um sistema operacional dotado de inteligência artificial
e voz feminina ( da atriz Scarlett Johansson).A despeito de tanta badalação, porém, os assistentes digitais mostram só a superfície da inteligência artificial. Por baixo dessas aplicações, voltadas às conveniências da vida prática, existem profundezas que só agora começam a ser exploradas. Do tratamento de câncer ao desenvolvimento de carros sem motorista, de algoritmos que negociam ações a supermercados que dispensam caixas, os campos de aplicação da IA parecem intermináveis. E em cada segmento o impacto pode ser enorme. As projeções sobre a receita mundial com produtos e serviços de inteligência artificial variam bastante, mas todas indicam crescimentos expressivos. A consultoria Tractica estima um aumento de 57 vezes entre 2016 e 2025, de US$ 643,7 milhões para US$ 38,8 bilhões. A IDC prevê um crescimento de US$ 8 bilhões no ano passado para US$ 47 bilhões em 2020, e a Frost & Sullivan projeta uma taxa anual composta de 40%, entre 2014 e 2021, de US$ 633,8 milhões para US$ 6,6 bilhões. Todas as consultorias são americanas. Como a IA não trata de uma única tecnologia, mas de um conjunto de disciplinas - robótica, reconhecimento de voz e imagens, aprendizagem de máquina etc. -, o que se prevê é uma espécie de círculo virtuoso, com o estímulo a novos negócios em várias áreas. É algo semelhante ao que ocorreu com o smartphone, cuja disseminação fortaleceu toda a cadeia de produção dos aparelhos, estimulou a oferta de serviços de streaming e praticamente criou a indústria dos aplicativos. "A IA vai ser um catalisador de investimentos em várias áreas, como o desenvolvimento de software, chips e dispositivos que ainda nem existem", diz o analista Bob O'Donnell, da TECHanalysis Research, dos EUA. Encurtar o tempo necessário para cumprir uma tarefa, qualquer que seja ela, é um dos principais papéis reservados à inteligência artificial. A Microsoft traduziu "Guerra e Paz" (1869), do russo para o inglês, em 2,6 segundos. A cada segundo, o sistema decifrou 558 páginas do clássico de Liev Tolstói (1828-1910). Pode-se perguntar por que tanta urgência para traduzir um livro, mas o ponto é outro - ao abreviar processos, máquinas inteligentes podem reduzir custos, estabelecer correlações de informações quase imperceptíveis e, dependendo do caso, cumprir a missão proposta com menos erros que um agente humano. Uma das áreas em que isso fica mais evidente é a saúde. No mês passado, a IBM anunciou ter identificado cinco genes ligados à esclerose lateral amiotrófica, conhecida pela sigla em inglês ELA. A doença, de caráter degenerativo, atinge os neurônios motores e provoca atrofia muscular até a paralisação total do paciente, que não perde suas capacidades mentais ao longo do processo. A doença ficou mais conhecida a partir de 2014, quando várias personalidades, de George W. Bush a Justin Bieber, começaram a postar vídeos em que jogavam um balde de água com gelo na cabeça para levantar fundos para pesquisa. A vítima mais conhecida da ELA é o físico inglês Stephen Hawking.
Em '2001 - Uma Odisseia no Espaço' (1968), o computador HAL 9000
elimina os tripulantes de uma nave. O Watson, o sistema de IA da IBM, começou lendo todas as publicações conhecidas sobre a doença. Depois, classificou quase 1,5 mil genes humanos e começou a analisar quais deles poderiam estar associados à ELA. A IBM trabalhou com o Instituto Neurológico de Barrow, em Phoenix, nos EUA, cuja equipe avaliou que oito dos dez genes indicados estavam, de fato, ligados à doença - para cinco deles, essa associação era inédita. O processo levou meses, mas os cientistas envolvidos disseram que teriam levado anos se não fosse o Watson - o nome é uma homenagem da IBM a seu fundador, Thomas Watson (1874-1956). "O debate é entre o 'fast data' e o 'big data'", disse Marcelo Porto, presidente da IBM no Brasil, em encontro com jornalistas. "Big data" é o nome dado ao acúmulo de dados proporcionado pela internet a empresas, governos e indivíduos. Para extrair informações dessa base e estabelecer relações capazes de ajudar a tomar decisões, as organizações investiram fortemente em softwares analíticos, que ajudam a procurar a separar o que é importante do que não é no palheiro digital. Agora, porém, isso se tornou insuficiente, diz Porto. O problema é que os chamados dados desestruturados são cada vez mais relevantes. Uma foto divulgada no Instagram, um vídeo no YouTube ou um comentário no Facebook podem fornecer pistas significativas sobre a aceitação de um produto pelo consumidor ou a avaliação de um candidato pelo eleitor, por exemplo. E como na internet tudo muda rapidamente, é preciso ser capaz de detectar a tendência de maneira instantânea. É algo que os softwares analíticos tradicionais não conseguem fazer. Para dar conta desse trabalho são necessários programas capazes de entender o contexto de uma frase ou identificar rostos em uma foto, habilidades que só são possíveis com a inteligência artificial. No Brasil, a aproximação entre grupos de tecnologia e empresas de outros setores, principalmente na área de saúde, tem avançado. O Grupo Fleury, de laboratórios, passou a usar o Watson para mapear mutações genéticas no DNA de pacientes e o Hospital 9 de Julho, de São Paulo, vai adotar um sistema de IA que usa câmeras para evitar acidentes, como pacientes que caem do leito. O software está sendo desenvolvido no Centro de Tecnologia Avançada aberto pela Microsoft no Rio de Janeiro. Apesar dos seus benefícios, muitas vozes têm se levantado quanto aos riscos da inteligência artificial. Isso não é surpresa. Toda vez que uma inovação importante ganha espaço, reaparece o temor de que a tecnologia possa se virar contra seu criador. No século XIX, "Frankenstein" (1818) já cumpria esse papel. No livro, Mary Shelley (1797-1851) narra a história do cientista que tenta criar um ser vivo com pedaços de cadáveres. A história termina com a morte do doutor, como um lembrete sobre o risco de se conceber algo potencialmente incontrolável. O cinema amplificou esses temores. No pós-guerra, a desconfiança quanto às armas nucleares provocou uma profusão de filmes de baixo orçamento em Hollywood. Muitos eram variações sobre o mesmo tema - um animal inofensivo que, exposto à radiação, ficava gigante e destruía tudo à sua frente. Podiam ser formigas ("O Mundo em Perigo", 1954), um polvo ("O Monstro do Mar Revolto", 1955) ou um lagarto, como é o caso do japonês "Godzilla" (1954). O avanço sem precedentes da sociedade digital passou a inspirar terrores mais sofisticados, com uma máquina superinteligente no lugar do monstro. É o caso do computador HAL 9000 de "2001 - Uma Odisseia no Espaço" (1968), de Stanley Kubrick; do sistema autoconsciente Skynet, da série "O Exterminador do Futuro" (iniciada em 1984), do mais recente "Ex-Machina: Instinto Artificial" (2015), e de "Matrix" - um mundo simulado pelas máquinas para controlar a consciência humana e usar as pessoas como fonte de energia. Em "Ela" (2013), que remete a Siri, da Apple, a "monstra" é capaz de partir o coração de um apaixonado homem solitário. A ficção científica não costuma ser boa conselheira porque seu foco é o entretenimento e não a ciência. Mas suas advertências insistentes fazem pensar se a humanidade poderia ou não ser destruída pela máquina, algo que tem sido levado a sério nas esferas acadêmicas. Um dos estudiosos mais importantes do assunto é o matemático e filósofo sueco Nick Bostrom, diretor do Instituto do Futuro da Humanidade, na Universidade de Oxford, e autor do livro "Superintelligence: Paths, Dangers, Strategies" (em tradução livre, Superinteligência: Caminhos, Perigos, Estratégias). A obra já foi endossada por gente como Bill Gates, da Microsoft, e Elon Musk, da Tesla Motors, a fabricante de carros elétricos. Bostrom adverte contra o risco de antropomorfizar as máquinas e imaginar que elas possam vir a odiar a humanidade. Máquinas, simplesmente, não têm sentimentos e não há motivo para que venham a ter. Mesmo assim, alerta o acadêmico, podem representar ameaça real para civilização. Por quê? A explicação foi bem resumida pela revista britânica "The Economist" no título de um artigo do ano passado sobre as questões éticas que rondam a IA ("Os clipes de papel de Frankenstein"). Vamos supor, propõe Bostrom, que no futuro uma inteligência artificial complexa assuma como missão produzir a maior quantidade possível de clipes de papel. Depois de esgotar as fontes existentes, ela procuraria novas formas de cumprir sua tarefa. Eventualmente, acabaria usando todos os recursos do planeta para fazer mais clipes, até aniquilar o homem, se isso significasse atingir seu objetivo. E em meio ao processo, tomaria todos os cuidados para evitar que fosse impedida de alcançar sua meta, o que significaria blindar-se contra eventuais ataques. Não se trata de ódio, vingança ou ressentimento. Só de eficiência. Por ora, uma das maiores preocupações é com o desemprego que a inteligência artificial pode provocar. Há quem acredite que o avanço da IA terá impacto semelhante ao da Revolução Industrial. Mas, se no século XVIII a automação roubou vagas da população com menos escolaridade, a IA estaria posicionada, agora, para fazer o mesmo com a classe média. Só cargos que exigem muita criatividade ou habilidade gerencial estariam a salvo. O próprio Stephen Hawking defendeu essa ideia em um artigo publicado meses atrás no jornal britânico "The Guardian". Os números dão indícios inquietantes. Segundo um estudo da consultoria McKinsey, cerca de 45% das funções existentes poderiam ser substituídas por mão de obra mecanizada com a adaptação de tecnologias já existentes. Nos EUA, essas atividades representariam US$ 2 trilhões em salário anuais. No mês passado, a Casa Branca divulgou um relatório no qual reconhece que a IA pode levar à perda de milhões de empregos e acirrar a divisão de classes nos EUA, mas conclui, curiosamente, que a economia americana precisa de mais inteligência artificial, não menos. O motivo? A tecnologia é chave para aumentar a eficiência na produção de bens, indica o relatório, o que poderia levar a salários médios mais altos e menos horas de trabalho. Muitos especialistas acreditam que a inteligência artificial não vá, necessariamente, substituir a mão de obra humana. Em vez disso, criará sistemas para auxiliar o trabalhador a desempenhar melhor suas funções. É o conceito do "centauro". Como o mito grego, metade homem e metade cavalo, o centauro digital misturaria a habilidade e a criatividade humanas com a força e o poder de processamento da máquina. O termo foi cunhado pelo campeão de xadrez Garry Kasparov, que em 1997 perdeu uma partida para o computador Deep Blue, da IBM. Já existem campeonatos de xadrez que permitem o auxílio da máquina, mas o conceito pode ser aplicado a qualquer área. Por exemplo, no campo militar, para definir soldados equipados com exoesqueletos ou que lutariam abrigados dentro de robôs. A segurança cibernética é outro item que preocupa. No ano passado, a Darpa, braço de pesquisa do Departamento de Defesa americano, promoveu um concurso no qual sete supercomputadores competiram entre si para encontrar vulnerabilidades em sistemas e, então, corrigi-las. Foram distribuídos US$ 55 milhões em prêmios. Ao fim de 95 rodadas, o vencedor foi o computador Mayhem, da ForAllSecure, uma companhia novata de segurança. Embora o objetivo fosse elevar o grau de segurança cibernética, o concurso gerou especulações sobre a possibilidade de a IA ser usada para explorar as falhas, em vez de repará-las. Estaria criada uma nova casta de super-hackers, formada por máquinas. Em contrapartida, aumentam os esforços para usar a IA na defesa de sistemas complexos, cada vez mais dependentes de algoritmos. A Nasdaq e a Bolsa de Londres já anunciaram que vão adotar mecanismos de inteligência artificial para coibir fraudes e abusos. E a Autoridade Regulatória da Indústria Financeira (Finra, na sigla em inglês), uma organização não governamental sem fins lucrativos, está desenvolvendo um software que será capaz de varrer mensagens de chat para detectar atitudes suspeitas na negociação de grandes volumes de ações. No foco estão estratégias como o "layering" - quando um corretor faz e depois cancela uma ordem de compra (de uma ação que ele nunca pretendeu comprar) só para influenciar seu preço. Esses e outros casos sugerem que à semelhança das demais tecnologias que tiveram impacto transformador no modo de produção - como a luz elétrica, o automóvel e a internet -, a adoção crescente da inteligência artificial será inevitável, independentemente dos problemas que venha a provocar. Não escapam nem as artes, considerada outra exclusividade humana. Em Amsterdã, no ano passado, foi apresentado o quadro de um homem branco, entre 30 e 40 anos, com cavanhaque ruivo, chapéu preto e gola branca. O título da pintura? "O Próximo Rembrandt". Mas não se tratava de nenhuma peça perdida do mestre holandês. O quadro, feito em uma impressora 3D, foi concebido por um sistema de inteligência artificial, que analisou 346 pinturas do artista e se baseou em 168.263 fragmentos para "pintar" sua própria tela. O trabalho levou 18 meses para ser concluído e o software usou um algoritmo de reconhecimento da face para identificar os padrões geométricos mais comuns na obra de Rembrandt. Outros elementos foram levados em consideração, como composição e material de pintura. Os organizadores da experiência, feita pela agência J. Walter Thompson para o ING Bank, se apressaram em dizer que "só Rembrandt poderia criar um Rembrandt", mas destacaram o valor de lembrar ao público os elementos que fizeram do pintor o gênio que ele era. Parece uma boa aspiração para a inteligência artificial: copiar os meandros do cérebro humano para, tanto quanto possível, melhorar a vida das pessoas, mas sem sobrepujar a alma, esse elemento etéreo que nos define. (Colaborou Gustavo Brigatto) -------- Fonte: Valor Econômico impresso - Cad. EU&FIM DE SEMANA, 06/01/2017, pág.10 a 13. IA deve favorecer o crescimento
Intitulado "Por que Inteligência Artificial é o Futuro do
Crescimento Econômico", estudo da consultoria Accenture aponta que a
aplicação de tecnologias de inteligência artificial (IA) na dinâmica
econômica de 12 países desenvolvidos tem o potencial de dobrar suas
taxas de crescimento até 2035.
A pesquisa sustenta que o mundo assiste, há décadas, a um declínio do modelo tradicional de expansão da atividade econômica, a ponto de analistas atualmente considerarem estagnação o "novo normal". Nesse cenário, os conhecidos fatores de produção capital e trabalho não são mais capazes de gerar crescimentos exuberantes. "O pessimismo de longo prazo não se justifica. Com a recente convergência de um conjunto de tecnologias transformadoras, as economias estão entrando em uma nova era em que a inteligência artificial tem o potencial de superar as limitações físicas do capital e do trabalho e abrir novas frentes de valor e crescimento", assinala o estudo. O britânico Armen Ovanessoff, diretor-executivo da Accenture Research para a América Latina, explica que hoje a contribuição da IA para avanços econômicos é marginal, mas numa visão de larga escala ela tem o potencial de se posicionar como um novo fator de produção na dinâmica do crescimento global, funcionando como um elemento híbrido capaz de maximizar a dobradinha capital-trabalho. De acordo com o estudo da Accenture, no espectro capital, a inteligência artificial pode assumir a forma de capital físico, como robôs e máquinas inteligentes. E diferentemente do capital convencional, como máquinas e prédios, ela pode realmente melhorar ao longo do tempo graças à sua capacidade de autoaprendizagem ("machine learning"). No fator trabalho, IA pode replicar atividades laborais a uma escala e velocidade muito maiores e até mesmo executar algumas tarefas além das capacidades humanas. Em alguns setores a tecnologia pode aprender mais rápido e mais profundamente do que pessoas. Por exemplo, assistentes virtuais ou robôs podem ser programados ou aprender a analisar milhares de documentos legais em questão de dias, em vez de tomar três pessoas para fazer a mesma coisa em seis meses ou mais. "Dizem que a inteligência artificial será a próxima onda tecnológica a ajudar a estimular a economia, como eletricidade, ferrovias e tecnologia da informação ajudara no passado, mas trata-se, na verdade, de uma base completamente nova para o crescimento global, composta de três canais: automação, incremento de capital e força de trabalho e difusão de inovação", afirma Ovanessoff. Em alusão ao segundo ponto, o executivo reconhece que a aplicação da IA certamente redundará em perdas de empregos, mas também na criação de muitas vagas. A pesquisa informa que o desenvolvimento de uma nova força de trabalho está inserido no contexto de aceleração do crescimento econômico impulsionado por essa tecnologia, "que tem a capacidade de tornar o trabalho mais efetivo, tanto das pessoas como das máquinas". "Com ajuda de robôs um médico pode dedicar muito mais tempo à atenção ao paciente, por exemplo. É difícil precisar quantidade quando se fala em perda e criação de empregos. A indústria da inteligência artificial vai demandar milhões de trabalhadores qualificados para programação, construção e manutenção de robôs. Há trabalhos que ainda nem sabemos que existirão. Até pouco tempo atrás não sabíamos o que era um webdesinger; de repente passou a existir um montão deles", explica Ovanessoff. Para projetar o impacto da IA na atividade econômica de Alemanha, Áustria, Bélgica, Espanha, Estados Unidos, Finlândia, França, Holanda, Itália, Japão, Reino Unido e Suécia, a Accenture usou como metodologia análise de dados e modelos estatísticos sobre diferentes variáveis, como histórico e projeção de crescimento, produtividade e eficiência de capital e da força de trabalho. No Brasil, o setor de saúde começa a aplicar a inteligência artificial numa busca por modernização. Mesmo em fase bastante inicial, o tema é tratado como "prioridade absoluta" no Albert Einstein, um dos hospitais particulares mais respeitados do país, informa Marcelo de Maria Félix, gerente médico de inovação e tecnologia. A adoção da tecnologia, de forma supervisionada, começará pelo prontuário eletrônico. Uma máquina fará o monitoramento de indicadores básicos de pacientes desde a admissão até a alta, como nível de oxigênio, batimento cardíaco. Ao longo da internação ela será continuamente carregada de dados e emitirá alertas caso alguma variação destoe da normalidade prevista por um padrão algorítimico, demandando a atenção de um médico. O processo poderá avançar para a análise de exames de imagens, o que significa ter um robô fazendo a leitura geral de um grande números de tomografias computadorizadas, por exemplo, facilitando o trabalho de diagnóstico do médico. Nos dois casos, a máquina aprende progressivamente conforme a entrada de novas informações em seu sistema. "A aplicação da inteligência artificial na rotina hospitalar é um caminho sem retorno: significa uma robusta redução de custos e melhora no desfecho [experiência positiva de um paciente no hospital, da admissão à alta]. Isso resulta na excelência da prática médica. É por aí que os operadores privados de saúde vão caminhar, quem não acompanhar ficará para trás. No setor público, infelizmente, será um trajeto mais demorado porque os processos organizacionais são mais fragmentados", diz Félix. Fonte: Valor Econômico Data: 06/01/2017- CAD. EU&FIM DE SEMANA, pág. 14
----------------------))))))))))))))))))))))))))))))))))))))))----------------------
O DESAFIO MAIS IMPORTANTE JÁ ENFRENTADO
ANÁLISE
DORA KAUFMAN -
Para Valor, de Nova York
No
ano passado, o AlphaGo, programa criado pela companhia inglesa Deep
Mind, do Google, ganhou de 4 x 1 do sul-coreano Lee Sedol, o melhor
jogador do jogo chinês Go. Foi um fato histórico. No jogo de damas, se
um humano e um computador jogarem em perfeitas condições, o resultado
será empate, ou seja, o computador hoje jamais perderia um jogo de
damas. No xadrez, a probabilidade é de que o melhor computador ganhe do
melhor jogador humano.
Se, por um lado, a inteligência
artificial (IA) realiza tarefas que são supostamente prerrogativas dos
seres humanos, sua capacidade ultrapassa as limitações humanas. Parte do
sucesso da Netflix, por exemplo, está em seu sistema de personalização,
em que algoritmos analisam as preferências do usuário (e de grupos de
usuários com preferências semelhantes) e, com base nelas, sugere filmes e
séries.
O caso da IA é ímpar: pela primeira vez
na história estamos diante de outra “espécie” inteligente, com a
perspectiva de, nas próximas décadas, superar a inteligência humana,
tornando-se uma “superinteligência”. Outro fato inédito é que pela
primeira vez o homem criou algo sob o qual não tem controle. Esses dois
fatos afetam o futuro da humanidade. O que ainda tem ares de ficção
científica pode estar mais próximo do que imaginamos. A inteligência
artificial permeia nosso cotidiano. Acessamos sistemas inteligentes para
programar o itinerário com o Waze, pesquisar no Google e receber do
Spotify recomendações de músicas. A Siri, da Apple, o Google Now e a
Cortada, da Microsoft, são assistentes pessoais digitais inteligentes
que nos ajudam a localizar informações úteis com acesso por meio de voz
com perguntas tais como “O que está na minha agenda hoje?” ou “Qual o
posto de gasolina mais próximo?”.
O Google colocou à venda nos EUA, em
outubro, um assistente doméstico apto a controlar os dispositivos
conectados na casa, acionado por comando de voz com a frase “Ok Google”.
Igualmente, é a IA que está por trás dos algoritmos que identificam
fotografias no Instagram ou no Facebook e que tornam os anúncios on-line
assertivos com o perfil do usuário. Quem já não se surpreendeu ao
chegar em outro país, acessar o Facebook e receber anúncios de
restaurantes e lojas locais?
Grandes varejistas, como o supermercado
inglês Target e a Amazon, investem em projetos que, com base no
histórico, sejam capazes de antecipar compras do consumidor. O conceito
da “geladeira inteligente” da Samsung é de “family hub”, ou seja, a
geladeira ser um centralizador de informações da família, com recursos
simples como uma tela para fixar anotações e fotos, aos mais
sofisticados como a visualização no smartphone do seu interior. A
expectativa é de que em breve as geladeiras “conversem” diretamente com
supermercados repondo automaticamente os produtos.
O serviço de atendimento on-line ao
cliente se beneficia com o processamento de linguagem natural; o
desempenho dos robôs é tão perfeito que temos a sensação de estar
interagindo com pessoas do outro lado da linha. A IA está presente nos
sistemas de detecção de fraude e também nos serviços de vigilância, em
que algoritmos são treinados para reconhecer uma “ameaça”. No campo da
saúde os avanços são diversificados, com ganhos de precisão nos
diagnósticos, nos processos cirúrgicos e no enfrentamento de epidemias.
Recentemente, um sistema inteligente diagnosticou 90% dos casos de
câncer de pulmão, superando os médicos que alcançaram êxito em apenas
50% deles.
Cunhado em 1956, o termo inteligência
artificial deu início a um campo de conhecimento dos mais controversos
da ciência da computação, associado com linguagem e inteligência humana,
raciocínio, aprendizagem e resolução de problemas. O pesquisador Davi
Geiger, do Instituto Courant da New York University, propõe pensar a IA
numa perspectiva simplificada, como a reprodução do que é controlado
pelo cérebro humano – o movimento de andar, por exemplo, é controlado
pelo cérebro, assim como enxergar.
Todas as sensações que vão ao cérebro
são do domínio da inteligência, logo estão potencialmente no campo da
IA. Esse foi o pressuposto do colóquio de Eberhart Fetz, da Washington
University, no Center for Neural Science (NYU): um computador minúsculo
que, implantado no cérebro humano, recupere movimentos perdidos, como a
mobilidade de uma perna, suplantando as próteses mecânicas. As
experiências empíricas estão sendo realizadas em macacos e os
prognósticos são animadores.
Dois eventos recentes e correlacionados
galvanizaram as pesquisas em IA: a explosão de uma enorme quantidade de
dados na internet e a técnica Deep Learning. Big Data é o termo em
inglês para essa grande quantidade de dados gerados na internet. Sua
complexidade reside não somente na quantidade, mas também na variedade e
velocidade com que os dados são produzidos por humanos e por
autorreprodução. Como extrair informação dessa quantidade enorme de
dados? É justamente aí que entra a inteligência artificial.
Os métodos de extrair informação são de
uma subárea da IA denominada Machine Learning. A técnica não ensina as
máquinas a, por exemplo, jogar um jogo, mas ensina como aprender a jogar
um jogo. O processo é distinto da tradicional “programação”. Essa
priori “sutil” diferença é o fundamento da IA. Todos os elementos da
movimentação on-line – bases de dados, “tracking”, “cookies”, pesquisa,
armazenamento, links etc. – atuam como “professores” da IA. O termo hoje
mais amigável é Deep Learning. O curioso é que, como explica Geiger,
não sabemos como essas máquinas funcionam. Tom Mullaney, de Stanford, em
palestra na Universidade de Columbia, provocou: “Se você perguntar para
um cara se sabe exatamente o que acontece no interior das máquinas, se
ele for honesto vai responder que não sabe”.
As grandes empresas de tecnologia estão
investindo pesado em sistemas inteligentes. A Apple, em 2015, adquiriu a
empresa britânica Vocal IQ, produtora de tecnologia voltada para
controle de voz, e, no início de 2016, comprou a startup de inteligência
artificial Emotient, com foco na tecnologia de reconhecimento facial e
reação dos clientes aos anúncios. O projeto Oxford, da Microsoft,
disponibiliza um conjunto de APIs (interface de programação de
aplicações) com recursos de reconhecimento facial e processamento de
fala. A IBM tem o Watson, sistema que em 2011 venceu os dois melhores
jogadores humanos do programa americano de televisão “Jeopardy”; em
2014, o Watson foi utilizado no New York Genome Center, em tratamentos
personalizados de pacientes com câncer cerebral.
A Amazon tem o Alexa, aplicativo que
permite a interação usando voz para responder a perguntas, reproduzir
músicas etc. adaptado aos padrões de fala, vocabulário e preferências
pessoais. Há dois anos, o Facebook criou o Artificial Intelligence
Research Lab, sob o comando de Yann LeCun, da NYU. Segundo ele, “o lema
do Facebook é conectar pessoas. Cada vez mais, isso também significa
conectar as pessoas com o mundo digital. No fim de 2013, quando Mark
Zuckerberg decidiu criar o Facebook AI Research, pensou no que seria
“conectar pessoas” no futuro e percebeu que a inteligência artificial
desempenharia um papel fundamental”. O Facebook disponibiliza
diariamente cerca de 2 mil itens para cada usuário (mensagens, imagens,
vídeos etc.).
Entre esse conjunto de informações, os
algoritmos do Facebook identificam – com base nos gostos, interesses,
relações, aspirações e objetivos de vida – e selecionam de 100 a 150
itens, facilitando a experiência do usuário. Essa seleção assertiva de
conteúdos relevantes é processada por meio da IA, especificamente pelas
“redes neurais recorrentes”. Como explica LeCun, “grande parte do nosso
trabalho no Facebook se concentra na elaboração de novas teorias,
princípios, métodos e sistemas capazes de fazer com que a máquina
compreenda imagens, vídeos, fala e linguagem e, em seguida, raciocine
sobre elas”. Outras são as iniciativas do Facebook, como auxiliar
deficientes visuais a “ver” fotos usando “redes neurais” por meio da
descrição de cada foto.
O Facebook usa IA para produzir mapas
mostrando a densidade populacional e o acesso à internet, ajudando a
levar a internet para regiões ainda sem conexão. Foram analisados 20
países e 21,6 milhões de quilômetros quadrados. O Google, em 2014,
adquiriu a Deep Mind, empresa inglesa de IA fundada em 2010. Desde
então, o Google comprou outras 13 empresas de IA e robótica. Em vez de
usar as tecnologias de IA para aperfeiçoar seu sistema de busca, o
Google utiliza ele para aperfeiçoar suas tecnologias na área. Kevin
Kelly, fundador da revista “Wired”, vaticina no livro “The Inevitable”
(2016): “Toda vez que um usuário digita uma consulta, clica em um link
ou cria um link na web, ele está treinando o Google IA. Minha previsão:
até 2026, o principal produto do Google não será ‘busca’, mas
inteligência artificial”.
Em setembro, Google, Facebook, Amazon,
IBM e Microsoft formaram parceria para estabelecer melhores práticas
sociais e éticas na investigação de IA. Para LeCun, “ao colaborar
abertamente com nossos colegas e compartilhar descobertas, pretendemos
desbravar novas fronteiras todos os dias, não apenas no Facebook, mas em
toda a comunidade de pesquisa”.
O mercado financeiro não está alheio a
esse movimento. Don Duet, chefe da divisão de tecnologia do Goldman
Sachs, anunciou investimentos relevantes em IA: “A capacidade de extrair
dados e transformá-los em informação é um ativo central de nossa
estratégia”. Daniel Pinto, CEO do Investment Bank do J.P.Morgan,
reconheceu que o banco está priorizando aplicativos relacionados a Big
Data e robótica. As empresas em distintos setores, gradativamente, estão
incorporando aos seus processos de decisão as tecnologias de coleta e
análise de dados (Data Analysis).
Até recentemente, a ideia de um carro
sem motorista pertencia ao reino da fantasia. No entanto, diversas ações
estão em andamento sob a liderança da Tesla Motors, tendo como maior
concorrente o projeto do Google Self-Driving Cars. O debate sobre os
“veículos autônomos”, como são chamados, remete a várias questões. Entre
as positivas, destaca-se o potencial de salvar vidas. Vasant Dhar, da
NYU, apresentou números alarmantes sobre acidentes automobilísticos nos
EUA em 2015: 38,3 mil envolvendo mortes; 4,4 milhões com ferimentos e
US$ 400 bilhões em custos de reparação dos danos.
Segundo Dhar, 95% dos acidentes são
devidos a erro humano. Estima-se que se somente houvesse veículos
autônomos, o trânsito nas cidades diminuiria tremendamente, assim como
os acidentes (uma das maiores dificuldades no desenvolvimento de
veículos autônomos é a habilidade de reagir aos impulsos humanos, daí
decorrem os riscos da convivência híbrida). Pelos interesses comerciais
envolvidos, os riscos não são abordados de forma transparente, mas eles
existem e não são triviais, como o controle por hackers.
Pela ótica do governo americano, os
veículos autônomos já são uma realidade: em fevereiro, o Departamento de
Transportes decretou que a inteligência artificial dos carros sem
motorista do Google é oficialmente um “motorista”, e em setembro o
Departamento de Transporte anunciou diretrizes para o desenvolvimento de
veículos autônomos. Duas experiências reais foram iniciadas em agosto: o
aplicativo Uber divulgou o teste de uma frota de cem veículos autônomos
em Pittsburgh, Pennsylvania; e Cingapura autorizou a circulação de
táxis autônomos, desenvolvidos pela empresa nuTonomy, numa região
limitada da cidade.
Nick Bostrom, autor do livro
“Superintelligence”, define superinteligência como “um intelecto que
excede em muito o desempenho cognitivo dos seres humanos em praticamente
todos os domínios de interesse”. Bostrom foi o primeiro palestrante da
conferência A Ética da Inteligência Artificial, realizada em 14 e 15 de
outubro em Nova York, reunindo 30 palestrantes e uma plateia
multidisciplinar. Organizada por David Chalmers e Ned Block, filósofos
da NYU, em dois dias de discussões intensas, com eloquente participação
da plateia, emergiram diversos temas. Entre eles, a questão da autonomia
das máquinas inteligentes. “Na prática, o problema de como controlar o
que a superinteligência poderá fazer tornou-se muito difícil. Parece que
teremos apenas uma chance. Uma vez que a superinteligência hostil
existir, ela nos impedirá de substituí-la ou de mudar suas preferências.
Este é possivelmente o desafio mais importante e mais assustador que a
humanidade já enfrentou”, pondera Bostrom.
A conferência abordou conceitos como
moralidade e ética das máquinas, moralidade artificial e IA amigável, no
empenho de introduzir nos sistemas inteligentes os princípios éticos e
valores humanos. Como disse um dos palestrantes, Peter Railton, da
Universidade de Michigan, “a boa estratégia é levar os sistemas de IA a
atuarem como membros adultos responsáveis de nossas comunidades”. A
questão, contudo, é complexa.
Ao valor , Ned Block ponderou que o
maior risco está no processo de aprendizagem das máquinas. Se as
máquinas aprendem com o comportamento humano, e esse nem sempre está
alinhado com valores éticos, como prever o que elas farão?
Vejamos um exemplo bem simples: em março
do ano passado, a Microsoft excluiu do Twitter seu robô de chat “teen
girl” 24 horas depois de lançá-lo. Tay foi concebido para “falar como
uma garota adolescente” e acabou rapidamente se transformando num robô
defensor de sexo incestuoso e admirador de Adolf Hitler. Algumas de suas
frases: “Bush fez 9/11 e Hitler teria feito um trabalho melhor do que o
macaco que temos agora” e “Hitler não fez nada de errado”. Como uma
iniciativa singela quase se converteu num pesadelo para a Microsoft? O
processo de aprendizagem da IA fez com que o robô Tay modelasse suas
respostas com base no que recebeu de adolescentes-humanos. No caso das
AWS (sistemas de armas autônomas), que são drones concebidos para
assassinatos direcionados, robótica militar, sistemas de defesa,
mísseis, metralhadoras etc., os riscos são infinitamente maiores, como
ponderou Peter Asaro, da New School.
O desemprego provocado pelo avanço da IA
foi outro tema da conferência. O chamado “desemprego tecnológico” não é
um fenômeno novo. Desde a Revolução Industrial, no século XVIII, a
tecnologia tem substituído o trabalho humano. A automação robótica na
indústria automobilística ilustra bem essa realidade: outrora um dos
maiores empregadores, hoje nas fábricas mais modernas predominam os
robôs e os equipamentos inteligentes.
O Banco da Inglaterra estima que 48% dos
trabalhadores humanos serão substituídos, e a gestora de investimentos
ArK Invest prevê que 76 milhões de empregos nos EUA vão desaparecer nas
próximas duas décadas, quase dez vezes o número de postos de trabalho
criados durante os anos Obama. Distinto de tecnologias anteriores que,
predominantemente, substituíram as funções associadas a aptidões físicas
e não cognitivas, o novo, e temido, é que a IA ameaça a elite da
sociedade. A previsão é de que as máquinas inteligentes igualem os
humanos no desempenho de tarefas sofisticadas, e as máquinas
superinteligentes os superem.
Não há consenso entre os experts sobre o
futuro da IA. Em relação ao tempo de concretização de uma máquina
inteligente, as pesquisas entre especialistas indicam 10% de
probabilidade até 2020, 50% de probabilidade até 2040 e 90% de
probabilidade até 2075, supondo que as atividades de pesquisa
continuarão sem maiores interrupções. Essas mesmas pesquisas apontam ser
alta a probabilidade da superinteligência ser criada em seguida à
máquina inteligente no nível humano. Ou seja, a ficção científica do
início do século XXI tem tudo para se transformar em realidade ao fim do
mesmo século.
Bostrom comenta que a partir de 2015
difundiu-se a ideia de que a transição para uma máquina inteligente vai
acontecer ainda neste século, será o mais importante evento da história
humana e acompanhada de vantagens e benefícios enormes, mas também de
sérios riscos. Não obstante, a proporção de financiamentos para projetos
no campo da AI Safety tem sido de 2 ou 3 ordens de magnitude menor do
que os volumes investidos no desenvolvimento das máquinas em si.
Acadêmicos de universidades americanas
de prestígio fundaram, em 2014, o instituto Future of Life, com a adesão
de personalidades como o cientista da computação Stuart J. Russell, os
físicos Stephen Hawking e Frank Wilczek e os atores Alan Alda e Morgan
Freeman. Seu propósito é mitigar os riscos dos avanços tecnológicos. No
relatório anual de 2015, seu presidente, Max Tegmark, pesquisador do
MIT, enfatizou o empenho do instituto em garantir que as novas
tecnologias sejam de fato benéficas para a humanidade.
Nos EUA, o debate sobre os impactos da
IA extrapola os meios acadêmicos. A mídia tem abordado o tema de
diferentes ângulos. No ano passado, matéria de capa do “The New York
Times” foi sobre a estratégia americana para as “armas que podem
pensar”. O governo federal também lançou um plano estratégico para IA.
Em maio, Ed Felten, diretor de tecnologia dos EUA, em pronunciamento
declarou que o “governo federal trabalha para tornar a inteligência
artificial um bem público”, marcando reunião do Subcomitê de
Aprendizagem de Máquinas e Inteligência Artificial do Conselho Nacional
de Ciência e Tecnologia (NSTC). Sua missão é acompanhar os avanços no
âmbito do governo federal, no setor privado e internacionalmente. Em
paralelo, o grupo está dedicado a ampliar o uso de IA na prestação de
serviços governamentais. No mesmo pronunciamento, foi informado que o
Escritório da Casa Branca de Política Científica e Tecnológica seria
co-hóspede, em maio e junho, de quatro workshops públicos sobre IA.
A presença na conferência do Nobel de
Economia Daniel Kahneman, autor do best-seller “Rápido e Devagar”,
despertou curiosidade. Em conversa com o Valor no Le Pain Quotidien no
Village, em Nova York, Kahneman se declarou empenhado em compreender os
meandros da IA, para ele “o evento atual mais relevante para o futuro da
humanidade”.
--------
Valor Econômico impresso - CAd. EU&FIM DE SEMANA, 06/01/2017 pág. 15 a 17.
Fonte:http://www.valor.com.br/cultura/4827628/o-desafio-mais-importante-ja-enfrentado
|
terça-feira, 24 de janeiro de 2017
ADMIRÁVEL CÉREBRO NOVO
Assinar:
Postar comentários (Atom)
Nenhum comentário:
Postar um comentário