Por Gabriel Valery, RBA.
Cientistas, empresários, historiadores, entre outros pedem pausa de, no mínimo, seis meses para desenvolvedores de Inteligência Artificial
O instituto Future of Life (futuro da vida, em livre tradução) publicou uma carta pedindo uma “pausa” nos experimentos com Inteligência Artificial (IA) no mundo. O documento aponta “profundos riscos para a sociedade e para a humanidade”. Os signatários argumentam que a IA apresenta “uma mudança profunda na história da vida na Terra”. Por isso, defendem maior análise e planejamento sobre os instrumentos. O objetivo é evitar grandes tragédias de escala global graças a essa “corrida desenfreada”. Entre os preocupados está o bilionário polêmico Elon Musk; o que provoca reflexões.
Inicialmente, o documento pede uma trégua de, no mínimo, seis meses para os desenvolvedores. Entre os mais de mil signatários, muitos têm grande relevância no cenário científico e econômico. Nomes como o cofundador e responsável pela parte tecnológica no início da Apple, Steve Wozniak; o historiador Yuval Noah Hariri, autor de best sellers como Sapiens: Uma breve história da humanidade; engenheiros e executivos de empresas como Microsoft; acadêmicos de renome internacional como Yoshua Bengio (Universidade de Berkley, nos EUA); e até mesmo o CEO da Tesla, do Twitter e da SpaceX, Elon Musk.
Fator Musk
Musk é visto por muitos como um vilão digno das histórias de Hollywood. Além de suas empreitadas megalomaníacas que vão de lança-chamas a túneis inócuos para seus carros elétricos, o bilionário chegou a incentivar golpes de Estado em países latinos para garantir a grande demanda de sua empresa por lítio. O metal é matéria-prima para bateria dos carros da Tesla. Então, sua presença neste rol de preocupados com o futuro da humanidade estranha. Contudo, não é a primeira vez que ele mostra “preocupação” com o tema.
O empresário, filho de mineradores de esmeraldas na África do Sul, é grande investidor de empresas como a OpenAI, criadora da IA mais hype do momento, o ChatGPT. Além disso, Musk possui laços, ainda que não explícitos, com liberais de extrema direita nos Estados Unidos. E é abertamente contrário a regulamentações do Estado. Ao comprar o Twitter, adotou uma série de medidas para garantir que estes grupos destilassem o ódio em nome de “liberdade de expressão”.
Contudo, com a IA não é bem assim. Ainda em 2017, em uma entrevista coletiva, Musk defendeu duramente a regulamentação estatal da IA. Ele apresentou a tecnologia, à época, como “o maior risco para a existência da nossa civilização”. “Ela (a IA) pode começar uma guerra ao publicar notícias falsas e invadindo contas de e-mails, fabricando press releases, tudo isso só manipulando informação. A caneta é mais poderosa que a espada”, argumentou.
Inteligência Artificial sem ética
A tecnologia que está por trás da IA é baseada em um número gigantesco de informações (big data). Ela ainda utiliza algoritmos potentes (assim como as redes sociais), para organizar informações. Então, também é capaz de aprender, a partir de mecanismos de redes neurais profundas (deep learning). Na prática, a partir de um comando humano, a máquina consegue mimetizar comportamentos, criar ações de larga escala e, até mesmo, imitar humanos.
É essencial entender, contudo, que nenhum destes mecanismos possui vontades, paixões, humores ou ética. Qualidades intrínsecas do ser humano. Este é justamente um dos maiores riscos. Não existe, na produção de conteúdo pela IA, compromisso com a verdade, por exemplo. Entretanto, nada impede que ela execute mentiras em massa a partir de um comando que respeita uma agenda obscura. “Sistemas de IA estão se tornando competitivos com humanos em atividades gerais. Precisamos nos questionar: devemos permitir que máquinas inundem nossos canais de informação com propagandas e mentiras”, questiona a carta do Future of Life.
Riscos profundos
Musk prefere uma abordagem mais alarmista. “Até que as pessoas não vejam robôs matando gente na rua não se entenderão os perigos da inteligência artificial.” O documento, por sua vez, apresenta problemas mais imediatos, sem abandonar a questão futura, uma vez que os avanços devem ser velozes. Os impactos podem ser alarmantes, por exemplo, no mercado de trabalho. É possível, rapidamente, uma extinção em massa de funções humanas; das mais básicas às especializadas e bem remuneradas.
“Devemos automatizar todos os trabalhos, incluindo os intelectuais? É certo desenvolver mentes não humanas que, eventualmente, em maior número e com maior inteligência, substituirão e nos tornarão obsoletos? Devemos colocar em risco o controle da nossa civilização?”, questiona o documento.
Então, a carta sentencia que “sistemas poderosos de IA só devem ser desenvolvidos uma vez que tenhamos confiança que seus efeitos serão positivos e que os riscos serão controláveis”. O fato é que as tecnologias de IA vieram para ficar. Sâo disruptivas e apresentam uma mudança de panorâma de difícil compreenção, apesar dos exercícios de futurologia. Um dos grandes nomes da área no Brasil, a cientista Dora Kaufman, da PUC-SP, vê a IA como algo profundamente transformador. “A IA difere de outras tecnologias. Ela reconfigura a lógica e funcionamento da sociedade.”
Fonte: https://desacato.info/inteligencia-artificial-pode-ser-risco-a-humanidade-carta-pede-pausa-nos-experimentos/#more-303320
Nenhum comentário:
Postar um comentário