Cesar Gaglioni
Ano foi marcado por expansão da tecnologia, disputas entre empresas e debates sobre regulação em alguns países. Veja os principais marcos da IA e o que esperar daqui para frente
A inteligência artificial foi o tema do ano de 2023 no setor tecnológico. Desde novembro de 2022, quando a empresa OpenAI lançou o ChatGPT, o tópico tomou conta do noticiário especializado e entre profissionais da área.
A tecnologia se expandiu rapidamente e foi debatida por diversos setores da sociedade. Na política, conversas sobre regulação avançaram em partes do mundo.
Neste texto, o Nexo relembra três pontos-chaves da inteligência artificial em 2023 e mostra quais as perspectivas para 2024.
A inteligência artificial
O QUE É
Não há um conceito único consolidado sobre o que é inteligência artificial, algo que pode envolver diferentes graus de autonomia das máquinas. Em termos básicos, são sistemas computacionais que têm competências semelhantes às humanas, como o raciocínio e a aprendizagem. A meta dessas tecnologias é poder inferir como atingir um objetivo, tomando decisões ou produzindo previsões e recomendações.
ONDE JÁ ESTÁ
Sistemas de inteligência artificial são usados nos mais variados âmbitos da vida social. Entre eles: sistemas biométricos de identificação, chatbots de atendimento ao cliente, filtragem de spams entre emails recebidos, análise de dados para a concessão de empréstimos bancários ou para elegibilidade a políticas públicas, listas de recomendação de conteúdo em plataformas de streaming, direcionamento de publicidade nas redes sociais, criação automatizada de textos e imagens, funcionamento de veículos autônomos, operação de infraestruturas militares.
O ano de 2023 foi marcado por uma corrida entre as grandes empresas de tecnologia para incorporar a inteligência artificial em seus produtos, na esteira do lançamento do ChatGPT em novembro de 2022.
A Microsoft, por meio de um acordo com a empresa OpenAI, incorporou a tecnologia do GPT no Bing – buscador que sempre ficava à sombra do Google e que despontou como uma opção requisitada ao longo de 2023.
Em março, o Google lançou o Bard, sua resposta ao GPT. A gigante de buscas recorreu a seus fundadores – Larry Page e Sergey Brin, aposentados desde 2019 – para pedir conselhos sobre como proceder com o uso de inteligência artificial em seus serviços. Informações de bastidores do jornal New York Times, publicadas em janeiro, afirmam que o ChatGPT foi considerado pelo Google a primeira ameaça real ao conglomerado em termos de negócios em mais de uma década.
Vendo a movimentação, o bilionário Elon Musk correu para estruturar a empresa XAI, tentando emplacar seu próprio GPT. A empreitada foi lançada em novembro, sem muito alarde e sem conquistar usuários. A Meta, empresa dona do Facebook, lançou o Llama, modelo similar ao GPT, que ela espera ser uma das pedras fundamentais do metaverso, realidade digital que é uma aposta do grupo.
Em novembro, a OpenAI passou por um drama interno, com a demissão, crise e retorno de seu fundador e CEO Sam Altman. O motivo oficial dado pelo conselho em uma nota publicada no site da empresa é que Altman não era “consistentemente transparente em suas comunicações com o conselho”, o que levou à “perda de confiança”. O texto não detalha quais exatamente eram os problemas de comunicação. Dias depois, após carta assinada por funcionários, Altman voltou ao comando da empresa.
US$ 4,4 trilhões
é a estimativa de impacto econômico das IAs até 2040, de acordo com o Fórum Econômico Mundial
Profissionais dos setores criativos se mobilizaram contra as inteligências artificiais ao longo de 2023. Três delas foram o foco das atenções: o ChatGPT, que gera texto, e as geradoras de imagem MidJourney e Dall-e.
Em sites como o ArtStation – plataforma para construção de portfólios – e no Instagram, ilustradores, quadrinistas, designers e desenhistas postaram uma imagem com as letras AI (sigla em inglês para inteligência artificial) sobreposta por um símbolo de proibição. O movimento aconteceu e cresceu ao longo do ano.
O argumento é que tais robôs podem tirar o trabalho de artistas humanos, ao mesmo tempo que os algoritmos são treinados com imagens produzidas por pessoas e protegidas por direitos autorais. “Esses robôs não criam nada e não funcionam como o cérebro humano”, escreveu o ilustrador russo conhecido como Zakuga, idealizador do protesto, no Twitter. “Eles existem a partir da exploração do trabalho de artistas humanos.”
Por outro lado, entusiastas da tecnologia dizem que o que os programas fazem é apenas uma versão acelerada e mais robusta do que humanos fazem ao usar outros artistas como inspiração para seus próprios estilos. “É algo revolucionário, mal posso esperar para ver como posso ficar mais criativo e mais produtivo com isso”, escreveu no Twitter Lee Unkrich, diretor e animador americano, um dos principais nomes dos estúdios Pixar. “É o meu sonho de criança virando realidade.”
Em Hollywood, roteiristas e atores passaram meses em greve. Uma das reivindicações dos sindicatos era que estúdios não usassem a inteligência artificial para substituir o trabalho humano, criando roteiros ou personagens digitais.
Com a corrida das IAs, países começaram a discutir como regular a tecnologia, a fim de mitigar os problemas.
Os riscos relativos à inteligência artificial não dizem respeito apenas à perda de controle dos humanos sobre elas, em uma trama digna de ficção científica. Pelo contrário, diversos danos que já ocorrem são atribuídos aos próprios vieses de quem programa esses softwares, como o racismo algoritmíco, que parte de preconceitos pertencentes aos programadores para tomar decisões que prejudicam grupos marginalizados.
Em junho, o Parlamento Europeu saiu à frente do resto do mundo e aprovou um projeto para ser negociado com os 27 países do bloco. No Brasil, um projeto de lei para regular a inteligência artificial foi aprovado pela Câmara em 2021. Votado em regime de urgência, o texto recebeu muitas críticas de especialistas da sociedade civil.
Já no Senado, uma comissão de especialistas em direito civil e digital, montada no início de 2022, elaborou um relatório que embasou um novo projeto, apresentado em maio de 2023 pelo presidente do Senado, Rodrigo Pacheco (PSD-MG), para substituir o texto dos deputados. A proposta deve passar por comissões temáticas antes de ser votada no plenário.
O novo projeto brasileiro é semelhante ao europeu: trabalha com diferentes níveis de risco, proíbe determinadas atividades, estabelece regime de responsabilização jurídica, prevê sanções administrativas e fixa princípios como o da não discriminação e o do respeito aos valores democráticos.
O texto ainda prevê a criação de um órgão regulador exclusivo para o tema e medidas de fomento ao desenvolvimento dessas tecnologias. Nesse sentido, a autoridade reguladora vai poder autorizar o funcionamento do chamado “sandbox regulatório”: um ambiente regulatório experimental para inovação destinado a determinados projetos.
Nos EUA, em outubro, o presidente Joe Biden assinou alguns decretos para começar a conversa sobre a legislação no país. Comissões sobre o assunto devem ter início em 2024.
As perspectivas para 2024
De acordo com a empresa de consultoria Gartner, a principal tendência da inteligência artificial em 2024 vai ser a implementação da tecnologia nas mais diversas frentes.
Indústrias como a do atendimento ao cliente e da recomendação de produtos e serviços terão auxílio das tecnologias. A empresa também afirma que, na educação, tutores personalizados para ajudar os alunos a aprender determinados conteúdos também devem surgir e se proliferar.
Segundo a Gartner, mais e mais países devem começar a discutir a regulação da tecnologia. De acordo com a pesquisa, saber operar algumas tecnologias de inteligência artificial vai ser requisito para profissionais de escritório.
Há também expectativas – baixas, mas ainda existentes – de que 2024 traga o surgimento da Inteligência Artificial Geral, algoritmo que conseguiria de fato ser mais inteligente que um ser humano, desenvolver alguma consciência e aprender por si só.
O surgimento de uma Inteligência Artificial Geral poderá trazer benefícios potenciais em diferentes áreas, como educação, monitoramento ambiental e arqueologia. Há também possíveis ganhos de produtividade que poderão levar a impulsos de desenvolvimento econômico.
Mas há, além disso, riscos, muitos dos quais já aparecem no dia a dia. Eles incluem, por exemplo, o racismo algorítmico, que se manifesta em algumas das utilizações dessas ferramentas; a substituição de empregos humanos por sistemas inteligentes; e a possibilidade de maior criação e circulação de fake news.
Há também correntes de pensamento entre pesquisadores e pessoas dentro do mundo da inteligência artificial que alertam para cenários mais próximos daqueles retratados em obras de ficção científica: riscos para a própria existência da humanidade.
A OpenAI, empresa que criou o ChatGPT, trabalha ativamente para o desenvolvimento de uma inteligência artificial geral. No entanto, como a criação dessa tecnologia depende de muitos fatores – como a ultrapassagem de limitações técnicas – e traz um alto consumo de energia, as perspectivas são que ainda demore algum tempo para algo do tipo de fato surgir.
Nenhum comentário:
Postar um comentário