sexta-feira, 17 de novembro de 2023

Enquanto a inteligência artificial voa, a regulação caminha lentamente. Veja os 17 pontos mais discutidos

 Por Rafael Garcia

Chefes de Estado em cúpula global sobre uso seguro da Inteligência Artificial  

Chefes de Estado em cúpula global sobre uso seguro da Inteligência Artificial — Foto: AFP

O avanço da inteligência artificial (IA) e o temor de impactos negativos sobre diferentes áreas da sociedade têm motivado centenas de propostas pelo mundo para nortear ou regular o desenvolvimento desse tipo de tecnologia e já mobilizam governos.

No entanto, enquanto a IA se expande em ritmo exponencial sem barreiras, há pouco de concreto em governos, parlamentos e órgãos regulatórios sobre como coibir o mau uso dos sistemas.

“Transparência” e “segurança” são preocupações explícitas na maioria das iniciativas, mas questões como “veracidade”, “propriedade intelectual” e “proteção à infância” são menos mencionadas.

A conclusão é de um estudo realizado por pesquisadores da PUC-RS, que analisaram mais de 200 documentos de 37 países, entre projetos de lei, propostas de autorregulação, códigos de ética e outros tipos de proposta para disciplinar a IA.

Motivos principais — Foto: Infografia/O Globo
Motivos principais — Foto: Infografia/O Globo

Passando um pente fino no material recolhido, o grupo identificou 17 princípios gerais citados (veja no quadro) e concluiu que, embora não haja unanimidade nas propostas, seis dos valores defendidos eram citados em pelo menos metade dos documentos. “Transparência” em relação às políticas das empresas de IA e algoritmos abertos ou sujeitos a auditoria estão no topo da lista.

“Privacidade” também apareceu bem acima, bem como “responsabilidade”, por muitos especialistas entenderem que a base legal para criadores de IA serem punidos por consequências maléficas da tecnologia ainda é frágil.

Mobilização global

O trabalho foi feito antes de líderes da União Europeia, dos EUA, da China e de cerca de outros 20 países (entre eles o Brasil) assinarem a Declaração de Bletchley para um desenvolvimento “seguro” da IA, na primeira cúpula global sobre os impactos desse novo tipo de tecnologia, realizada no Reino Unido há dez dias.

Rishi Sunak, primeiro-ministro britânico, recebe o bilionário Elon Musk para debate em cúpula sobre IA — Foto: Kirsty Wigglesworth / POOL / AFP
Rishi Sunak, primeiro-ministro britânico, recebe o bilionário Elon Musk para debate em cúpula sobre IA — Foto: Kirsty Wigglesworth / POOL / AFP

No documento, destaca-se “a necessidade urgente de compreender e administrar coletivamente os riscos potenciais” da IA. “Há potencial para danos graves e até catastróficos, deliberados ou não, decorrentes das capacidades mais significativas desses modelos de IA”, diz outro trecho, defendendo uma cooperação global para lidar com os riscos.

Um relatório do governo britânico alertou que sistemas avançados de IA facilitariam a construção de armas químicas e biológicas, ataques cibernéticos, fraudes e abuso sexual de crianças e até mesmo representaria um risco para a própria Humanidade. Por outro lado, o relatório também ressaltou que há benefícios, inclusive o de tornar serviços públicos mais eficientes e baratos.

Em paralelo, o G7 (que reúne potências econômicas globais) propôs um código de conduta para empresas que desenvolvem IA, e o presidente americano, Joe Biden, lançou a primeira diretriz do país para setor, exigindo testes para evitar que tecnologia seja usada para armas biológicas ou nucleares e recomendando a adoção de selos para identificar conteúdo gerado por IA.

— Precisamos governar esta tecnologia — afirmou Biden.

No estudo da PUC-RS, publicado na revista científica “Patterns”, os pesquisadores identificam também de onde estão partindo as propostas para regrar o desenvolvimento da IA, e constataram que, além de órgãos governamentais, as empresas privadas estão à frente da maioria das iniciativas.

OpenAI, dona do ChatGPT, o sistema de IA que popularizou o termo — Foto: Jackie Molloy/The New York Times
OpenAI, dona do ChatGPT, o sistema de IA que popularizou o termo — Foto: Jackie Molloy/The New York Times

Juntos, governo e indústria contribuíram com quase metade das proposições, enquanto grupos acadêmicos e ONGs aparecem em segundo plano.

4 ameaças favorecidas pela IA:

  1. ‘Deepfakes’ melhores: Manipular vídeos, imagens e áudios se torna uma tarefa acessível a quase todo mundo a partir de sistemas de inteligência artificial generativa. O resultado também é mais realista.
  2. Hackeamento de senhas: Cibercriminosos usam inteligência artificial para aperfeiçoar algoritmos usados para decifrar senhas. A adivinhação fica mais rápida e precisa, e os hackers ganham eficiência.
  3. Engenharia social: Com IA, hackers automatizam processos para gerar ataques que buscam induzir usuários de dispositivos ao erro por meio de manipulações, seja com ‘deepfakes’ ou ‘phishing’.
  4. Envenenamento de dados: Nesse caso, o foco é a própria IA. Hackers alteram dados de treinamento usados por um algoritmo de IA para influenciar as decisões que um sistema toma, o que pode ser difícil de detectar.

Regulação solicitada

O bilionário Elon Musk, um dos principais expoentes da indústria de tecnologia americana e que também investe em IA, foi um dos participantes da conferência que reuniu chefes de Estado no Reino Unido.

Todas as grandes companhias do setor, incluindo Meta, OpenAI, Google e IBM, já possuem suas próprias cartas de princípios para inteligência artificial, e estão pedindo a governos que regulem o setor. As empresas temem que uma regulação muito pesada atrapalhe seus negócios.

Os pesquisadores da PUC-RS ressaltam que leis com muitas exigências de salvaguardas, que requerem investimentos altos, podem prejudicar grupos de pesquisa em universidades e iniciativas pequenas.

A base de dados construída pelo grupo da PUC-RS inclui tudo o que os pesquisadores encontraram em cinco línguas ocidentais (inglês, português, espanhol, francês e alemão) e contém, por exemplo, normas que a União Europeia adota para IA. O projeto de lei que tramita no Brasil sobre o tema, porém, só surgiu quando o estudo já estava concluído, mas o grupo da PUC-RS produziu uma carta separada com recomendações sobre a iniciativa.

Pelo menos 13 dos 17 princípios que os pesquisadores listam aparecem explicitamente no projeto de lei proposto pelo Senado, incluindo a “centralidade da pessoa humana”, o “respeito aos direitos humanos” e a “não discriminação”. O que nem a proposta brasileira nem a maioria das outras detalham é como sair da abstração para soluções reais. 

Fonte:  https://oglobo.globo.com/economia/tecnologia/noticia/2023/11/12/enquanto-a-inteligencia-artificial-voa-a-regulacao-caminha-lentamente-veja-os-17-pontos-mais-discutidos.ghtml?utm_source=newsletter&utm_medium=email&utm_campaign=newsoab

Nenhum comentário:

Postar um comentário