segunda-feira, 24 de julho de 2023

Por trás do mito da “IA objetiva”

 por Tomás Balmaceda, Karina Pedace e Tobias Schleider*

 Imagem: Anđela Janković

Algoritmo poderá prever até o nome das adolescentes que engravidarão? Caso na Argentina demonstra: o novo “oráculo” das Big Techs esconde abusos, falhas e distorções. Diante da promessa miraculosa, há que questionar: a quem serve?

O Transnational Institute (TNI) é um instituto internacional de pesquisa e proposição política, em atuação desde 1974, comprometido com a construção de um planeta justo, democrático e sustentável. O TNI tem a reputação de construir análises originais fundamentadas em pesquisas sobre as principais questões globais, muitas vezes de modo pioneiro em diversos temas. Como um instituto não sectário formado por pesquisadores, ativistas acadêmicos e de movimentos sociais, o TNI se esforça por combinar a análise de panorama geral com propostas e soluções que sejam justas e pragmáticas.

O TNI produziu uma série de análises reunidas no relatório State of Power: Digital Power 2023, publicadas em inglês no site do instituto. Em parceria exclusiva, as análises serão publicadas em traduções originais em português por Outras Palavras. Leia outros textos da série aqui.

O filme O mágico de Oz1 estreou em 1939. Um de seus atores principais foi Terry, o cachorro treinado para fazer o papel de Toto, que era então considerado “o animal mais inteligente do planeta”. O tema da inteligência animal preocupava muitos estudiosos da época, enquanto havia um interesse crescente em entender se as máquinas podiam pensar por conta própria. Tal possibilidade claramente desafiava o senso comum, que a descartava completamente, mas começou a ser questionada uma década depois da estreia do filme na obra do matemático britânico Alan Turing.2 Durante grande parte do século XX, a ideia de que animais ou máquinas eram capazes de pensar foi considerada totalmente absurda. Muita coisa mudou desde então!

No início de 2016, o governador de Salta, na Argentina, escolheu O mágico de Oz como o livro a ser distribuído aos alunos de sua província que estavam aprendendo a ler. As meninas descobriram no livro de L. Frank Baum que sempre há um homem por trás da “mágica”. Quando se tornaram adolescentes, essa lição se estendeu a outras áreas mais concretas de suas vidas: que não é magia, mas sim os homens que estão por trás da pobreza, das promessas, das decepções e das gravidezes.

Nessa época, a inteligência artificial (IA) deixou de ser o desafio de Turing para se tornar a área de especialização preferida das corporações mais poderosas e influentes do mundo. Graças a aplicativos atraentes em dispositivos pessoais, como telefones celulares e plataformas de streaming, ganhou ampla popularidade.

Até alguns anos atrás, ouvíamos apenas a expressão “inteligência artificial” para nos referirmos ao HAL 90003 de 2001: Uma Odisseia no Espaço ou Data, o androide de Jornada nas Estrelas. Mas hoje, poucos se surpreendem com seu uso diário. O consenso na mídia e em certa literatura acadêmica é de que estamos presenciando uma das revoluções tecnológicas mais importantes da história.

No entanto, o espanto inspirado por essa tecnologia – que parece saída de um conto de fadas ou de um filme de ficção científica – esconde sua verdadeira natureza: é uma criação humana tanto quanto os mecanismos que o pretenso Mágico de Oz quis fazer passar por eventos divinos e sobrenaturais. Nas mãos do aparato estatal e das grandes corporações, a “inteligência artificial” pode ser um instrumento eficaz de controle, vigilância e dominação, e de consolidação do status quo. Isso ficou claro quando a gigante dos softwares Microsoft se aliou ao governo de Salta, prometendo que um algoritmo poderia ser a solução para a crise de evasão escolar e gravidez na adolescência que assolava aquela região da Argentina.

Algoritmos que preveem a gravidez na adolescência

Um ano depois de distribuir cópias de O mágico de Oz às escolas de sua província, o governador de Salta, Juan Manuel Urtubey, anunciou um acordo com a subsidiária argentina da Microsoft para implementar uma plataforma de IA projetada para prevenir o que descreveu como “um dos problemas mais urgentes” da região. Ele estava se referindo ao número crescente de gravidezes na adolescência. Segundo as estatísticas oficiais, em 2017, mais de 18% de todos os nascimentos registados na província foram de meninas com menos de 19 anos: 4.914 crianças, um ritmo superior a 13 por dia.

Ao promover sua iniciativa, o governador declarou:

“Estamos lançando um programa para prevenir a gravidez na adolescência usando inteligência artificial com a ajuda de uma empresa de software de renome mundial. Com essa tecnologia, você pode prever com cinco ou seis anos de antecedência – com nome, sobrenome e endereço – qual menina, futura adolescente, tem 86% de probabilidade de ter uma gravidez na adolescência”.

Quase com o mesmo alarde das saudações do Mágico de Oz aos visitantes que encontraram seu caminho ao longo da estrada de tijolos amarelos, a Microsoft propagandeou a divulgação5 do acordo, qualificando-o de “iniciativa inovadora, única no país e um passo importante no processo de transformação digital da província”.

Um terceiro integrante da aliança entre a gigante da tecnologia e o governo foi a Fundação CONIN, comandada por Abel Albino,6 médico e ativista que lutou contra a legalização do aborto e do uso de preservativos.

Essa aliança revela os motivos políticos, econômicos e culturais por trás do programa: o objetivo era consolidar o conceito de “família” em que o sexo e os corpos das mulheres são destinados à reprodução – supostamente o propósito último e sagrado que deve ser protegido a todo custo. Essa conhecida visão conservadora existe há séculos na América Latina, mas aqui foi vestida com roupas de cores vivas graças à cumplicidade de uma corporação norte-americana – Microsoft – e ao uso de termos como “inteligência artificial”, que aparentemente bastavam para garantir eficácia e modernidade.

Os anúncios também forneceram informações sobre algumas das metodologias a serem utilizadas. Por exemplo, eles disseram que os dados básicos “serão enviados voluntariamente pelos indivíduos” e permitirão que o programa “trabalhe para prevenir a gravidez na adolescência e o abandono escolar”. Algoritmos inteligentes são capazes de identificar características pessoais que tendem a levar a alguns desses problemas e alertar o governo”. O Coordenador de Tecnologia do Ministério da Primeira Infância da Província de Salta, Pablo Abeleira, declarou7 que “no nível tecnológico, o nível de precisão do modelo que estamos desenvolvendo foi próximo a 90%, de acordo com um teste piloto realizado na cidade de Salta”.

O que está por trás dessas reivindicações?

O mito da inteligência artificial objetiva e neutra

A IA já se incorporou não apenas no discurso público, mas também em nossas vidas cotidianas. Às vezes parece que todos sabem o que queremos dizer com “inteligência artificial” (IA). No entanto, este termo não deixa de ser ambíguo, não só porque é normalmente utilizado como um guarda-chuva sob o qual surgem conceitos muito semelhantes e relacionados – mas não sinônimos – como “aprendizado de máquina” (machine learning), “aprendizagem profunda” (deep learning) ou computação cognitiva, entre outros – mas também porque uma análise mais atenta revela que o próprio conceito de inteligência neste contexto é controverso.

Neste ensaio, usaremos IA para nos referirmos a modelos ou sistemas de algoritmos que podem processar grandes volumes de informações e dados enquanto “aprendem” e melhoram sua capacidade de realizar tarefas além das que foram originalmente programados para fazer. Um caso de IA, por exemplo, é um algoritmo que, após processar centenas de milhares de fotos de gatos, consegue extrair o que precisa para reconhecer um gato em uma nova foto, sem confundi-lo com um brinquedo ou almofada. Quanto mais fotografias lhe derem, mais aprenderá e menos erros cometerá.

Esses desenvolvimentos em IA estão se espalhando pelo mundo e já são usados ​​em tecnologias cotidianas, como reconhecimento de voz de assistentes digitais como Siri e Alexa, bem como em projetos mais ambiciosos, como carros autônomos ou testes para detecção precoce de câncer e outras doenças. Existe uma gama muito ampla de usos para essas inovações, o que afeta muitas indústrias e setores da sociedade. Na economia, por exemplo, algoritmos prometem identificar os melhores investimentos na bolsa de valores. Na arena política, houve campanhas de mídia social a favor ou contra um candidato eleitoral que foram projetadas para atrair diferentes indivíduos com base em suas preferências e uso da Internet. Em relação à cultura, as plataformas de streaming utilizam algoritmos para oferecer recomendações personalizadas de séries, filmes ou músicas.

O sucesso desses usos da tecnologia e as promessas de benefícios que, até poucos anos atrás, existiam apenas na ficção científica, inflaram a percepção do que a IA realmente é capaz de fazer. Hoje, é amplamente considerado como o epítome da atividade racional, livre de preconceitos, paixões e erros humanos.

Isso, porém, é apenas um mito. Não existe “IA objetiva” ou IA que não seja contaminada por valores humanos. Nossa condição humana – talvez demasiado humana – inevitavelmente terá um impacto na tecnologia.

Uma maneira de deixar isso claro é remover alguns dos véus que escondem um termo como “algoritmo”. A filosofia da tecnologia nos permite distinguir pelo menos duas maneiras de defini-la em termos conceituais. Em sentido estrito, um algoritmo é uma construção matemática que é selecionada por causa de sua eficácia anterior na resolução de problemas semelhantes aos que serão resolvidos agora (como redes neurais profundas,8 redes bayesianas9 ou “cadeias de Markov”10). Em sentido amplo, um algoritmo é todo um sistema tecnológico compreendendo várias entradas, como dados de treinamento, que produz um modelo estatístico projetado, estruturado e implementado para resolver uma questão prática pré-definida.

Tudo começa com uma compreensão simplista dos dados. Os dados emergem de um processo de seleção e abstração e, consequentemente, nunca podem oferecer uma descrição objetiva do mundo. Os dados são inevitavelmente parciais e tendenciosos, pois são o resultado de decisões e escolhas humanas, como incluir certos atributos e excluir outros. O mesmo acontece com a noção de previsão baseada em dados. Uma questão fundamental para o uso governamental da ciência baseada em dados em geral e do aprendizado de máquina em particular é decidir o que medir e como medir com base em uma definição do problema a ser abordado, o que leva à escolha do algoritmo, no sentido estrito, que é considerado mais eficiente para a tarefa, por mais mortais que sejam as consequências.11 A contribuição humana é, portanto, crucial para determinar qual problema resolver.

Fica claro, portanto, que existe uma ligação inextricável entre a IA e uma série de decisões humanas. Embora o aprendizado de máquina ofereça a vantagem de processar um grande volume de dados rapidamente e a capacidade de identificar padrões nos dados, há muitas situações em que a supervisão humana não é apenas possível, mas necessária.

Puxando a cortina da IA

Quando Dorothy, o Homem de Lata, o Leão e o Espantalho finalmente conhecem o Mágico de Oz, ficam fascinados com a voz profunda e sobrenatural desse ser que, na versão cinematográfica de 1939, foi interpretado por Frank Morgan e apareceu em um altar atrás de um misterioso fogo e fumaça. Porém, Totó, o cachorro de Dorothy, não ficou tão impressionado e puxou a cortina, expondo a farsa: havia alguém manipulando um conjunto de alavancas e botões e comandando tudo no palco. Assustado e constrangido, o pretenso bruxo tentou manter a farsa: “Não dê atenção ao homem atrás da cortina!” “Sou apenas um homem comum”, confessou a Dorothy e seus amigos. O Espantalho, porém, corrigiu-o imediatamente: “Você é mais do que isso. Você é um farsante”.

Quando tiramos as roupas e vestidos extravagantes, vemos a IA como ela realmente é: um produto da ação humana que carrega as marcas de seus criadores. Às vezes, seus processos são vistos como semelhantes ao pensamento humano, mas são tratados como isentos de erros ou preconceitos. Diante da retórica generalizada e persuasiva sobre sua neutralidade de valor e a objetividade que a acompanha, devemos analisar a inevitável influência dos interesses humanos em vários estágios dessa tecnologia supostamente “mágica”.

A promessa da Microsoft e do governo de Salta de prever “com cinco ou seis anos de antecedência, com nomes, sobrenomes e endereços, qual menina ou futura adolescente tem 86% de probabilidade de ter uma gravidez na adolescência” acabou sendo uma promessa vazia.

O fiasco começou com os dados: eles usaram um banco de dados coletado pelo governo provincial e organizações da sociedade civil (OSCs) em bairros populares da capital provincial em 2016 e 2017. A pesquisa atingiu pouco menos de 300 mil pessoas, das quais 12.692 eram meninas e adolescentes entre 10 e 19 anos. No caso dos menores, a informação foi recolhida após obtenção do consentimento do “chefe de família” [sic].

Esses dados foram inseridos em um modelo de aprendizado de máquina que, de acordo com seus implementadores, é capaz de prever com precisão cada vez maior quais meninas e adolescentes ficarão grávidas no futuro. Isso é um absurdo absoluto: a Microsoft estava vendendo um sistema que prometia algo que é tecnicamente impossível de alcançar.12 Foi fornecida uma lista de adolescentes às quais foi atribuída uma probabilidade de gravidez. Longe de decretar qualquer política, os algoritmos forneceram informações ao Ministério da Primeira Infância para que ele pudesse lidar com os casos identificados.

O governo de Salta não especificou em que consistiria sua abordagem, nem os protocolos utilizados, as atividades de acompanhamento planejadas, o impacto das medidas aplicadas – se é que houve alguma medição do impacto – os critérios de seleção das organizações não governamentais (ONGs) ou fundações envolvidas, nem o papel da Igreja Católica.

O projeto também tinha grandes falhas técnicas: uma investigação da World Web Foundation13 relatou que não havia informações disponíveis sobre as bases de dados utilizadas, as premissas que sustentam a concepção dos modelos, ou sobre os modelos finais foram concebidos, revelando a opacidade do processo. Além disso, afirmou que a iniciativa falhou em avaliar as desigualdades potenciais e não prestou atenção especial a grupos minoritários ou vulneráveis ​​que poderiam ser afetados. Também não considerou as dificuldades de trabalhar com uma faixa etária tão ampla na pesquisa e o risco de discriminação ou mesmo criminalização.

Os especialistas concordaram que os dados da avaliação foram levemente contaminados, pois os dados usados ​​para avaliar o sistema eram os mesmos usados ​​para treiná-lo. Além disso, os dados não eram adequados para o propósito declarado. Eles foram extraídos de uma pesquisa com adolescentes residentes na província de Salta que solicitou informações pessoais (idade, etnia, país de origem etc.). No entanto, a pergunta que eles estavam tentando responder com base nessas informações atuais era se uma adolescente poderia engravidar no futuro – algo que parecia mais uma premonição do que uma previsão. Além disso, a informação foi tendenciosa, porque os dados sobre gravidez na adolescência tendem a ser incompletos ou ocultados, dada a natureza inerentemente sensível desse tipo de questão.

Pesquisadores do Laboratório de Inteligência Artificial Aplicada do Instituto de Ciências da Computação da Universidade de Buenos Aires constataram que, além do uso de dados não confiáveis, houve graves erros metodológicos na iniciativa da Microsoft. Além disso, eles também alertaram para o risco de os formuladores de políticas adotarem medidas erradas: “As técnicas de inteligência artificial são poderosas e exigem que aqueles que as utilizam ajam com responsabilidade. São apenas mais uma ferramenta, que deve ser complementada por outras, e de forma alguma substituem o conhecimento ou a inteligência de um especialista”, especialmente em uma área tão sensível como a saúde pública e setores vulneráveis.14

E isso levanta a questão mais séria no centro do conflito: mesmo que fosse possível prever gravidez na adolescência (o que parece improvável), não está claro para qual propósito isso serviria. Falta prevenção em todo o processo. O que se fez, no entanto, foi criar um risco inevitavelmente alto de estigmatizar meninas e adolescentes.

IA como instrumento de poder sobre populações vulneráveis

Desde o início, a aliança entre a Microsoft, o governo de Salta e a Fundação CONIN foi fundada em pressupostos preconcebidos que não só são questionáveis, mas também conflitantes com princípios e normas consagrados na Constituição Argentina e nas convenções internacionais incorporadas ao sistema nacional. Baseia-se inquestionavelmente na ideia de que a gravidez (infantil ou adolescente) é um desastre e, em alguns casos, a única forma de preveni-la é através de intervenções diretas. Essa premissa está ligada a uma postura muito vaga sobre a atribuição de responsabilidades.

Por um lado, aqueles que planejaram e desenvolveram o sistema parecem ver a gravidez como algo pelo qual ninguém é responsável. Mas, por outro lado, atribuem a responsabilidade exclusivamente às meninas e adolescentes grávidas. De qualquer forma, essa ambiguidade contribui, antes de tudo, para a objetificação das pessoas envolvidas e também invisibiliza aqueles que são de fato responsáveis: principalmente os homens (ou adolescentes ou meninos, mas principalmente homens) que obviamente contribuíram para a gravidez (costuma-se dizer, com um tom grosseiro e eufemístico, que a menina ou a adolescente “ficou grávida”). Em segundo lugar, ignora o fato de que na maioria dos casos de gravidez entre mulheres jovens e em todos os casos de gravidez entre meninas, não só é errado presumir que a menina ou adolescente consentiu em relações sexuais, mas essa suposição deve ser totalmente descartada. Em suma, essa postura ambígua obscurece o fato crucial de que todas as gestações de meninas e muitas gestações de mulheres jovens são resultado de estupro.

No que diz respeito ao aspecto mais negligenciado do sistema – ou seja, a previsão da taxa de abandono escolar – assume-se (e conclui-se) que uma gravidez levará inevitavelmente um aluno a abandonar a escola. Embora o custo de oportunidade que a gravidez precoce e a maternidade impõem às mulheres nunca deva ser ignorado, a interrupção ou abandono da educação formal não é inevitável. Existem exemplos de programas e políticas inclusivas que têm sido eficazes para ajudar a evitar ou reduzir as taxas de abandono escolar.

De uma perspectiva mais ampla, o sistema e seus usos afetam direitos que se enquadram em um espectro de direitos sexuais e reprodutivos, que são considerados direitos humanos. A sexualidade é uma parte central do desenvolvimento humano, independentemente de os indivíduos optarem por ter filhos. No caso dos menores, importa ter em conta as diferenças nas suas capacidades evolutivas, tendo presente que a orientação dos pais ou tutores deve sempre privilegiar a capacidade de exercício dos direitos por conta própria e em benefício próprio. Os direitos sexuais, em particular, implicam considerações específicas. Por exemplo, é essencial respeitar as circunstâncias particulares de cada menina, menino ou adolescente, seu nível de compreensão e maturidade, saúde física e mental, relacionamento com vários membros da família e, finalmente, a situação imediata que eles enfrentam.

O uso da IA ​​tem impactos concretos nos direitos de meninas e adolescentes (potencialmente) grávidas. Primeiro, o direito à autonomia pessoal das meninas e adolescentes foi violado. Já mencionamos a sua objetificação e a indiferença do projeto face aos seus interesses individuais na busca de um suposto interesse geral. As meninas e adolescentes sequer eram consideradas titulares de direitos e seus desejos ou preferências individuais eram completamente ignorados.

Nesse projeto da Microsoft, a IA foi usada como instrumento para gerar poder sobre meninas e adolescentes, que foram catalogadas sem seu consentimento (ou seu conhecimento, aparentemente). Segundo os promotores do sistema, as entrevistas eram feitas com os “chefes de família” (principalmente seus pais) sem ao menos convidá-las a participar. Além disso, os questionários incluíam assuntos altamente pessoais (sua intimidade, vida sexual, etc.) sobre os quais seus pais raramente seriam capazes de responder em detalhes sem invadir a privacidade de suas filhas ou – tão grave quanto – acreditar em suposições ou preconceitos que o Estado então assumiria como verdadeiros e legítimos.

Outras violações incluem os direitos à intimidade, privacidade e liberdade de expressão ou opinião, enquanto os direitos à saúde e educação correm o risco de serem ignorados, apesar das declarações das autoridades e da Microsoft sobre sua intenção de cuidar das meninas e adolescentes. Por fim, cabe mencionar um direito conexo que assume particular importância no contexto específico deste projeto: o direito à liberdade de pensamento, consciência e religião.

Não iríamos ao ponto de afirmar que esse episódio teve um final feliz, como teve O Mágico de Oz. Mas o projeto da Microsoft não durou muito. Sua interrupção não aconteceu por críticas de ativistas, mas por um motivo muito mais mundano: em 2019, foram realizadas eleições nacionais e estaduais na Argentina e Urtubey não foi reeleito. A nova administração encerrou vários programas, incluindo o uso de algoritmos para prever a gravidez, e reduziu o Ministério da Primeira Infância, Infância e Família ao status de secretaria.

O que a IA está escondendo

A fumaça retórica e os espelhos de desenvolvimentos de IA objetivos e neutros desmoronam quando desafiados por vozes que afirmam que isso é impossível em princípio, como argumentamos na primeira seção, dada a participação de analistas humanos em vários estágios do desenvolvimento dos algoritmos. Homens e mulheres definiram o problema a ser resolvido, projetaram e prepararam os dados, determinaram quais algoritmos de aprendizado de máquina eram os mais adequados, interpretaram criticamente os resultados da análise e planejaram a ação adequada a ser tomada com base nos insights que a análise revelou.

Há insuficiente reflexão e discussão aberta sobre os efeitos indesejáveis ​​do avanço desta tecnologia. O que parece prevalecer na sociedade é a ideia de que o uso de algoritmos em diferentes áreas garante não apenas eficiência e rapidez, mas também a não interferência de preconceitos humanos que podem “manchar” a ação imaculada dos códigos que sustentam os algoritmos. Como resultado, as pessoas assumem que a IA foi criada para melhorar a sociedade como um todo ou, pelo menos, certos processos e produtos. Mas quase ninguém questiona o básico – para quem isso será uma melhoria, quem se beneficiará e quem avaliará as melhorias? Cidadãos? O Estado? Corporações? Meninas adolescentes de Salta? Os homens adultos que abusaram delas? Em vez disso, há uma falta de consciência real sobre a escala de seu impacto social ou a necessidade de discutir se tal mudança é inevitável.

As pessoas não se surpreendem mais com as constantes notícias sobre a introdução da IA ​​em novos campos, exceto pelo que há de novo nela, e assim como a passagem do tempo, é tratada como algo que não pode ser parado ou revisitado. A crescente automação dos processos que o ser humano realizava pode gerar alarme e preocupação, mas não desperta interesse em detê-la ou refletir sobre como será o futuro do trabalho e da sociedade quando a IA assumir grande parte do nosso trabalho. Isso levanta uma série de perguntas que raramente são feitas: isso é realmente desejável? Para quais setores sociais? Quem se beneficiará com uma maior automação e quem sairá perdendo? O que podemos esperar de um futuro onde a maioria dos trabalhos tradicionais serão executados por máquinas? Parece não haver tempo nem espaço para discutir o assunto: a automação simplesmente acontece e tudo o que podemos fazer é reclamar do mundo que perdemos ou nos maravilhar com o que ela pode alcançar hoje.

Essa complacência com os constantes avanços da tecnologia em nossas vidas privada, pública, profissional e cívica se deve à confiança na crença de que esses desenvolvimentos são “superiores” ao que pode ser alcançado pelo mero esforço humano. Assim, como a IA é muito mais poderosa, ela é “inteligente” (o rótulo “inteligente” é usado para telefones celulares, aspiradores de pó e cafeteiras, entre outros objetos que fariam Turing corar) e livre de preconceitos e intenções. No entanto, como apontado anteriormente, a própria ideia de IA de valor neutro é uma ficção. Para colocar de forma simples e clara: existem vieses em todos os estágios de design, teste e aplicação do algoritmo e, portanto, é muito difícil identificá-los e ainda mais difícil corrigi-los. No entanto, é imprescindível fazê-lo para desmascarar sua natureza supostamente estéril, desprovida de valores e erros humanos.

Uma abordagem focada nos perigos da IA, juntamente com uma postura otimista sobre seu potencial, pode levar a uma dependência excessiva da IA ​​como solução para nossas preocupações éticas – uma abordagem em que a IA é solicitada a responder aos problemas que a própria IA produziu. Se os problemas forem considerados puramente tecnológicos, eles deveriam exigir apenas soluções tecnológicas. Em vez disso, temos decisões humanas vestidas com trajes tecnológicos. Precisamos de uma abordagem diferente.

O caso dos algoritmos que deveriam prever a gravidez na adolescência em Salta expõe quão irreal é a imagem da chamada objetividade e neutralidade da inteligência artificial. Como Totó, não podemos ignorar o homem por trás da cortina: o desenvolvimento de algoritmos não é neutro, mas sim baseado em uma decisão tomada a partir de muitas escolhas possíveis. Como o design e a funcionalidade de um algoritmo refletem os valores de seus projetistas e seus usos pretendidos, os algoritmos inevitavelmente levam a decisões tendenciosas. As decisões humanas estão envolvidas na definição do problema, na preparação e desenho dos dados, na seleção do tipo de algoritmo, na interpretação dos resultados e no planejamento das ações com base na sua análise. Sem supervisão humana qualificada e ativa, nenhum projeto de algoritmo de IA é capaz de atingir seus objetivos e ser bem-sucedido. A ciência de dados funciona melhor quando a experiência humana e o potencial dos algoritmos funcionam em conjunto.

Algoritmos de inteligência artificial não são mágicos, mas não precisam ser uma farsa, como argumentou o Espantalho. Nós apenas temos que reconhecer que eles são humanos.


Notas finais

  1. Arquivo da Internet (2021) Disponível em:https://archive.org/details/the-wizard-of-oz-1080p. (Acessado em 13 de março de 2023).
  2. “Alan Turing” (2023) Wikipédia. Disponível em: https://en.wikipedia.org/wiki/Alan_Turing (Acessado em 13 de março de 2023).
  3. “Página 9000” (2023) Wikipédia. Disponível em:https://en.wikipedia.org/wiki/HAL_9000 (Acessado em 13 de março de 2023).
  4. Página12 (2018) A inteligência artificial de Urtubey. Disponível em: https://www.pagina12.com.ar/107412-la- inteligência-artificial-de-urtube (Acessado em 13 de março de 2023)
  5. Microsoft News Center LATAM (2017). A Microsoft e o governo de Salta assinam um acordo para aplicar inteligência artificial para prevenir os problemas mais urgentes. Disponível em: https://news.microsoft.com/ en-xl/microsoft-government-salta-sign-agreement-to-apply-artificial-intelligence-prevention-the-most-problems- urgente/ (Acessado em 13 de março de 2023)
  6. Perfil (2018) Albino disse que a camisinha não protege porque “o vírus da AIDS passa pela porcelana”. Disponível em: https://www.perfil.com/noticias/politica/albino-dijo-que-el-preservativo-no-protege-del-vih-porque-atraviesa- the-porcelain.phtml (Acessado em 13 de março de 2023)
  7. Alonso, A. (2018) Microsoft democratiza IA e serviços cognitivos, It.sitio, 28 de março. Disponível em: https://www.itsitio.com/es/microsoft-democratiza-la-ia-y-los-servicios-cognitivos/ (Acessado em 13 de março de 2023)
  8. ‘Redes neurais profundas’ (2023) Wikipédia. Disponível em: https://en.wikipedia.org/wiki/Deep_ aprendendo#Deep_neural_networks (Acessado em 13 de março de 2023).
  9. ‘Redes bayesianas’ (2023)Wikipédia. Disponível em: https://en.wikipedia.org/wiki/Bayesian_ redes (Acessado em 13 de março de 2023).
  10. ‘Markov chains’ (2023) Wikipedia, a Enciclopédia Livre. Disponível em: https://en.wikipedia.org/wiki/Markov_ correntes (Acessado em 13 de março de 2023).
  11. Brunet, P., Font, T., Rodríguez, J. (2022) Robôs assassinos: 18 perguntas e respostas. Disponível em: https:// centredelas.org/publicacions/robots-asesinos-18-preguntas-y-respuestas/?lang=es (Baixado em 13 de março de 2023).
  12. Eubanks, V. (2018) Automatizando a desigualdade; Como ferramentas de alta tecnologia perfilam, policiam e punem os pobres. Nova York: St Martin’s Press.
  13. Ortiz Freuler, J. e Iglesias, C. (2018) Algoritmos e Inteligência Artificial na América Latina: um estudo das implementações governamentais na Argentina e no Uruguai. Fundação World Wide Web. Disponível em: https://webfoundation.org/docs/2018/09/WF_AI-in-LA_Report_Spanish_Screen_AW.pdf(Acessado em 13 de março de 2023)
  14. Laboratório de Inteligência Artificial Aplicada (2018) Sobre a previsão automática de gravidez na adolescência. Disponível em:https://liaa.dc.uba.ar/es/sobre-la-prediccion-automatica-de-embarazos-adolescentes/

*Tomás Balmaceda, Karina Pedace e Tobias Schleider

Tomás Balmaceda é doutor em filosofia pela Universidade de Buenos Aires. Karina Pedace é filósofa e professora na Universidade de Buenos Aires e na Universidade Nacional de Matanza. 

Tobías J. Schleider é advogado e professor da Universidade Nacional do Sul, onde dirige a licenciatura em Segurança Pública.

OutrasPalavras para o Transnational Institute (TNI) | Tradução: Maurício Ayer


Fonte: https://outraspalavras.net/tecnologiaemdisputa/por-tras-do-mito-da-ia-objetiva/Publicado 20/07/2023

Nenhum comentário:

Postar um comentário