Artigo de Mariana Toro Nader
Para Carissa Véliz (México, 1986), PhD em Filosofia e professor de Ética na Universidade de Oxford, a privacidade é poder. É por isso que ele adverte, as decisões que tomamos sobre nossa privacidade em um mundo globalizado e digital moldarão o futuro da humanidade por décadas. Falamos através de notas de voz da rede social Signal nesta entrevista diferida sobre "economia de dados", democracia e ética digital.
Na Privacidade, é o poder que as empresas e os governos estão nos rastreando a cada minuto, eles usam nossos dispositivos para saber quem somos, prever nosso comportamento e influenciá-lo. O desenvolvimento de novas tecnologias tem sido exponencial. Você acha que a situação em que nossa privacidade é encontrada está piorando?
Não é fácil determinar exatamente se a nossa privacidade é melhor ou pior do que há três anos. Por um lado, existem de facto mais tecnologias muito invasivas e, em particular, a inteligência artificial geradora consumiu todo o tipo de dados pessoais e há uma grande preocupação de que não pareça que estas empresas possam cumprir o Regulamento Geral de Proteção de Dados. Por exemplo, uma empresa como a OpenIA não tem certeza de quais dados ela tem em você e não pode corrigir aqueles que estão errados, muito menos apagá-los. Mas, ao mesmo tempo, há uma crescente conscientização entre as pessoas sobre a importância da privacidade e também temos mais ferramentas para protegê-la, como Signal, Protonmail, DuckDuckGo. Esses serviços estão crescendo a um ritmo muito saudável, sugerindo que os cidadãos estão cansados de sua privacidade ser violada em todos os lugares e estão procurando alternativas que, por outro lado, melhoram. Além disso, em todo o mundo vemos que há mais tentativas de regular essas tecnologias e uma lei federal de privacidade está sendo debatida nos Estados Unidos. Não está claro se vai avançar, mas que está no debate público já é um passo em frente a partir de alguns anos atrás.
Os cidadãos estão cansados de sua privacidade ser violada e estão procurando alternativas.
Você acha que a Lei de Serviços e Mercados Digitais ou a Lei de IA que acabamos de ser aprovada pela União Europeia têm a capacidade de tornar o ciberespaço um lugar mais seguro? Mais ético?
Penso, em geral, este regulamento é um passo na direcção certa; no entanto, falta-nos o caminho a percorrer. Eu acho que até que nós banamos o comércio de dados pessoais, vai ser muito difícil minimizar as ameaças à privacidade. Contanto que você possa vender dados pessoais, você sempre será tentado a coletar mais do que o necessário e vendê-los ao maior lance. Outra questão que sinto que a lei não reconhece suficientemente é a responsabilidade moral de transformar algo em dados. Fala-se muito sobre a recolha de dados, como se fosse algo lá fora, como cogumelos na floresta. Mas quando são recolhidos, algo se transforma que não foi um facto e essa decisão é moralmente significativa, porque os dados pessoais são muito sensíveis, muito difíceis de proteger, e há muitas pessoas que querem que abusem deles; por exemplo, criminosos, governos opostos e agências de marketing de curso, campanhas políticas.
Além disso, existem diferentes tipos de dados pessoais, que vão desde IDs como ID, telefone ou endereço postal, a financiadores, familiares, preferências ou hobbies e também existem biometria. Há alguns meses, vimos as fileiras de centenas de jovens vendendo a foto de sua íris para a Worldcoin, fundada pelo criador do ChatGPT, Sam Altman. A Agência Espanhola de Proteção de Dados proibiu a empresa de continuar a escaneamento ocular. Que consequências a venda de dados biométricos tem?
Você não apenas fornece os dados que deseja fornecer, mas fornece dados pelos quais as inferências podem ser feitas. Por exemplo, quando você dá dados de seus gostos musicais, você pode não se importar que você saiba o contrário, mas estes são usados para, por exemplo, inferir sua orientação sexual ou humor. Você não queria dar a eles de qualquer maneira, mas você não estava percebendo. Os dados biométricos são particularmente sensíveis porque você não pode alterá-los. Quando você tem uma senha, se você perdê-la, há maneiras de alterá-la. Mas se você perder os dados de sua genética, sua íris ou suas impressões digitais, então você não pode mudar. É por isso que os especialistas em privacidade gostam tão pouco que os dados biométricos são usados para problemas desnecessários, porque criam riscos desnecessários. Se esses dados forem perdidos, pode haver enormes roubos de identidade e criar problemas não apenas graves para os indivíduos, mas também para problemas sistêmicos.
Um dos argumentos para entregar os dados sem muita discrição é que o tempo todo eles estão nos gravando, gravando-nos: na rua, no transporte público; você precisa da impressão digital ou reconhecimento facial para desbloquear o nosso telefone, para abrir o aplicativo bancário. É por isso que muitos concluem que não há mais muito a fazer para proteger seus dados. Quão verdadeira é esta posição?
Essa postura é intuitiva, mas incorreta. Porque você nunca sabe quais dados serão que terminam com um roubo de identidade ou acaba causando um problema. E não é uma pergunta em preto ou branco, não é como se meus dados estivessem fora ou não estivessem. É sobre quantos dados e como eles podem ser coordenados entre eles. Uma analogia é com a saúde: estamos todos conscientes de que não é saudável comer muito açúcar, agora, se você já comeu um biscoito, isso significa que não importa quanto açúcar você come? Bem, não. Quanto mais açúcar você come, mais riscos você gera para sua saúde. Com a privacidade é a mesma coisa: quanto mais dados você perde, mais riscos você cria. O que as pessoas não levam em conta é que os dados pessoais têm uma data de validade bastante curta, ou geralmente têm: as pessoas mudam seus gostos, adoecem, curam, mudam de casa, trabalham e isso significa que os dados mais valiosos e importantes para proteger são os que você gera agora. Além disso, há diferenças em quem tem os dados e o quê. Há empresas, como a Apple, que usam seu rosto para desbloquear o telefone, o que me parece um erro, mas também é verdade que esses dados não devem ser compartilhados com ninguém em princípio. Então, a diferença entre usar seu rosto para desbloquear seu telefone e dá-lo a uma empresa como a Worldcoin é abismal. Nesse debate, precisamos de muito mais educação e mais nuances.
Até proibirmos o comércio de dados pessoais, será muito difícil minimizar as ameaças à privacidade.
Ao contrário da tendência global, mais e mais pessoas na Alemanha estão optando por pagar dinheiro para evitar monitoramento constante. É uma medida viável e eficaz para preservar a privacidade?
É uma medida viável e eficaz. Acho que não devíamos livrar-nos do dinheiro. Mas o mesmo se aplica a muitas outras áreas da vida. Por exemplo, vamos comparar duas possibilidades: comprar um e-book no Kindle ou ir para a livraria de sua esquina e pagar em dinheiro. No caso do Kindle, não é apenas que o e-book é menos robusto do que o do papel, você tem que colocá-lo para carregar, você não pode levá-lo para a praia facilmente, porque se a areia entra, ele vai estragar, não parece tão bom ao sol, você pode hackearhackeá-lo. E acima de tudo: eles estão observando você, eles sabem exatamente que velocidade você lê, que passagens são impressionantes, o que você enfatiza, e eles estão monetizando todos esses dados e anexando-os ao seu cartão, o que você comprou e o que você viu on-line, tentando perfilá-lo em uma personalidade ou outra. Em vez disso, o livro de papel não tem que carregá-lo, você pode cair de um prédio e provavelmente sobreviver, e também é realmente seu. Eu não sei se você teve essa experiência de ler um e-book e, de repente, há uma atualização e eles mudam ou você é apagado, o que lembra que não é seu, você pagou por isso, mas não é realmente seu, não como um livro de papel. E, claro, quando você se imagina dentro de um regime democrático, não parece muito sério para corporações ou governo ou ambos saberem o que você lê. Mas assim que você imagina um governo menos benevolente, você percebe o quão importante é a liberdade de pensamento.
Você disse que, desde que as empresas tenham acesso aos nossos dados, não poderemos ter certeza de que elas não serão usadas para o mal, pois não há dados que a polícia as monitore. Quão utópico seria para um dia criar essa polícia de dados que protege nossas informações? O que seria necessário?
Não é nada utópico. Claro, entre o ideal e a situação atual há um longo caminho a percorrer. E ainda mais importante do que ter um policial de dados é proibir o comércio de dados pessoais. Ao proibi-lo, o incentivo para coletar o máximo possível é combatido.
Além dos dados pessoais, na era da economia da atenção e do capitalismo de vigilância, a nossa privacidade mental também está em jogo?
Até certo ponto, a privacidade é sempre mental [risos]. Por exemplo, se alguém tem acesso aos dados do seu motor de busca, eles têm acesso a muitos dos seus pensamentos, o que eles estão preocupando você, se você está preocupado com alguma saúde, se você está procurando uma solução para um problema, se você está procurando um empréstimo. E, de certa forma, é ainda mais sério que seu mecanismo de busca possa ser acessado do que seu cérebro, porque ainda temos problemas para decodizar o cérebro e, portanto, você não se lembra do que estava procurando há 28 dias às 12 horas da tarde, mas seu mecanismo de pesquisa funciona. Mas o risco para a privacidade do cérebro também está crescendo. Muitas tecnologias estão sendo desenvolvidas para ler sinais neurais e ainda não são sofisticadas o suficiente para serem um risco significativo, mas estou surpreso com o fato de que tantas pessoas estão trabalhando nisso. E me alarma. Por exemplo, a Apple solicitou uma patente para ter AirPods que lêem ondas cerebrais. Por que precisamos disso? É realmente isso que o mundo precisa para ser um lugar melhor?
O código tende a ser um instrumento muito autoritário.
Como as coisas estão, com mais e mais notícias de vazamentos de dados (incluindo de bancos de dados bancários), mais sites que "forçariam cookies" e mais estudos que revelam as ameaças à privacidade em casas "inteligentes", você pode realmente falar sobre ética digital hoje? Como enfrentar a opacidade tecnológica sem cair no neoludismo?
Quando a ética médica se desenvolveu, foi a partir de escândalos que o tornaram muito tangível e muito óbvio por que precisávamos. Precisamente porque estamos encontrando práticas muito antiéticas é que a ética digital está emergindo como disciplina. Porque se todas essas empresas usasse práticas éticas, não haveria tanta necessidade de mudança. A acusação de que, se você está preocupado com práticas éticas, é que você é contra a tecnologia é pura retórica. Porque ser contra a tecnologia mal projetada, a tecnologia que está prejudicando as pessoas não tem nada a ver com uma boa tecnologia. Encontraríamos poucas pessoas que são contra a tecnologia em princípio. A tecnologia deve ser melhor concebida para garantir que respeita os direitos humanos e torná-la uma influência positiva sobre a democracia e não negativa.
Para fechar, você acha que a constante violação da privacidade está colocando o sistema democrático em cheque?
Acho que as democracias estão em um momento perigoso. Todos os anos, The Economist faz um estudo do estado da democracia no mundo e teme que nos últimos anos a democracia esteja perdendo terreno, não apenas no número de países democráticos, mas também na qualidade das democracias. Eu acho que não é coincidência que essa perda de democracia ocorra ao mesmo tempo que a ascensão da tecnologia digital. E em parte é uma perda de privacidade. A privacidade é importante porque nos protege de abusos de poder, e quando há instituições, se as corporações, sejam os governos, que têm muito poder, que geralmente corrói a democracia. Também deve-se ter em mente que o código tende a ser um instrumento muito autoritário. Se você tem uma lei que você não pode dirigir a uma determinada velocidade, você pode quebrar essa lei e isso tem consequências, mas quando o código do carro não deixa você ir a uma certa velocidade, não há negociação possível, não há possibilidade de quebrar a regra e pagar um preço por isso, não importa se você tem uma emergência, uma boa razão ou uma ruim: o código é autoritário. E sim, o código pode ser muito mais eficiente, mas não temos democracias para maximizar a eficiência, mas para maximizar a liberdade, o bem-estar e a proteção dos direitos.
Texto original em espanhol aqui: https://ethic.es/entrevistas/entrevista-carissa-veliz/ Tradução pelo Google.
Fonte: https://ethic.es/entrevistas/entrevista-carissa-veliz/ - Acesso 05/09/2024
Nenhum comentário:
Postar um comentário