segunda-feira, 26 de junho de 2023

ChatGPT ou a escatologia das máquinas.

Artigo de Yuk Hui

 https://www.ihu.unisinos.br/images/ihu/2023/06/23_06_gif_yu.gif

 Arte: Marcelo Zanotti | IHU (a partir de imagens do Canva)

26 Junho 2023

Em vez de mistificar as máquinas e a humanidade, entendamos a nossa atual realidade técnica e sua relação com diversas realidades humanas, a fim de que essa realidade técnica possa ser integrada a elas, para manter e reproduzir a biodiversidade, a noodiversidade e a tecnodiversidade.

A opinião é de Yuk Hui, professor de Filosofia da Tecnologia e da Mídia na City University de Hong Kong. Obteve seu doutoramento no Goldsmiths College London, na Inglaterra, e sua habilitação em filosofia na Leuphana University Lüneburg, na Alemanha. É autor de várias obras que foram traduzidas para uma dezena de idiomas, inclusive ao português, como “Tecnodiversidade” (Ubu Editora, 2020).

O artigo foi publicado por e-Flux Journal, n. 137, de junho de 2023. A tradução é de Moisés Sbardelotto.

Eis o artigo.

O ChatGPT despertou entusiasmo e medo desde seu lançamento em novembro de 2022. Seu aparente domínio da semântica e da sintaxe – mas ainda não do conteúdo – de diferentes idiomas surpreende os usuários que esperavam um chatbot comum. Algumas universidades imediatamente proibiram os alunos de usarem o ChatGPT para a redação de textos, uma vez que ele supera a maioria dos estudantes humanos. Os artigos de opinião dos jornais anunciaram o fim da educação – não apenas porque os estudantes podem usá-lo para fazer a lição de casa, mas também porque o ChatGPT pode fornecer mais informações do que muitos professores.

A inteligência artificial parece ter conquistado outro domínio que, segundo a filosofia clássica, define a natureza humana: o logos. O pânico cresce com essa perda adicional de território existencial. O imaginário apocalíptico da história humana se intensifica à medida que o colapso climático e a revolta dos robôs evocam o fim dos tempos.

O fim dos tempos não era estranho para os modernos. De fato, no livro “Meaning in History”, de Karl Löwith, de 1949, o filósofo mostrou que a filosofia moderna da história, de Hegel a Burckhardt, era uma secularização da escatologia [1]. O telos da história é o que torna o transcendente imanente, seja a segunda vinda de Jesus Cristo ou simplesmente o devir do Homo deus. Esse imaginário bíblico ou abraâmico do tempo oferece muitas reflexões profundas sobre a existência humana em geral, mas também obstrui a compreensão do nosso futuro.

Nos anos 1960, Hans Blumenberg argumentou contra a tese da secularização de Löwith, assim como contra a afirmação de Carl Schmitt de que “todos os conceitos significativos da teoria moderna do Estado são conceitos teológicos secularizados” [2]. Blumenberg sustentou que a compreensão do moderno como a secularização ou a transposição de conceitos teológicos mina a legitimidade do moderno; um certo significado da modernidade permanece irredutível à secularização da teologia [3]. Da mesma forma, a novidade e o significado da inteligência artificial são sepultados pelo imaginário escatológico, pelos estereótipos modernos sobre as máquinas e pela propaganda industrial.

Isso não significa que devamos negar as mudanças climáticas e resistir à inteligência artificial. Pelo contrário, lutar contra as mudanças climáticas deveria ser a nossa prioridade, assim como desenvolver uma relação produtiva entre humanos e tecnologia. Mas, para fazermos isso, devemos desenvolver uma compreensão adequada da inteligência artificial, além de uma compreensão meramente técnica. A invenção do trem, do automóvel e, mais tarde, do avião também provocou um grande medo, tanto psicologicamente quanto economicamente, mas hoje poucos temem que essas máquinas escaparão do nosso controle. Em vez disso, carros e aviões fazem parte da vida do cotidiano, muitas vezes significando emoção e liberdade. Então, por que existe tanto medo da inteligência artificial?

Para entender essa nova onda de tecnologia que tem o ChatGPT na vanguarda, podemos começar com o famoso experimento mental da Sala Chinesa de John Searle, de 1980, que esconde o estereótipo mais irritante das máquinas computacionais sob a forma de raciocínio lógico. Nesse experimento mental, Searle se imaginou sozinho em uma sala, encarregado de seguir instruções de acordo com um programa de processamento de símbolos escrito em inglês, a fim de responder a inputs escritos em chinês e passados por baixo da porta. Searle não entende chinês no experimento: “Não sei nada de chinês, seja escrito ou falado, e (...) nem tenho certeza de que poderia reconhecer a escrita chinesa como uma escrita diferente, digamos, da escrita japonesa ou de rabiscos sem sentido” [4].

No entanto, ele argumenta que, com o conjunto certo de instruções e regras, ele poderia responder de forma a levar a pessoa fora da sala a acreditar que ele entende chinês. Simplificando, Searle afirma que apenas pelo fato de a máquina ser capaz de seguir instruções em chinês, isso não significa que a máquina entenda chinês – uma marca registrada da chamada IA forte (em contraste com a IA fraca). Entender significa, acima de tudo, entender a semântica. Embora a sintaxe possa ser codificada, o significado semântico muda com a situação e a circunstância. A Sala Chinesa de Searle se aplica a um computador que ainda funciona como uma máquina do século XVIII, como o Pato Digestor ou o Turco Mecânico.

No entanto, esse não é o tipo de máquina com a qual estamos lidando hoje. Noam Chomsky, Ian Roberts e Jeffrey Watumull estavam certos ao afirmar que o ChatGPT é “um pesado motor estatístico para a correspondência de padrões” [5]. No entanto, devemos reconhecer que, embora os padrões sejam uma característica primária da informação, o ChatGPT está fazendo mais do que apenas a correspondência de padrões.

Tal crítica sintática se baseia em uma epistemologia mecanicista que assume a causalidade linear – uma causa seguida por um efeito. Pode-se inverter esse processo de causa e efeito para alcançar a causa última: o motor principal, o padrão da causa primeira e o destino final de todo raciocínio linear. Em contraste com a causalidade linear e a filosofia mecanicista, o século XVIII viu o surgimento do pensamento filosófico baseado no organismo, com a “Crítica do julgamento”, de Immanuel Kant, como uma das contribuições mais significativas.

Como afirmei antes, Kant impôs uma nova condição ao filosofar, a saber, que a filosofia deve se tornar orgânica; em outras palavras, o orgânico marcou um novo começo para o pensamento filosófico [6]. Hoje, é importante reconhecer que a condição do filosofar que Kant estabeleceu chegou ao seu fim após a cibernética [7].

A cibernética, um termo cunhado por Norbert Wiener por volta de 1943, foi desenvolvida por um grupo de cientistas e engenheiros que participaram das Conferências Macy sobre cibernética no fim dos anos 1940 e início dos anos 1950. A cibernética pretendia ser uma ciência universal capaz de unificar todas as disciplinas – uma nova adaptação do enciclopedismo do século XVIII, segundo Gilbert Simondon [8]. A cibernética usa o conceito de feedback para definir o funcionamento de uma nova “máquina cibernética” distinta das “máquinas mecânicas” do século XVII.

Wiener afirmou em seu livro seminal de 1948 que a cibernética havia superado a oposição entre mecanicismo e vitalismo representada por Newton e Bergson, porque as máquinas cibernéticas se baseavam em uma nova forma não linear de causalidade – ou recursividade –, em vez de uma causalidade linear frágil e ineficaz – frágil porque não sabe regular seu próprio modo de funcionamento. Imagine um relógio mecânico: quando uma das engrenagens falha, todo o relógio para. Com esse tipo de mecanismo linear, nenhum aumento exponencial na velocidade de seu raciocínio pode ocorrer sem uma atualização radical do hardware.

Se a oposição entre mecanismo e organismo caracteriza um grande debate da filosofia moderna, determinando a direção de seu desenvolvimento, então o debate persiste hoje, quando tantas das declarações desacreditando a inteligência artificial e o ChatGPT assumem que as máquinas são apenas mecanicistas e, portanto, incapazes de entender o significado semântico. Seria igualmente errôneo afirmar que as máquinas são apenas uma imitação falha da compreensão humana quando se trata do significado semântico.

O filósofo e cientista cognitivo Brian Cantwell Smith criticou duramente esse pensamento antropomórfico, defendendo uma intencionalidade maquínica. Para ele, mesmo que não se encontre nenhuma intencionalidade humana em uma máquina, ela continua sendo uma forma de intencionalidade; é semântica, ainda que não no sentido da linguagem humana [9]. Tal separação da semântica antropomórfica da semântica das máquinas é fundamental para repensar as nossas relações com as máquinas, mas apenas como um primeiro passo.

O argumento de Searle ignora fundamentalmente a forma recursiva de cálculo realizada pelas máquinas de hoje. Pode-se argumentar que a ciência da computação não deveria ser confundida com a cibernética, já que a cibernética é uma ciência muito abrangente. No entanto, pode-se também pensar na função recursiva de Gödel e em sua equivalência com a Máquina de Turing e o cálculo lambda de Alonzo Church (uma história bem conhecida na história da computação).

O termo “recursividade” não pertence apenas à cibernética; pertence também ao pensamento pós-mecanicista. O advento da cibernética apenas anunciou a possibilidade de realizar esse pensamento recursivo em máquinas cibernéticas.

A “inteligência” encontrada nas máquinas hoje é uma forma reflexiva de operação, como Gotthard Günther e Gilbert Simondon observaram corretamente. Para Günther, a cibernética é a realização da lógica de Hegel, enquanto, para Simondon, foi apenas na elaboração da Crítica do Julgamento” sobre o juízo reflexivo que Kant abordou a cibernética [10].

 

O “pensamento reflexivo” costuma ser associado a seres humanos e não a máquinas, pois as máquinas apenas executam instruções sem refletir sobre as próprias instruções. Mas, desde a introdução da cibernética nos anos 1940, o termo também pode descrever o mecanismo de feedback das máquinas. O pensamento reflexivo nas máquinas detém um poder assombroso sobre os seres humanos despreparados para aceitar sua existência, mesmo como uma forma preliminar e básica de reflexão – sendo puramente formal e, portanto, insuficiente para lidar com o conteúdo.

Aqui podemos entender como o ChatGPT pode ser “não particularmente inovador” e “nada revolucionário” para cientistas da computação como Yann LeCun [11]. É apenas lidando com o conteúdo que as máquinas podem se mover rumo àquilo que se convencionou chamar de singularidade tecnológica. Até agora, a singularidade continua sendo um mito – enganoso e também prejudicial quando apresentado como um futuro próximo. Mesmo que associemos a singularidade a um significado teológico ou a uma escatologia, isso não contribui em nada para a compreensão da inteligência artificial ou de seu futuro.

As máquinas recursivas, e não as máquinas lineares, são cruciais para entender o desenvolvimento e a evolução da inteligência artificial. Como os seres humanos abordarão esse novo tipo de máquina? Simondon levantou uma questão semelhante ao perguntar: quando a tecnologia se tornar reflexiva, qual será o papel da filosofia?

Brian Cantwell Smith argumentou que a inteligência artificial se limita à capacidade de avaliação e não de julgamento, mas é difícil dizer por quanto tempo essa distinção pode durar [12]. Talvez se desperdiçou muito esforço intelectual para fazer distinções entre máquinas e humanos.

 

Os seres humanos não ficaram chateados quando animais domesticados, como cavalos e vacas, os substituíram como provedores de energia. Em vez disso, eles acolheram o alívio em relação ao trabalho repetitivo e cansativo. O mesmo ocorreu quando as máquinas a vapor substituíram os animais; elas eram ainda mais eficientes e exigiam ainda menos atenção humana. Simondon, em seu livro “Do modo de existência dos objetos técnicos” (Contraponto editora, 2020), de 1958, observou corretamente que a substituição das máquinas termodinâmicas por máquinas informacionais marca um momento crucial: o deslocamento humano do centro de produção.

Os artesãos antes da era industrial eram capazes de criar um meio associado no qual o corpo e a inteligência do artesão compensavam a falta de autonomia de suas simples ferramentas. Na era das máquinas informacionais, ou máquinas cibernéticas, a própria máquina passa a ser a organizadora da informação, e o humano não está mais no centro, mesmo que ainda se considere o comandante das máquinas e o organizador da informação. Esse é o momento em que o humano sofre com suas próprias crenças estereotipadas sobre as máquinas: eles se identificam falsamente como o centro e, ao fazerem isso, enfrentam uma frustração constante e uma busca apavorada por identidade.

A realidade que reside na máquina está alienada da realidade na qual o humano opera. O inevitável processo de evolução tecnológica é impulsionado pela introdução da causalidade não linear, que permite que as máquinas lidem com a contingência. Uma máquina de aprendizagem é aquela que pode discernir eventos contingentes, como o ruído e a falha. Pode distinguir os inputs desorganizados dos inputs necessários. E, ao interpretar eventos contingentes, a máquina de aprendizagem melhora seu modelo de tomada de decisão.

Mas mesmo aqui a máquina precisa de humanos para distinguir as decisões certas das erradas, a fim de continuar melhorando. Nos países em desenvolvimento, um novo tipo de mão de obra barata emprega humanos para dizer às máquinas se os resultados estão corretos, sejam eles varreduras de reconhecimento facial ou respostas do ChatGPT. Essa nova forma de trabalho, que explora os trabalhadores que trabalham invisivelmente por trás das máquinas com as quais interagimos, é frequentemente negligenciada por críticas muito genéricas ao capitalismo e que lamentam a automação insuficiente. Essa é a fraqueza da crítica marxista atual da tecnologia.

Simondon levantou uma questão-chave em “Do modo de existência dos objetos técnicos”: quando o humano deixa de ser o organizador da informação, que papel ele pode desempenhar? O humano pode ser libertado do trabalho? Como suspeitava Hannah Arendt em “A condição humana” – publicado no mesmo ano do livro de Simondon – tal liberação só leva ao consumismo, deixando o artista como o “último homem” capaz de criar [13].

 

O consumismo aqui se torna o limite da ação humana. Arendt vê as máquinas a partir da perspectiva da realidade humana, substituindo o Homo faber, enquanto Simondon mostra que uma incapacidade de lidar e integrar a realidade técnica das máquinas fomentará um infeliz antagonismo entre o humano e a máquina, a cultura e a técnica. Esse antagonismo não é apenas a fonte do medo, mas também se baseia em uma compreensão muito problemática da tecnologia, moldada pela propaganda industrial e pelo consumismo. É dessa negatividade que nasceu um humanismo primitivista, que identifica o amor como o último recurso do humano.

Mais de 60 anos se passaram desde que Simondon levantou essas questões, e elas permanecem sem solução. Pior, foram obscurecidas pelo otimismo tecnológico, assim como pelo pessimismo cultural, em que o primeiro promove uma aceleração implacável, e o último serve como psicoterapia. Ambas as tendências se originam de uma compreensão antropomórfica das máquinas, que diz que elas devem imitar os seres humanos (Simondon criticou ferozmente a cibernética por ter essa visão, embora isso não fosse totalmente justificado).

Hoje, a expressão mais irônica dessa visão mimética está no campo da arte, em tentativas de provar que uma máquina pode fazer o trabalho de um Bach ou de um Picasso. Por um lado, o humano em pânico pergunta repetidamente que tipo de trabalho ele pode evitar que seja substituído por máquinas; por outro, a indústria de tecnologia trabalha conscientemente para substituir a intervenção humana pela automação das máquinas. Os humanos vivem dentro da profecia autorrealizável da substituição por parte da indústria. E, de fato, a indústria reproduz constantemente o discurso da substituição ao anunciar o fim deste ou daquele emprego, como se uma revolução tivesse chegado, enquanto a estrutura social e o nosso imaginário social permanecem inalterados.

O discurso da substituição não se transformou em discurso da libertação nas sociedades capitalistas nem nas ditas comunistas. Para ser justo, alguns aceleracionistas percebem isso e procuram reviver a visão de Marx da automação total. Se a física do Ensino Médio fosse mais popular, teríamos um conceito mais matizado de aceleração, porque a aceleração não significa um aumento na rapidez, mas sim um aumento na velocidade. Em vez de elaborar uma visão do futuro em que a inteligência artificial desempenha uma função protética, o discurso dominante a trata meramente como um desafio à inteligência humana e uma substituição do trabalho intelectual.

 

Os humanos de hoje falham em sonhar. Se o sonho de voar levou à invenção do avião, agora temos cada vez mais pesadelos com as máquinas. Em última análise, tanto o tecno-otimismo (na forma do trans-humanismo) quanto o pessimismo cultural se encontram em sua projeção de um fim apocalíptico.

A criatividade humana deve tomar uma direção radicalmente diferente e elevar as relações homem-máquina acima da teoria econômica da substituição e das fantasias da interatividade. Deve se mover rumo a uma análise existencial. A natureza protética da tecnologia deve ser afirmada para além de sua funcionalidade, pois, desde os primórdios da humanidade, o acesso à verdade sempre dependeu da invenção e do uso de instrumentos. Esse fato permanece invisível para muitos, o que faz com que o conflito entre a evolução maquínica e a existência humana pareça se originar de uma ideologia profundamente enraizada na cultura.

Vivemos em vários ciclos de feedback positivo representados como cultura. Desde o início da sociedade industrial moderna, o corpo humano foi subordinado a ritmos repetitivos e, consequentemente, a mente humana foi subsumida pelas profecias da indústria. Seja o Sonho Americano ou o Sonho Chinês, um enorme potencial humano tem sido suprimido em favor de uma ideologia consumista. No passado, a filosofia tinha a tarefa de limitar a hybris produzida pelas máquinas e de libertar os seres humanos dos ciclos de feedback em nome da verdade. Hoje, os filósofos da tecnologia, em vez disso, estão ansiosos para afirmar esses ciclos de feedback como o caminho inevitável da civilização. O humano agora reconhece a centralidade da tecnologia ao querer resolver todos os problemas como se fossem problemas técnicos. Velocidade e eficiência governam toda a sociedade assim como antes governavam apenas as disciplinas da engenharia.

O desejo dos educadores de realizar uma mudança paradigmática em poucos anos desacredita qualquer reflexão fundamental sobre a questão da tecnologia, e acabamos novamente em um ciclo de feedback. Consequentemente, as universidades continuam produzindo talentos para a indústria de tecnologia, e esses talentos passam a desenvolver algoritmos mais eficientes para explorar a privacidade dos usuários e manipular a forma como eles consomem. Para as universidades, deveria ser mais urgente lidar com essas questões do que pensar em banir o ChatGPT.

 

O humano pode escapar desse ciclo de feedback positivo de profecia autorrealizável tão profundamente enraizada na cultura contemporânea? Em 1971, Gregory Bateson descreveu um ciclo de feedback que aprisiona os alcoólatras: um copo de cerveja não vai me matar; ok, já que comecei a beber, um segundo copo cai bem; bem, já foram dois, então por que não três? Um alcoólatra, se tiver sorte, pode sair desse ciclo de feedback positivo “chegando ao fundo do poço” – sobrevivendo a uma doença fatal ou a um acidente de carro, por exemplo [14]. Esses sortudos sobreviventes desenvolvem, então, uma intimidade com o divino. Os humanos, os alcoólatras modernos, com toda sua inteligência e criatividade coletivas, podem escapar desse destino de chegar ao fundo do poço? Em outras palavras, o humano pode dar uma guinada radical e levar a criatividade para uma direção diferente?

Essa oportunidade não é fornecida precisamente pelas máquinas inteligentes de hoje? Como próteses, em vez de seguidoras mecânicas de padrões, as máquinas podem libertar o humano da repetição e nos ajudar a realizar o potencial humano. Nossa preocupação hoje é essencialmente como adquirir essa capacidade transformadora, e não o debate sobre se uma máquina pode pensar, que é apenas uma expressão de crise existencial e de ilusão transcendental. Talvez algumas novas premissas sobre as relações homem-máquina possam libertar a nossa imaginação. Aqui estão três (embora certamente outras possam ser adicionadas):

1) Em vez de suspender o desenvolvimento da inteligência artificial, suspendamos a estereotipagem antropomórfica das máquinas e desenvolvamos uma adequada cultura das próteses. A tecnologia deve ser utilizada para realizar o potencial de seu usuário (aqui teremos que dialogar com a teoria das capacidades de Amartya Sen) ao invés de ser sua concorrente ou reduzi-lo a padrões de consumo.

2) Em vez de mistificar as máquinas e a humanidade, entendamos a nossa atual realidade técnica e sua relação com diversas realidades humanas, a fim de que essa realidade técnica possa ser integrada a elas, para manter e reproduzir a biodiversidade, a noodiversidade e a tecnodiversidade [15].

3) Ao invés de repetir a visão apocalíptica da história (uma visão expressada, em sua forma mais secular, no fim da história de Kojève e Fukuyama), libertemos a razão de seu caminho fatídico rumo a um fim apocalíptico. Essa libertação abrirá um campo que nos permitirá experimentar modos éticos de viver com as máquinas e com outros não humanos.

Nenhuma invenção chega sem constrangimentos e problemáticas. Embora esses constrangimentos sejam mais conceituais do que técnicos, ignorar o âmbito conceitual é precisamente o que permite o crescimento do mal, fruto de uma perversão em que a forma supera o terreno [16].

Somente quando rompermos com o viés cultural e a profecia autorrealizável da indústria de tecnologia é que poderemos desenvolver uma intuição maior sobre as possibilidades do futuro, que não podem se basear meramente na análise de dados e na extração de padrões. É muito provável que, antes de chegarmos lá, os profetas industriais do nosso tempo já tenham percebido que as máquinas podem prever o futuro melhor do que eles.

Notas

1. “Essa concepção ocidental da história, que implica uma direção irreversível rumo a uma meta futura, não é meramente ocidental. É essencialmente uma suposição hebraica e cristã de que a história está dirigida a um propósito último e é governada pela providência de uma visão e vontade supremas – nos termos de Hegel, pelo espírito ou razão como ‘a essência absolutamente poderosa’” (Karl Löwith, “Meaning in History”, University of Chicago Press, 1949, p. 54).

2. Carl Schmitt, Political Theology:Four Chapters on the Concept of Sovereignty (University of Chicago Press, 2005, p. 36).

3. Hans Blumenberg, “Progress Exposed as Fate”, cap. 3, parte 1, in: “The Legitimacy of the Modern Age” (MIT Press, 1985).

4. John. R. Searle, “Minds, Brains, and Programs”. Behavioral and Brain Sciences,vol. 3, n. 3, 1980, p. 418.

5. Noam Chomsky, Ian Roberts e Jeffrey Watumull, “The False Promise of ChatGPT”, New York Times, 08-03-2023 [traduzido ao português pela Folha de S.Paulo, 10-03-2023, e disponível aqui].

6. Yuk Hui, Recursivity and Contingency (Rowman and Littlefield, 2019).

7. Cf. Yuk Hui, “Philosophy after Automation”, Philosophy Today, vol.65, n.2 2021.

8. Gilbert Simondon, “Technics Learned by the Child and Technics Thought by the Adult”, cap. 2, parte 2, in: On the Mode of Existence of Technical Objects (Univocal, 2017[1958]).

9. “Muitas pessoas têm argumentado que a semântica dos sistemas computacionais é intrinsecamente derivada ou atribuída – ou seja, do tipo que os livros e os sinais têm, no sentido de ser atribuída por observadores externos ou usuários – em oposição à do pensamento e da linguagem humanos, que, em contraste, é considerado original ou autêntica. Tenho dúvidas sobre a utilidade (e nitidez) final dessa distinção e também sobre sua aplicabilidade aos computadores” (Brian Cantwell Smith, On the Origin of Objects, MIT Press, 1996, p. 10). Para uma discussão estendida sobre o trabalho de Smith, cf. Yuk Hui, “Digital Objects and Ontologies”, cap. 2. In: On the Existence of Digital Objects, University of Minnesota Press, 2016.

10. Gotthard GüntherDas Bewusstsein der Maschinen: eine Metaphysik der Kybernetik (Agis-Verlag, 1957); Gilbert Simondon, Sur la philosophie (PUF, 2016, p. 180).

11. Citado em Tiernan Ray, “ChatGPT Is ‘Not Particularly Innovative,’ e ‘Nothing Revolutionary,’ Says Meta’s Chief AI Scientist,” ZDNET, 23-01-2023.

12. Brian Cantwell SmithThe Promise of Artificial Intelligence: Reckoning and Judgment (MIT Press, 2019). Eu debato mais com o argumento de Smith no cap. 3 de “Art and Cosmotechnics”(e-Flux e University of Minnesota Press, 2021).

13. Hannah ArendtThe Human Condition, 2ª ed.(University of Chicago Press, 1998, p. 127).

14. Gregory Bateson, “The Cybernetics of ‘Self’: A Theory of Alcoholism,” in Steps to an Ecology of Mind(Jason Aronson, 1987).

15. Cf. Yuk Hui, “For a Planetary Thinking,” e-Flux Journal, n. 114, dezembro de 2020.

16. Ver a questão do mal em F. W. J. SchellingPhilosophical Investigations into the Essence of Human Freedom (SUNY Press, 2006).

Fonte: https://www.ihu.unisinos.br/629726-chatgpt-ou-a-escatologia-das-maquinas-artigo-de-yuk-hui

Nenhum comentário:

Postar um comentário