

Na sexta-feira 04/10, tivemos o segundo encontro dos grupos Filosofia da Tecnologia, coordenado pelo prof. Edgar Lyra, do Dept. de Filosofia da PUC-Rio, Formação Docente e Tecnologias, ForTec, coordenado pela profa. Magda Pischetola, do Dept. de Educação da PUC-Rio, e o DEdTec. O encontro é uma das atividades pertinentes ao projeto “Educação, Filosofia e Tecnologia: diálogos interdisciplinares”, que é apoiado pelo Instituto de Estudos Avançados em Humanidades, IEAHu, do Centro de Teologia e Ciências Humanas, CTCH da PUC-Rio. Dessa vez, além do prof. Alexandre Rosado do INES, tivemos também a presença (por pouco tempo, infelizmente) do Prof. Ralph Ings Bannell, nosso colega no Dept. de Educação, e, como no primeiro encontro, Magda se juntou a nós por videoconferência.
Deixo aqui apenas algumas notas apressadas: há muito a pensar e explorar, mas acho útil deixar algum registro compartilhado de, pelo menos, algumas partes.
Ainda estamos em fase de tentar estabelecer aquele território compartilhado sobre o qual comentei aqui, e isso ficou bem claro durante a discussão, que, dessa vez, havia sido planejada para explorar a primeira linha temática que identificamos no primeiro encontro: projeções de futuros imaginados (especulação ou futurologia). Assim, propusemos uma pequena seleção de textos sobre AI (Inteligência Artificial) como leituras preparatórias: um trecho do capítulo 6 de Superinteligência, de Nick Bostrom, e os capítulo 4 e 5 de Futuros Imaginários, de Richard Barbrook.
Richard Barbrook é co-autor (com Andy Cameron, in memoriam) do excelente ensaio A Ideologia Californiana (último capítulo publicado neste livro – tradução para o português acompanhada do original em inglês). O autor é um cientista político baseado na Faculdade de Ciências Sociais e Humanidades da Universidade de Westminster, Inglaterra. Pesquisador e ativista de perspectiva marxista, Barbrook atua também junto ao Partido Trabalhista Britânico como militante e consultor. Seu mais recente projeto, Class Wargames (Jogos de Guerra de Classes), apresenta-se como uma “subversão lúdica contra o capitalismo da espetacularização” baseada nas ideias de Guy Debord.
Nick Bostrom é um filósofo baseado na Universidade de Oxford, onde fundou e dirige o Future of Humanity Institute (FHI). Bostrom lista como interesses “ética, filosofia da mente e anthropics” (a descobrir como traduziram isso para o português). Oxford hospeda o renomado Oxford Internet Institute, que, aliás, publicou recentemente um relatório muito interessante sobre processos maciços de desinformação (veja aqui), no qual o Brasil figura como um dos campos de pesquisa examinados. Bem, eu não conhecia nem o FHI, nem o autor proposto pelo Edgar, então fui dar uma olhada no site institucional.
Passando os olhos rapidamente pela página que lista a equipe do instituto, me veio à mente o filme Jogos do Apocalipse (tradução estranha de The Philosophers ou After the Dark nos US of A, que sempre somem com palavras difíceis dos títulos de filmes e livros, por exemplo, o primeiro da série Harry Potter…). No filme, um professor de filosofia propõe a uma turma de formandos do ensino médio uma atividade de role play em cenário apocalíptico, na qual os jovens precisam escolher um número limitado de pessoas que iriam habitar um abrigo e, assim, permitir que a raça humana não desaparecesse. As escolhas são feitas com base em informações sobre profissão/habilidades, sorteadas pelos alunos a partir de papeizinhos contidos em uma caixa preta. A cada rodada os alunos têm que argumentar de forma lógica em sua defesa e negociar sua escolha com o resto do grupo, mas, apesar disso, quase todas as tentativas terminam com o extermínio total do humano.
O que é interessante é ver como os jovens escolhem, defendem e depois interpretam os diferentes papéis: de eletricista a poeta, cantor de ópera, engenheiros de diferentes especialidades, etc. Mais interessante de tudo é como a vida (fictícia) no abrigo difere e, sobretudo, parece melhor quando os escolhidos (se não me engano, na última rodada) são os artistas (ou um grupo majoritariamente de artistas – não lembro de todos os detalhes, quero rever quando tiver tempo), preteridos em encenações anteriores que haviam privilegiado argumentos de base utilitarista (por exemplo, um técnico eletrônico seria mais importante para manter a coisa funcionando do que um cantor de ópera). Por fim, é nesse último cenário que o grupo consegue sobreviver o ano necessário para a mínima descontaminação do mundo exterior.
Pois, o Instituto do Futuro da Humanidade (e que nome…) de Oxford não parece ter nenhum artista, músico, poeta. Apenas formigas sem nenhuma cigarra?
Enfim, como sempre, I digress…
Voltando ao assunto: o encontro…
Precisarei ler o livro do Bostrom inteiro para ter uma ideia melhor, pois a parte selecionada focaliza um “cenário de tomada de poder por uma AI” sem discutir porque o objetivo dessa “criatura” seria “tomar o poder”. Acho isso essencial para entender o que o autor pretende, pois a AI poderia ter qualquer outro objetivo, inclusive nada pensado por humanos – com relação a isso, Bostrom faz questão de ressaltar que, sendo “fortemente inteligente” (grifo meu), a AI não iria pensar “nenhum plano tão idiota que mesmo nós, humanos, sejamos capazes de antever como esse plano poderia falhar inevitavelmente”.
É que “tomada de poder” me parece ser algo tão humano… De fato, a ficção tem transferido esse “desejo” para a máquina repetidamente, criando múltiplos cenários de conflito entre criatura e criador, e o cenário de Bostrom me remeteu a várias obras de ficção na literatura e no cinema (do óbvio O Exterminador do Futuro, a A Matrix, os Borg em Jornada nas Estrelas, The Lawnmower Man – no Brasil, recebeu o estranho título O passageiro do futuro -, Transcendence – no Brasil, título Transcendence – a revolução -, Battlestar Galactica e, como sempre, o seminal Frankenstein). Essas obras podem ser vistas como “tendenciosas” no sentido que sempre há pequenas lacunas e espaços para resistência por parte do humano, de diferentes formas (mesmo que seja a hibridização em vez da aniquilação), e o que Bostrom parece (como disse, preciso ler o livro inteiro) querer fazer é pensar a possibilidade de situações criadas por máquinas que, criadas por outras máquinas, teriam escapado das nossas imperfeições. Dá para entender os elogios de Elon Musk a Bostrom: Musk, que enviou para Marte um carro tripulado por um manequim vestido de astronauta (veja aqui uma leitura crítica)…
Há muito a pensar aqui além da necessidade de discutir o porquê da tomada de poder. Será que a ficção, ainda que marcada pelas limitações da imaginação do humano, em seu apelo estético, nos daria bases mais interessantes para discutir questões relativas à AI? Se realmente há medo e preocupação com essa possível “tomada de poder”, até que ponto discussões especulativas e abstratas podem ajudar? Haveria um papel necessário para a mobilização de conhecimentos mais “técnicos” em discussões sobre a viabilidade dessa super AI? Além das hipérboles, há questões mais básicas de significados não compartilhados de termos fundamentais dessas discussões, começando com a própria ideia de “inteligência” (pontuação que o Ralph fez logo no início). É tão fácil ficar perdido em jogos de linguagem nesse cruzamento de discursos tão díspares…
Sugeri que pegássemos o Futuros Imaginários como contraponto ao Bostrom precisamente porque o autor joga um bom “balde de água fria” nas hipérboles associadas à AI, invariavelmente carentes de especificidades contextuais e, sobretudo, históricas. Esses exageros são um problema nas discussões sobre tecnologia na área da Educação, e, para mim é fundamental questioná-los: acho necessário historicizar.
O livro de Barbrook costura uma narrativa pessoal do autor com a história da tecnologia, e seu argumento central fica bem resumido logo no início (versão preprint, p. 6):
As in the mid-1960s, the invention of artificial intelligence and the advent of the information society are still only a couple of decades away. If the prophecy isn’t fulfilled in this generation, then its realisation must take place in the next one. In a continual loop, belief leads to disappointment and failure inspires conviction. The present is continually changing, but the imaginary future is always the same.
Em tradução livre:
Como em meados da década de 1960, a invenção da inteligência artificial e o advento de uma sociedade da informação estão poucas décadas à frente. Se a profecia não se cumpre em uma geração, então o será na próxima. Em um loop contínuo, crença leva à decepção, e fracasso inspira convicção. O presente está sempre mudando, mas o futuro imaginário é sempre o mesmo.
Como qualquer tomada de posição, o argumento de Barbrook não poderia estar inteiramente livre de escolhas (opiniões), mas, minimamente, trata-se de uma argumentação informada por especificidades históricas que permitem contextualizar os discursos sobre a AI – principalmente da indústria que nela aposta. A descrição de um loop é consistente com as evidências que ele traz de suas fontes, além de ser, é claro, consistente com a perspectiva marxista do autor. Daí, talvez, decorra também um aspecto apontado pelo pessoal do Departamento de Filosofia como um problema: há, sim, indicações no texto de uma visão instrumental da tecnologia. Apesar da perspectiva crítica, Barbrook tende a se posicionar como um otimista (veja aqui seu Manifesto Cibercomunista – em inglês).
Em meio à discussão, muitos assuntos foram mencionados, alguns comentados em mais detalhes, outros de passagem. A questão da agência me parece algo fundamental, bem como as concepções de tecnologia mobilizadas (e foram múltiplas), perspectivas sobre a presença de artefatos na educação (que não se restringe a contextos de Educação a Distância – uma visão de senso comum infelizmente também compartilhada na própria área da Educação), enfim, alguns eixos teóricos basais. Talvez precisemos pensá-los: identificá-los, não “defini-los”.
Creio que precisaremos repensar, também, o formato dos encontros, pois o grupo é bem numeroso e inclui estudantes de vários níveis, formações e expectativas. Em particular, temos alunos de graduação, que estão apenas iniciando sua participação em grupos de pesquisa. Os encontros têm um importante aspecto formativo que precisa de atenção.
Apresentam-se desafios maravilhosos. Continuaremos trabalhando neles.