*What’s next for EdTech?* Artigo publicado

Comecei meu dia com uma excelente surpresa: chegou uma notificação de publicação ahead of print do artigo What’s next for EdTech? Critical hopes and concerns for the 2020s. Trata-se de um texto a várias mãos, uma coautoria dos líderes dos diversos grupos de pesquisa que contribuíram para o número especial da revista Learning, Media and Technology a sair oficialmente em 2020 (parte do material já está disponível ahead of print, como o nosso artigo sobre metáforas de Big Data).

Além dos organizadores do número, Neil Selwyn (Universidade de Monash, Austrália) e Thomas Hillman (Universidade de Gotemburgo, Suécia), contribuíram para o artigo Rebecca Eynon, do Oxford Internet Institute, Universidade de Oxford, Jeremy Knox, da Universidade de Edimburgo, Escócia, Felicitas Macgilchrist, da Universidade de Göttingen, e Juana M. Sancho-Gil, da Universidade de Barcelona.

O texto funcionará como um editorial with a twist: em vez da usual apresentação (burocrática) dos artigos que compõem o número, apresenta-se uma discussão de desafios para a pesquisa na área. A escrita partiu de um exercício proposto pelos organizadores norteado por três princípios:

especular sobre o futuro em termos plausíveis (em vez de fantásticos);

distinguir entre o que é provável, o que é possível e o que é preferível;

pensar em “futuros”, plural, isto é, estar aberto à ideia de variações e direções diferentes que podem muito bem se desenvolver nos próximos anos.

(tradução livre)

Assim, não se trata de futurologia, mas sim de vislumbrar cenários possíveis com base em empiria e teorização do presente.

Realmente é uma grande honra para mim fazer parte desse grupo de pesquisadores mundialmente respeitados, e devo muitos agradecimentos ao Neil pelo convite inicial para integrar a rede internacional que ele e Thomas estão construindo na área de EdTech Crítica.

Assim que todos os artigos estiverem disponíveis, farei uma postagem com links e resumos.

Por hora: tenho 50 e-prints gratuitas do artigo para disponibilizar, então deixo aqui o link para quem estiver interessado.

Boas leituras!

ATUALIZAÇÃO em 24/11/2019: o artigo agora está livre a abertamente disponível – clique aqui para baixar ou ler on-line!

Terceiro encontro do projeto *Educação, tecnologia e filosofia: diálogos interdisciplinares*

Colagem de thumbnails de capas de livros e cenas de filmes (composição da autora)

Tivemos ontem (sexta 25/10) o terceiro encontro dos grupos Filosofia da Tecnologia, coordenado pelo prof. Edgar Lyra, do Dept. de Filosofia da PUC-RioFormação Docente e Tecnologias, ForTec, coordenado pela profa. Magda Pischetola, do Dept. de Educação da PUC-Rio, e o DEdTec. O encontro é uma das atividades pertinentes ao projeto “Educação, Filosofia e Tecnologia: diálogos interdisciplinares”, que é apoiado pelo Instituto de Estudos Avançados em Humanidades, IEAHu, do Centro de Teologia e Ciências Humanas, CTCH da PUC-Rio. Dessa vez, o Prof. Ralph Ings Bannell, nosso colega no Dept. de Educação, e seu grupo se juntaram a nós, e a Profa. Magda mais uma vez participou via videoconferência. O prof. Alexandre Rosado do INES não pode estar presente, pois estava ocupado com o processo de seleção para o novo Mestrado em Educação Bilíngue.

Nessa sessão, ainda explorando a primeira área temática que identificamos no primeiro encontro, tomamos como base para a discussão o artigo “Hannah Arendt e a ficção científica“, do Prof Edgar e o “Prólogo” da obra A Condição Humana, de Hannah Arendt.

Para dar um impulso inicial na conversa, apresentei um rapidíssimo sumário do artigo utilizando os mapas mentais mostrados abaixo (clique nas imagens para baixá-las ou visualizá-las em formato pdf em abas separadas).

Usei o aplicativo Simple Mind, meu predileto, por sua simplicidade, em um tablet, mas veja aqui alguns exemplos compostos com outras possibilidades. Noto, também, que esses mapas não têm uma lógica única para sua confecção; de fato, acho o processo de compô-los muito mais útil do que os objetos que dele resultam, como escrevi aqui. O que normalmente faço é definir o nó central (por exemplo, o primeiro mapa abaixo toma como nó central o texto inteiro) e daí ir criando os nós seguintes, no sentido dos ponteiros do relógio. Só faço isso, porém, após, minimamente, duas leituras atentas, nas quais identifico os objetivos do texto, sua estrutura, argumento central, premissas, conclusões, enfim, um mínimo que me permita compreender o texto. Subsequentemente, adiciono (com fundo diferente ou como anotações que podem ser escondidas, para não sobrecarregar a imagem) observações, questões e relações com outros textos.

Mapa 1: Estrutura geral do artigo
Mapa 2: Alguns aspectos básicos da fundamentação teórica
Mapa 3: Temáticas e obras citadas

Como esses mapas foram feitos apressadamente, vale destacar alguns detalhes importantes:

  1. Não foi tomado simplesmente um único texto de Arendt, como o segundo mapa pode sugerir: de fato, o texto mobiliza diversos escritos da autora para contextualizar seu Prólogo e expandir a discussão de conceitos centrais à sua obra;
  2. No segundo mapa, em particular, usei aspas para demarcar citações literais, mas omiti as referências; em alguns casos, são comentários do autor, enquanto, em outros, são citações diretas de obras de Arendt. Não foi descaso, mas, sim, pressa (meus alunos sabem que sou chatérrima com autoria e citações, a ponto de insistir em lhes dizer que se trata, também, de uma questão de cortesia profissional…).
  3. Os elementos marcados com fundo lilás ilustram os tipos de adições que vou fazendo a partir de reflexões sobre possíveis articulações com outros escritos e, nesse caso, obras não elencadas pelo autor; essa parte é um trabalho continuado.

Edgar comenta no texto que a menção de Arendt à ficção científica é única em sua obra no sentido que foi uma ideia que a autora sugeriu mas não chegou a desenvolver. Pena que haja tanta desconfiança, digamos, desse gênero. De qualquer forma, esse texto foi um achado felicíssimo para mim, pois desde os meus tempos na Open University venho buscando materiais que tomem obras ficcionais como base para contextualização de discussões sobre Educação e Tecnologia. E como disse ao autor, fiquei bem surpresa de ver outra criatura (conheci pouquíssimas, pessoas com quem nem tenho mais contato) que parece *curtir* filmes B da década de 1950! 🙂

Para a disciplina de pós que estou ministrando neste semeste, por exemplo, selecionei alguns capítulos de A Educação por vir (coletânea de 2011 organizada por Júlio Aquino e Cyntia Ribeiro) e de Distopias e Educação – entre ficção e ciência (coletânea de 2016 organizada por Daniel Lemos). Deixei o interessantíssimo Fundamentalismo e Educação, organizado por Silvio Gallo e Alfredo Veiga-Neto (2009), para alguma outra ocasião (ainda que o assunto seja da mais pura atualidade…).

Em projetos passados, o foco não foi, especificamente, a ficção científica – este curso, produto de um desses projetos, utilizava uma gama de exemplos da dramaturgia selecionados por meu colaborador, o Prof. John Monk, que, na época, estava envolvido, junto a associações profissionais de Engenharia e Computação na Inglaterra, em projetos relacionados à inclusão do ensino de Ética na formação de engenheiros, técnicos e cientistas. Ontem, de fato, o prof. Ralph questionou se a integração de discussões filosóficas na formação de tecnólogos e cientistas seria um caminho para apoiar a reconstrução da esfera pública, que, segundo Arendt, Habermas e outros, estaria em crise. Em seu trabalho, John tomava a necessidade de tal integração como premissa.

Há, certamente, bastante discussão de obras ficcionais na área da Comunicação (por exemplo, há uma bela discussão de A Matrix no primeiro artigo/capítulo no livro A religião das máquinas, de Erick Felinto), mas pouco, pelo menos que eu tenha conseguido localizar até agora, que dê atenção a questões da Educação de forma minimamente aprofundada. Começam a surgir comentários sobre a significância de obras como a série Black Mirror para apoiar reflexões sobre as tecnologias, mas o problema é teórico: para que discussões de obras ficcionais sejam produtivas, é preciso teorização. O texto do prof. Edgar apresenta uma variedade de livros e filmes de ficção científica que poderiam se prestar muito bem à discussão de temáticas tratadas por Arendt em sua obra (mostradas nos mapas 1 e 3); ou seja, ainda que não dê centralidade à educação em sua discussão, o texto pode ser um excelente recurso pedagógico exatamente porque oferece, a partir de Arendt, chaves de leitura para as obras ficcionais. Sem isso, acho melhor que deixemos os livros e filmes a cargo da crítica cinematográfica especializada – ou para conversas informais com amigos.

[Falando em Black Mirror, uma nota de pé – ou meio – de página: o prof. Edgar me falou sobre uma coletânea que ainda está para sair, Black Mirror and Philosophy: Dark Reflections (The Blackwell Philosophy and Pop Culture Series)- e procurando por ela, encontrei mais material interessante: Black Mirror and Critical Media Theory e Inside Black Mirror, do próprio criador da série, Charlie Brooker. Este último parece já ter uma tradução para o português, mas o preço é impronunciável, inacreditável, imoral…]

Na sessão de ontem, na verdade, muitas questões relativas à educação foram levantadas. Especificamente, como Arendt fundamenta sua sugestão em um reconhecimento da “impossibilidade da linguagem comum – portanto, da política, acompanhar os desenvolvimentos científicos do século XX”, uma das temáticas que perpassam esse projeto foi diretamente levantada: interdisciplinaridade. Nesse particular, Edgar nos contou sobre a metáfora das barreiras que precisam ser transpostas para que haja conversas entre cientistas de diferentes áreas como “fossos com jacarés”. Enquanto a discussão passou a questões relativas à comunicação da ciência, em minha imaginação, a metáfora foi remixada e tomou a forma de uma provocação: seríamos nós, estudiosos e cientistas de diferentes especialidades, diferentes espécies de jacarés em aquários separados?

Enfim, além da questão da necessidade de uma base teórica consistente que ofereça chaves de leitura para abordarmos as obras, há também um “nó”, digamos, quanto à hipótese que fundamentaria usos pedagógicos da ficção (científica ou não). Creio (e acho que o prof. Ralph concorda) que suas “potencialidades políticas”, conforme diz Edgar no texto, não estariam desvinculadas de suas potencialidades estéticas. Está, aqui, algo a ser pensado, mas termino por aqui (a postagem já está muito longa) com as palavras da escritora estadunidense Ursula le Guin (talvez a lacuna mais significativa que identifiquei no inventário de obras do texto), que articula algumas dessas potencialidades de forma magistral (e, de quebra, falando sobre metáforas):

O artista lida com o que não pode ser dito em palavras.

O artista cujo meio é a ficção faz isto em palavras. O romancista diz em palavras o que não pode ser dito em palavras.

Palavras, então, podem ser usadas de maneira paradoxal, pois possuem, juntamente com um uso semiótico, um uso simbólico ou metafórico. (Palavras também têm som – um fato em que os positivistas linguísticos não demonstram interesse. Uma frase ou parágrafo é como um acorde ou uma sequência harmônica em música: seu significado pode ser compreendido mais claramente por um ouvido atento, mesmo que lido em silêncio, do que por um intelecto atento).

Toda ficção é metáfora. Ficção científica é metáfora. O que a separa de formas mais antigas de ficção parece ser o uso de novas metáforas, tiradas de alguns grandes dominantes de nossa vida contemporânea – ciência, todas as cinências, entre elas a tecnologia e as perspectivas relativista e histórica. A viagem espacial é uma dessas metáforas: assim como a sociedade alternativa, a biologia alternativa; o futuro também. O futuro, em ficção, é uma metáfora.

Uma metáfora do quê?

Se eu pudesse responder sem metáforas, não teria escrito todas estas palavras, este romance; e Genly Ai nunca terio sentado à minha escrivaninha e usado toda a tinta de fita da minha máquina de escrever para informar a mim, e a você, um tanto solenemente, que a verdade é uma questão de imaginação.

Ursula le Guin na Introdução de A mão esquerda da escuridão (trad. Susana L. de Alexandria, 2a ed. São Paulo: Aleph, 2014/1968).

Participantes de ontem na perspectiva do Edgar (acima) e da Magda

Metáforas: o criador nos ossos da criatura?

O que tricotar nos diz sobre a aprendizagem móvel?
https://cogdog.github.io/edtechaphors/

Segundo George Lakoff e Mark Johnson em Metáforas da Vida Cotidiana, metáforas são mapeamentos que conectam um domínio fonte a um domínio alvo: por exemplo, uma metáfora conhecida na área da Educação é a da “educação bancária”, que associa o processo de ensinar (domínio alvo) ao ato de fazer um depósito bancário (domínio fonte). Meu projeto de pesquisa atual utiliza essa noção como um de seus eixos teóricos fundantes, pois, nessa concepção, metáforas têm múltiplas implicações (epistemológicas, ontológicas e políticas), ou seja, não são meros ornamentos.

Em nosso (grupo de autores – não é o detestável “nós da majestade”) artigo Metaphors we’re colonised by? The case of data-driven technologies in Brazil (clique aqui para baixar uma e-print gratuita – ainda há – ou aqui para baixar um pre-print), discutimos algumas metáforas da EdTech (Big Data, especificamente), concluindo o texto com a ideia de que, se Borges estiver certo em sua sugestão que a história universal seria a história de diferentes formas tomadas por algumas metáforas, precisamos resgatar ou criar outras metáforas, distintas das que identificamos em associação à temática do estudo.

Eis que, coincidentemente, Martin Weller, meu colega de tempos da Open University, criou e instalou recentemente em seu blog um gerador de metáforas para a EdTech! A princípio, pensei que se tratava de uma iniciativa de crowdsourcing (que daria um belíssimo projeto), mas não: é o app que sugere aleatoriamente mapeamentos entre um domínio fonte e um domínio alvo. Uma segunda versão do app está aqui e comentada aqui.

Como o código do app é curto e simples, é bem fácil ver com clareza como as escolhas do programador estão embutidas no algoritmo – essa não é uma ideia fácil de discutir com pessoas que nunca tiveram qualquer experiência de programação, e um exemplo “tangível” ajuda. O fragmento de print de tela abaixo mostra o trecho onde o programa define as opções: como domínios alvo, rótulos da EdTech (learning analytics, VLE, blockchain, etc.); como domínios fonte, ideias, coisas e atividades (preparar um bolo, uma planta, correr uma maratona, etc.).

Código completo aqui

As opções de domínio fonte, especificamente, sugerem interesses do programador (ao menos, estão em seu radar) – poderiam ser outras inteiramente diferentes (talvez eu usasse categorias relacionas a música, lugares, enfim, coisas que me interessam). As opções do domínio alvo, as categorias da EdTech, também poderiam ser outras – minimamente, a lista poderia ser ampliada.

Nesse caso, não fica bem visível o criador nos ossos da criatura?

Existem muitas outras metáforas no universo da computação – a começar pelas ideias de “área de trabalho”, “pastas”, “arquivos”, só para mencionar as mais comuns e já inteiramente naturalizadas. É sempre interessante desnaturalizá-las e, nesse sentido, a brincadeira de Martin, ao conectar domínios tão distintos, permite destacar sua natureza arbitrária e nada universal: metáforas revelam especificidades de um contexto enquanto tendem a se disseminar e enquadrar nossas formas de perceber e pensar em outros.

Atrás do coelho branco…

This image has an empty alt attribute; its file name is humpty-dumpty.gif
“Quando eu uso uma palavra”, disse Humpty Dumpty num tom bastante desdenhoso, “ela significa exatamente o que quero que signifique: nem mais, nem menos.”
“A questão é”, disse Alice, “se pode fazer as palavras significarem tantas coisas diferentes.”
“A questão”, disse Humpty Dumpty, “é saber quem vai mandar – só isto.”
Alice através do espelho.

Algumas semanas atrás, refletindo sobre uma ou duas discussões acadêmicas nas quais tinha participado recentemente, lembrei-me do ensaio Wittgenstein, nonsense and Lewis Carroll (1965). Até então, o artigo permanecia apenas listado em um registro de materiais que eu gostaria de ler mas não havia ainda conseguido acessar (e está aqui um dos aspectos dos quais mais tenho saudade de minha vida passada no proverbial “lá fora”: um sistema de bibliotecas em rede…). Enfim, no fim de semana retrasado, conversando com um amigo, surgiu o assunto (da nostalgia por bibliotecas…): para encurtar a história, em menos de cinco minutos, o amigo me enviou o texto.

Antes de “emburacar” na leitura, resolvi fazer uma busca para saber algo mais sobre o autor. Minha primeira parada foi a Wikipedia, mas não encontrei por lá uma página dedicada a George Pitcher (filosofia). Em uma busca grosseira no Google, encontrei várias páginas relativas a um homônimo na Inglaterra e, por fim, um obituário: “George Pitcher, scholar of contemporary philosophy beloved for his ‘sheer humanity,’ dies at 92” [George Pitcher, estudioso da filosofia contemporânea amado por sua pura humanidade, falece aos 92]. Data: janeiro de 2018. Parece ter sido um sujeito interessante.

Enfim, dentre três objetivos apresentados logo de início (escrita boa demais), o texto discute “tipos de nonsense” (não consigo pensar em um bom equivalente em português para isso – não acho que seja exatamente “absurdo”, como sugere o Google Tradutor) examinados por Wittgenstein como fontes de “confusões e erros” na Filosofia, posicionando-os como artifícios propositadamente usados, para efeitos humorísticos, por Lewis Carroll, autor de Alice no País das Maravilhas e Alice através do espelho. Encontrei o artigo em uma busca por escritos que explorassem, em particular, o maravilhoso diálogo da Alice com Humpty Dumpty, que frequentemente me vem à mente quando me vejo em discussões acadêmicas.

Bem, prosseguindo com as buscas, descobri uma verdadeira mina de leituras promissoras que partem de Wittgenstein para discutir especificamente a tecnologia. A perambulação on-line me levou a um número especial da revista Techné: Research in Philosophy and Technology. editada pela Society for Philosophy and Technology, intitulado Wittgenstein and Philosophy of Technology (n.3 de 2018). Fiquei um tempo passeando pelo site da associação e considerando os títulos dos artigos, lembrando de John Monk, colega fantástico que tive na Open University. Foi ele que me apresentou a Wittgenstein, e com ele tive a honra e o prazer de colaborar em vários projetos instigantes e criativos.

No final dos anos 1990, John já falava sobre jogos de tecnologia (veja aqui uma de suas aulas daquela época, registrada em 2002), e reencontro agora a ideia no material da Techné. Infelizmente ainda não consegui obter todos os artigos (só encontrei o editorial com acesso aberto), mas localizei Mark Coeckelbergh, presidente da associação e um dos organizadores do número, e há várias publicações pertinentes em seu perfil na plataforma ResearchGate. Baixei um de seus artigos para ler (Artificial Companions: empathy and vulnerability mirroring in human-robot relations), e, quase que instantaneamente, a plataforma me avisou que minha rede por lá tinha ganhado mais um nó. Achei simpático.

Mark fala sobre sua abordagem nesta palestra, dada em 2018 no Instituto de Estudos Avançados da USP (em inglês e sem legendas em português, mas a tradução automática, mesmo sofrível, deve ajudar):

Por fim, alguns artigos, vários livros interessantíssimos, uma palestra e muito mais: um mundo de ideias novas aparece quando se corre atrás do coelho branco…

Segundo encontro do projeto *Educação, tecnologia e filosofia: diálogos interdisciplinares*

Image result for futuros imaginários barbrook
Image result for superinteligência nick bostrom

Na sexta-feira 04/10, tivemos o segundo encontro dos grupos Filosofia da Tecnologia, coordenado pelo prof. Edgar Lyra, do Dept. de Filosofia da PUC-RioFormação Docente e Tecnologias, ForTec, coordenado pela profa. Magda Pischetola, do Dept. de Educação da PUC-Rio, e o DEdTec. O encontro é uma das atividades pertinentes ao projeto “Educação, Filosofia e Tecnologia: diálogos interdisciplinares”, que é apoiado pelo Instituto de Estudos Avançados em Humanidades, IEAHu, do Centro de Teologia e Ciências Humanas, CTCH da PUC-Rio. Dessa vez, além do prof. Alexandre Rosado do INES, tivemos também a presença (por pouco tempo, infelizmente) do Prof. Ralph Ings Bannell, nosso colega no Dept. de Educação, e, como no primeiro encontro, Magda se juntou a nós por videoconferência.

Deixo aqui apenas algumas notas apressadas: há muito a pensar e explorar, mas acho útil deixar algum registro compartilhado de, pelo menos, algumas partes.

Ainda estamos em fase de tentar estabelecer aquele território compartilhado sobre o qual comentei aqui, e isso ficou bem claro durante a discussão, que, dessa vez, havia sido planejada para explorar a primeira linha temática que identificamos no primeiro encontro: projeções de futuros imaginados (especulação ou futurologia). Assim, propusemos uma pequena seleção de textos sobre AI (Inteligência Artificial) como leituras preparatórias: um trecho do capítulo 6 de Superinteligência, de Nick Bostrom, e os capítulo 4 e 5 de Futuros Imaginários, de Richard Barbrook.

Richard Barbrook é co-autor (com Andy Cameron, in memoriam) do excelente ensaio A Ideologia Californiana (último capítulo publicado neste livro – tradução para o português acompanhada do original em inglês). O autor é um cientista político baseado na Faculdade de Ciências Sociais e Humanidades da Universidade de Westminster, Inglaterra. Pesquisador e ativista de perspectiva marxista, Barbrook atua também junto ao Partido Trabalhista Britânico como militante e consultor. Seu mais recente projeto, Class Wargames (Jogos de Guerra de Classes), apresenta-se como uma “subversão lúdica contra o capitalismo da espetacularização” baseada nas ideias de Guy Debord.

Nick Bostrom é um filósofo baseado na Universidade de Oxford, onde fundou e dirige o Future of Humanity Institute (FHI). Bostrom lista como interesses “ética, filosofia da mente e anthropics” (a descobrir como traduziram isso para o português). Oxford hospeda o renomado Oxford Internet Institute, que, aliás, publicou recentemente um relatório muito interessante sobre processos maciços de desinformação (veja aqui), no qual o Brasil figura como um dos campos de pesquisa examinados. Bem, eu não conhecia nem o FHI, nem o autor proposto pelo Edgar, então fui dar uma olhada no site institucional.

Passando os olhos rapidamente pela página que lista a equipe do instituto, me veio à mente o filme Jogos do Apocalipse (tradução estranha de The Philosophers ou After the Dark nos US of A, que sempre somem com palavras difíceis dos títulos de filmes e livros, por exemplo, o primeiro da série Harry Potter…). No filme, um professor de filosofia propõe a uma turma de formandos do ensino médio uma atividade de role play em cenário apocalíptico, na qual os jovens precisam escolher um número limitado de pessoas que iriam habitar um abrigo e, assim, permitir que a raça humana não desaparecesse. As escolhas são feitas com base em informações sobre profissão/habilidades, sorteadas pelos alunos a partir de papeizinhos contidos em uma caixa preta. A cada rodada os alunos têm que argumentar de forma lógica em sua defesa e negociar sua escolha com o resto do grupo, mas, apesar disso, quase todas as tentativas terminam com o extermínio total do humano.

O que é interessante é ver como os jovens escolhem, defendem e depois interpretam os diferentes papéis: de eletricista a poeta, cantor de ópera, engenheiros de diferentes especialidades, etc. Mais interessante de tudo é como a vida (fictícia) no abrigo difere e, sobretudo, parece melhor quando os escolhidos (se não me engano, na última rodada) são os artistas (ou um grupo majoritariamente de artistas – não lembro de todos os detalhes, quero rever quando tiver tempo), preteridos em encenações anteriores que haviam privilegiado argumentos de base utilitarista (por exemplo, um técnico eletrônico seria mais importante para manter a coisa funcionando do que um cantor de ópera). Por fim, é nesse último cenário que o grupo consegue sobreviver o ano necessário para a mínima descontaminação do mundo exterior.

Pois, o Instituto do Futuro da Humanidade (e que nome…) de Oxford não parece ter nenhum artista, músico, poeta. Apenas formigas sem nenhuma cigarra?

Enfim, como sempre, I digress

Voltando ao assunto: o encontro…

Precisarei ler o livro do Bostrom inteiro para ter uma ideia melhor, pois a parte selecionada focaliza um “cenário de tomada de poder por uma AI” sem discutir porque o objetivo dessa “criatura” seria “tomar o poder”. Acho isso essencial para entender o que o autor pretende, pois a AI poderia ter qualquer outro objetivo, inclusive nada pensado por humanos – com relação a isso, Bostrom faz questão de ressaltar que, sendo “fortemente inteligente” (grifo meu), a AI não iria pensar “nenhum plano tão idiota que mesmo nós, humanos, sejamos capazes de antever como esse plano poderia falhar inevitavelmente”.

É que “tomada de poder” me parece ser algo tão humano… De fato, a ficção tem transferido esse “desejo” para a máquina repetidamente, criando múltiplos cenários de conflito entre criatura e criador, e o cenário de Bostrom me remeteu a várias obras de ficção na literatura e no cinema (do óbvio O Exterminador do Futuro, a A Matrix, os Borg em Jornada nas Estrelas, The Lawnmower Man – no Brasil, recebeu o estranho título O passageiro do futuro -, Transcendence – no Brasil, título Transcendence – a revolução -, Battlestar Galactica e, como sempre, o seminal Frankenstein). Essas obras podem ser vistas como “tendenciosas” no sentido que sempre há pequenas lacunas e espaços para resistência por parte do humano, de diferentes formas (mesmo que seja a hibridização em vez da aniquilação), e o que Bostrom parece (como disse, preciso ler o livro inteiro) querer fazer é pensar a possibilidade de situações criadas por máquinas que, criadas por outras máquinas, teriam escapado das nossas imperfeições. Dá para entender os elogios de Elon Musk a Bostrom: Musk, que enviou para Marte um carro tripulado por um manequim vestido de astronauta (veja aqui uma leitura crítica)…

Há muito a pensar aqui além da necessidade de discutir o porquê da tomada de poder. Será que a ficção, ainda que marcada pelas limitações da imaginação do humano, em seu apelo estético, nos daria bases mais interessantes para discutir questões relativas à AI? Se realmente há medo e preocupação com essa possível “tomada de poder”, até que ponto discussões especulativas e abstratas podem ajudar? Haveria um papel necessário para a mobilização de conhecimentos mais “técnicos” em discussões sobre a viabilidade dessa super AI? Além das hipérboles, há questões mais básicas de significados não compartilhados de termos fundamentais dessas discussões, começando com a própria ideia de “inteligência” (pontuação que o Ralph fez logo no início). É tão fácil ficar perdido em jogos de linguagem nesse cruzamento de discursos tão díspares…

Sugeri que pegássemos o Futuros Imaginários como contraponto ao Bostrom precisamente porque o autor joga um bom “balde de água fria” nas hipérboles associadas à AI, invariavelmente carentes de especificidades contextuais e, sobretudo, históricas. Esses exageros são um problema nas discussões sobre tecnologia na área da Educação, e, para mim é fundamental questioná-los: acho necessário historicizar.

O livro de Barbrook costura uma narrativa pessoal do autor com a história da tecnologia, e seu argumento central fica bem resumido logo no início (versão preprint, p. 6):

As in the mid-1960s, the invention of artificial intelligence and the advent of the information society are still only a couple of decades away. If the prophecy isn’t fulfilled in this generation, then its realisation must take place in the next one. In a continual loop, belief leads to disappointment and failure inspires conviction. The present is continually changing, but the imaginary future is always the same.

Em tradução livre:

Como em meados da década de 1960, a invenção da inteligência artificial e o advento de uma sociedade da informação estão poucas décadas à frente. Se a profecia não se cumpre em uma geração, então o será na próxima. Em um loop contínuo, crença leva à decepção, e fracasso inspira convicção. O presente está sempre mudando, mas o futuro imaginário é sempre o mesmo.

Como qualquer tomada de posição, o argumento de Barbrook não poderia estar inteiramente livre de escolhas (opiniões), mas, minimamente, trata-se de uma argumentação informada por especificidades históricas que permitem contextualizar os discursos sobre a AI – principalmente da indústria que nela aposta. A descrição de um loop é consistente com as evidências que ele traz de suas fontes, além de ser, é claro, consistente com a perspectiva marxista do autor. Daí, talvez, decorra também um aspecto apontado pelo pessoal do Departamento de Filosofia como um problema: há, sim, indicações no texto de uma visão instrumental da tecnologia. Apesar da perspectiva crítica, Barbrook tende a se posicionar como um otimista (veja aqui seu Manifesto Cibercomunista – em inglês).

Em meio à discussão, muitos assuntos foram mencionados, alguns comentados em mais detalhes, outros de passagem. A questão da agência me parece algo fundamental, bem como as concepções de tecnologia mobilizadas (e foram múltiplas), perspectivas sobre a presença de artefatos na educação (que não se restringe a contextos de Educação a Distância – uma visão de senso comum infelizmente também compartilhada na própria área da Educação), enfim, alguns eixos teóricos basais. Talvez precisemos pensá-los: identificá-los, não “defini-los”.

Creio que precisaremos repensar, também, o formato dos encontros, pois o grupo é bem numeroso e inclui estudantes de vários níveis, formações e expectativas. Em particular, temos alunos de graduação, que estão apenas iniciando sua participação em grupos de pesquisa. Os encontros têm um importante aspecto formativo que precisa de atenção.

Apresentam-se desafios maravilhosos. Continuaremos trabalhando neles.

Leitura do fim de semana (furando a fila…)

Chegou ontem (fresquinho do forno e ainda em fase de pré-venda por aqui) o novo livro de Neil Selwyn, Should Robots replace Teachers?, publicado pela Polity.

A contracapa diz o seguinte (tradução livre):

Desenvolvimentos em AI [Inteligência Artificial] e Big Data estão mudando a natureza da educação. Contudo, as implicações dessas tecnologias para a profissão docente são incertas. Enquanto a maior parte dos educadores permanece convencida da necessidade de professores humanos, para além dessa classe de profissionais antecipa-se uma reinvenção da docência e da aprendizagem.

A partir de uma análise de desenvolvimentos tecnológicos tais como robôs-professores autônomos, sistemas de tutoria inteligentes, Learning Analytics [Analíticas da Aprendizagem] e tomada de decisão automatizada, Neil Selwyn ressalta a premência de discussões detalhadas sobre a capacidade a AI replicar qualidades sociais, humanas e cognitivas do professor humano. O autor conduz a discussão sobre AI e educação no domínio dos valores, julgamentos e política, defendendo, basicamente, que a integração de qualquer tecnologia na sociedade precisa ser apresentada como uma escolha.

Além de um prefácio curtinho, o livro tem cinco capítulos:

  • AI, robótica e a automação da docência
  • Robôs na sala de aula
  • Tutoria inteligente e assistentes pedagógicos
  • Tecnologias de “bastidores”
  • Revitalizando a docência para a era da AI

Selwyn é bem conhecido como um crítico sagaz dos discursos exagerados em torno da dita “potência” da tecnologia, e o posicionamento da tecnologia como escolha é algo que permeia seu trabalho. Como diz ele no final do prefácio, “não podemos saber ao certo o que acontecerá, mas deveríamos, ao menos, ter clareza sobre o que preferiríamos que acontecesse”.

Vou tentar dar uma diagonal rápida neste final de semana e postar alguns comentários sucintos – e assim, foi-se o planejamento prévio…



Nem otimista, nem pessimista

Nunca fui diretamente acusada de “tecnofóbica e ludita”, mas já ouvi, repetidamente, que sou “pessimista”. Obviamente não dá para separar ideias de afetos, mas, de fato, são muito fortes os sentimentos associados a visões cor-de-rosa das tecnologias digitais, e não é fácil levantar questionamentos do tipo “e se as coisas não forem exatamente como você diz que elas são?”.

Há anos o escritor Evgeny Morozov vem fazendo perguntas nessa linha, e, a partir delas, oferecendo perspectivas diferentes daquilo que o excesso de otimismo com as tecnologias tem encorajado. Suas críticas são cortantes, e seus posicionamentos, controversos. Neste vídeo, por exemplo, ele questiona a dita “potência” da internet como instrumento de democratização e, a partir disso, discute caminhos alternativos para o ciberativismo (a tradução automática aqui não funciona tão bem, mas dá uma ideia):

Seguindo a mesma linha de seus livros To save everything, click here: the folly of technological solutionism (2013) e The net delusion: the dark side of internet freedom (2012) (não acho que tenham sido traduzidos), Big Tech. A Ascensão dos dados e a morte da política traz uma crítica sempre “direto na jugular”, para usar uma metáfora bem gráfica. A curta seção a seguir ilustra a verve do autor:

Nesse espírito, então, para pensar especificamente sobre a educação – para além de dicotomias bem-mal, bom-mau, otimista-pessimista, dentre tantas -,

(…) é preciso que a escrita, a pesquisa e o debate abordem o uso de tecnologia na educação como problemático. Tal perspectiva não significa assumir que a tecnologia é o problema, mas, sim, reconhecer a necessidade de interrogar seriamente o uso da tecnologia da educação. Isso envolve a produção de análises detalhadas e ricas em contexto, engajamento em avaliação objetiva, e dedicação de tempo para investigar qualquer situação em seus aspectos positivos, negativos e toda e qualquer nuance intermediária. Envolve, também, um posicionamento inerentemente cético, ainda que resistente à tentação de incorrer-se em um cinismo absoluto. Adotando a distinção feita por Michel Foucault, isso envolve ver a aplicação de tecnologia na educação como “perigosa”, em vez de “má”, lembrando que qualquer crítica deve sempre resultar em ação, em lugar de inércia.

(Neil Selwyn, p. 89, capítulo 1 neste livro de 2017 – acesso aberto)

Para completar, aqui está o que Foucault disse:

Meu argumento não é que tudo é mau, mas que tudo é perigoso, que não é exatamente a mesma coisa que mau. Se tudo é perigoso, então sempre temos algo a fazer. Então minha posição leva não à apatia mas a um hiperativismo pessimista.

Foucault em entrevista, em Michel Foucault de Hubert Dreyfus e Paul Rabinow, 1983 (há um pdf aqui – em inglês)

e-prints gratuitas de artigos recém-publicados!

Finalmente consegui acessar minha conta no sistema da Taylor & Francis Online e retirar de lá os links que oferecem e-prints gratuitos dos nossos artigos publicados recentemente na revista Learning, Media and Tecnology.

Então, as primeiras 50 pessoas que clicarem poderão acessar os artigos sem custo!

FERREIRA et al (2019) Metaphors we’re colonised by? The case of data-driven technologies in Brazil – clique aqui

FERREIRA & LEMGRUBER (2019) Great Expectations: a critical perspective on Open Educational Resources in Brazil – clique aqui.

Se você clicar nos links e as e-prints já estiverem esgotadas, poderá acessar as versões pré-publicação em meu perfil na plataforma academia.edu ou aqui (Metaphors) e aqui (Great Expectations). Versões com formatação mais agradável podem ser baixadas do perfil de Alexandre Rosado no academia.edu.

Boas leituras!

Metáforas da Educação e Tecnologia: versões de artigos para baixar livremente

Acabo de subir para o meu perfil da plataforma academia.edu as versões aceitas dos artigos publicados recentemente da revista Learning, Media and Technology. As versões são muito próximas aos textos publicados, que necessitam de acesso via assinatura (o preço de artigos isolados é absurdo para nós, nem comentemos sobre isso…).

Se alguém estiver interessado em ler os trabalhos, mas tiver problemas em acessá-los no academia, o material está aqui também: Great Expectations: a critical perspective on Open Educational Resources in Brazil (parceria com Márcio Lemgruber) e Metaphors we’re colonised by? The case of data-driven educational technologies in Brazil (parceria com Alexandre Rosado, Márcio Lemgruber e Jaciara Carvalho).

Estou aguardando um reset da minha senha no sistema da revista (são tantas as senhas, me escapam da memória frequentemente), pois cada um dos autores recebe 50 e-prints para distribuir, mas preciso acessar o sistema para pegar o link pertinente. Em breve, circularei esse link aqui, e as primeiras 50 pessoas a acessarem poderão baixar o artigo na versão publicada pela revista.

Boas leituras!

Metáforas de Big Data, educação e novas formas de colonização: artigo publicado!

Acaba de ser publicado ahead of print o artigo Metaphors we’re colonised by? The case of data-driven educational technologies in Brazil, na revista Learning, Media and Technology. O artigo integrará um número temático organizado por Neil Selwyn e Thomas Hillman, que deverá sair no início de 2020 com o título “Education and Technology into the 2020s: speculative futures”.

A história desse trabalho é um pouco longa, daí a grande alegria que senti ao ver a notificação da editora em minha caixa de correio ontem pela manhã. As ideias começaram a surgir em 2015, foram amadurecendo ao longo de um tempo de discussões e estudos, e resultaram, por fim, no projeto atual formalizado em final de 2017, como resumido aqui. Este artigo, em particular, é fruto de um trabalho cuidadoso com um corpo de dados relativamente extenso e uma literatura que começou a surgir mais ou menos ao mesmo tempo em que íamos progredindo com as análises.

Enfim, aqui está uma versão em português do abstract de nossa proposta inicial:

Este artigo discute questões imbricadas na disseminação de tecnologias educacionais baseadas em dados no Brasil. No país, como em outros locais, a Tecnologia Educacional (TecEdu) continua a ser defendida com base em discursos otimistas que a constroem como uma panaceia para problemas sociais historicamente enraizados. Ainda que algumas dessas tecnologias tenham realmente contribuído para importantes programas de ampliação do acesso à educação nas duas últimas décadas, a defesa do “solucionismo tecnológico”, refletida em políticas públicas que articulam demandas cada vez mais fortes de melhoria de eficiências através da “inovação”, tem apoiado a mercantilização implacável dos sistemas educacionais do país. À medida que corporações transnacionais, discretamente posicionadas, assumem o controle de áreas-chave desses sistemas, ameaçando reestruturar todo o setor, tecnologias educacionais baseadas em dados – e outras noções da TecEdu apresentadas como “soluções” para ditas necessidades educacionais – fornecem o último exemplo em uma série de “novas” ideias ofertadas em um mercado em constante expansão. No entanto, essas ideias tendem a ser importadas e implantadas de maneiras frequentemente inconsistentes com as necessidades locais reais. Adotando como referencial teórico um recorte da literatura que explora implicações culturais e políticas da noção de “metáforas conceituais” proposta por Lakoff e Johnson – metáforas que encapsulam maneiras específicas de perceber, pensar e relacionar-se com o mundo – este artigo discute metáforas-chave em discursos acerca de tecnologias educacionais baseadas em dados no Brasil. Com base em dados empíricos coletados de fontes institucionais, midiáticas e de marketing abertas on-line, bem como literatura acadêmica sobre a política da tecnologia, o artigo analisa maneiras nas quais certas metáforas promovem perspectivas que ignoram a diferença e obscurecem questões mais amplas da educação, reproduzindo, assim, problemas previamente existentes. Considerando que dados estão sendo concebidos como o “óleo” que deverá impulsionar uma educação anacrônica para o futuro, por um lado, e reconhecendo a capacidade local reduzida para (pelo menos) adaptar sistemas importados, por outro, o artigo examina criticamente um cenário em que as metáforas da TecEdu talvez estejam a apoiar novas formas de colonização.

Estamos trabalhando em outros produtos dessa parte da pesquisa para disseminação em português, mas, por hora, disponibilizo a versão aceita para publicação, produzida após duas rodadas de revisão por pareceristas e extensas revisões.

Clique aqui para baixar um pdf do artigo em sua versão aceita para publicação.

Clique aqui para acessar a página da revista relativa ao artigo.