Inteligência Artificial, Explicabilidade e Responsabilidade

Fonte: imagem de Gert Aldman, disponível na plataforma Pìxabay – https://pixabay.com/illustrations/web-network-programming-3706562/

Um ano após uma das minhas corridas pela internet atrás do coelho branco, tive o enorme prazer de participar, como uma das mediadoras, da aula inaugural do Dept. de Filosofia da PUC-Rio, ministrada exatamente pelo filósofo Mark Coeckelbergh. A convite do Prof. Edgar Lyra, diretor do Departamento de Filosofia da PUC-Rio, Mark falou para uma público de mais de 300 pessoas (incluindo muitos participantes de fora da PUC-Rio, de fato, de fora do Rio, também). Com o título Artificial Intelligence and the problem of responsibility, foi uma palestra muitíssimo interessante, seguida de uma bateria de perguntas bem variadas (várias delas aludiram a implicações para a educação, especificamente).

Em preparação, eu havia feito a leitura do artigo “Artificial Intelligence, Responsibility Attribution, and a Relational Justification of Explainability” (clique aqui para baixar em pdf do site do autor), seguindo uma indicação do Edgar. De forma geral, o artigo discute a questão da atribuição de responsabilidade em relação ao desenvolvimento (e aos efeitos/decorrências) de tecnologias de AI/IA. Eis uma tradução livre da síntese do argumento, apresentada no finalzinho da Introdução:

O problema da atribuição de responsabilidade é inicialmente abordado a partir da distinção entre duas condições artistotélicas de responsabilidade, uma relacionada a controle e à necessidade de identificar o agente responsável, e outra que examina o conhecimento do agente. Primeiramente, assume-se que, mesmo que as tecnologias de AI ganhem mais agência, humanos permanecem sendo responsáveis, pois apenas eles podem ser responsáveis: tecnologias de AI podem ter agência, mas não atendem aos critérios tradicionais de agência moral e responsabilidade moral. Contudo, há muitos desafios envolvidos na atribuição e distribuição de responsabilidade, não apenas devido ao problema das “muitas mãos”, mas também devido ao que denomino de “muitas coisas”. É importante considerar também a dimensão temporal quando se pensa em causas. Atenção especial é dada, então, a problemas sobre o conhecimento relativo a algumas aplicações de machine learning que têm implicações para a questão da responsabilidade. Usualmente, esses problemas são discutidos em termos de transparência e explicabilidade. Porém, em contraste com muitas das discussões na literatura e em contextos públicos, ressalta-se que o problema do endereçado não deveria ser negligenciado quando se considera a explicabilidade: aqueles a quem os agentes morais são responsáveis. Visto de uma perspectiva mais relacional, há não apenas agentes morais, mas também pacientes morais na relação de responsabilidade. Argumenta-se que a demanda por explicabilidade não se justifica apenas pela condição de conhecimento (saber o que você está fazendo como um agente de responsabilidade), mas deveria basear-se no requisito moral de oferecer razões para uma decisão ou ação àqueles a quem você responde , para os pacientes da responsabilidade. Por fim, outros sentidos do termo “relacional” são explorados: responsabilidade coletiva e o aspecto social de se dar explicações.

Creio que compreender o processo de produção de tecnologias de AI é fundamental para desfazermos o “nó” que parece caracterizar muitas das discussões “não técnicas” dessas tecnologias. Essa compreensão está representada no texto, em particular, nas ideias das “muitas mãos” e “muitas coisas”: os muitos atores, humanos e não-humanos, bem como suas relações, todos mobilizados nessa produção. Nessa perspectiva, a questão da atribuição de responsabilidade se revela ainda mais complexa, mas é a questão da explicabilidade, em si, que permanece como um dos pontos problemáticos para mim. No trecho a seguir, o autor explica o problema (para mim, em parte):

(…) a maior parte dos comentaristas sobre AI concorda que há um problema particular com as ditas “caixas-pretas” constituídas por sistemas baseados em machine learning e redes neurais. Ao passo que, no caso da AI clássica, simbólica, a forma pela qual a tecnologia chega a uma decisão é clara, por meio, por exemplo, de uma árvore de decisão que tenha sido programada no software por especialistas de um domínio [específico do conhecimento], no caso de aplicações de machine learning, não fica claro como, exatamente, o sistema de AI chega a uma decisão ou recomendação. Trata-se de um processo estatístico, e aqueles que o criaram sabem como funciona de modo geral, mas mesmo os desenvolvedores – que dirá os usuários e aqueles afetados pelo algoritmo (…) – não sabem como o sistema chega a uma decisão específica relevante a uma pessoa específica. Eles não podem explicar ou tornar transparente o processo decisório em todos os seus passos.

Mais adiante, Coecklebergh cita estudos que buscam desenvolver técnicas para “abrir a caixa-preta” – essa é uma metáfora problemática que precisa ser examinada mais cuidadosamente (eu sempre desconfiei, desde os tempos de estudante de engenharia, de caixas-pretas – pensava sempre em caixas de Pandora…), juntamente com várias outras metáforas (e metonímias) encontradas nos discursos sobre AI. Pois a questão aqui é como conceber essa “explicabilidade”, uma vez que explicações e razões são contingentes ao público ao qual se destinam. Essa me parece ser a outra parte do problema da explicabilidade.

O artigo, no geral, se soma a outras leituras sobre o assunto que me deixam com a impressão de que o “projeto AI” atualmente em curso é uma péssima ideia. Escrevo isso sem querer implicar que haja qualquer tom profético no texto (ou seja, não identifico esse tipo de sentimento ali); tampouco há qualquer relação do argumento com a futurologia (ou seja, não há especulação em torno de uma possível tomada do mundo pela máquina ou outras ideias afins). Há uma argumentação lógica cujas premissas são explicitadas (inclusive o autor menciona que há limites em partir da perspectiva aristotélica de responsabilidade), e que sugere que as demandas para o desenvolvimento e uso responsáveis de AI são variadas.

Postas em contexto político e econômico (aqui já saímos do escopo do texto), essas demandas mostram-se ainda mais complexas. Reconhecendo o caráter ideológico da tecnologia, bem como daquilo que se diz sobre ela, me parece que a questão da explicabilidade não é apenas “técnica” no sentido de criarem-se descrições do comportamento de diferentes redes neurais a partir de diferentes modelos estatísticos, que permitam esclarecer as formas nas quais as representações destacadas da realidade são processadas por esses sistemas. As descrições precisam ser inteligíveis (se não aceitáveis, legítimas) para uma gama variada de “pacientes”, para usar o termo do autor.

Na palestra, Mark seguiu um caminho ligeiramente diferente do argumento do artigo, e, em seus comentários finais, disse algo me encantou: a necessidade premente (também por questões ecológicas) de pensarmos lógicas diferentes daquela centrada na ideia do “domínio”: da natureza, de outros seres, da própria técnica. Os usos de linguagem que remetem a essa ideia (em inglês, há o bendito harness e master) me incomodam muito e sempre me fazem pensar sobre a atualidade de Frankenstein (obra que ele explora neste lindíssimo texto). De todo modo, no fechamento, Mark mencionou o possível papel da Arte na “desconstrução” dessa lógica (ele não usou esse termo, daí as scare quotes). Gostaria que ele tivesse falado mais sobre isso, mas não era o cerne da palestra.

Fiquei animada para pensar um novo projeto (relacionado a este), mas estava afogada em ruído antes de John Cage me resgatar ontem…

Bem, para fechar (e parar de divagar…): por questões técnicas, a palestra foi gravada em parte, então o material está na fila de edição. Quando for disponibilizado, adicionarei o link em um edit aqui.

Novas publicações saindo do forno…

Estão disponíveis duas novas coletâneas organizadas por Daniel Mill, Braian Veloso, Glauber Santiago e Marilde Santos, do Grupo Horizonte da UFSCar: Escritos sobre Educação e Tecnologias: entre provocações, percepções e vivências e Escritos sobre Educação a Distância: perspectivas e dimensões teórico-práticas.

Ainda terei que esperar alguns dias para que os volumes me cheguem às mãos, mas certamente virão somar a uma coleção crescente de bons recursos produzidos com a mediação do Grupo Horizonte, cujo líder, Daniel Mill, organizou o excelente Dicionário Crítico de Educação e Tecnologias e de Educação a Distância.

Clique aqui para baixar o sumário de Escritos sobre Educação e Tecnologias: entre provocações, percepções e vivências, no qual tenho um capítulo em coautoria com os queridos Jaciara Carvalho e Márcio Lemgruber do PPGE/UNESA. Nosso capítulo é intitulado “Educação e Tecnologia: pró-vocações para o desenvolvimento de criticidade”.

Clique aqui para baixar o sumário de Escritos sobre Educação a Distância: perspectivas e dimensões teórico-práticas, que inclui um capítulo da colega de departamento Magda Pischetola, escrito com Lyana de Miranda. Lyana acaba de chegar no Dept. de Educação da PUC-Rio para fazer seu pós-doc com a Magda, e seu capítulo é intitulado “O potencial didático do audiovisual: o caso dos Mooc”.

Terceiro encontro do projeto *Educação, tecnologia e filosofia: diálogos interdisciplinares*

Colagem de thumbnails de capas de livros e cenas de filmes (composição da autora)

Tivemos ontem (sexta 25/10) o terceiro encontro dos grupos Filosofia da Tecnologia, coordenado pelo prof. Edgar Lyra, do Dept. de Filosofia da PUC-RioFormação Docente e Tecnologias, ForTec, coordenado pela profa. Magda Pischetola, do Dept. de Educação da PUC-Rio, e o DEdTec. O encontro é uma das atividades pertinentes ao projeto “Educação, Filosofia e Tecnologia: diálogos interdisciplinares”, que é apoiado pelo Instituto de Estudos Avançados em Humanidades, IEAHu, do Centro de Teologia e Ciências Humanas, CTCH da PUC-Rio. Dessa vez, o Prof. Ralph Ings Bannell, nosso colega no Dept. de Educação, e seu grupo se juntaram a nós, e a Profa. Magda mais uma vez participou via videoconferência. O prof. Alexandre Rosado do INES não pode estar presente, pois estava ocupado com o processo de seleção para o novo Mestrado em Educação Bilíngue.

Nessa sessão, ainda explorando a primeira área temática que identificamos no primeiro encontro, tomamos como base para a discussão o artigo “Hannah Arendt e a ficção científica“, do Prof Edgar e o “Prólogo” da obra A Condição Humana, de Hannah Arendt.

Para dar um impulso inicial na conversa, apresentei um rapidíssimo sumário do artigo utilizando os mapas mentais mostrados abaixo (clique nas imagens para baixá-las ou visualizá-las em formato pdf em abas separadas).

Usei o aplicativo Simple Mind, meu predileto, por sua simplicidade, em um tablet, mas veja aqui alguns exemplos compostos com outras possibilidades. Noto, também, que esses mapas não têm uma lógica única para sua confecção; de fato, acho o processo de compô-los muito mais útil do que os objetos que dele resultam, como escrevi aqui. O que normalmente faço é definir o nó central (por exemplo, o primeiro mapa abaixo toma como nó central o texto inteiro) e daí ir criando os nós seguintes, no sentido dos ponteiros do relógio. Só faço isso, porém, após, minimamente, duas leituras atentas, nas quais identifico os objetivos do texto, sua estrutura, argumento central, premissas, conclusões, enfim, um mínimo que me permita compreender o texto. Subsequentemente, adiciono (com fundo diferente ou como anotações que podem ser escondidas, para não sobrecarregar a imagem) observações, questões e relações com outros textos.

Mapa 1: Estrutura geral do artigo
Mapa 2: Alguns aspectos básicos da fundamentação teórica
Mapa 3: Temáticas e obras citadas

Como esses mapas foram feitos apressadamente, vale destacar alguns detalhes importantes:

  1. Não foi tomado simplesmente um único texto de Arendt, como o segundo mapa pode sugerir: de fato, o texto mobiliza diversos escritos da autora para contextualizar seu Prólogo e expandir a discussão de conceitos centrais à sua obra;
  2. No segundo mapa, em particular, usei aspas para demarcar citações literais, mas omiti as referências; em alguns casos, são comentários do autor, enquanto, em outros, são citações diretas de obras de Arendt. Não foi descaso, mas, sim, pressa (meus alunos sabem que sou chatérrima com autoria e citações, a ponto de insistir em lhes dizer que se trata, também, de uma questão de cortesia profissional…).
  3. Os elementos marcados com fundo lilás ilustram os tipos de adições que vou fazendo a partir de reflexões sobre possíveis articulações com outros escritos e, nesse caso, obras não elencadas pelo autor; essa parte é um trabalho continuado.

Edgar comenta no texto que a menção de Arendt à ficção científica é única em sua obra no sentido que foi uma ideia que a autora sugeriu mas não chegou a desenvolver. Pena que haja tanta desconfiança, digamos, desse gênero. De qualquer forma, esse texto foi um achado felicíssimo para mim, pois desde os meus tempos na Open University venho buscando materiais que tomem obras ficcionais como base para contextualização de discussões sobre Educação e Tecnologia. E como disse ao autor, fiquei bem surpresa de ver outra criatura (conheci pouquíssimas, pessoas com quem nem tenho mais contato) que parece *curtir* filmes B da década de 1950! 🙂

Para a disciplina de pós que estou ministrando neste semeste, por exemplo, selecionei alguns capítulos de A Educação por vir (coletânea de 2011 organizada por Júlio Aquino e Cyntia Ribeiro) e de Distopias e Educação – entre ficção e ciência (coletânea de 2016 organizada por Daniel Lemos). Deixei o interessantíssimo Fundamentalismo e Educação, organizado por Silvio Gallo e Alfredo Veiga-Neto (2009), para alguma outra ocasião (ainda que o assunto seja da mais pura atualidade…).

Em projetos passados, o foco não foi, especificamente, a ficção científica – este curso, produto de um desses projetos, utilizava uma gama de exemplos da dramaturgia selecionados por meu colaborador, o Prof. John Monk, que, na época, estava envolvido, junto a associações profissionais de Engenharia e Computação na Inglaterra, em projetos relacionados à inclusão do ensino de Ética na formação de engenheiros, técnicos e cientistas. Ontem, de fato, o prof. Ralph questionou se a integração de discussões filosóficas na formação de tecnólogos e cientistas seria um caminho para apoiar a reconstrução da esfera pública, que, segundo Arendt, Habermas e outros, estaria em crise. Em seu trabalho, John tomava a necessidade de tal integração como premissa.

Há, certamente, bastante discussão de obras ficcionais na área da Comunicação (por exemplo, há uma bela discussão de A Matrix no primeiro artigo/capítulo no livro A religião das máquinas, de Erick Felinto), mas pouco, pelo menos que eu tenha conseguido localizar até agora, que dê atenção a questões da Educação de forma minimamente aprofundada. Começam a surgir comentários sobre a significância de obras como a série Black Mirror para apoiar reflexões sobre as tecnologias, mas o problema é teórico: para que discussões de obras ficcionais sejam produtivas, é preciso teorização. O texto do prof. Edgar apresenta uma variedade de livros e filmes de ficção científica que poderiam se prestar muito bem à discussão de temáticas tratadas por Arendt em sua obra (mostradas nos mapas 1 e 3); ou seja, ainda que não dê centralidade à educação em sua discussão, o texto pode ser um excelente recurso pedagógico exatamente porque oferece, a partir de Arendt, chaves de leitura para as obras ficcionais. Sem isso, acho melhor que deixemos os livros e filmes a cargo da crítica cinematográfica especializada – ou para conversas informais com amigos.

[Falando em Black Mirror, uma nota de pé – ou meio – de página: o prof. Edgar me falou sobre uma coletânea que ainda está para sair, Black Mirror and Philosophy: Dark Reflections (The Blackwell Philosophy and Pop Culture Series)- e procurando por ela, encontrei mais material interessante: Black Mirror and Critical Media Theory e Inside Black Mirror, do próprio criador da série, Charlie Brooker. Este último parece já ter uma tradução para o português, mas o preço é impronunciável, inacreditável, imoral…]

Na sessão de ontem, na verdade, muitas questões relativas à educação foram levantadas. Especificamente, como Arendt fundamenta sua sugestão em um reconhecimento da “impossibilidade da linguagem comum – portanto, da política, acompanhar os desenvolvimentos científicos do século XX”, uma das temáticas que perpassam esse projeto foi diretamente levantada: interdisciplinaridade. Nesse particular, Edgar nos contou sobre a metáfora das barreiras que precisam ser transpostas para que haja conversas entre cientistas de diferentes áreas como “fossos com jacarés”. Enquanto a discussão passou a questões relativas à comunicação da ciência, em minha imaginação, a metáfora foi remixada e tomou a forma de uma provocação: seríamos nós, estudiosos e cientistas de diferentes especialidades, diferentes espécies de jacarés em aquários separados?

Enfim, além da questão da necessidade de uma base teórica consistente que ofereça chaves de leitura para abordarmos as obras, há também um “nó”, digamos, quanto à hipótese que fundamentaria usos pedagógicos da ficção (científica ou não). Creio (e acho que o prof. Ralph concorda) que suas “potencialidades políticas”, conforme diz Edgar no texto, não estariam desvinculadas de suas potencialidades estéticas. Está, aqui, algo a ser pensado, mas termino por aqui (a postagem já está muito longa) com as palavras da escritora estadunidense Ursula le Guin (talvez a lacuna mais significativa que identifiquei no inventário de obras do texto), que articula algumas dessas potencialidades de forma magistral (e, de quebra, falando sobre metáforas):

O artista lida com o que não pode ser dito em palavras.

O artista cujo meio é a ficção faz isto em palavras. O romancista diz em palavras o que não pode ser dito em palavras.

Palavras, então, podem ser usadas de maneira paradoxal, pois possuem, juntamente com um uso semiótico, um uso simbólico ou metafórico. (Palavras também têm som – um fato em que os positivistas linguísticos não demonstram interesse. Uma frase ou parágrafo é como um acorde ou uma sequência harmônica em música: seu significado pode ser compreendido mais claramente por um ouvido atento, mesmo que lido em silêncio, do que por um intelecto atento).

Toda ficção é metáfora. Ficção científica é metáfora. O que a separa de formas mais antigas de ficção parece ser o uso de novas metáforas, tiradas de alguns grandes dominantes de nossa vida contemporânea – ciência, todas as cinências, entre elas a tecnologia e as perspectivas relativista e histórica. A viagem espacial é uma dessas metáforas: assim como a sociedade alternativa, a biologia alternativa; o futuro também. O futuro, em ficção, é uma metáfora.

Uma metáfora do quê?

Se eu pudesse responder sem metáforas, não teria escrito todas estas palavras, este romance; e Genly Ai nunca terio sentado à minha escrivaninha e usado toda a tinta de fita da minha máquina de escrever para informar a mim, e a você, um tanto solenemente, que a verdade é uma questão de imaginação.

Ursula le Guin na Introdução de A mão esquerda da escuridão (trad. Susana L. de Alexandria, 2a ed. São Paulo: Aleph, 2014/1968).

Participantes de ontem na perspectiva do Edgar (acima) e da Magda

Atrás do coelho branco…

This image has an empty alt attribute; its file name is humpty-dumpty.gif
“Quando eu uso uma palavra”, disse Humpty Dumpty num tom bastante desdenhoso, “ela significa exatamente o que quero que signifique: nem mais, nem menos.”
“A questão é”, disse Alice, “se pode fazer as palavras significarem tantas coisas diferentes.”
“A questão”, disse Humpty Dumpty, “é saber quem vai mandar – só isto.”
Alice através do espelho.

Algumas semanas atrás, refletindo sobre uma ou duas discussões acadêmicas nas quais tinha participado recentemente, lembrei-me do ensaio Wittgenstein, nonsense and Lewis Carroll (1965). Até então, o artigo permanecia apenas listado em um registro de materiais que eu gostaria de ler mas não havia ainda conseguido acessar (e está aqui um dos aspectos dos quais mais tenho saudade de minha vida passada no proverbial “lá fora”: um sistema de bibliotecas em rede…). Enfim, no fim de semana retrasado, conversando com um amigo, surgiu o assunto (da nostalgia por bibliotecas…): para encurtar a história, em menos de cinco minutos, o amigo me enviou o texto.

Antes de “emburacar” na leitura, resolvi fazer uma busca para saber algo mais sobre o autor. Minha primeira parada foi a Wikipedia, mas não encontrei por lá uma página dedicada a George Pitcher (filosofia). Em uma busca grosseira no Google, encontrei várias páginas relativas a um homônimo na Inglaterra e, por fim, um obituário: “George Pitcher, scholar of contemporary philosophy beloved for his ‘sheer humanity,’ dies at 92” [George Pitcher, estudioso da filosofia contemporânea amado por sua pura humanidade, falece aos 92]. Data: janeiro de 2018. Parece ter sido um sujeito interessante.

Enfim, dentre três objetivos apresentados logo de início (escrita boa demais), o texto discute “tipos de nonsense” (não consigo pensar em um bom equivalente em português para isso – não acho que seja exatamente “absurdo”, como sugere o Google Tradutor) examinados por Wittgenstein como fontes de “confusões e erros” na Filosofia, posicionando-os como artifícios propositadamente usados, para efeitos humorísticos, por Lewis Carroll, autor de Alice no País das Maravilhas e Alice através do espelho. Encontrei o artigo em uma busca por escritos que explorassem, em particular, o maravilhoso diálogo da Alice com Humpty Dumpty, que frequentemente me vem à mente quando me vejo em discussões acadêmicas.

Bem, prosseguindo com as buscas, descobri uma verdadeira mina de leituras promissoras que partem de Wittgenstein para discutir especificamente a tecnologia. A perambulação on-line me levou a um número especial da revista Techné: Research in Philosophy and Technology. editada pela Society for Philosophy and Technology, intitulado Wittgenstein and Philosophy of Technology (n.3 de 2018). Fiquei um tempo passeando pelo site da associação e considerando os títulos dos artigos, lembrando de John Monk, colega fantástico que tive na Open University. Foi ele que me apresentou a Wittgenstein, e com ele tive a honra e o prazer de colaborar em vários projetos instigantes e criativos.

No final dos anos 1990, John já falava sobre jogos de tecnologia (veja aqui uma de suas aulas daquela época, registrada em 2002), e reencontro agora a ideia no material da Techné. Infelizmente ainda não consegui obter todos os artigos (só encontrei o editorial com acesso aberto), mas localizei Mark Coeckelbergh, presidente da associação e um dos organizadores do número, e há várias publicações pertinentes em seu perfil na plataforma ResearchGate. Baixei um de seus artigos para ler (Artificial Companions: empathy and vulnerability mirroring in human-robot relations), e, quase que instantaneamente, a plataforma me avisou que minha rede por lá tinha ganhado mais um nó. Achei simpático.

Mark fala sobre sua abordagem nesta palestra, dada em 2018 no Instituto de Estudos Avançados da USP (em inglês e sem legendas em português, mas a tradução automática, mesmo sofrível, deve ajudar):

Por fim, alguns artigos, vários livros interessantíssimos, uma palestra e muito mais: um mundo de ideias novas aparece quando se corre atrás do coelho branco…

Metáforas da Educação e Tecnologia: versões de artigos para baixar livremente

Acabo de subir para o meu perfil da plataforma academia.edu as versões aceitas dos artigos publicados recentemente da revista Learning, Media and Technology. As versões são muito próximas aos textos publicados, que necessitam de acesso via assinatura (o preço de artigos isolados é absurdo para nós, nem comentemos sobre isso…).

Se alguém estiver interessado em ler os trabalhos, mas tiver problemas em acessá-los no academia, o material está aqui também: Great Expectations: a critical perspective on Open Educational Resources in Brazil (parceria com Márcio Lemgruber) e Metaphors we’re colonised by? The case of data-driven educational technologies in Brazil (parceria com Alexandre Rosado, Márcio Lemgruber e Jaciara Carvalho).

Estou aguardando um reset da minha senha no sistema da revista (são tantas as senhas, me escapam da memória frequentemente), pois cada um dos autores recebe 50 e-prints para distribuir, mas preciso acessar o sistema para pegar o link pertinente. Em breve, circularei esse link aqui, e as primeiras 50 pessoas a acessarem poderão baixar o artigo na versão publicada pela revista.

Boas leituras!

Metáforas de Big Data, educação e novas formas de colonização: artigo publicado!

Acaba de ser publicado ahead of print o artigo Metaphors we’re colonised by? The case of data-driven educational technologies in Brazil, na revista Learning, Media and Technology. O artigo integrará um número temático organizado por Neil Selwyn e Thomas Hillman, que deverá sair no início de 2020 com o título “Education and Technology into the 2020s: speculative futures”.

A história desse trabalho é um pouco longa, daí a grande alegria que senti ao ver a notificação da editora em minha caixa de correio ontem pela manhã. As ideias começaram a surgir em 2015, foram amadurecendo ao longo de um tempo de discussões e estudos, e resultaram, por fim, no projeto atual formalizado em final de 2017, como resumido aqui. Este artigo, em particular, é fruto de um trabalho cuidadoso com um corpo de dados relativamente extenso e uma literatura que começou a surgir mais ou menos ao mesmo tempo em que íamos progredindo com as análises.

Enfim, aqui está uma versão em português do abstract de nossa proposta inicial:

Este artigo discute questões imbricadas na disseminação de tecnologias educacionais baseadas em dados no Brasil. No país, como em outros locais, a Tecnologia Educacional (TecEdu) continua a ser defendida com base em discursos otimistas que a constroem como uma panaceia para problemas sociais historicamente enraizados. Ainda que algumas dessas tecnologias tenham realmente contribuído para importantes programas de ampliação do acesso à educação nas duas últimas décadas, a defesa do “solucionismo tecnológico”, refletida em políticas públicas que articulam demandas cada vez mais fortes de melhoria de eficiências através da “inovação”, tem apoiado a mercantilização implacável dos sistemas educacionais do país. À medida que corporações transnacionais, discretamente posicionadas, assumem o controle de áreas-chave desses sistemas, ameaçando reestruturar todo o setor, tecnologias educacionais baseadas em dados – e outras noções da TecEdu apresentadas como “soluções” para ditas necessidades educacionais – fornecem o último exemplo em uma série de “novas” ideias ofertadas em um mercado em constante expansão. No entanto, essas ideias tendem a ser importadas e implantadas de maneiras frequentemente inconsistentes com as necessidades locais reais. Adotando como referencial teórico um recorte da literatura que explora implicações culturais e políticas da noção de “metáforas conceituais” proposta por Lakoff e Johnson – metáforas que encapsulam maneiras específicas de perceber, pensar e relacionar-se com o mundo – este artigo discute metáforas-chave em discursos acerca de tecnologias educacionais baseadas em dados no Brasil. Com base em dados empíricos coletados de fontes institucionais, midiáticas e de marketing abertas on-line, bem como literatura acadêmica sobre a política da tecnologia, o artigo analisa maneiras nas quais certas metáforas promovem perspectivas que ignoram a diferença e obscurecem questões mais amplas da educação, reproduzindo, assim, problemas previamente existentes. Considerando que dados estão sendo concebidos como o “óleo” que deverá impulsionar uma educação anacrônica para o futuro, por um lado, e reconhecendo a capacidade local reduzida para (pelo menos) adaptar sistemas importados, por outro, o artigo examina criticamente um cenário em que as metáforas da TecEdu talvez estejam a apoiar novas formas de colonização.

Estamos trabalhando em outros produtos dessa parte da pesquisa para disseminação em português, mas, por hora, disponibilizo a versão aceita para publicação, produzida após duas rodadas de revisão por pareceristas e extensas revisões.

Clique aqui para baixar um pdf do artigo em sua versão aceita para publicação.

Clique aqui para acessar a página da revista relativa ao artigo.

Encontro inaugural do projeto *Educação, tecnologia e filosofia: diálogos interdisciplinares*

This image has an empty alt attribute; its file name is whatsapp-image-2019-08-29-at-16.24.59-1.jpeg

Tivemos na última quinta (29/08/2019) o primeiro encontro de grupos de pesquisa no escopo do projeto “Educação, Tecnologia e Filosofia: diálogos interdisciplinares”. O projeto envolve os grupos Filosofia da Tecnologia, coordenado pelo prof. Edgar Lyra, do Dept. de Filosofia da PUC-Rio, Formação Docente e Tecnologias, ForTec, coordenado pela profa. Magda Pischetola, do Dept. de Educação da PUC-Rio, e o DEdTec.

Apoiado pelo Instituto de Estudos Avançados em Humanidades, IEAHu, do Centro de Teologia e Ciências Humanas, CTCH, da PUC-Rio, o projeto objetiva

avançar na compreensão e reformulação dos problemas concernentes a uma educação atenta à presença maciça da tecnologia, lançando as bases de sustentação para um espaço interdisciplinar dedicado à discussão de questões pertinentes à relação entre a educação e a tecnologia.

Além dos três coordenadores de grupo, estiveram presentes orientandos de mestrado, doutorado e IC, bem como um dos membros externos do DEdTec, o Prof. Alexandre Rosado, do INES/DESU, que lá coordena o grupo de pesquisas Educação, Mídias e Comunidade Surda e o Mestrado Profissional em Educação Bilíngue, recentemente aprovado pela CAPES (e com inscrições abertas para o primeiro processo seletivo). A Profa. Magda, que está fazendo seu pós-doc no Departamento de Comunicação da Universidade de Copenhague, Dinamarca, se juntou a nós por webconferência.

Inicialmente, cada um de nós coordenadores apresentou a proposta de seu respectivo grupo e, com relação ao DEdTec, falei um pouco mais sobre o projeto corrente. Partimos, então, para uma rodada de apresentações, em particular, das pesquisas dos doutorandos, seguida de discussão de questões e ideias que foram surgindo organicamente. Por fim, compartilhamos sugestões de como poderão ser estruturados os próximos encontros.

A partir dessa conversa, a Profa. Magda sintetizou, em três linhas temáticas, os interesses compartilhados entre os três grupos:

  1. Projeções de futuros imaginados a partir das tendências tecnológicas ditas “de ponta” (por exemplo, Big Data e Inteligência Artificial), em outras palavras, a futurologia (o artigo da Wikipédia oferece uma lista de autores, mas, como sempre, o artigo da Wikipedia – inglês – traz muito mais, inclusive um questionamento sobre o status da futurologia: ciência? Pseudociência? Gênero literário?);
  2. Linguagens, discursos e metáforas: aqui incluímos a Retórica (interesse do Prof. Edgar), Teorias do Discurso (Profa. Giselle), Teoria da Argumentação de Perelman/Olbrecths-Tyteca (Prof. Márcio Lemgruber, que, infelizmente, não pôde participar dessa primeira reunião) e, em particular, o papel da metáfora nessas vertentes teóricas;
  3. Por fim, um questionamento (de cunho mais utilitário, talvez): como lidar com a precariedade e as incertezas que o avanço das tecnologias digitais está a criar? A Profa. Magda, em particular, tem trabalhado em seu grupo com a perspectiva das teorias da complexidade, em particular, a partir do trabalho de Edgar Morin, que inspirou seu livro A sala de aula como ecossistema: tecnologias, complexidade e novos olhares para a educação, lançado recentemente pela Editora PUC-Rio.

Nos próximos dias, deveremos conversar novamente para fechar os planos para a continuação das discussões, o que incluirá uma troca de sugestões de leituras entre os grupos, incluindo produções próprias. Oportunamente postarei updates sobre o desenrolar desse trabalho.

Ficou bastante claro que precisaremos prestar muita atenção aos nossos usos de linguagem. Como bem destacou o Prof. Edgar, diálogos interdisciplinares (intradisciplinares também, com frequência) podem ser difíceis e confusos – precisaremos construir cuidadosamente uma base ou território compartilhado para que sejamos produtivos.