Inteligência Artificial, Explicabilidade e Responsabilidade

Fonte: imagem de Gert Aldman, disponível na plataforma Pìxabay – https://pixabay.com/illustrations/web-network-programming-3706562/

Um ano após uma das minhas corridas pela internet atrás do coelho branco, tive o enorme prazer de participar, como uma das mediadoras, da aula inaugural do Dept. de Filosofia da PUC-Rio, ministrada exatamente pelo filósofo Mark Coeckelbergh. A convite do Prof. Edgar Lyra, diretor do Departamento de Filosofia da PUC-Rio, Mark falou para uma público de mais de 300 pessoas (incluindo muitos participantes de fora da PUC-Rio, de fato, de fora do Rio, também). Com o título Artificial Intelligence and the problem of responsibility, foi uma palestra muitíssimo interessante, seguida de uma bateria de perguntas bem variadas (várias delas aludiram a implicações para a educação, especificamente).

Em preparação, eu havia feito a leitura do artigo “Artificial Intelligence, Responsibility Attribution, and a Relational Justification of Explainability” (clique aqui para baixar em pdf do site do autor), seguindo uma indicação do Edgar. De forma geral, o artigo discute a questão da atribuição de responsabilidade em relação ao desenvolvimento (e aos efeitos/decorrências) de tecnologias de AI/IA. Eis uma tradução livre da síntese do argumento, apresentada no finalzinho da Introdução:

O problema da atribuição de responsabilidade é inicialmente abordado a partir da distinção entre duas condições artistotélicas de responsabilidade, uma relacionada a controle e à necessidade de identificar o agente responsável, e outra que examina o conhecimento do agente. Primeiramente, assume-se que, mesmo que as tecnologias de AI ganhem mais agência, humanos permanecem sendo responsáveis, pois apenas eles podem ser responsáveis: tecnologias de AI podem ter agência, mas não atendem aos critérios tradicionais de agência moral e responsabilidade moral. Contudo, há muitos desafios envolvidos na atribuição e distribuição de responsabilidade, não apenas devido ao problema das “muitas mãos”, mas também devido ao que denomino de “muitas coisas”. É importante considerar também a dimensão temporal quando se pensa em causas. Atenção especial é dada, então, a problemas sobre o conhecimento relativo a algumas aplicações de machine learning que têm implicações para a questão da responsabilidade. Usualmente, esses problemas são discutidos em termos de transparência e explicabilidade. Porém, em contraste com muitas das discussões na literatura e em contextos públicos, ressalta-se que o problema do endereçado não deveria ser negligenciado quando se considera a explicabilidade: aqueles a quem os agentes morais são responsáveis. Visto de uma perspectiva mais relacional, há não apenas agentes morais, mas também pacientes morais na relação de responsabilidade. Argumenta-se que a demanda por explicabilidade não se justifica apenas pela condição de conhecimento (saber o que você está fazendo como um agente de responsabilidade), mas deveria basear-se no requisito moral de oferecer razões para uma decisão ou ação àqueles a quem você responde , para os pacientes da responsabilidade. Por fim, outros sentidos do termo “relacional” são explorados: responsabilidade coletiva e o aspecto social de se dar explicações.

Creio que compreender o processo de produção de tecnologias de AI é fundamental para desfazermos o “nó” que parece caracterizar muitas das discussões “não técnicas” dessas tecnologias. Essa compreensão está representada no texto, em particular, nas ideias das “muitas mãos” e “muitas coisas”: os muitos atores, humanos e não-humanos, bem como suas relações, todos mobilizados nessa produção. Nessa perspectiva, a questão da atribuição de responsabilidade se revela ainda mais complexa, mas é a questão da explicabilidade, em si, que permanece como um dos pontos problemáticos para mim. No trecho a seguir, o autor explica o problema (para mim, em parte):

(…) a maior parte dos comentaristas sobre AI concorda que há um problema particular com as ditas “caixas-pretas” constituídas por sistemas baseados em machine learning e redes neurais. Ao passo que, no caso da AI clássica, simbólica, a forma pela qual a tecnologia chega a uma decisão é clara, por meio, por exemplo, de uma árvore de decisão que tenha sido programada no software por especialistas de um domínio [específico do conhecimento], no caso de aplicações de machine learning, não fica claro como, exatamente, o sistema de AI chega a uma decisão ou recomendação. Trata-se de um processo estatístico, e aqueles que o criaram sabem como funciona de modo geral, mas mesmo os desenvolvedores – que dirá os usuários e aqueles afetados pelo algoritmo (…) – não sabem como o sistema chega a uma decisão específica relevante a uma pessoa específica. Eles não podem explicar ou tornar transparente o processo decisório em todos os seus passos.

Mais adiante, Coecklebergh cita estudos que buscam desenvolver técnicas para “abrir a caixa-preta” – essa é uma metáfora problemática que precisa ser examinada mais cuidadosamente (eu sempre desconfiei, desde os tempos de estudante de engenharia, de caixas-pretas – pensava sempre em caixas de Pandora…), juntamente com várias outras metáforas (e metonímias) encontradas nos discursos sobre AI. Pois a questão aqui é como conceber essa “explicabilidade”, uma vez que explicações e razões são contingentes ao público ao qual se destinam. Essa me parece ser a outra parte do problema da explicabilidade.

O artigo, no geral, se soma a outras leituras sobre o assunto que me deixam com a impressão de que o “projeto AI” atualmente em curso é uma péssima ideia. Escrevo isso sem querer implicar que haja qualquer tom profético no texto (ou seja, não identifico esse tipo de sentimento ali); tampouco há qualquer relação do argumento com a futurologia (ou seja, não há especulação em torno de uma possível tomada do mundo pela máquina ou outras ideias afins). Há uma argumentação lógica cujas premissas são explicitadas (inclusive o autor menciona que há limites em partir da perspectiva aristotélica de responsabilidade), e que sugere que as demandas para o desenvolvimento e uso responsáveis de AI são variadas.

Postas em contexto político e econômico (aqui já saímos do escopo do texto), essas demandas mostram-se ainda mais complexas. Reconhecendo o caráter ideológico da tecnologia, bem como daquilo que se diz sobre ela, me parece que a questão da explicabilidade não é apenas “técnica” no sentido de criarem-se descrições do comportamento de diferentes redes neurais a partir de diferentes modelos estatísticos, que permitam esclarecer as formas nas quais as representações destacadas da realidade são processadas por esses sistemas. As descrições precisam ser inteligíveis (se não aceitáveis, legítimas) para uma gama variada de “pacientes”, para usar o termo do autor.

Na palestra, Mark seguiu um caminho ligeiramente diferente do argumento do artigo, e, em seus comentários finais, disse algo me encantou: a necessidade premente (também por questões ecológicas) de pensarmos lógicas diferentes daquela centrada na ideia do “domínio”: da natureza, de outros seres, da própria técnica. Os usos de linguagem que remetem a essa ideia (em inglês, há o bendito harness e master) me incomodam muito e sempre me fazem pensar sobre a atualidade de Frankenstein (obra que ele explora neste lindíssimo texto). De todo modo, no fechamento, Mark mencionou o possível papel da Arte na “desconstrução” dessa lógica (ele não usou esse termo, daí as scare quotes). Gostaria que ele tivesse falado mais sobre isso, mas não era o cerne da palestra.

Fiquei animada para pensar um novo projeto (relacionado a este), mas estava afogada em ruído antes de John Cage me resgatar ontem…

Bem, para fechar (e parar de divagar…): por questões técnicas, a palestra foi gravada em parte, então o material está na fila de edição. Quando for disponibilizado, adicionarei o link em um edit aqui.

Atrás do coelho branco…

This image has an empty alt attribute; its file name is humpty-dumpty.gif
“Quando eu uso uma palavra”, disse Humpty Dumpty num tom bastante desdenhoso, “ela significa exatamente o que quero que signifique: nem mais, nem menos.”
“A questão é”, disse Alice, “se pode fazer as palavras significarem tantas coisas diferentes.”
“A questão”, disse Humpty Dumpty, “é saber quem vai mandar – só isto.”
Alice através do espelho.

Algumas semanas atrás, refletindo sobre uma ou duas discussões acadêmicas nas quais tinha participado recentemente, lembrei-me do ensaio Wittgenstein, nonsense and Lewis Carroll (1965). Até então, o artigo permanecia apenas listado em um registro de materiais que eu gostaria de ler mas não havia ainda conseguido acessar (e está aqui um dos aspectos dos quais mais tenho saudade de minha vida passada no proverbial “lá fora”: um sistema de bibliotecas em rede…). Enfim, no fim de semana retrasado, conversando com um amigo, surgiu o assunto (da nostalgia por bibliotecas…): para encurtar a história, em menos de cinco minutos, o amigo me enviou o texto.

Antes de “emburacar” na leitura, resolvi fazer uma busca para saber algo mais sobre o autor. Minha primeira parada foi a Wikipedia, mas não encontrei por lá uma página dedicada a George Pitcher (filosofia). Em uma busca grosseira no Google, encontrei várias páginas relativas a um homônimo na Inglaterra e, por fim, um obituário: “George Pitcher, scholar of contemporary philosophy beloved for his ‘sheer humanity,’ dies at 92” [George Pitcher, estudioso da filosofia contemporânea amado por sua pura humanidade, falece aos 92]. Data: janeiro de 2018. Parece ter sido um sujeito interessante.

Enfim, dentre três objetivos apresentados logo de início (escrita boa demais), o texto discute “tipos de nonsense” (não consigo pensar em um bom equivalente em português para isso – não acho que seja exatamente “absurdo”, como sugere o Google Tradutor) examinados por Wittgenstein como fontes de “confusões e erros” na Filosofia, posicionando-os como artifícios propositadamente usados, para efeitos humorísticos, por Lewis Carroll, autor de Alice no País das Maravilhas e Alice através do espelho. Encontrei o artigo em uma busca por escritos que explorassem, em particular, o maravilhoso diálogo da Alice com Humpty Dumpty, que frequentemente me vem à mente quando me vejo em discussões acadêmicas.

Bem, prosseguindo com as buscas, descobri uma verdadeira mina de leituras promissoras que partem de Wittgenstein para discutir especificamente a tecnologia. A perambulação on-line me levou a um número especial da revista Techné: Research in Philosophy and Technology. editada pela Society for Philosophy and Technology, intitulado Wittgenstein and Philosophy of Technology (n.3 de 2018). Fiquei um tempo passeando pelo site da associação e considerando os títulos dos artigos, lembrando de John Monk, colega fantástico que tive na Open University. Foi ele que me apresentou a Wittgenstein, e com ele tive a honra e o prazer de colaborar em vários projetos instigantes e criativos.

No final dos anos 1990, John já falava sobre jogos de tecnologia (veja aqui uma de suas aulas daquela época, registrada em 2002), e reencontro agora a ideia no material da Techné. Infelizmente ainda não consegui obter todos os artigos (só encontrei o editorial com acesso aberto), mas localizei Mark Coeckelbergh, presidente da associação e um dos organizadores do número, e há várias publicações pertinentes em seu perfil na plataforma ResearchGate. Baixei um de seus artigos para ler (Artificial Companions: empathy and vulnerability mirroring in human-robot relations), e, quase que instantaneamente, a plataforma me avisou que minha rede por lá tinha ganhado mais um nó. Achei simpático.

Mark fala sobre sua abordagem nesta palestra, dada em 2018 no Instituto de Estudos Avançados da USP (em inglês e sem legendas em português, mas a tradução automática, mesmo sofrível, deve ajudar):

Por fim, alguns artigos, vários livros interessantíssimos, uma palestra e muito mais: um mundo de ideias novas aparece quando se corre atrás do coelho branco…