15/11/2024
Filosofia da IA
Os problemas ético-filosóficos da Inteligência Artificial
Originalmente criado como material de apoio para aula ministrada no curso de extensão
Este escrito tem como objetivo apresentar os problemas filosóficos próprios derivados do modelo técnico denominado Inteligência Artificial. Defenderemos que na medida em que se posiciona como tecnologia de uso geral, acaba por inaugurar um novo paradigma científico a partir do qual tais problemas se enquadram. A apresentação se divide num primeiro momento de explanação técnica do estado da arte da tecnologia, e num segundo momento de exercício filosófico de categorização e análise, onde iremos apresentar os problemas derivados dos avanços da tecnologia em questão.
1 - PARADIGMAS TÉCNICO-FILOSÓFICOS: SIMBOLISMO X CONEXIONISMO
Falar sobre o estado da arte da tecnologia da informação é um tanto arriscado, pois a velocidade com que novas tecnologias surgem é maior do que a velocidade da escrita humana. Tal imediatismo pode ser analisado de uma perspectiva política como reflexo do momento que vivemos como sociedade, onde a hiper conectividade concretizada pelo paradigma da internet das coisas tornou a todos rastreáveis e controláveis através da tecnologia. Neste sentido, podemos afirmar que a tecnologia se mostra atualmente como paradigma geral através do qual experienciamos e compreendemos o mundo.
De uma perspectiva técnica, tal hegemonia superestrutural possui seu ápice temporário no atual paradigma da Inteligência Artificial Generativa[1], que materializado nos LLM (large language models) está colocando em evidência a urgência de rever nossos con¬ceitos de agente, inteligência e responsabilidade moral, pois as usuais categorias filosóficas não acomodam mais os problemas próprios da tecnologia, que resultou num mundo de agentes artificiais em constante autotransformação e aprendizado, e onde nós humanos perdemos os critérios de compreensão sobre os limites do que é humano e o que é máquina.
Para compreender as implicações concretas do atual paradigma sem correr o risco de cair em visões alarmistas de senso comum, se faz necessário entender, ao menos de forma abstrata, como tais tecnologias funcionam, através de uma breve reconstrução histórica da evolução tecnológica da IA.
1.1 - A posição Simbolista
Simbolismo é o nome dado ao primeiro paradigma científico da história da AI. Seu nome diz respeito a teoria de que inteligência é nada mais que manipulação de símbolos, e que máquinas capazes de manipular símbolos são máquinas inteligentes. O desafio para uma IA semelhante à humana seria de caráter apenas técnicas: construir máquinas capazes de reproduzir os estados mentais humanos no que diz respeito a sua capacidade de manipulação simbólica.
Podemos afirmar que quando um algoritmo processa dados a máquina está de fato pensando? Em seu artigo seminal “Computing Machinery and Intelligence”[2], Turing propõe que a pergunta sobre a possibilidade das máquinas pensar seja substituída por um jogo, chamado por ele de jogo da imitação. O objetivo é fazer com que uma máquina engane um ser humano num jogo de perguntas e respostas, tentando se passar por humana ao responder perguntas do interlocutor. Se a máquina se comportar (imitar corretamente) um humano, Turing afirma que então podemos considerar a máquina inteligente. Tal posição foi criticada por alguns (naturalismo biológico e fenomenologia) e defendida por outros (Newell e Simon), e de certa forma a história da inteligência artificial até o momento é uma espécie de movimento em torno de tentar validar ou desvalidar tal teoria fundamental a respeito da inteligência como manipulação de símbolos, que no fundo é também uma questão sobre a natureza do próprio homem.
Qual a distância entre imitar um pensamento e pensar? Se nós humanos aprendemos imitando outros humanos, por que um computador imitando humanos não pode também aprender? Para Turing não havia diferença entre imitar o pensamento e efetivamente pensar, pois pensamento humano e pensamento no geral não são também distintos, todos eles são adquiridos a partir da imitação[3].
As teorias simbolistas ganharam mais força conforme as condições técnicas evoluíram no sentido do aumento do poder computacional, e o primeiro software com pretensões de inteligência artificial (Logic Theorist[4]) nasceu em 1956, apenas dois anos após a morte prematura de Turing, e poucos meses antes de John McCarthy cunhar o termo “Inteligência Artificial”, na Conferência de Dartmouth.
(...) Artificial Intelligence is (...) find how to make machines use language, form abstractions and concepts, solve kinds of problems now reserved for humans, and improve themselves. (MCCARTHY, 1955).
O paradigma simbolista se tornou tão forte que a própria definição de AI dependia dele: criar uma IA significaria replicar uma cópia da inteligência humana. Dentre os cientistas criadores do Logic Theorist estavam Allen Newell e Herbert Simon, que publicaram nos anos 70 importantes artigos sobre a teoria simbolista, formando a base teórica para os futuros desenvolvimentos da computação digital.
Como um dos mais importantes e conhecidos críticos da posição simbolista, John Searle buscou invalidar seus pressupostos behavioristas através do argumento da sala chinesa[5], que se trata de um experimento mental que serve de base para sua posição que ficou conhecida como Naturalismo Biológico, levando ao centro da discussão a importância e necessidade dos substratos biológicos para a ocorrência da inteligência como a humana.
Mesmo sendo a linguagem centro do nosso conhecimento e relação com a realidade, são as próprias palavras também fundadas em bases orgânico-biológicas. Desta forma seria necessário diferenciar meras palavras de atos de fala. Tal direcionamento filosófico nos evidencia o fato de que o Naturalismo Biológico[6] é uma posição monista sobre a relação mente/corpo. Parte do pressuposto que não existe separação entre ambos e que estados mentais correspondem a estados físicos.
A principal crítica de Searle ao simbolismo diz respeito a seu principal pressuposto: não discorda do fato do cérebro ser uma máquina, mas não concorda que uma máquina que apresente comportamento idêntico ao humano esteja efetivamente pensando:
A razão por que nenhum programa de computador pode alguma vez ser uma mente é simplesmente porque um programa de computador é apenas sintático, e as mentes são mais do que sintáticas. As mentes são semânticas, no sentido de que possuem mais do que uma estrutura formal, têm um conteúdo. (SEARLE, 1997, p. 38-9).
Cabe citar que também existe uma discussão sobre Intencionalidade Original e Intencionalidade Derivada que envolve Searle e Dennet: para Dennet a intencionalidade das mentes humanas não seria original como imaginava Searle, mas derivada. Desta forma, uma inteligência de máquina puramente formal poderia de alguma forma apresentar intencionalidade. Para que isso aconteça seria necessária uma máquina com capacidades sensíveis próximas das humanas, que aprenderia com o ambiente tal como nós aprendemos. Em Consciousness in Human and Robot Minds[7], Dennet até imagina uma máquina com sensores visuais, braços e sentidos artificiais análogos aos humanos, e afirma que talvez essa seja a melhor forma de criarmos uma inteligência artificial que satisfaça os critérios necessários para ser realmente inteligente.
1.2 - Posição Conexionista
No que diz respeito a teoria da computação, o Conexionismo é o paradigma científico hegemônico dos nossos tempos. Suas bases teóricas remontam a metade do século passado, mas sua evidência se deu somente na última década devido às condições tecnológicas favoráveis de nossos tempos. Por necessitar de uma grande quantidade de informações para treinamento e atribuição de pesos aos dados, tais algoritmos exigem um grande poder de processamento, algo que só se tornou tecnologicamente viável na última década.
O Conexionismo[8] tem suas bases no trabalho do psicólogo Frank Rosenbratt, que criou um algoritmo (descrito no artigo The perceptron: A probabilistic model for information storage and organization in the brain[9]) que buscava reproduzir a estrutura das redes neurais de nosso cérebro, tentando simular as diversas camadas de processamento de informações: o Perceptron.
Tal algoritmo oferecia uma alternativa à arquitetura baseada em símbolos a partir de um novo modelo que utiliza cargas elétricas e suas respectivas intensidades (pesos) distribuídas em camadas para representar dados. Diferentemente dos algoritmos lineares simbolistas, agora os dados poderiam ser salvos de forma distribuída, e processados mesmo que incompletos ou inconsistentes, de forma paralela e por mais de uma unidade de processamento ao mesmo tempo.
A partir de então teve início a chamada Revolução Conexionista, que adentrou nas décadas seguintes com a publicação das obras de MacClelland e Rumelhart, que em 1986 publicaram o artigo An interactive activation model of context effects in letter perception[10] (partes 1 e 2), onde demonstram como sinais elétricos dos nossos neurônios podem ser modelados no formato de expressões lógicas, com a ideia básica de criar uma grande rede de unidades computacionais simples (perceptrons) onde ocorreria processamento de dados, tal qual ocorre com os neurônios em nosso cérebro.
Enquanto o paradigma simbolista era baseado na representação, o conexionismo tinha suas bases fundadas no que a ciência sabe até então sobre processo biológico de aprendizagem, dependendo de grandes quantidades de dados para analisar e apreender seus padrões, que ficam armazenados de forma distribuída nas unidades de processamento da rede.
O problema fundamental da IA que é inerente a todos os paradigmas é o mesmo: as máquinas operam apenas no nível sintático e não são capazes de chegar ao semântico. Mesmo tendo seu modelo inspirado na estrutura do cérebro, as redes neurais artificiais acabam por abstrair partes muito importantes da nossa cognição, tais como a influência biológico-hormonal e a neurotransmissão (parcialmente corrigida pela IA generativa), tornando cada vez mais inviável a ideia de que as inteligências das máquinas devem ser uma cópia da inteligência dos humanos.
Diferentemente dos Perceptrons, nossos neurônios não são homogêneos e reagem de formas diferentes ao mesmo conjunto de cargas elétricas que outros neurônios de outra parte do nosso cérebro, assim como várias propriedades das redes artificiais também não são encontradas nas nossas mentes. Desta forma talvez seja mais seguro afirmar que as redes neurais artificiais copiam apenas partes de nossa atividade cognitiva, simulando somente parcelas da nossa inteligência.
1.3 - LLMs e IA Generativa
Devido à convergência de fatores econômicos, políticos e sociais, o conexionismo se tornou o paradigma hegemônico da IA da atual década. Seus primeiros algoritmos se baseavam numa arquitetura de IA preditiva, onde os modelos e macro variáveis são préinseridos no código, resultando numa ferramenta de automatização monotarefa. Dessa perspectiva, o surgimento dos LLM representa um salto conceitual dentro do próprio conexionismo, pois agora os algoritmos são capazes de criar seus próprios modelos de análise e macro variáveis, resultando em ferramentas de IA multitarefa. A essa segunda arquitetura, capaz de criar forma, criar conteúdo e se autorregular, se nomeia IA Generativa: uma tecnologia de propósito geral e capaz de identificar padrões que lhe indiquem como agir através da predição matemático-estatística.
Historicamente falando, o primeiro modelo de IA generativa funcional foi o GAN (Generative Adversarial Network[11]), desenvolvido em 2014 na University of Montreal, e que exigia um certo conhecimento técnico para ser operado. A evolução técnica de tal conceito resultou na arquitetura Transformer[12], que foi lançada pelo Google em 2017 para servir de base do Google Translate, e que mais tarde serviu de base ao ChatGPT. Lançado em 2022, o ChatGPT foi o primeiro LLM com interface acessível, não exigindo mais a necessidade de conhecimento técnico para ser operado.
Em seu processamento de linguagem natural, cada palavra é codificada em um token e, em seguida, é gerado um mapa de pesos que representa as relações de cada token com o todo. Este mapa de pesos ajuda o modelo a incluir novas camadas de contexto ao gerar uma nova saída, e o modo como esta inclusão ocorre se dá através de modelos da matemática e da estatística, que permitem apontar qual seria a próxima provável palavra esperada no contexto do que está sendo representado:
(...) As GANs tentam replicar uma distribuição de probabilidade. Portanto, é necessário usar funções de perda que reflitam a distância entre a distribuição dos dados gerados pela GAN e a distribuição dos dados reais[13]
Tal salto paradigmático foi responsável por colocar em choque nossas categorias de compreensão do mundo, elevando a IA de mera ferramenta de aplicação específica a tecnologia de uso geral (tal qual o carvão, a energia elétrica e a computação, mudando o funcionamento da sociedade em geral), e isso trouxe consigo uma série de novos problemas éticos. O salto de complexidade funcional tornou também nebulosa a compreensão operacional da tecnologia, ao ponto de as políticas públicas não serem capazes de acompanhar sua velocidade, que anda no ritmo ditado pelos interesses do mercado, que atualmente lucra com os gaps legais derivados da situação.
A ascensão de tais modelos de IA estatísticos utiliza como matéria prima o grande volume de dados produzidos por humanos disponível publicamente na internet, fazendo com que as respostas de tais modelos sejam um reflexo direto dos indivíduos e da sociedade que produziu os dados. Outro indicador da intensidade da força de ligação dos dados com o grupo que os produziu é um estudo recente publicado na Nature (AI models collapse when trained on recursively generated data[14]), que mostra como modelos de IA tendem a colapsar e perder consistência de significado quando retroalimentados com dados gerados.
De forma mais específica, LLM alimentados com textos autogerados precisam de poucas gerações (3 a 9) para comprometer totalmente a consistência compreensiva dos dados gerados, fazendo-os não ser mais ter mais qualquer relação direta com o prompt inicial (e frustrando os planos mais imediatos da Skynet). Socialmente falando, os dados e conteúdos gerados por humanos tendem a ter cada vez mais valor nessa corrida virtual pela criação do melhor modelo de IA, pois os modelos do atual paradigma estatístico colapsam ao ser retroalimentados.
Isso volta o foco da discussão novamente ao ser humano: as máquinas dependem de dados produzidos por humanos para funcionar, ao mesmo tempo que esses dados refletem uma sociedade que não está preparada para usar a tecnologia pelo bem comum, resultando em novas roupagens para as questões éticas estudadas pela filosofia, pois tal modelo de IA que vemos ascender tende a amplificar e disseminar de forma muito mais eficiente as desigualdades sociais e preconceitos existentes nos seres humanos. Devemos treinar a IA com dados falsos que reflitam um mundo ideal? Ou devemos alimentar a IA com dados do “mundo real”, esperando que ela nos aponte uma solução mágica?
Enquanto nós refletimos sobre essas possibilidades, os setores que mais empregam (automotivo, bancário e turístico) são também os que mais automatizam funções, trazendo à tona a questão do trabalho substituível e da realocação desta mão-de-obra humana que está sendo descartada. Será que a IA vai tornar nosso trabalho obsoleto? Ou será que se mostrará como uma ferramenta complementar ao trabalho humano?
2 - OS PROBLEMAS FILOSÓFICOS DA IA
Uma forma de sistematizar a filosofia é categorizar suas áreas a partir dos problemas aos quais se propõe compreender: a teoria do conhecimento lida com o problema mente/corpo, o problema do real, o problema da compreensão - a filosofia da ciência lida com o problema da demarcação, com o problema do objeto, problema da mensurabilidade. Partindo dessa ideia, um estudo filosófico do campo da ética aplicado à IA deve partir de um esforço prévio de demarcação dos problemas que lhe são próprios, assim como sua contextualização dentro das categorias gerais da história da filosofia.
Como candidato a subcampo da ética, o estudo da IA possui problemas específicos, que por vezes se sobrepõem aos problemas da ética em geral, aprofundando ou modificando suas implicações. A partir da obra de Mark Coeckelbergh[15], busquei organizar o que me parece seguro considerar como problemas da ética que são próprios do campo da IA. Ciente que a natureza de tal categorização será sempre incompleta devido ao rápido avanço da tecnologia, arrisco uma demarcação parcial:
- problema da transparência / opacidade
- problema da caixa preta
- problema do viés
- problema do controle
- problema da singularidade
- problema da agência moral / responsabilidade
- problema da correlação e da causação
Assim como nas outras áreas da Filosofia, os problemas podem se sobrepor, onde por exemplo o problema do viés também é, de certa forma, um problema humano. Existe algo com mais tendências do que um ser humano? A própria constituição da individualidade depende de vieses, porém uma IA de propósito geral que reflete uma abstração probabilística de dados pode amplificá-los, tornando-os causadores de dano ao bem comum. Tal sobreposição pode avançar também sobre outras áreas da filosofia, onde argumentações ontológicas ou de antropologia filosófica da tradição se inserem como estrutura argumentativa ou até mesmo pressupostos do problema. Em seguida farei uma breve explicação de cada um dos problemas anteriormente apontados, suas progressivas relações mútuas e possíveis implicações éticas.
2.1 - Posição do Senso Comum
Dou início a exposição pela posição do senso comum, pois ao se falar de uma tecnologia recente e de compreensão nebulosa, invariavelmente o discurso do senso comum acaba se apresentando junto dos argumentos, e é importante saber identificar suas aparições para diferenciar o que é real daquilo que é fruto da mera propaganda.
Coeckelbergh afirma na AI Ethics[16] que o senso comum é carregado desde a antiguidade por ideias de criações humanas que se tornam mais fortes que seu criador. No período antigo podemos ver exemplos como a obra Automata, onde são descritas máquinas que enganavam as pessoas, que as viam como atos dos deuses. Avançando um pouco no tempo, temos Frankenstein onde vemos a energia elétrica (tecnologia nova e pouco compreendida na época) como capaz de dar vida a um corpo, ao mesmo tempo que lidava com discussões da biologia e anatomia (numa época em que a ciência discutia a origem biológica da vida).
De qualquer forma, parece seguro afirmar que novas tecnologias tendem a criar um grande hype inicial devido a incompreensão sobre seu funcionamento, resultando em narrativas onde a criação artificial compete com a força humana pela perpetuação da espécie, narrativas estas que se espalham pela cultura (2001, Blade Runner) e influenciam decisões políticas e comportamentos sociais.
Another example of an influential figure who has spread fear about AI is physicist Stephen Hawking, who said in 2017 that the creation of AI could be the worst event in the history of our civilization (Kharpal 2017). The Frankenstein complex is widespread and deeply rooted in Western culture and civilization. (COECKELBERGH, 2020, p. 23).
Mas como ir além do hype e dar visibilidade às questões inerentemente filosóficas da discussão? Como não cair nas visões do senso comum de simplesmente temer a tecnologia ou acreditar que ela será nossa salvadora? Me parece que a filosofia pode oferecer parâmetros para compreender o continuum que existe entre estes dois extremos, e para que isso faça algum sentido, se faz necessário categorizar didaticamente algumas posições filosóficas relacionando-as aos problemas anteriormente relacionados.
2.2 - Problema da Transparência / Opacidade / Explicabilidade
Este problema deriva diretamente do paradigma conexionista: dado que a distribuição dos pesos dos dados da rede ocorre de forma dinâmica e em velocidade de máquina, se torna humanamente impossível supervisionar os exatos caminhos de tomadas de decisão de uma IA. Ao mesmo tempo que a tecnologia pode nos trazer insights inusitados e valiosos, não pode nos explicar como fez tais conexões e qual a relação de tais conexões com a realidade do mundo (problema da explicabilidade).
O algoritmo do Logic Theorist se baseava em árvores de decisão embutidas em seu código, tornando suas escolhas mais que previsíveis: determinadas. A partir do momento que não existe mais uma árvore de decisão pré-determinada, e sim uma estrutura dinâmica de pesos, se ganha em velocidade e capacidade produtiva, mas se perde na mesma proporção em previsibilidade e determinidade.
This is a problem for responsibility, since the humans who create or use the AI cannot explain a particular decision and hence fail to know what the AI is doing and cannot answer for its actions. In one sense, the humans know what the AI is doing (for example, they know the code of the AI and know how it works in general), but in another sense they don’t know (they cannot explain a particular decision), with the result that people affected by the AI cannot be given precise information about what made the machine arrive at its prediction. Thus, while all automation technology raises problems of responsibility, here we encounter a problem specific to some kinds of AI: the so-called black box problem. (COECKELBERGH, 2020, p. 71).
Não é claro nem para quem desenvolve a tecnologia o modo exato como esses sistemas estabelecem correlações específicas, e quanto maior for esta opacidade, menos controle nós humanos temos sobre como regulamentar a IA. Partindo do pressuposto que a tecnologia é alimentada por dados de humanos, que são cheios de vieses e subjetividades, e que alimentá-la com dados gerados também por IA faz com que sua estrutura contextual colapse, chegamos à conclusão que podemos ter em mãos uma máquina de replicar preconceitos e posições autoritárias que se encontram nos dados que treinam a tecnologia. Voltamos novamente ao problema de criar tecnologia numa sociedade que não emprega prioridade à criação de mecanismos para seu bom uso.
2.3 - Problema da Caixa Preta
No problema da transparência falamos da imprevisibilidade das decisões tomadas através da distribuição dinâmica de pesos da IA, e deste problema deriva também o chamado problema da caixa preta, que pode representar situações extremas onde sequer a própria estrutura do código pode ser corretamente analisada, ampliando drasticamente a falta de opacidade do algoritmo.
Códigos de computador são aprimorados e adaptados aos mais diversos fins, passando pelas mãos de diversos programadores em diversos níveis de abstração, tornando a autoria das ideias conceituais totalmente irrastreável, ao mesmo tempo que nesse processo perdemos parâmetros para apontar quem pode ser responsabilizado por ações tomadas por tal software.
Assim o software se torna uma caixa preta, onde nem seus usuários e nem seus criadores compreendem a totalidade de seu funcionamento (tanto pela questão da explicabilidade quanto pela questão da opacidade). Os primeiros criadores de softwares de IA cujos conceitos são a base da atual tecnologia não previram que a natural evolução dela poderia resultar em agravamento de desigualdades, possibilitando uma sociedade onde existem atos onde ninguém pode ser moralmente responsabilizado, pois compreender os pressupostos de tais atos se encontra fora das possibilidades humanas.
The further and perhaps deeper danger that looms here is a high-tech society in which even those elites no longer know what they are doing, and in which nobody is answerable for what is happening. (COECKELBERGH, 2020, p. 7).
Mesmo no caso de sistemas simbolistas altamente determinados, onde é tecnicamente possível “abrir” a caixa preta, enfrentamos uma segunda camada do problema: tal movimento obrigaria bancos a explicar o motivo de não conceder empréstimos e juízes teriam que explicar os critérios para não conceder uma condicional, o que em certas situações não é algo do interesse nem de um de outro. Aqui novamente chegamos no fator humano e suas indeterminidades.
2.4 - Problema do Viés / Bias
Outra particularidade dos humanos e que se reflete no âmbito tecnológico é a questão do viés (bias). Quando delegamos para a tecnologia decisões que possuem implicações éticas (tais como conceder ou não um empréstimo, demitir ou admitir um trabalhador, conceder ou não liberdade condicional), ocorre com frequência de tais decisões ser injustas/parciais com alguns indivíduos ou grupos. Tal problema é uma constante na sociedade desde muito antes da tecnologia, porém o novo paradigma tecnológico tornou acessíveis ferramentas que são capazes de perpetuar tais problemas a níveis que ampliam significativamente seus impactos negativos.
Tal problema se liga diretamente ao problema da caixa preta: na medida em que nem seus idealizadores conseguem prever suas consequências, fica ainda mais complicado de responsabilizar e criar regras que previnam a ampliação dos problemas sociais intrinsecamente embutidos nos dados usados nos treinamentos. Desta forma, alguém pode injustamente ir para a prisão (como no caso do COMPAS ou Victor), ou sofrer violência física (como o PredPol), não receber um crédito, em resumo, problemas que afetam diretamente o acesso a direitos civis básicos.
O Correctional Offender Management Profiling For Alternative Sanctions, mais conhecido como COMPAS, se baseia num questionário com uma pontuação de um a dez, e este tem ofício mensurar a probabilidade de o agente vir a cometer novos crimes. O questionário do sistema incide, por exemplo, se algum ente da família do réu foi preso, se tem posse de casa própria, se a pessoa vive em área de alto índice de criminalidade ou até mesmo se o agente tem amigos com antecedentes criminais[17]
Mais do que interferir na camada dos dados de treinamento, vieses podem interferir em praticamente todas as etapas do projeto de uma tecnologia, desde a supervisão dos resultados a seus testes de campo. Em 2017 Caliskan, Bryson, e Narayanan[18] apontaram como é possível que algoritmos de machine learning aprendam também os vieses embutidos nos dados dos textos da internet, que são atualmente a principal fonte de treinamento dos modelos de LLM, resultando num mero reflexo da cultura humana cotidiana. Certos preconceitos nem os próprios humanos são capazes de discriminar e compreender, e me parece esperar demais que as máquinas sejam capazes de tal.
This can be because they don’t understand the AI system well enough, are not sufficiently aware of the problem of bias or indeed of their own biases, or more generally do not sufficiently imagine and reflect on the potential unintended consequences of the technology and are out of touch with some relevant stakeholders. (COECKELBERGH, 2020, p. 75).
2.5 - Problema do Controle
Talvez estejamos perante a versão filosófica do já citado complexo de Frankenstein. Coeckelbergh afirma que uma posição transumanista (que acredita na possiblidade de uma IA geral), que a tecnologia ultrapasse as capacidades humanas (singularidade), torna plausível o chamado problema do controle, onde a discussão se centra na possibilidade de uma força maior que nossa própria espécie se tornar responsável por decisões com consequências éticas.
Não temos nenhum tipo de garantia de que uma IA Geral iria se importar com nossos direitos, e nossas regras sociais e pessoais são muito mais que ações estatisticamente previsíveis e sistematizáveis em termos de previsibilidade. Isso cria um real risco de desenvolvermos uma tecnologia que não seja “inteligente o suficiente” para compreender e agir tal qual um humano faria na mesma situação.
Dado o atual estatuto ontológico sobre a possibilidade de uma IA de tal forma vir a existir, acaba que a discussão de tal problema se torna muito mais midiática do que científica, onde vemos grandes nomes da tecnologia perpetuando falsas afirmações sobre o avanço das tecnologias, com a única finalidade de influência ideológica através do argumento da autoridade técnica.
They are also likely to have an impact on technology development. For example, Ray Kurzweil is not only a futurist. Since 2012 he has been director of engineering at Google. And Elon Musk, CEO of Tesla and SpaceX and a very well-known public figure, seems to endorse the superintelligence and existential risk scenarios from Bostrom and Kurzweil. He has repeatedly warned of the dangers of artificial intelligence, seeing it as an existential threat and claiming that we cannot control the demon (Dowd 2017). He thinks humans will probably go extinct, unless human and machine intelligence merge or we manage to escape to Mars. (COECKELBERGH, 2020, p. 21)
2.6 - Problema da Singularidade / IA Geral
Enquanto as visões de John Searle, Daniel Dennet e Paul Churchland apontam para a possibilidade de uma IA Geral, a forma como prescrevem sua possibilidade as torna totalmente inviáveis de uma perspectiva prática. Agregando a discussão, temos a crítica de Hubert Dreyfus[19], que baseada numa leitura (às vezes seletiva) de Heidegger, vai afirmar a total impossibilidade de IA Geral, baseando-se numa pretensa antropologia filosófica incompatível com a fenomenologia hermenêutica na qual ele se fundamenta, resultando numa posição que considera apenas a dimensão social do Dasein, e que me soa com melodias de determinismo.
Uma IA Forte ou IA Geral seria então capaz de, mais do que apenas agir imitando os humanos, também pensar e compreender o mundo tal qual os humanos. A diferença crucial se dá no âmbito da antropologia filosófica, os filósofos possuem diferentes concepções sobre o que seria o homem: Searle e Dennet e Churchland tendem uma visão reducionista, que acredita que a mente funciona tal qual uma máquina, enquanto a visão fenomenológica de Dreyfus afirma a irredutibilidade dos estados mentais aos estados físicos, mas sua interpretação me mostra indícios de uma tendência a certo determinismo social, que neste sentido se opõe à minha interpretação de Heidegger, pois parece ignorar totalmente o caráter de projeto de sentido (Entwurf).
Churchland thinks that science, in particular evolutionary biology, neuroscience, and AI, can fully explain human consciousness. He thinks that the brain is a recurrent neutral network. His so-called eliminative materialism denies the existence of immaterial thoughts and experiences. What we call thoughts and experiences are just brain states. Dennett too denies the existence of anything above what happens in the body: he thinks that we are “a sort of robot ourselves” (…) if the human is basically a conscious machine, then such machines are possible, and not just in principle but as a matter of fact. (COECKELBERGH, 2020, p. 29)
Ambas as visões se opõem ao dualismo cartesiano: a primeira delas por negar a existência da mente como algo separado do corpo, e a segunda por ir além afirmando que o homem como ser-no-mundo é muito mais que apenas a própria mente. Em todo caso, as discussões divergem em categorias filosóficas que são bastante humanas: o que é a consciência humana? O que é a inteligência humana? Como os humanos atribuem sentido aos entes? Como acontece a criatividade?
2.7 - Problema da Agência Moral
No experimento de Turing, capacidades linguístico-comunicativas são critérios que diferenciam inteligência de não inteligência. Porém tais capacidades são compreendidas apenas a partir do caráter apofântico da linguagem (pois neste caso tal capacidade seria mero produto da imitação), ignorando o horizonte de sentido nos quais elas se constituem. Em outras palavras, a significância é a estrutura do mundo, que acontece dentro de uma rede referencial acessada pela manualidade, num âmbito pré-conceitual que antecede a sintaxe da linguagem à qual as máquinas possuem acesso. A interpretação acontece a partir da união das dimensões apofântica e hermenêutica do discurso[20].
Olhando para a história da Ciência da Computação podemos ter certa surpresa ao descobrir que o assunto da moralidade de agentes artificiais não é novidade. O termo AMA (Agente Moral Artificial – Artificial Moral Agent) foi cunhado em 2009 por Allen e Wallach[21], e desde então se tornou um conceito chave dentro do campo da Filosofia conhecido como Machine Ethics[22]. Na época a principal preocupação de seus autores era atentar ao fato de que a evolução das tecnologias levaria ao ponto onde seria necessário pensar uma moralidade dos agentes artificiais. Os acontecimentos da década (larga disponibilidade de dados que as redes sociais e plataformas da internet) aceleraram o processo de aperfeiçoamento das máquinas ao ponto de hoje ser real e rotineira a convivência com inteligências de máquina nos dispositivos do nosso dia a dia.
Mas se os agentes artificiais baseados em machine learning não possuem o mesmo status ontológico que o ser humano, e também não possuem o mesmo que uma máquina linear simbolista, então qual é o status ontológico de tais entes? A criação do conceito de Agente Moral Artificial implicou uma clara divisão dentro dos paradigmas da AI. Keyser em AI and Ethics: Reality or Oxymoron?[23] afirma que o debate esteve sempre centrado na discussão entre duas visões, chamadas de visão convencional (standard view) e visão funcionalista (functionalist view). A visão convencional estaria alinhada com as teorias de Searle e a tradição biológica, que inferem que um agente deva ter racionalidade, intencionalidade e autonomia para a agência moral. Enquanto a visão funcionalista ficaria mais próxima do modelo de Turing, onde seria o comportamento indicador suficiente de capacidades de agência e moralidade.
But behind these legal and insurance systems loom more general questions about the agency of AI and responsibility for AI: how dependent do we want to be on automation technology, can we take responsibility for something the AI does, and how can we attribute and distribute responsibilities? (COECKELBERGH, 2020, p. 69 - 70)
Coeckelbergh afirma que, segundo os termos aristotélicos, para ocorrer responsabilidade moral é necessário adicionar mais uma condição para além da intencionalidade e da autonomia de ação: o agente deve ter consciência do que está fazendo, e isso se perde quando delegamos decisões morais para agentes artificiais.
Na prática o sistema legal lida com tal questão da mesma forma que lida com as consequências dos atos dos animais ou dos humanos que não possuem condições psicológicas de antever as consequências de seu agir: seu tutor se torna legalmente responsável. Seria então uma solução o humano delegar a agência, mas manter a responsabilidade moral? Como proceder num caso em que o problema da caixa preta torna impossível indicar quem é o humano responsável pela criação e treinamento da máquina? E como proceder nos casos em que a própria máquina autonomamente aprende com os dados do mundo, de modo que suas ações se apresentam como generalização de um recorte da sociedade?
Buscando fugir das conhecidas leis de Asimov, que se encontram muito enraizadas em visões tecnológicas de senso comum, faço uso da categorização de James Moor[24], que afirma que Agentes Normativos (que são apenas eficientes) não possuem qualquer acesso a moralidade, devido a sua necessidade funcional. Agentes de Impacto Ético, Implicitamente Éticos e agentes Explicitamente Éticos possuem um acesso, ainda que limitado a alguma camada de moralidade, na medida das necessidades para as quais foram projetados. Já os hipotéticos Agentes Completamente Éticos, que virtualmente possuiriam capacidades comparáveis às humanas na tomada de decisões, teriam acesso a moralidade de uma maneira semelhante à nossa. Tais agentes hipotéticos ainda não foram criados, mas nossa tecnologia está crescendo tão rapidamente que já não é mais tão certo afirmar que jamais serão.
2.8 - Problema da Correlação e da Causação
Como já vimos, os algoritmos conexionistas se utilizam de recursos estatísticos e matemáticos para encontrar padrões dentro de um grande volume de dados, e inferir correlações entre eles. Porém isso não implica que tais correlações reflitam relações causais da realidade. Esse é um problema já bem conhecido dentro na estatística, e Tyler Vigen na sua obra Spurious Correlations[25] mostra vários exemplos reais de como isso ocorre, tais como a relação de como o aumento da busca por memes de gatos na internet e o aumento do recall automotivo de airbags nos estados unidos, ou a correlação entre o consumo capita de queijo mussarela e o aumento da outorgação de títulos de doutorado em engenharia civil[26].
Por mais que a IA tenha se tornado muito boa em encontrar correlações, ela ainda depende dos humanos para identificar quais delas implicam em relações causais reais. Mais do que vieses na coleta, separação e enquadramento dos dados, na prática estamos falando de escolhas sobre formas de abstrair e compreender a realidade, e uma abstração nunca é neutra:
In machine learning, abstraction by means of statistical methods creates a model of reality; it is not reality. It also includes choices: choices concerning the algorithm itself which provides the statistical operation that takes us from the data to the pattern/rule, but also choices involved in designing the data set the learning algorithm trains on. (COECKELBERGH, 2020, p. 58)
Desta perspectiva, parece razoável inferir que a IA do atual paradigma conexionista, tendo seu ápice representado nos atuais modelos generativos, não vai ser capaz de se tornar totalmente livre da intervenção humana, pois na prática nenhum tipo de inteligência é livre de vieses. Como já vimos, ou a IA possui suas tendências embutidas e determinadas em seu código, ou ela as absorve dos dados (sejam estes dados reflexo da realidade geral ou recortes seletivos) e cria suas tendências dinamicamente, resultando em nada mais que a representação de escolhas que, em última análise, não foram decididas pela máquina, agregando assim uma nova camada de profundidade ao problema, e que se estende de forma geral a toda tentativa de reflexão ética sobre a IA, e que em última instância é também um problema ético de nível humano.
3 - CONCLUSÃO
Para além das visões do senso comum, é possível, filosoficamente falando, desenvolver uma reflexão ética sobre a IA sem recorrer a concepções metafísicas ou naturalistas de uma possível natureza humana? Ou talvez o caminho seja normativo a partir de abordagens interpretativas baseadas na intersubjetividade? Talvez a pergunta deva levar em conta ambas as perspectivas, renunciando à aparente dicotomia entre natureza e cultura, pois afinal de contas, ser humano é ser ao mesmo tempo biológico e histórico.
A tecnologia não existe em si mesma, ela sempre existe num contexto social e humano, o que significa que uma ética da IA deve levar em conta também os humanos e o uso que fazem dela nesta realidade sociocultural. Nosso estudo buscou categorizar a partir de uma perspectiva ética os problemas que são naturalmente embutidos na IA, todavia o apontamento de possíveis soluções a tais problemas necessita de um estudo mais abrangente e que inclua também a dimensão política da tecnologia, seus contextos de uso e implicações jurídicas.
A possibilidade da criação de políticas adequadas quanto ao uso e criação da IA deve levar em conta tanto os conceitos abstratos de nível ético que foram discutidos neste estudo, quanto os contextos concretos de aplicação de tais tecnologias, a partir dos quais se pode efetivamente validar e implantar políticas regulatórias e regras de uso para a tecnologia, visando criar as instituições e normas necessárias para a concretização dos esforços conceituais da ética da IA.
Após discutir os aspectos técnicos e posições filosóficas, me parece que a questão ética base de todos os problemas discutidos poderia ser resumia em: nós como sociedade já reunimos as condições necessárias para afirmar ou negar que agentes artificiais podem, de alguma forma, acessar e fazer uso da moralidade? Talvez seja seguro apenas afirmar que depende do agente, da situação, e acima de tudo, do nosso entendimento sobre o que é moralidade.
De nossa parte como humanidade, já deixamos a tecnologia de automação evoluir demasiado no que diz respeito a sua materialidade, mas seu software continua ethically blind[27], o que começa a nos causar alguns problemas. Mais de uma década atrás, Allen e Wallach chamaram atenção para o fato de que era necessário criar regras morais para nossas máquinas, e apenas na última década avançamos um pouco em políticas públicas e estudos éticos. Mesmo que tecnicamente falando as máquinas já sejam responsáveis por ações com consequências morais, sua inteligência, geralmente guiada por interesses comerciais, continua quase que totalmente vazia de moralidade, enquanto os governos falham na sua tentativa de criar regulamentações que acompanhem a velocidade dos avanços da tecnologia.
4 - REFERÊNCIAS
CALISKAN, A., BRYSON, J. J. & NARAYANAN, A. (2017). Semantics derived automatically from language corpora contain human-like biases. Science, 356(6334), 183-186.
COECKELBERGH, Mark. AI Ethics. Cambridge, Massachusetts: The MIT Press, 2020.
DENNETT, DANIEL C., Consciousness in human and robot minds. In: Masao Ito, Yasushi Miyashita, and Edmund T. Rolls (eds), Cognition, Computation , and Consciousness (Oxford, 1997; online edn, Oxford Academic, 22 Mar).
DREYFUS, Hubert L. What Computers Still Can'y Do: A Critique of Artificial Reason. MIT Press, 1992.
KEYSER, Jean Kuhn. (2023). AI and Ethics: Reality or Oxymoron?
MCCLELLAND, J. L., RUMELHART, D. E. (1981). An interactive activation model of context effects in letter perception: I. An account of basic findings. In: Psychological Review, 88(5), 375–407. https://doi.org/10.1037/0033-295X.88.5.375
MCCARTHY, J., A Proposal for the Dartmouth Summer Research Project on Artificial Intelligence, 1955. http://wwwformal.stanford.edu/jmc/history/dartmouth/dartmouth.html.
MOOR, James. The Nature, Importance, and Difficulty of Machine Ethics. Hanover: Darthmout College, 2006.
NEWELL, A. e SIMON, H. Computer Science as Empirical Inquiry: Symbols and Search. Communications of the ACM, 19(3): 113–126, 1976.
ROSENBLATT, F. (1958). The Perceptron: A probabilistic model for information storage and organization in the brain. In: Psychological Review, 65(6), 386–408. https://doi.org/10.1037/h0042519
SEARLE, J., Biological naturalism. In: Schneider S, Velmans M(eds), The Blackwell Companion to Consciousness. Hoboken, New Jersey: Wiley Blackwell, 2017, 327–36.
SEARLE, J., Minds, Brains, and Programs. In: The Behavioral and Brain Sciences 3. Berkeley: University of California, 1980.
SEARLE, J.,The Rediscovery of the Mind, Cambridge: MIT, 1992.
SEARLE, J., Mente, cérebro e ciência. Lisboa: Edições 70, 1997.
SHUMAILOV, I., SHUMAILOV, Z., ZHAO, Y., PAPERNOT, N., ANDERSON, R., GAL, Y.: AI models collapse when trained on recursively generated data. In: Nature. Band 631, Nr. 8022, 25. Julho 2024, ISSN 0028-0836, S. 755–759, doi:10.1038/s41586-024-07566-y.
TURING, A.M. (1950). Computing machinery and intelligence. In: Mind, 59, 433-460.Oxford: Oxford Press, 1950.
VIGEN, T., (2015). Spurious correlations. New York: Hachette Books, 2015.
WALLACH, W., & ALLEN, C. (2009). Moral machines: Teaching robots right from wrong. New York: Oxford University Press.
Últimos Posts
-
15.11.2024 / Filosofia da IA
Os problemas ético-filosóficos da Inteligência Artificial
-
16.11.2020 / Filosofia da IA
Heidegger e os limites da IA: estudando a possível moralidade das máquinas
-
01.12.2009 / Design e Comunicação
O poder de persuasão das mídias sociais
-
15.08.2007 / TI + Dev
Google, o grande cego: um ensaio sobre acessibilidade na internet