Computadores morais? Confiando à inteligência artificial o certo e o errado

Com o passar do tempo, à medida que a inteligência artificial fica mais arraigada no reino da tomada de decisões morais, é inteiramente possível que a inteligência artificial seja usada para que essas decisões se tornem padronizadas. Tudo isso é possível. Mas será que é desejável?  A resposta tem menos a ver com a forma sob a qual a decisão é tomada — através de um algoritmo ou um cérebro humano — e mais com os valores morais que o responsável pelas decisões aplica ao problema. Especificamente, já que se trata de serviços de saúde, precisamos saber o que esses valores dizem sobre a própria vida humana. 

Por Sven R. Larson

Em 12 de março de 1992, um trem de vagão leve em serviço no sistema metropolitano de Gothenburg, Suécia, ficou preso sem energia no topo de uma colina. Os passageiros foram evacuados, e o gerente de tráfego ordenou ao motorista que soltasse os freios e deixasse o trem de dois vagões rolar pela colina cerca de um quarto de milha, para onde as locomotivas poderiam se reconectar com a energia.

Isso, disse ele, reativaria os freios.

O gerente estava errado: era tecnicamente impossível ativar os freios desta maneira. A manobra também era ilegal. 

Quando o trem de dois vagões começou a se mover, ele rolou da parada do trilho, no topo da colina, passando pelo Instituto Chalmers de Tecnologia, onde supostamente deveria pegar energia. Sem freios em funcionamento, o trem acelerou, atingindo uma velocidade estimada de 100 km/h (62mph).

Cerca de 1,6 km (1 milha) descendo a colina, logo após o edifício principal da Universidade de Gothenburg, o trem colidiu com as plataformas da parada de trilho de Vasaparken. O trem esmagou vagões, causou um incêndio e matou 13 pessoas. Outras 29 foram levadas ao hospital, muitas com ferimentos graves. 

Mais tarde, o tribunal considerou o gerente de tráfego totalmente responsável. A sua ordem dada ao motorista para anular ilegalmente o protocolo de segurança estabelecido tinha causado o acidente. Entretanto, de acordo com alguns relatos da época, o acidente poderia ter acontecido devido às raras circunstâncias técnicas.

Em ambos os casos, a tragédia é uma aproximação real do chamado dilema do bonde [https://projects.iq.harvard.edu/files/mcl/files/greene-solvingtrolleyproblem-16.pdf], que às vezes é usado em pesquisas empíricas sobre valores morais. Na experiência de pensamento, um bonde fora de controle está indo na direção onde várias pessoas estão em seu caminho, e a única maneira de salvá-las é mudar a direção do bonde para outra pista, onde ele atingirá um grupo menor de pessoas. A pessoa cujos valores são estudados é convidada a escolher em que pista colocar o bonde.

Na época do acidente em Gothenburg, havia apenas uma via ao longo do trajeto do trem descontrolado. Entretanto, alguns anos mais tarde, um novo trilho, indo para uma parte diferente da cidade, foi acrescentado cerca de um quarto abaixo da colina. Se em 1992 o trilho estivesse no lugar, o gerente de tráfego teria tido a opção de enviar o trem descontrolado para a via alternativa. 

Que via o gerente de tráfego teria escolhido? E se a função do gerente tivesse sido tomada por uma inteligência artificial? A decisão teria sido diferente?

Os computadores estão se tornando cada vez mais envolvidos na solução de problemas morais. Isto é inevitável, pois nos tornamos dependentes deles para mais e mais funções de nossas vidas. Esta tendência nos leva a perguntar:

A Inteligência Artificial deveria ser capaz de tomar decisões morais?

Há uma premissa implícita na expansão da tecnologia das IA, a saber, que ela é impecável, ou pelo menos muito menos propensa a erros do que os seres humanos são. Esta é uma premissa difícil de se confiar, especialmente porque a mais recente expansão da tecnologia da Inteligência Artificial em nossas vidas, os veículos autônomos, provaram exatamente o oposto. Não apenas os veículos autônomos estão longe de serem impecáveis, mas como explica um relatório do Instituto Americano de Seguro para Segurança Rodoviária (IIHS), os veículos autônomos não são muito bons na redução de acidentes.

A razão, diz o IIHS, é que, quando a Inteligência Artificial fica atrás do volante, ela dirige muito similar aos humanos.

Por quê? A resposta a esta pergunta nos diz tudo o que precisamos saber sobre por que não queremos que a Inteligência Artificial tome decisões morais por nós. 

Com o surgimento da tecnologia da Inteligência Artificial, surge um corpo crescente de literatura que examina a relação entre programação e valores morais, tanto na teoria como na prática. Um dos muitos bons exemplos é um artigo recente no BigThink.com, onde Jonny Thomson pergunta: “A ética de quem que deverá ser programada nos robôs de amanhã?”. Com o dilema do bonde em mente, ele pergunta:

  • Quem deve decidir como se comportam nossas novas máquinas? Talvez não precisemos temer uma “tirania da maioria”, como pensou de Tocqueville, mas sim a tirania de uma minoria minúscula localizada no Vale do Silício ou em fábricas de robótica. Estaremos felizes em ter sua visão de mundo e seus valores éticos como modelo para o admirável mundo novo que temos pela frente?

Estas são boas questões, e altamente relevantes, dado os rápidos avanços na inteligência artificial. Ao mesmo tempo, o problema que as perguntas de Thomson abordam não são tão novas quanto possam parecer. Confiar nos computadores em questões éticas é tecnicamente novo, mas a idéia de entregar a tomada de decisões morais às máquinas não é. A forma mecanizada de tomada de decisão moral prevista no crescimento da tecnologia da Inteligência Artificial é, em muitos aspectos, uma adaptação de outra forma bem estabelecida de tomada de decisão mecanizada: a assistência médica administrada pelo governo.

Muitas decisões com implicações diretas para os pacientes são tomadas por funções padronizadas e institucionalizadas dentro de uma burocracia governamental. Os conselhos de especialistas designados usam estatutos, diretrizes regulatórias e poderes discricionários para decidir quais métodos de tratamento são permitidos e quais são proibidos. Outros especialistas decidem quais hospitais, clínicas e áreas da medicina devem receber mais financiamento, e quais devem ter seus orçamentos reduzidos. 

A tomada de decisão moral mecanizada nos sistemas de saúde do governo é feita pelo homem. Eles escrevem os regulamentos e depois tomam decisões com base neles. 

Três desafios morais para a Inteligência Artificial 

Seria desejável substituir os humanos pela Inteligência Artificial? Considere os três exemplos a seguir:

1. Dois pacientes com câncer estão esperando para serem operados. A operação irá curá-los permanentemente, mas esperar mais tempo levará à morte.

O governo não angariou dinheiro suficiente para que ambos os pacientes recebessem tratamento dentro do tempo que salvaria suas vidas. Ambos os pacientes têm 40 anos de idade, são casados e têm dois filhos. Um deles ganha o dobro do dinheiro do outro e — graças à escala progressiva de imposto de renda no país — paga mais que o dobro em impostos do que o outro paciente.

Muitos países utilizam uma ferramenta de tomada de decisão conhecida como QALY, Quality Adjusted Life Years, [https://www.sciencedirect.com/topics/nursing-and-health-professions/quality-adjusted-life-year] em seus sistemas de saúde. Esta ferramenta é utilizada para alocar recursos médicos e para ter prioridades quanto a quem recebe que tratamento médico, e quando. No exemplo atual, o QALY orientaria o hospital a priorizar o paciente que paga mais impostos. Isto garantiria um retorno maior para o governo sobre o custo da cirurgia.

2. Dois pacientes, iguais em todos os aspectos relevantes, estão ambos sendo tratados no mesmo hospital para a mesma rara condição médica. O tratamento é caro e, portanto, muito racionado pelo governo. Apenas um paciente pode receber o tratamento oferecido pelo hospital.

Um dos pacientes explica que seu irmão rico prometeu comprar um novo medicamento médico do exterior conhecido por curar a condição médica, mas devido ao seu alto custo ele foi excluído do fornecimento de produtos farmacêuticos do país. Um grupo de especialistas nega ao paciente o acesso ao medicamento com financiamento privado, alegando que isso levaria a uma distribuição desigual do tratamento médico. 

3. Uma mãe dá à luz uma criança com uma condição médica que requer tratamento para a vida toda. O tratamento permitirá à criança uma vida normal; sem o tratamento, a criança ainda poderá viver, mas será deficiente e dependente de outros para o resto da vida.

Após avaliar a condição médica da criança, o governo ordena a eutanásia. Isso economizará o dinheiro dos contribuintes, por não pagar pelo medicamento ou por não pagar por uma assistência vitalícia. Também pouparia ao paciente a dor de viver uma vida de má qualidade, argumenta o governo.

Como expliquei em meus livros ‘Remaking America’ e ‘The Rise of Big Government’, os dois primeiros exemplos são versões ligeiramente estilizadas de decisões da vida real tomadas regularmente nos serviços de saúde administrados pelo governo. O terceiro exemplo é – no melhor de meu conhecimento – ainda ilegal no mundo civilizado, mas o caso não está muito distante moralmente dos outros dois. Além disso, se o avanço da linha de frente da guerra abortista contra a vida for combinada com a assistência médica administrada pelo governo, o infanticídio poderá em breve ser não apenas legal, mas prescrito sob determinadas circunstâncias.

Em todos os três exemplos, os julgamentos morais a respeito da distribuição de recursos e aplicação de métodos de tratamento foram removidos do paciente. As decisões sobre quem recebe qual tratamento, e quem é deixado para morrer, são guiadas pelas preferências morais encontradas nos estatutos legais ou nas diretrizes regulatórias. 

Algoritmos morais pré-fabricados

As decisões sobre vida e morte se tornaram administrativas, burocráticas – e, sim, mecânicas.

Podemos, e devemos, entregar este tipo de decisões a uma inteligência artificial? Se sim, conforme a primeira pergunta de Thomson, alguém terá que decidir como a inteligência artificial deve tomar suas decisões morais. Alguém terá que escrever as diretrizes de escolha que a inteligência artificial irá aplicar.

Esse “alguém” será muito provavelmente a mesma pessoa que escreveu as diretrizes atuais para as decisões morais nos serviços de saúde administrados pelo governo hoje em dia. Eles serão considerados como tendo a perícia e experiência apropriadas. 

Com o passar do tempo, à medida que a inteligência artificial fica mais arraigada no reino da tomada de decisões morais, é inteiramente possível que a inteligência artificial seja usada para que essas decisões se tornem padronizadas. Cada vez mais, os fabricantes as equipam com preferências morais pré-fabricadas para resolver os problemas considerados mais comuns que a inteligência artificial enfrenta. Essas preferências serão adaptadas às diretrizes de decisões mecanizadas que a maioria dos compradores de inteligência artificial já está usando. 

Os critérios de como priorizar os pacientes, a avaliação dos métodos de tratamento com base em testes padronizados e a decisão sobre se um recém-nascido deve ou não ser eutanaziado podem ser submetidos a algoritmos pré-fabricados e padronizados. Com o tempo, a inteligência artificial usada no sistema de saúde será equipada com isso. Os compradores, ou seja, as agências governamentais encarregadas de distribuir os recursos de saúde, podem então ajustá-la para suas próprias necessidades particulares. 

Pense nisso como um carro que pode ser configurado para ser vendido ao público em geral, como um carro da polícia ou um táxi. Aplicações diferentes, mas a mesma máquina por baixo. 

Tudo isso é possível. Mas será que é desejável?

A resposta tem menos a ver com a forma sob a qual a decisão é tomada — através de um algoritmo ou um cérebro humano — e mais com os valores morais que o responsável pelas decisões aplica ao problema. Especificamente, já que se trata de serviços de saúde, precisamos saber o que esses valores dizem sobre a própria vida humana. 

É possível munir qualquer aplicação de inteligência artificial com uma proibição absoluta de negociação sobre a vida humana? Em teoria, a resposta é afirmativa, claro: assim como podemos decidir que a vida é sacrossanta, podemos programar em um algoritmo de computador que a vida é sacrossanta. Entretanto, na prática, é impossível construir qualquer situação em que a inteligência artificial possa fazer a diferença para melhor, respeitando ao mesmo tempo que a vida é sacrossanta. 

Claramente, a inteligência artificial não tem nenhuma vantagem decisiva nas avaliações qualitativas; sua vantagem está no lado quantitativo. Então, sobre facetas mensuráveis, a inteligência artificial pode aplicar suas habilidades superiores para processar grandes quantidades de dados, tais como no cálculo dos resultados de diferentes padrões de distribuição de recursos para os serviços de saúde. Ao estimar os resultados com mais detalhes do que os humanos poderiam em circunstâncias comparáveis, a inteligência artificial pode tomar melhores decisões quantitativas. 

A única maneira que a superioridade quantitativa da inteligência artificial pode ser usada para avaliações qualitativas é se nós — humanos que programamos os algoritmos — atribuímos valores quantitativos a variáveis qualitativas. Podemos, por exemplo, dar à inteligente artificial a capacidade de calcular se a vida de um paciente será “boa” ou “ruim” como resultado de um tratamento médico. Se for dito à IA para maximizar o “bom”, então ela recomendará o maior número possível de tratamentos com base nesse resultado esperado.

Então, novamente, alguém terá que decidir o que o “bom” realmente significa. A inteligência artificial nunca será capaz de tomar essa decisão de forma independente, a menos, é claro, que ela aprenda a estudar de forma independente a teoria do valor (axiliogia) na filosofia.

Fonte: Katehon

Imagem padrão
Nova Resistência
Artigos: 593

Deixar uma resposta