Imagine ter um seguro de saúde recusado – mas quando você pergunta por quê, a empresa simplesmente culpa seu algoritmo de avaliação de risco.

Ou se você solicitar uma hipoteca e for recusado, mas o banco não pode dizer exatamente por quê.

Ou, mais seriamente, se a polícia começar a prender pessoas por suspeita de planejar um crime apenas com base em um modelo preditivo informado por um supercomputador que analisa dados.

Esses são alguns dos cenários com os quais a indústria de tecnologia está se preocupando à medida que a inteligência artificial (IA) avança inexoravelmente, infiltrando cada vez mais aspectos de nossas vidas.

A IA está sendo experimentada na maioria dos setores, incluindo pesquisa e diagnóstico médico, veículos sem motorista, vigilância nacional, alvos militares de oponentes e condenação criminal.

Um relatório recente da consultoria PwC prevê que a IA poderia impulsionar a economia global em US $ 15,7 trilhões (£ 11,7 trilhões) até 2030.

Mas a que custo? Esses algoritmos de software estão se tornando tão complexos que até seus criadores nem sempre entendem como obtiveram as respostas que receberam.

Redes Neurais
Sistema de Redes Neurais Artificias, uma avanço para o desenvolvimento de novas tecnologias.

O advento das redes neurais – projetado para imitar o modo como um cérebro humano pensa – envolve um grande número de processadores interconectados que podem manipular grandes quantidades de dados, identificar padrões entre milhões de variáveis usando aprendizado de máquina e, crucialmente, adaptar-se ao que eles ve aprendido.

Isso permite insights incríveis, desde melhores previsões do tempo até a identificação mais precisa de cânceres.

Mas Rhodri Davies, diretor de política e diretor de programas da Charities Aid Foundation, diz: “Se esses sistemas estão sendo usados para coisas como votar ou acessar serviços públicos, o que estamos começando a ver, isso geralmente é problemático”.

David Stern, gerente de pesquisa quantitativa da G-Research, uma empresa de tecnologia que usa aprendizado de máquina para prever preços nos mercados financeiros, alerta que “o progresso mais rápido da pesquisa de IA nos últimos anos envolveu uma abordagem de caixa preta cada vez mais orientada a dados”.

Adrian Weller
Adrian Weller acha que, se a IA funcionar bem, talvez nem sempre precisemos conhecer ou saber determinada coisa.

Adrian Weller, diretor de programas de IA do Instituto Alan Turing, sugere que a necessidade de entender como uma máquina chega a suas decisões dependerá da importância dessas decisões. E outras considerações podem ser mais importantes que explicabilidade.

“Se pudéssemos ter certeza de que um sistema estava funcionando de forma confiável, sem discriminação e com segurança – às vezes, esses problemas podem ser mais importantes do que se podemos entender exatamente como ele está operando”, diz ele.

Quando se trata de carros sem motoristas, ou diagnósticos médicos, por exemplo, ter uma máquina mais precisa e salvar mais vidas pode ser mais importante do que entender como funciona, diz ele.

“Para o diagnóstico médico, se um sistema tem 95% de precisão, em média, isso soa bem – embora eu ainda queira saber se é preciso para mim pessoalmente, e a capacidade de interpretação pode ajudar a entender isso.

“Mas se tivéssemos outro jeito de ter certeza de que é realmente preciso para mim, então eu poderia estar menos preocupado com a interpretabilidade”.

Se uma sentença de prisão fosse decidida pela IA, deveríamos ter o direito de saber como?
Se uma sentença de prisão fosse decidida pela IA, deveríamos ter o direito de saber como?

Por outro lado, onde a inteligência artificial é usada em sentenças criminais para ajudar a determinar por quanto tempo as pessoas estão presas, é importante entender o processo de tomada de decisão, argumenta ele.

“Se um algoritmo recomendasse que eu ficasse preso por seis anos, eu gostaria de uma explicação que me permitisse saber se ele seguiu o processo apropriado e permitir uma capacidade significativa de desafiar o algoritmo se eu discordar”, diz Weller.

“Eu concordo com as recomendações que devemos exigir que as empresas tenham clareza quando um algoritmo está fazendo alguma coisa, especialmente se esperarmos que seja humano”, acrescenta.

Sem essas salvaguardas, há um risco de as pessoas serem discriminadas sem saberem por quê e se tornarem “extremamente marginalizadas”.

Fonte: https://www.bbc.com/news/business-44466213