Ética e inteligência artificial: reflexões a partir da teoria utilitarista

Pequeno ensaio produzido pelo aluno de doutorado Vinicius Schambeck.

Imaginar um mundo onde humanos e máquinas coexistem, há tempos deixou de ser um contexto fictício e cada vez mais se mostra como uma realidade já observável nas diferentes esferas da sociedade. Sejam através das tecnologias que permeiam as complexas estruturas de produção global ou nas aplicações cotidianas, termos como big data, inteligência artificial e machine learning deixaram de ser exclusivos aos especialistas e passaram a ter as suas aplicações afetando de maneira prática a vida cotidiana.

Diante dos rápidos avanços nessas áreas, discute-se hoje não mais apenas o alcance funcional das tecnologias mas também os seus limites éticos. A relativa autonomia conquistada pelas máquinas, quando não mais seguem processos de decisão pré-programados pelos humanos, através de algoritmos, e começam a aprender por si mesmas, caracterizam o então chamado machine learning (aprendizado de máquina). Com o exponencial aumento da capacidade de processamento de dados, chamado de big data, a inteligência artificial tem evoluído no seu potencial de incorporar algoritmos de aprendizado das máquinas, com o intuito de aprimorar suas habilidades de processamento previamente programadas.  

A partir de então, dilemas de ordem moral e ética, que permeiam questionamentos desde as civilizações clássicas, atingem também o campo da tecnologia e remontam reflexões ainda sem respostas: como transferir para as máquinas valores humanos, por vezes ambíguos e não universais, a fim de tomar decisões satisfatórias? Diante desse questionamento, o utilitarismo pode servir como referência para entender de que forma o viés racionalista, inerente da lógica matemática por trás da tecnologia, pode embasar o processo de análise e tomada de decisão das máquinas nesse contexto.

Fonte: EFF (2018).
Em sua essência, o utilitarismo pressupõe-se que cada ação individual deve ser avaliada em relação ao princípio da utilidade. Para Bentham (1979), utilidade é o agregado de prazeres, depois de deduzido o sofrimento de todos os envolvidos em uma ação, uma espécie de prazer líquido, que seria base para a felicidade.  Dessa forma, o julgamento das ações deve levar em conta as suas consequências, se essas propiciam o maior bem-estar para o maior número possível de pessoas, minimizado o sofrimento e priorizando a felicidade do maior número de pessoas envolvidas, e assim caracterizando sua utilidade.

O princípio da maior felicidade cunhado por Mill (2007) reforça que o padrão utilitarista não é a maior felicidade do próprio agente, mas a maior felicidade em termos globais, sendo seu fim último buscar as “melhores consequências” para o maior número de pessoas.

Essa realidade já é vista, por exemplo, na indústria automobilística, através do desenvolvimento de veículos autônomos. O primeiro carro autônomo teve seu protótipo lançado nos anos 1980. No entanto, apenas nos últimos anos as companhias automobilísticas, a indústria tecnológica e o setor acadêmico passaram a investir mais no setor. Entretanto, um dilema central envolve a segurança em torno dessa tecnologia: em caso de falha ou acidente, de que forma decidir qual a melhor ação a ser tomada?

Visando investigar esse dilema, Bonnefon et al (2016) desenvolveram uma pesquisa avaliando a percepção dos cidadãos norte-americanos com relação ao processo de tomada de decisão das máquinas nesse contexto. Uma das conclusões do estudo reflete a moralidade utilitarista de que, diante da necessidade de tomada de decisão envolvendo vítimas fatais, seria melhor matar um passageiro do que atropelar dez pedestres. Por outro lado, a maioria dos pesquisados afirmou que não compraria um veículo com esses critérios em seu algoritmo de programação, o que evidencia de certa forma um caráter individualista na análise da situação.

Ampliando, ainda, as possibilidades de aplicação da tecnologia artificial, surgem ferramentas que possibilitam desde a realização de análise preditiva sobre as chances de um réu cometer novos crimes no futuro até sistemas de saúde que avaliam pacientes e classificam chances de sobrevivência em determinados quadros clínicos – tecnologias essas que carregam os mesmos dilemas de ordem ética enquanto sistemas de apoio à decisão. 

Por mais que as tecnologias avancem, não parece razoável esperar que esses dilemas sejam solucionados de maneira completa, ou ainda que surjam valores universais que orientem a ação dessas máquinas em situações que envolvam decisões de cunho moral. O debate atual é amplo e multidisciplinar, trazendo à discussão formadores de políticas públicas, agências reguladoras, indústrias, pesquisadores e especialistas. Sendo assim, torna-se evidente o fato de que a presença humana sempre será fundamental, mesmo em ambientes altamente autônomos, a fim de que se produzam tecnologias sob parâmetros éticos e orientados por critérios de transparência no seu desenvolvimento.

Referências:

BENTHAM, J. Uma introdução aos princípios da moral e da legislação. In: BENTHAM, J.  Coleção os pensadores. São Paulo: Abril Cultural, 1979. p. 3-18.
BONNEFON, J. F.; SHARIFF, A.; RAHWAN, I. The social dilemma of autonomous vehicles. Science, v. 352, n. 6293, june 2016, p. 1573-1576.
EFF – ELECTROCNIC FROUNTIER FOUNDATION. [Imagem de robô pensante.] In: ECKERSLEY, P. How good are Google's new AI ethics principles? Deeplinks Blog. 07/06/2018. Disponível em: <https://www.eff.org/deeplinks/ 2018/06/how-good-are-googles-new-ai-ethics-principles>. Acesso em: 11/10/2019.
MILL, S. O que é o utilitarismo? In: MILL, S. Utilitarismo. São Paulo: Escala, 2007.

Nenhum comentário:

Postar um comentário