Um número crescente de organizações está a colocar a tecnologia ao serviço da ética. Seja no apoio à tomada de decisão através de chatbots, seja na utilização de aplicações exclusivamente desenvolvidas para tornarem os códigos de ética e/ou de conduta de fácil acesso para os seus colaboradores e até mesmo ajudando na sua formação. Este foi o tema escolhido para ser abordado no mais recente Fórum de Ética da Católica Porto Business School
POR HELENA GONÇALVES e ANA ROQUE

Experimente pegar no seu smartphone, ir à parte das aplicações e digitar “ethics”: imediatamente irão aparecer aplicações destinadas a ajudar à tomada de decisão.

Uma delas, chamada concretamente Making an Ethical Decision , ajuda a tomada de decisão através de um percurso de reflexão que começa no questionamento sobre quem são as partes interessadas que serão afetadas pela decisão que nos preparamos para tomar e que segue depois para cinco abordagens (à ética):

1 – Utilitarista – se a decisão vai ter mais benefícios ou mais prejuízos para as pessoas afetadas por essa decisão;

2 – Direitos – se a ação tem em conta a proteção dos direitos das pessoas envolvidas;

3 – Justiça – se são respeitados princípios tais como igualdade, distribuição proporcional, etc.;

4 – Bem comum – se esta ação serve os interesses da comunidade ou da sociedade onde está inserida, e

5 – Virtude – se esta decisão se aproxima mais da pessoa que quero ser, que traço de caráter eu demonstro através desta ação.

E não são respostas de sim e não! Para cada pergunta há um cursor que nos permite posicionar num intervalo, tendencialmente mais ou menos de acordo com o que é dito. Depois é feita uma síntese das nossas respostas e é-nos mostrada uma avaliação da potencial decisão, não uma avaliação da justeza, mas uma avaliação dos impactos do que estamos a decidir.

Aplicações como esta respondem a uma dificuldade que tem sido sentida por quem gere a ética e que é a presença da ajuda à tomada de decisão no momento em que a decisão tem de ser tomada. Ou seja, conseguir que os instrumentos de apoio à tomada de decisão ética cumpram o objetivo do “Time to Marketing”, tão difícil de alcançar.

Esta aplicação de que falámos foi desenvolvida pelo Makkula Center for Applied Ethics da Santa Clara University, mas diversas empresas estão também a adotar a tecnologia e a desenvolver aplicações ligadas ao seu código de ética. Por exemplo, a Nokia disponibiliza uma dessas ferramentas para download livre e que tem como mote “making the code of conduct part of everyday business”. Esta aplicação, e para além do Código num formato mais amigável para smartphones, tem uma ferramenta de apoio à tomada de decisão que, de alguma forma, é a transposição para formato digital das perguntas que tradicionalmente surgem no final dos códigos de ética, tais como, “se é consistente com os valores da empresa”, “o que os outros pensariam desta ação”, “se está de acordo com os valores pessoais”, entre outras.

É a tecnologia ao serviço da ética, um tema que merece reflexão e que por isso foi escolhido para ser abordado no mais recente Fórum de Ética da Católica Porto Business School.

Para nos ajudar nesta reflexão tivemos como convidada Fernanda Barata Carvalho, Responsável de Ethics and Compliance na Accenture, uma das empresas globais mais avançadas neste âmbito e que desenvolveu um chatbot (um chat que recorre a tecnologia inteligente para conversação) ligada ao seu Código de Ética e que permite que os seus colaboradores, em tempo real e de forma anónima, coloquem as suas dúvidas.

A ferramenta, denominada COBE, e através da tecnologia inteligente que a caracteriza, tem a particularidade de se ir “auto-melhorando e auto-desenvolvendo” à medida que são acrescentadas mais perguntas, o que confere uma enorme vantagem para a organização.

Para além disso, o COBE apoia uma sistematização da informação de forma automática que permite à Accenture saber quais os aspetos mais críticos em cada área, o momento em que surgem e outras informações que podem enriquecer todo o sistema.

Naturalmente que esta ferramenta não pode dar resposta a todas as perguntas, até porque os dilemas que podem surgir aos colaboradores são difíceis de identificar a priori e nem sequer podem ser previstos com base em métodos dedutivos, uma vez que a ética é também, em grande medida, dependente do momento e do contexto. Por isso, em algumas das perguntas, o sistema não fornece qualquer resposta e simplesmente encaminha o utilizador para uma interação humana, ou seja, para o responsável, nacional ou internacional, pela ética.

Este Programa de Ética ancorado no COBE existe desde 2017 e desde a sua implementação aumentou 20 vezes o número de visitas diárias ao Código e duplicou, logo no primeiro ano, o rácio de pessoas que completaram a formação em ética.

Também objeto de reflexão durante esta sessão do Fórum de Ética foram os tópicos relacionados com os próximos passos do uso da tecnologia em interação com a ética, a inteligência artificial e os riscos com ela relacionados.

Nesta reflexão adicional identificamos um importante risco, o “Moral de-skilling”, ou seja, a perda de capacidades para tomar decisões éticas por falta de experiência e de prática de as tomar. Este risco é apresentado por diversas entidades, incluindo o próprio Makkula Center for Applied Ethics (que desenvolveu a aplicação de que falamos no início deste artigo).

De facto, esta perda de capacidades é algo que já vemos ocorrer em diversos âmbitos: por estarmos sempre disponíveis no telemóvel, perdemos a capacidade de memorizar números de telemóvel; com as ferramentas de geolocalização e os assistentes de viagem, estamos a perder o sentido de orientação; há quem refira até que as aplicações de encontros que fazem, a priori, a análise da maior ou menor afinidade entre pessoas nos afastam da procura autónoma e nos retiram confiança da nossa capacidade de decisão. Essa é, aliás, uma das razões para que, na aviação e apesar de os aviões terem piloto automático, se recomenda que o piloto humano conduza sempre o avião durante algum tempo para que não perca a capacidade de o fazer.

A Partenership for AI, uma estrutura de que a Accenture também faz parte e que reúne 90 organizações (mais de 50% das quais do setor não lucrativo), na reflexão que faz sobre o uso da inteligência artificial, alerta para os riscos ligados à programação e a dilemas surgidos de decisões aparentemente benignas. Alerta também para riscos ligados à proteção de minorias como, por exemplo, questões relacionadas com deficiências no reconhecimento facial.

A questão dos erros é também levantada pelo Fórum Económico Mundial que questiona como nos podemos proteger da estupidez artificial que é, afinal e em grande parte, decorrente da estupidez humana.

E o que pensam as pessoas que trabalham nesta área e que estão, em última análise, por detrás da programação realizada para estas aplicações?

Muitas delas, ou 45% de acordo com um estudo intitulado People, Power and Technology: The Tech Workers’ View, consideram que há falta de legislação. Adicionalmente, 59% dos indivíduos que trabalham em inteligência artificial já se confrontaram com decisões decorrentes da área do design, criação ou marketing de uma tecnologia, considerando que estas podem ter consequências negativas para as pessoas e para a sociedade.

As razões dos riscos mais referidas são a falta de segurança, a atenção às necessidades dos consumidores e a falta de testes dos produtos, uma vez que as decisões são, muitas vezes, tomadas de forma muito rápida.

E o que os ajuda, a si próprios, a tomar decisões? No estudo referem que, em caso de dúvida, recorrem aos seus valores pessoais. Ou seja, podemos concluir que o treino na tomada de decisão humana do ponto de vista da ética não pode ser deixado para trás.

 

NOTA: O Fórum de Ética foi criado em 2015, reúne trimestralmente cerca de 30 pessoas com elevada senioridade empresarial, com o objetivo de estimular e apoiar a reflexão sobre ética empresarial; promover a troca de experiências entre organizações; criar conhecimento no domínio da ética e potenciar uma maior adequação da oferta da CPBS às necessidades reais do mercado.

DEIXE UMA RESPOSTA

Please enter your comment!
Please enter your name here