Não sendo obviamente éticas ou não éticas per se, será a forma escolhida para a utilização das tecnologias de IA que ditará o seu uso para bons ou maus fins. E foi para assegurar a não corrosão dos valores éticos humanos, mas também para esclarecer as próprias empresas, que o Institute for Business Ethics (IBE), em conjunto com várias organizações e especialistas em tecnologia, identificou um conjunto de valores que deverão funcionar como um guia orientador para a saudável implementação e aplicação da IA nos negócios
POR HELENA OLIVEIRA

A evolução célere das tecnologias de Inteligência Artificial (IA) está a dar origem a um conjunto de questões complexas que ultrapassam as fronteiras dos meios académicos e dos centros de investigação tecnológica. Apesar de constituir um verdadeiro “hot topic” da actualidade, são inúmeras as dúvidas que a envolvem e, de forma crescente e ainda bem, governos, empresas e cidadãos estão a exigir um maior conhecimento e, em particular, um “pedido de responsabilização” na forma como as mesmas estão e serão utilizadas, numa tentativa de encontrar soluções eficazes para as inúmeras questões legais e éticas que irão surgir com a crescente integração da IA na vida de todos nós.

Na ética empresarial, e em particular, a ascensão da IA está a provocar um conjunto importante de considerações, no qual se inclui, entre vários outros, o nível de controlo que as organizações deverão ter sobre os processos de decisão levados a cabo pelas máquinas e qual a melhor forma de assegurar que os sistemas de AI por elas adoptados funcionem de acordo com os valores que perseguem.

A IA está a tornar-se crescentemente poderosa e as suas aplicações no ambiente de negócios estão apenas a revelar um pico visível numa enorme montanha de potencialidades. Assim, é igualmente crescente o número de líderes empresariais que concorda que as organizações responsáveis precisam de redefinir a sua interacção com a tecnologia com o intuito de se provarem confiáveis, aos olhos de todos os seus stakeholders, nesta nova era que modificará drasticamente a forma como vivemos e trabalhamos. E se a um grande poder se junta uma enorme responsabilidade, está mais do que na hora de preparar o meio empresarial para operar com responsabilidade e transparência, e de acordo com um conjunto de normas éticas que garantam o “melhor uso” destas ferramentas ainda envoltas em desconhecimento, secretismo e influência de ordem variada.

Aproveitando as letras da palavra ARTIFICIAL , cada uma delas correspondendo a um “valor” identificado, o Institute for Business Ethics (IBE) lançou a denominada “ethical framework of ARTIFICIAL Intelligence in business” que visa ajudar as empresas a não dar passos em falso neste terreno ainda muito movediço. O VER sumariza de seguida os 10 valores considerados como indispensáveis nesta nova cruzada.

  • Accuracy

A importância do rigor e da exactidão dos dados

As empresas precisam de assegurar que os sistemas de IA que utilizam produzem resultados correctos, precisos e confiáveis. E, para que tal aconteça, os algoritmos precisam de estar livres de tendenciosidades ou de erros que possam advir, por exemplo, de uma amostra populacional desigual ou de um processo de avaliação que não garanta resultados idóneos. As implicações éticas dos algoritmos de machine larning [o subcampo da IA que engloba um conjunto de algoritmos que “extrai” ideias a partir de dados e que automatiza a criação de um modelo analítico] são muito significativas. Um dos exemplos oferecidos pelo IBE está relacionado com a sua utilização pelo sistema de justiça criminal dos Estados Unidos, o qual está a utilizar um software que visa avaliar o risco de reincidência de diferentes tipos de criminosos e que está a sofrer acusações de preconceito raciais na estimativa deste risco.

© DR

Ou seja, é absolutamente imprescindível que este tipo de algoritmos, os quais conferem um enorme poder de decisão a um sistema de inteligência artificial, sejam “treinados” de forma a não permitir a existência de preconceitos de ordem alguma. O que torna extremamente importante, por parte das organizações, a definição de níveis apropriados de rigor na aplicação destes sistemas, sendo igualmente necessário sublinhar que, e na medida em que a IA “aprende” a partir de dados recolhidos pelos humanos, que não sejam os seus próprios preconceitos que se reflictam na tomada de decisão das máquinas. Escusado será dizer que, na era da inteligência artificial, influenciar positivamente o comportamento humano para a integração de valores éticos nestes sistemas constitui um dever para qualquer empresa.

  • Respect of privacy

O necessário reforço do direito à privacidade

A ascensão da Inteligência Artificial tem sido descrita por muitos como a morte da privacidade, sendo igualmente comparada por outros tantos como o Big Brother do famoso livro “1984” de George Orwell. Seja qual for a metáfora que melhor a caracteriza, a verdade é que a IA toca em pontos nevrálgicos da ética associada ao direito à privacidade dos cidadãos. Como é sabido, a Comissão Europeia reforçou recentemente o Regulamento Geral sobre a Protecção de Dados (RGPD)  relativo à protecção das pessoas singulares no que diz respeito ao tratamento de dados pessoais e à livre circulação dos mesmos. O RGPD entrará em vigor a 25 de Maio de 2018, em todo o espaço europeu, reformulando artigos do regulamento actual e introduzindo novas regras e obrigações a cumprir por parte das empresas. O IBE chama a atenção para a necessidade de as organizações estarem adequadamente preparadas para a sua abordagem e cumprimento, ao mesmo tempo que assegurem que as mudanças nele contidos sejam claramente comunicadas aos seus funcionários.

  • Transparency and openness

A transparência da informação aumenta os níveis de confiança e evita medos injustificados

Luciano Fiordi, professor de Filosofia e Ética na Informação na Universidade de Oxford, compara a IA a um quarto escuro: “imagine que entra num quarto escuro numa casa desconhecida. É possível que entre em pânico por pensar na possível existência de monstros escondidos na escuridão. Ou pode simplesmente acender a luz e evitar ir contra as peças de mobiliário”.

Ou, por outras palavras, uma maior abertura sobre a utilização de sistemas e algoritmos com IA pode ajudar a iluminar uma parte da opacidade que ainda os envolve. No geral, muitas organizações que desenvolveram e usam agora este tipo de sistemas não permitem o seu escrutínio público na medida em que a programação que lhe está subjacente (o código fonte) é proprietário e mantido longe dos olhos do público. Todavia, e quando apropriado, desvendá-lo poderá constituir um passo importante, na medida em que ajudará a comunidade de desenvolvimento a perceber melhor de que forma funciona a IA e, por isso mesmo, conseguir explicá-la de forma mais rigorosa ao público e aos media. Esta ideia prova ser de importância significativa pois a transparência da informação para o público em geral aumenta os níveis de confiança e evita medos injustificados. A Microsoft, a Google, o Facebook e a Amazon têm vindo a atingir progressos notáveis no desenvolvimento de sistemas de inteligência artificial. E, recentemente, publicaram uma boa parte do seu trabalho para utilização gratuita, exploração, adaptação e, espera-se, melhorias significativas nos mesmos.

  • Interpretability

Uma IA interpretativa será essencial para uma gestão eficaz das máquinas inteligentes

À medida que a IA ganha complexidade, torna-se crescentemente mais difícil perceber como funciona. Em alguns casos, as aplicações de IA são referidas como “caixas negras” quando nem sequer os engenheiros conseguem decifrar por que motivo uma determinada máquina tomou esta ou aquela decisão, o que obviamente poderá dificultar a sua eficácia e gerar preocupações acrescidas. A utilização de algoritmos “caixa negra” torna difícil não só identificar o que aconteceu quando as coisas correm mal, como também reconhecer quem é o responsável por determinado dano ou lapso ético. Uma inteligência artificial interpretativa e explicativa será essencial para que as empresas, e o público em geral, percebam, confiem e façam uma gestão eficaz das máquinas inteligentes.

© DR

E, neste sentido, são já algumas as tendências que estão a emergir no sentido de tornar a IA mais interpretável. Um bom exemplo é fornecido pela DARPA – a Agência de Projectos de Pesquisa Avançada de Defesa dos Estados Unidos – que lançou o programa XAI (Explainable AI) com o objectivo de criar um “conjunto de técnicas de machine learning que produzam modelos mais explicativos, ao mesmo tempo que mantêm um elevado nível de performance de aprendizagem (rigor na estimativa/previsão)” e que “permitam aos utilizadores humanos compreender, confiar adequadamente e gerir eficazmente parceiros artificialmente inteligentes”. Ainda de acordo com a DARPA, os novos sistemas de machine learning terão a capacidade de explicar o seu racional, caracterizar os seus pontos fortes e fraquezas e transmitir a forma como se irão comportar no futuro”.

  • Fairness

Empresas têm um papel crucial em assegurar que a transição para a automação seja feita de forma suave

Equidade e justiça, que constituem temas centrais à teoria dos stakeholders, são de primordial importância para a ética nos negócios no que à IA diz respeito. Justiça e igualdade para todos os stakeholders, e para a sociedade enquanto um todo, exige que as empresas considerem os impactos mais alargados da IA e dos seus desenvolvimentos

Ou seja, e na medida em que estes sistemas artificialmente inteligentes são – e serão – capazes de realizar tarefas anteriormente levadas a cabo por humanos, e de uma forma mais eficiente e confiável, o local de trabalho irá sofrer alterações drásticas, sendo por isso imprescindível que as empresas tomem particular atenção na forma como todo este “progresso” afectará trabalhadores e clientes.

© DR

Sendo um dos maiores receios que envolve o desenvolvimento da IA, é comummente aceite que a automação irá, em primeiro lugar, afectar os trabalhadores com baixos níveis académicos e competências básicas. Mas a realidade é diferente. De acordo com o IBE, apesar das ocupações com competências mais reduzidas serem dramaticamente afectadas, muitos trabalhadores com níveis académicos mais elevados – nomeadamente com formação universitária – irão descobrir que partes (ou o total) das suas funções serão, igualmente, colocadas em risco à medida que a automação de software e os algoritmos preditivos aumentarem, de forma célere, as suas capacidades.

São já muitos os debates actuais que tentam analisar as melhores abordagens possíveis para minimizar disrupções potenciais na força laboral, e que assegurem que os frutos provenientes dos avanços na IA sejam amplamente partilhados, em conjunto com o encorajamento – e não estagnação – da concorrência e da inovação.

O IBE chama também a atenção que não será apenas o progresso tecnológico o responsável por um futuro de isolamento. Outros grandes desafios societais terão igualmente a sua quota-parte de impacto, nomeadamente o envelhecimento da população e a ascensão de novas profissões. Todavia, as empresas têm um papel importante em assegurar que esta transição seja feita de forma suave. O que significa abordar e lidar com questões tão urgentes como o desemprego de longa duração, a desigualdade social e ausência de confiança por parte dos consumidores no que respeita à forma como a IA é utilizada.

  • Integrity

Assegurar que a IA seja utilizada para fins previamente estipulados

© DR

Tal como reza o ditado, integridade é fazer o que está certo quando ninguém está a ver. No contexto da IA, há que assegurar que a mesma é utilizada apenas para os objectivos pretendidos, mesmo quando não existam meios apropriados para os fazer cumprir. Sempre que se desenhe ou se venda um sistema de IA, é importante asseverar que a utilização das suas soluções por terceiros seja restringida aos fins pretendidos e que o utilizador final irá respeitar a utilização para a qual foi previamente acordada.

O perigo da IA tem origem, em primeiro lugar, na forma como esta é utilizada. E a utilização de drones dotados de sistemas de inteligência artificial é um bom exemplo desta máxima. Se por um lado podem melhorar significativamente, e como já acontece, operações de salvamento ou a entrega de mantimentos ou material de saúde em regiões de difícil acesso, podem, por outro lado, ser igualmente utilizados – e para maus fins – em zonas de conflito, o que gera um conjunto inteiramente diferente e ainda mais complexo de questões éticas.

  • Control

Controlar para gerar confiança

Uma grande parte do cepticismo em torno do futuro da IA é alimentado pelo medo de que os humanos possam perder o controlo sobre as máquinas e serem “varridos” por estas, ditando o fim da Humanidade.

Apesar desta visão demasiado catastrofista, para se ter um controlo desejável sobre os sistemas de IA, é importante que tanto as empresas como os programadores trabalhem apenas com tecnologia que conheçam verdadeiramente. Como já anteriormente citado, ser capaz de explicar as funcionalidades de uma tecnologia sobre a qual aparentemente existe um controlo humano é essencial para gerar confiança nos trabalhadores, nos clientes e em todos os demais stakeholders. Adicionalmente, tal minimiza o risco de esta ser utilizada para maus fins ou o de que terceiros possam retirar vantagens para benefícios pessoais.

  • Impact

Avaliação do impacto e do risco ético

Para além de ser já uma inequívoca realidade, a IA atingiu igualmente o estatuto de buzzword por excelência no mundo dos negócios. Num ambiente onde novas tecnologias de machine learning são criadas e desenvolvidas a um ritmo acelerado, também as empresas poderão sentir-se tentadas a adoptá-las simplesmente porque querem estar um passo à frente da concorrência e na vanguarda dos mais recentes progressos tecnológicos, e não necessariamente porque precisam delas ou porque estas são benéficas para o seu próprio negócio. E só porque uma empresa pode usar uma determinada tecnologia com inteligência artificial, tal não significa necessariamente que a deva utilizar.

Assim, a avaliação do impacto da IA é também importante para ajudar as empresas a evitar custos desnecessários ou riscos potenciais derivados da utilização inadequada deste tipo de tecnologias. Adicionalmente, avaliar o potencial impacto que uma nova tecnologia poderá originar antes da sua adopção, poderá ajudar a identificar efeitos colaterais indesejados ou os seus riscos éticos subsequentes. Desta forma, é importante testar os algoritmos e a implementações destes sistemas artificiais em situações complexas de forma a se ter uma ideia formada de resultados potencialmente impróprios.

Através destes testes, as empresas precisarão de identificar quais os riscos éticos envolvidos, quem é que sofrerá o seu impacto – positiva e negativamente – quem irá suportar os seus custos e se existe uma outra alternativa mais valiosa e menos arriscada.

Esta avaliação de risco ético inclui: a detecção de tendências ou preconceitos e a sua correcção; uma avaliação de risco e análise de impacto de cada uma das ferramentas de IA ; a necessária aprovação pela equipa de gestão; o envolvimento da equipa responsável pela ética da organização para assegurar que os sistemas de IA estão em linha com os valores nela praticados; o envolvimento das equipas de advogados e de compliance para assegurar o cumprimento da protecção de dados e das regulamentações de privacidade e, por fim, um controlo apropriado e robusto das regras de cibersegurança, bem como o acesso às mesmas.

  • Accountability

Quem deve ser responsabilizado quando um sistema de IA viola valores éticos?

A responsabilização é central para a definição de uma boa prática na governança corporativa, na medida em que exige que deve existir sempre uma linha de responsabilidade para as acções das empresas de forma a estabelecer quem tem a resposta para determinadas consequências. Mas os sistemas de IA introduzem uma vertente de complexidade adicional neste tema: quem é responsável por um resultado do processo de tomada de decisão por parte de um agente artificial? A questão é agravada pelo facto de a maioria dos sistemas de IA serem produzidos em regime de outsourcing e não no interior das empresas que os utilizam. Desta forma, e se as máquinas não podem ser consideradas como agentes morais, também não podem, por isso, ser responsabilizadas pelas suas acções.

Assim, quem deve ser responsabilizado quando um sistema de IA viola valores éticos? O programador do algoritmo, a empresa que o adopta ou o utilizador final? A questão não tem para já uma resposta cabal e o debate em seu torno tem vindo a crescer. E apesar da resposta a esta temática permanecer um gigantesco ponto de interrogação, em termos práticos, o que é aconselhável é a inclusão nos contratos de uma cláusula que defina as responsabilidades de cada uma das partes envolvidas em conjunto com as suas limitações.

  • Learning

Envolver os stakeholders e conferir-lhes competências adequadas

Para maximizar o potencial da IA, é necessário que as pessoas percebam, tanto quanto possível, como funciona e quais são as formas mais eficazes para a utilizar. E se tanto os empregados, como outros stakeholder, precisam de se responsabilizar pelas consequências da sua utilização, é necessário que lhes sejam providenciadas as competências certas para o fazerem. E não só capacidades técnicas, como uma compreensão alargada das potenciais implicações éticas que da IA podem advir.

Assim, é importante que as empresas apostem na formação e na comunicação em torno da IA, para que as pessoas sintam que fazem parte do seu desenvolvimento e não sejam somente recipientes passivos ou até vítimas da mesma. Assegurar que os líderes de negócio estão bem informados sobre este tipo de tecnologias e sobre a forma como funcionam é essencial para que se evitem utilizações nefastas das mesmas, mesmo que não intencionais. É igualmente importante que as empresas se envolvam com os seus stakeholders externos, incluindo os media e o público em geral, para aumentar o conhecimento sobre a IA e assegurar que é possível avaliar, de forma mais rigorosa, o seu impacto nas nossas vidas.

Editora Executiva