Os exemplos de utilização indevida dos sistemas de inteligência artificial são cada vez em maior número, tal como é de gravidade crescente a violação de direitos humanos por parte dos mesmos. Mas quando se enfatiza a urgência de um quadro ético e de uma responsabilização efectiva no desenho e implementação destes sistemas, duas perguntas por excelência se colocam: quem ou que entidade é que deve definir essas mesmas regras e quem ou que entidade as deverá fazer cumprir? Adoptar a Declaração dos Direitos Humanos como guia orientador para dotar de ética a inteligência artificial é uma hipótese com cada vez mais adeptos. Mesmo que tal tarefa se afigure hercúlea
POR HELENA OLIVEIRA

Nos últimos anos, o departamento de polícia da cidade de Nova Iorque tem vindo a compilar uma base de dados gigantesca contendo os nomes e detalhes pessoais de pelo menos cerca de 17500 indivíduos que, (muito) alegadamente estão ou poderão estar envolvidos em gangues de criminosos. Como explica a Technology Review e a propósito de um simpósio sobre Inteligência Artificial e Ética que teve lugar recentemente em Nova Iorque, são muitos os activistas de direitos humanos, investigadores e advogados que se insurgiram face à imprecisão e à discriminação racial patente na base de dados em causa, cujas estimativas apontam para que entre 95% e 99% dos perfis que nela se encontram pertençam a afro-americanos, latinos e ou americanos com ascendência asiática.

O exemplo desta base de dados é apenas mais um entre os inúmeros que a ascensão célere das várias tecnologias que “cabem no chapéu” da Inteligência Artificial (IA) encerra. Se um dos principais problemas da Humanidade no que respeita à IA é evitar que a mesma sirva para usos diabólicos, o outro é, sem dúvida e de forma crescente, a necessidade de se encontrar uma matriz ética que “garanta” que estas novas tecnologias respeitem os indivíduos e os seus direitos.

No mesmo artigo, Sherrilyn Iffil, presidente do NAACP Legal Defense e Educational Fund– uma das principais e mais antigas organizações de direitos civis dos Estados Unidos sediada na cidade de Nova York e com vários escritórios de advocacia – afirma que se uma base de dados desta natureza já é perigosa o suficiente, muito pior será se (ou quando) à mesma se juntar o software de reconhecimento facial, uma tecnologia cada vez mais – supostamente – aprimorada e utilizada já em vários países do mundo, mesmo que sejam diversos os estudos que garantem que a mesma é substancialmente menos precisa na identificação de pessoas de pele escura e de mulheres. Ora, e de regresso ao caso da base de dados utilizada pela polícia de Nova Iorque e como declara Iffil “estamos a falar da criação de uma classe de pessoas que são ‘marcadas’ com um rótulo ou uma etiqueta ‘criminal’”.

[quote_center]Há que encontrar uma matriz ética que “garanta” que os sistemas de IA respeitam os indivíduos e os seus direitos[/quote_center]

Como explica a organização do simpósio, em particular ao longo do último ano, foram muitos os investigadores e activistas que expuseram preconceitos, erros e o uso indevido de várias tecnologias de IA: desde a já mencionada utilização de reconhecimento facial por parte de forças de autoridade que já penalizou inúmeras pessoas indevidamente até à utilização de algoritmos pela indústria da saúde e dos seguros que, erroneamente, cortou benefícios para pessoas que estavam verdadeiramente doentes. Mas e como sublinha o AI Now institute, o centro de investigação que se dedica à analise das implicações sociais da inteligência artificial e o organizador do simpósio em causa, mesmo que a sensibilização da opinião pública e a consequente preocupação em torno destas utilizações abusivas e potencialmente prejudiciais tenha aumentado ligeiramente, certo é que a rápida adopção destes sistemas em vários domínios políticos e sociais sensíveis continua de vento em popa, com escassa supervisão e deficiente transparência.

Os esforços para se lidar com estes desafios crescentes concentram-se frequentemente na importância do binómio `”Ética + IA”, mas são muitas as questões que continuam a não ser respondidas nomeadamente a que está relacionada com a forma de se traduzirem promessas éticas em responsabilização com significado.

Adicionalmente, se muitos profissionais da área do Direito, da academia e de organizações sem fins lucrativos – em particular as que lutam pelos direitos civis – estão crescentemente a enfatizar a necessidade de um quadro ético e de uma responsabilização efectiva no desenho e implementação dos sistemas de IA, a verdade é que duas perguntas por excelência se colocam entre o ideal e o real: quem ou que entidade é que deve definir essas mesmas regras e quem ou que entidade as deverá fazer cumprir?

Por seu turno, os media também não têm passado ao lado deste sumarento assunto, em particular quando as maiores empresas tecnológicas estão, todas elas, a apostar fortemente nas aparentemente infinitas oportunidades decorrentes da IA. Ainda há pouco tempo, um interessante artigo publicado pela VOX dava conta de vários movimentos de trabalhadores de Siicon Valley, nomeadamente da Google, da Amazon e da Microsoft, que exigem que os seus empregadores coloquem a ética antes do lucro nas suas aventuras relacionadas com a IA. E, mesmo que estes gigantes tenham já disponíveis códigos de ética nos quais se comprometem a não utilizar as tecnologias em causa para maus fins, tal como em qualquer outro sector, agir em conformidade com as palavras é muito mais difícil do que ver um camelo a passar pelo buraco de uma agulha. E muito principalmente quando as mesmas tecnologias consideradas perigosas são legitimadas pelos governos e envolvem contratos de milhares de milhões de dólares.

Como se pode ler no artigo da VOX, milhares de empregados a trabalhar em diferentes empresas tecnológicas estão preocupados com projectos de natureza diferente, mas com algo em comum que os move: uma inquietação partilhada sobre vários contratos assinados com o governo dos Estados Unidos e o risco de alguns dos funcionários governamentais utilizarem a sua tecnologia para violar direitos humanos básicos.

Estes e outros trabalhadores estão cada vez mais organizados e têm já uma “coligação” – a Tech Workers Coalition– que junta também sindicalistas, activistas e outros interessados na temática.

Apesar de este ser um grupo informal de trabalhadores do sector tecnológico sem nenhum “organizador central”, debates e reuniões começam a acontecer com maior frequência. E, usando o pior dos exemplos para o mais terrível cenário, citam frequentemente nos seus fóruns, reuniões e eventos  – e mesmo nas cartas que têm sido enviadas aos empregadores em causa – o caso chocante da parceria que a IBM fez com a Alemanha Nazi, quando a primeira ganhou um contrato para fornecer tecnologia que ajudou os nazis a classificar, organizar e assassinar judeus. Na medida em que, enquanto engenheiros, têm a capacidade para construir ferramentas que podem ser usadas para os mais infames fins, a ideia é que tenham igualmente a coragem para se recusarem a fazê-lo em caso de utilização abusiva, gozando já de um sloganque começa a ser crescentemente conhecido – #TechWontBuildIt– e sendo já apelidados pela imprensa como a “Resistência Tecnológica”.

[quote_center]A adopção de sistemas de IA em vários domínios políticos e sociais sensíveis continua de vento em popa, com escassa supervisão e deficiente transparência[/quote_center]

Assim e em paralelo, começamos também a assistir uma mudança na urgência, e também nas tácticas e estratégias que académicos, activistas e os já mencionados trabalhadores da indústria começam a ter para se organizarem contra a influência nefasta e o impacto descontrolado de muitos sistemas de IA.

No simpósio acima referido [e que pode ser visto na íntegra]– cujo objectivo é, e desde há três anos, abordar a intersecção da inteligência artificial, da ética, da capacidade de organização por parte dos investigadores da área em causa e da responsabilização –foi apresentado um relatório  – e no seguimento de outras iniciativas similares que poderá  contribuir para a elaboração de um quadro ético e para o seu cumprimento no admirável e arriscado mundo novo da Inteligência Artificial, mesmo que esta seja uma tarefa hercúlea: aplicar a Carta dos Direitos Humanos à tecnologia.

© DR

A Carta dos Direitos Humanos e a ética na IA

“As mesmas tecnologias inovadoras e práticas sócio-técnicas que estão a reconfigurar a sociedade – permitindo novas formas de interacção, novas oportunidades para o conhecimento e paradigmas de negócios disruptivos – podem ser ‘abusadas’ para a invadir a privacidade das pessoas, fornecer novas ferramentas de discriminação e prejudicar indivíduos e comunidades”. Esta declaração abre a homepage do Data & Society Research Institute, um reconhecido instituto de pesquisa independente com enfoque nas questões sociais e culturais que estão a emergir das novas tecnologias e que junta académicos, investigadores, empreendedores, activistas, geeks, jornalistas e figuras públicas de intelecto reconhecido, tendo ainda parcerias com entidades tão distintas como universidades, fundações, laboratórios, institutos e muitas outras que ajudam igualmente ao seu funcionamento e financiamento.

O Data&Society dedica o seu trabalho a três áreas por excelência. À Automação, estudando desde as implicações sociais desta à manipulação de sistemas algorítmicos, por exemplo, sendo que muitas das suas pesquisas têm como objectivo manter um registo actualizado dos debates e opiniões que, tanto na esfera pública como nos meios mais “científico-tecnológicos” se debruçam, por exemplo, sobre os “sistemas orientados por dados” ou pelo impacto que as máquinas inteligentes e que aprendem (machine learning) têm nas pessoas e na sociedade; à Responsabilização, tentando responder à difícil questão de “quem deve ser responsabilizado”e no sentido de compreender de que forma é que sistemas tecnológicos poderosos podem ser adequadamente governados, o que constitui uma das suas principais preocupações e, por último, mas não menos importante, à questão dos Valores: considerar o que é ético, justo e apropriado influencia as suas diferentes abordagens em termos de investigação, bem como os trade-offs que têm de ser feitos, tendo ainda em conta os valores em conflito e as suas implicações sociais. Em suma, as suas iniciativas e programas têm como enfoque a privacidade, a justiça social, a equidade e a imparcialidade.

[quote_center]Milhares de empregados a trabalhar em diferentes empresas tecnológicas temem que funcionários governamentais utilizem a sua tecnologia para violar direitos humanos básicos[/quote_center]

Assim, e tendo em conta que a natureza da ética é, por definição, “ambígua e de difícil responsabilização ”, são já muitas as vozes que têm vindo a manifestar-se no sentido de que a melhor forma de reestruturar as consequências derivadas dos usos indevidos da IA é redefina-la em termos de direitos humanos.

E foi essa mesma proposta que, em forma de relatório, a Data&Society apresentou no simpósio em causa. Intitulado Governing Artificial Intelligence:Upholding Human Rights & Dignity, o relatório inclui, entre vários temas, um conjunto de recomendações para que as empresas de tecnologia se envolvam com grupos de direitos civis e com académicos e para que conduzam avaliações de impacto ao longo dos ciclos de vida dos seus sistemas de IA. Uma estrutura legal baseada na Declaração Universal dos Direitos Humanos poderá fornecer, pelo menos idealmente, aos que trabalham no desenvolvimento da IA, “uma orientação aspiracional, normativa e legal que defenda a dignidade humana e o valor inerente a cada indivíduo independentemente do seu pais ou jurisdição”, pode ler-se no documento.

Muito sumariamente, o relatório sublinha o seguinte: “Para que a IA possa beneficiar o bem comum, no mínimo que o seu desenho e aplicação possam evitar danos nos valores humanos fundamentais. Os direitos humanos internacionais oferecem uma formulação robusta e global desses mesmos valores”.

No relatório em causa, a Data&Society tomou como ponto de partida cinco grandes exemplos de “áreas” de direitos humanos – a não-discriminação, a igualdade, a participação política, a privacidade e a liberdade de expressão –, demonstrando de que forma cada uma delas está implicada num conjunto de controvérsias recentes provocadas por sistemas relacionadas com a IA. Adicionalmente, sumarizou igualmente um conjunto diversificado de iniciativas que estão a trabalhar também no sentido de se tomar a Carta dos Direitos Humanos como o guia orientador para “incrustar” ética nos sistemas de IA.

Mas e no que respeita aos exemplos, estes são sérios e em grande escala: o escândalo da Cambridge Analytics e todo o terramoto que se lhe seguiu; o facto de o Facebook, o Twitter e a Google terem sido obrigados a testemunhar frente ao Congresso norte-americano devido às suspeitas do envolvimento russo nas eleições presidenciais dos EUA; a primeira morte provocada por um carro autónomo da Tesla; o facto de o famoso Watson da IBM ter recomendado tratamentos para o cancro “não seguros e incorrectos” até à revelação do Projecto Maven, um projecto militar do governo dos Estados Unidos que se baseia na construção de drones que recorrem à inteligência artificial em cenário de guerra para acelerar o processo de reconhecimento de objectos e mais tarde descontinuado pela Google, que acabou por ceder à pressão de muitos dos seus trabalhadores e principais cientistas que se recusaram a trabalhar numa tecnologia com capacidades letais. Ou e em suma, e também apresentados minuciosamente no simpósio do AI Now Institute [v. vídeo Year in Review], foram muitos os escândalos “de ausência de ética na IA” que marcaram o ano de 2018 até agora.

Tendo consciência que os direitos humanos convencionados não poderão abordar todas as preocupações presentes e futuras na esfera da IA, a ideia é, contudo, que estes sirvam, pelo menos, de ponto de partida para um quadro ético mais abrangente e de eficiente aplicabilidade.

© DR

A dupla natureza da IA enquanto impulsionadora do bem ou do mal

Na medida em que são já variadas as abordagens com base na ética no que respeita ao desenvolvimento e aplicação responsável IA que emergiram de forma mais significativa nos últimos dois anos, cobrindo questões como a privacidade, a vigilância, a discriminação, o preconceito, consequências não intencionais e utilização consciente e deliberada de certas tecnologias para maus fins, o debate sobre o futuro da IA tem vindo a ser finalmente enriquecido, mesmo que sejam ainda muitas as empresas e os governos que, por motivos vários, não o tenham incluído nas suas agendas.

E a utilização da Declaração Universal dos Direitos Humanos como “estrela do Norte” para a IA é uma hipótese que está a ganhar um número significativo de adeptos. Existe já um conjunto crescente de líderes de opinião, da sociedade civil, de grupos estreitamente ligados à indústria da tecnologia, de empresas, governos e de associações profissionais que defendem que a protecção, o respeito e a observância dos direitos humanos deverá estar no centro da visão que temos e que teremos da Inteligência Artificial.

A titulo de exemplo, e como refere também o paper intitulado “Artificial Intelligence: A Rights-Based Blueprint for Business” e publicado pela BSR™ – Business for Social Responsibility, uma organização global que junta cerca de 250 empresas de variados sectores, “o sector privado acredita que as abordagens baseadas nos direitos humanos oferecem um enquadramento robusto para o desenvolvimento e utilização responsável da IA e devem integrar uma parte essencial das políticas e práticas de negócios”.

[quote_center]Uma estrutura baseada na Declaração Universal dos Direitos Humanos poderá fornecer uma orientação aspiracional, normativa e legal que defenda a dignidade humana[/quote_center]

O paper em causa oferece exemplos de grupos da sociedade civil e de organizações de trabalhadores que têm vindo a explorar as implicações sociais, éticas e de direitos humanos deste tipo de tecnologias, referindo também que existe já uma comissão nacional de direitos humanos que está a lançar um projecto que visa assegurar que os estes constituem uma prioridade no desenho e regulação das novas tecnologia e que são já várias as associações profissionais que os referenciam nsa suas tentativas de criar novos princípios e códigos de ética.

Mais importante ainda foi a assinatura, em Maio de 2018, da Declaração de Toronto, por várias organizações de direitos humanos e de grupos do sector tecnológico, a qual pede aos governos e às empresas de tecnologia que se comprometam no sentido de que os sistemas de machine learning não comprometam a igualdade e o direito à não-discriminação. Mas não só.

Como se pode ler no preâmbulo desta Declaração, “os direitos à igualdade e à não-discriminação são apenas dois dos direitos humanos que podem ser adversamente afectados através da utilização de sistemas de machine learning: a privacidade, a protecção de dados, a liberdade de expressão, a participação na vida politica, a igualdade perante a lei ou o mero acesso a um medicamento são apenas alguns dos demais direitos que podem ser lesados com a utilização indevida desta tecnologia. O mesmo preâmbulo alerta também que os sistemas que podem tomar decisões e processar dados podem envolver outros direitos sociais, económicos e culturais, como por exemplo ter um impacto negativo na disponibilização de serviços e oportunidades variadas nos cuidados de saúde e na educação ou no acesso ao mercado de trabalho e ao emprego digno.

A Declaração sublinha ainda a inclusão, diversidade e equidade como componentes chave para assegurar que os sistemas de machine learning, em particular, e a IA no geral, não criem ou perpetuem a discriminação, em particular contra grupos marginalizados. A verdade é que na sua maior parte, estes sistemas são desenvolvidos, aplicados e inspeccionados por actores que, na sua maioria, estão sedeados em países e regiões em particular, com recursos reduzidos no que respeita a vários grupos em termos de raça, cultura, género e background socioeconómico, o que pode produzir resultados discriminatórios.

A Declaração de Toronto foi assinada no âmbito da RightsCon, a maior conferência mundial sobre direitos humanos na era digital, que juntou este ano mais de 2 mil líderes de negócios, governamentais, decisores políticos, profissionais da tecnologia, académicos e activistas dos direitos humanos, de 130 países.

Presente esteve também Dunja Mijatović, Comissária do Conselho da Europa para os Direitos Humanos. No seguimento da sua declaração intitulada Salvaguardar os direitos humanos na era da inteligência artificial, a Comissária Europeia sublinhou a necessidade de normas rígidas que protejam os direitos fundamentais. Como escreve, “as decisões tomadas sem questionar os resultados de um algoritmo defeituoso ou ‘viciado’ podem ter sérias repercussões para os direitos humanos”. Dando como exemplo e mais uma vez o software utilizado para fornecer informação sobre o estado de saúde ou tipos de deficiência e que acabou por ser responsável por excluir pessoas que tinham direito a diversos benefícios (como baixas de protecção na doença ou coberturas pelos seguros), Dunja Mijatović apontou a dupla natureza da IA, enquanto impulsionadora do bem ou do mal. “Do policiamento à previsão de crimes e de reincidências, os sistemas de justiça criminal em todo o mundo estão a aproveitar as oportunidades da IA”, acrescentou, salientando que que são muitos os especialistas que estão preocupados com a objectividade – ou a falta dela – deste tipo de modelos.

[quote_center]A não-discriminação, a igualdade, a participação política, a privacidade e a liberdade de expressão são direitos que estão a ser prejudicados por sistemas de IA “mal-intencionados”[/quote_center]

Em marcha está já um programa do CEPEJ– Comissão Europeia para a Eficiência da Justiça – que tem já uma equipa multidisciplinar de especialistas a trabalhar num guia orientador para a utilização ética de algoritmos no interior do sistema judicial, incluindo a “justiça preditiva”.

A verdade é que, passo a passo, mesmo que muitos deles sejam ainda lentos, a inteligência artificial, a ética e os direitos humanos estão cada vez mais entrecruzados entre si. E esta intersecção poderá marcar a diferença entre uma boa lâmpada de Aladino que poderá tornar reais muitos dos nossos desejos ou a criação de versões modernas de Frankensteins monstruosos. E está na mão dos humanos escolher entre ambos os caminhos.

Helena Oliveira

Editora Executiva