O Ministério da Administração Interna (MAI) quer regular a utilização dos sistemas de videovigilância pelas forças e serviços de segurança, permitindo que a sua autorização seja efectuada até 72 horas após a captação das imagens. Numa outra proposta, pretende a gravação de imagem e som no centro da Figueira da Foz, com videocâmaras dotadas de software de reconhecimento facial – um tema polémico em discussão na Europa
POR PEDRO FONSECA (TICtank.pt)

O Ministério da Administração Interna (MAI) quer regular a utilização dos sistemas de videovigilância pelas forças e serviços de segurança, permitindo que a sua autorização seja efectuada até 72 horas após a captação das imagens. Numa outra proposta, pretende a gravação de imagem e som no centro da Figueira da Foz, com videocâmaras dotadas de software de reconhecimento facial – um tema polémico em discussão na Europa.

A primeira intenção consta da proposta de lei 111/XIV/2ª, de iniciativa do Governo, que deu entrada no passado dia 6 de Setembro e será debatida na reunião plenária de 6 de Outubro.

Antes, foi aprovada em Conselho de Ministros, assegurando-se então que se pretendia garantir o “respeito pelos direitos fundamentais dos cidadãos”.

Na realidade, a PSP em Lisboa já fez algo semelhante em Abril passado, ao registar em vídeo imagens de uma manifestação “mas o necessário pedido que precede a autorização necessária da Comissão Nacional de Protecção de Dados (CNPD) só ocorreu três dias depois”.

A nova proposta de lei considera que, num âmbito excepcional e em “circunstâncias urgentes”, as videocâmaras podem ser instaladas, usadas e, se o seu uso não for aprovado posteriormente pela CNPD no âmbito de um “processo de autorização a encetar no prazo máximo de 72 horas”, as imagens devem ser destruídas.

Para Raquel Brízida Castro, professora da Faculdade de Direito da Universidade de Lisboa, “algumas das soluções propostas são, manifestamente, de duvidosa constitucionalidade” e “configurar violações graves de vários direitos fundamentais, permitindo, em alguns casos, intrusões discricionárias das forças de segurança, mediante mera autorização do ministro. Nalguns casos, o que se pretende permitir às forças de segurança só é possível, actualmente, em processo criminal, com autorização de um juiz”.

Relativamente ao artigo 9º da proposta, a também advogada questiona “que circunstâncias [urgentes] são estas, excepcionais, que só permitem que a autorização seja pedida 72 horas depois”?

Brízida Castro considera ainda que o documento “prevê uma lista interminável de fins possíveis para a utilização destes sistemas de videovigilância, entre os quais abundam conceitos significativamente indeterminados e eventos de indefinida possibilidade de ocorrência”.

Por exemplo, as autoridades podem aceder aos sistemas de videovigilância de entidades públicas – nomeadamente municipais – ou privadas, “instalados em locais públicos ou privados de acesso ao público”.

Elas podem ainda “visualizar em tempo real as imagens captadas” de forma “presencial ou remotamente”, e os sistemas usados para a “protecção de pessoas, animais e bens, em locais públicos ou de acesso público”, em casos em que se possam verificar perturbações da ordem pública, no “controlo de tráfego e segurança de pessoas, animais e bens na circulação rodoviária” e na “prevenção e repressão de infracções estradais”. O mesmo sucede quando exista uma “elevada probabilidade de ocorrência de factos qualificados pela lei como crime”.

Estes últimos casos são mais uma medida predictiva do que baseada em factos a necessitarem de uma intervenção em tempo real.

Não há fundamento para tal risco
Num outro caso, já apreciado pela CNPD, o MAI pediu a instalação de videocâmaras no centro da Figueira da Foz para serem usadas entre as 18h e as 8h de diversos dias, normalmente feriados ou em época de férias.

No seu parecer, “não encontra a CNPD qualquer fundamento específico” para a captação e gravação sonora, havendo um “risco elevado” de registo de conversas privadas.

Por outro lado, salienta-se o uso do software Control Center da Avigilon, capaz de reconhecimento facial, apesar dessas capacidades não serem usadas e ficarem desligadas, segundo o MAI. Mas, contrapõe a Comissão, “ainda que desligadas, permanecem disponíveis no referido software” e podem ser activadas. Por isso, recomenda que havendo uma autorização para a sua instalação e uso, “seja proibida expressamente a activação dessas funcionalidades”.

Mesmo ao nível europeu não existe consenso sobre este tema sensível, apesar de poder ser útil em termos de segurança, como conclui a análise “Regulating facial recognition in the EU“, publicada pelo European Parliamentary Research Service.

Potencial evolução danosa do reconhecimento facial
“Académicos, ‘stakeholders’ e decisores políticos partilham amplamente as preocupações sobre o respeito dos direitos fundamentais – especialmente a protecção de dados e a não-discriminação – decorrentes do uso crescente das tecnologias de reconhecimento facial. No entanto, os benefícios trazidos por essa tecnologia, que pode realmente melhorar a segurança por meio de autenticação mais precisa e segurança elevada, são inegáveis. Nesse contexto, os legisladores enfrentam o desafio de encorajar o uso legítimo do reconhecimento facial, evitando o uso indevido e protegendo os direitos fundamentais das pessoas. Dadas as preocupações sociais relacionadas com a utilização destas tecnologias alimentadas por inteligência artificial [IA] e o risco de fragmentação do mercado interno caso não sejam tomadas medidas, a Comissão propõe prescrever as circunstâncias específicas que podem justificar essa utilização e estipular as salvaguardas necessárias numa regulamentação sobre a IA. Para o efeito, a abordagem da UE à biometria, e em particular ao reconhecimento facial, assentaria numa distinção entre aplicações biométricas de ‘alto risco’ e de ‘baixo risco’ que conduzisse à aplicação de um regime jurídico mais ou menos restrito. A abordagem à IA pela UE parece complementar as estritas regras da protecção de dados e de não-discriminação já aplicáveis ​​com um novo nível de regras que regem a colocação no mercado das tecnologias de reconhecimento facial. Embora ‘stakeholders’, investigadores e reguladores pareçam concordar com a necessidade de regulamentação, alguns críticos questionam a distinção proposta entre sistemas biométricos de menor e maior risco e alertam que a legislação proposta permitiria um sistema de normalização e auto-regulação sem adequada supervisão pública”.

Relativamente à proposta de regulação da Comissão Europeia, solicitam alterações “nomeadamente no que diz respeito à margem de manobra concedida aos Estados-Membros na aplicação das novas regras. Alguns apoiam regras mais rígidas – incluindo uma proibição total de tais tecnologias”.

Quem ganha com o reconhecimento facial?
O uso destes sistemas está a ser questionado na Europa, nomeadamente o Clearview AI, por poder violar a legislação dos dados pessoais no âmbito do RGPD.

Nos EUA, 24 agências federais analisadas tinham 27 sistemas em funcionamento e muitas pretendem aumentar o uso do reconhecimento facial até 2023, segundo um relatório do Government Accountability Office (GAO).

Em geral, o interesse por estas tecnologias mina as sociedades democráticas, privilegiando o sector privado em assuntos públicos, visando principalmente as minorias. Como se escrevia no diário The Guardian, “o capitalismo do terror justifica a exploração de populações subjugadas, definindo-as como potenciais terroristas ou ameaças à segurança. Ele gera lucros principalmente de três maneiras interligadas. Primeiro, lucrativos contratos estatais são dados a empresas privadas para construir e implantar tecnologias de policiamento que vigiam e administram grupos-alvo. Em seguida, usando a vasta quantidade de dados biométricos e de media social extraídos desses grupos, as empresas privadas melhoram as suas tecnologias e vendem versões de retalho para outros estados e instituições, como escolas. Finalmente, tudo isso transforma os grupos-alvo numa fonte imediata de mão de obra barata – por meio de coerção directa ou indirectamente por meio de estigma”.

HyperFace saliency map. Scarf rendering by Ece Tankal / hyphen-labs.com. 2017

Saber mais:
Facial Recognition Technology Isn’t Good Just Because It’s Used to Arrest Neo-Nazis

AI is increasingly being used to identify emotions – here’s what’s at stake

AI emotion-detection software tested on Uyghurs

Alguns projectos para “baralhar” os algoritmos de IA usados no reconhecimento facial: o já desactivado Hyperface, de Adam Harvey, que “sobrecarregava” os algoritmos, enquanto o Fawkes acrescenta pixéis para distorcer as imagens faciais. A moda também aderiu a estes métodos, como sucedeu com o KOVR ou com os Reflectacles.

O reconhecimento facial não é apenas para humanos: bovinos ou cães perdidos também têm o que se pode denominar de aplicações de reconhecimento animal.

Pedro Fonseca é editor do TICtank.pt