Está a acontecer todos os dias e a um ritmo muito mais rápido do que poderemos sequer imaginar. E só agora se começa a alertar para os perigos que poderá representar. Estamos a falar de sistemas de Inteligência Artificial e da possibilidade – certa para uns, longínqua ou inatingível para outros – de as máquinas poderem vir a ser mais inteligentes do que os humanos e, na perspectiva mais catastrófica, os conseguirem controlar. Sem alarmes, mas com as cautelas necessárias, um conjunto alargado de cientistas e investigadores subscreveu, recentemente, 23 Princípios que visam assegurar que o progresso na revolução que maior impacto poderá ter na nossa História seja benéfico para a humanidade e não um potencial perigo para a sua “continuação”
POR
HELENA OLIVEIRA

Chama-se The Future of Life Institute (FLI)e tem como missão não só catalisar e apoiar a investigação e as iniciativas que visam “salvaguardar” a humanidade face a possíveis prejudiciais utilizações das (mais) novas tecnologias, mas também antecipar os seus principais desafios. Criado em 2015 por um conjunto dos mais reputados cientistas e investigadores do mundo no que respeita, nomeadamente, à Inteligência Artificial (IA), à Biotecnologia e às Tecnologias Nucleares, cujos progressos poderão ditar a diferença entre o (muito) bom e o (muito) mau, esta organização conta também com um conjunto de benfeitores muito endinheirados que se comprometeram a financiar pesquisas e iniciativas variadas com o objectivo de garantir que o progresso nestas áreas seja benéfico para a humanidade e não um potencial perigo para a sua “continuação”.

A preocupação com os perigos de que, um dia, as máquinas poderão vir a ser mais inteligentes do que os humanos e, por isso mesmo, uma ameaça para a própria humanidade, há muito que já saltou das páginas dos livros e dos argumentos da ficção científica para os ecrãs da vida real. Todavia, parece que só há relativamente pouco tempo, e dado o boom de progressos nas suas variadas áreas, é que começou a ser levada mais a sério, pelo menos pelos cientistas e investigadores que nelas trabalham.

Em 2015, e no seguimento de uma das mais significativas conferências sobre estas temáticas, foi lançada uma carta aberta que alertava para os perigos das denominadas “armas autónomas” que, graças à inteligência artificial, conseguem seleccionar e atingir alvos sem qualquer intervenção humana. No documento que conta hoje com mais de 18 mil subscritores, entre cientistas, investigadores, investidores e analistas de várias áreas, alertava-se para a inevitabilidade, caso não se faça nada, de este tipo de armas se transformar nas “Kalashnikovs de amanhã”. É que, ao contrário das armas nucleares, a produção deste tipo de armamento não exige custos elevados nem materiais difíceis de obter, sendo fácil a sua produção massificada. E, para os subscritores desta carta, é apenas uma questão de tempo até que as mesmas comecem “a aparecer no mercado negro e nas mãos de terroristas, de ditadores que desejam controlar melhor as suas populações, da senhores da guerra que pretendam perpetrar limpezas étnicas, etc.”. A este alerta têm-se seguido outros de natureza similar e, na sua segunda grande conferência, dedicada à IA “benéfica”, realizada no início deste ano no famoso centro de eventos de Asilomar, o FLI juntou investigadores académicos, cientistas, investidores, especialistas e pensadores das áreas da economia, direito, ética e filosofia que, ao longo de cinco dias, discutiram e acabariam por assinar 23 Princípios relacionados com a investigação em IA e que devem ser “honrados” por todos aqueles que, de uma forma ou outra, estão a trabalhar no presente e no futuro daquela que já é considerada, por muitos, como a maior revolução da História da Humanidade, ultrapassando a utilização intencional do fogo, a invenção da agricultura, a revolução industrial e até a dos computadores e a da Internet.

Apesar de ser difícil pesar na balança qual a “mudança mais disruptiva” de todo o sempre, um conjunto alargado de cientistas e observadores acredita que, e em particular, a chamada “Inteligência Artificial Avançada”, será aquela que maior impacto terá na vida do planeta e das pessoas. Até à data, estes 23 Princípios de Asilomar (que ganharam o nome do local onde foram assinados – no famoso centro de eventos em Asilomar, na Califórnia), foram subscritos por 1153 investigadores das áreas da IA/Robótica e por mais 2205 cientistas de outras áreas conexas (os Princípios em causa podem, aliás, ser assinados por qualquer pessoa) e é possível seguir a sua discussão, visto que a ideia é que sirvam como um também “princípio” para um debate contínuo.

No seguimento da conferência em causa, o FLI tem, aliás e em forma de entrevista, convidado vários cientistas a comentá-los e o VER resume, de seguida, três deles que, sendo impossível também ordená-los de acordo com a sua importância, nos obrigam a reflectir, pelo tremendo impacto que podem ter nas nossas vidas e não só, no que ao futuro diz respeito. Ou a um presente que ainda desconhecemos.

© Future of Life Institute

O Princípio da Importância
A IA avançada poderá representar uma mudança profunda na história da vida na Terra e deverá ser planeada e gerida com cuidados e recursos apropriados

“É impossível estarmos demasiado preparados”, afirma Roman Yampolskiy, professor de IA e que face às questões ainda sem resposta subjacentes a este enorme impacto que a IA poderá ter – para o que é que devemos estar preparados e o que representará a IA para a sociedade no geral – exorta a jogar pelo seguro e a nunca sobrestimarmos essa mesma “preparação”.

Entre o optimismo e a cautela situam-se as opiniões de alguns dos especialistas que comentam, mais em pormenor, este princípio. Por exemplo, Guruduth Banavar, vice-presidente da IBM Research e “defensor crente” do princípio em causa, tem esperança legítima de que e à medida que a IA se torne “avançada”, ajudará a que a humanidade avance também e a um ritmo proporcional. Do ponto de visto evolucionário, diz “os humanos atingiram o seu nível actual de poder e controlo sobre o mundo por causa da [sua] inteligência”. Neste caso, e ao nos referirmos à inteligência ‘aumentada’, acrescenta, “é uma combinação do trabalho conjunto entre humanos e IA, o que irá dar origem a um futuro mais produtivo e realista do que a IA autónoma, a qual é ainda demasiado ‘longínqua’”. Para o investigador da IBM, e num futuro próximo, esta IA aumentada – no sentido de a mesma ser “trabalhada” conjuntamente com as pessoas – “irá transformar a vida no planeta”, no sentido que nos ajudará a “solucionar grandes problemas como os relacionados com o ambiente, a saúde e a educação”.

Bart Selman, professor na Cornell University e apesar de não considerar ser imperativo as pessoas “normais” se preocuparem com as questões éticas que estão subjacentes à IA, torna bem claro que a tarefa é obrigatória para os cientistas nela envolvidos, nomeadamente no que respeita ao seu debate e planeamento. Para o também membro da American Association for Artificial Intelligence, existe pelo menos uma questão que deve ser respondida: o que é realmente possível fazer-se para garantir que os desenvolvimentos [na AI] sejam verdadeiramente benéficos no final? E este é apenas uma de muitas questões que estão longe de serem respondidas.

Mais cautelosa ainda é Anca Dragan, professora na Universidade da Califórnia em Berkeley, e que explica que e “apesar de todos os que trabalham em IA acreditarem que esta terá um impacto forte e positivo no mundo”, teme também que quanto mais “capaz esta tecnologia se tornar, mais fácil será utilizá-la para maus fins ou, em particular, os efeitos da sua má utilização se tornarem mais dramáticos”.

Apesar do Princípio da Importância mencionar especificamente a IA avançada, alguns dos investigadores que foram entrevistados pelo FLI na conferência já mencionada, alertaram também para os efeitos e impactos de curto prazo que a “actual” já pode estar a ter na humanidade. E que podem ser drásticos. E um deles está estreitamente relacionado com a dificuldade no geral que a humanidade tem em planear a longo prazo – devido aos sistemas civis que prevalecem e não o encorajam – sendo que “esta é uma era na qual somos obrigados a desenvolver as nossas capacidades para assegurar uma parceria benéfica e responsável entre o homem e a máquina”. Quem o afirma é Kay-Firth Butterfly, directora executiva da AI-Austin.org, sendo secundada por Stefano Ermon, professor na Universidade de Stanford, que também está preocupado com os efeitos de curto prazo desta IA menos avançada, a qual e a seu ver, “é uma tecnologia incrivelmente poderosa, sendo inimaginável antever o que alguém poderá fazer com o seu desenvolvimento e mesmo antes de se tornar ‘avançada’”, recordando que basta pensarmos na forma como os computadores e as tecnologias de informação que temos na actualidade revolucionaram a sociedade, a economia ou as nossas vidas quotidianas.

Um ponto “engraçado” neste debate é o que Bart Selman demonstra ser uma preocupação ainda maior face às tecnologias de inteligência artificial: ou o facto de o problema maior estar relacionado não só com o seu nível de “inteligência”, mas e em particular, com o seu nível de “estupidez”. Dando o exemplo já clássico dos veículos autónomos e supostamente inteligentes, o professor da Universidade de Cornell defende que e na verdade, um dos principais problemas poderá residir no facto de nós, humanos, considerarmos a IA mais inteligente do que a mesma é na verdade.

© Future of Life Institute

O Princípio da Precaução
Não existindo consenso, deveremos evitar pressupostos fortes no que respeita aos limites máximos das capacidades futuras da IA

Em linha com o princípio anterior, é uma outra das grandes questões enfrentadas pelos investigadores da IA: quão “esperta” e capaz poderá a inteligência artificial tornar-se?

Mesmo que nem sempre “percepcionada” como aquilo que realmente é, a AI tem vindo a dar muito mais do que um ar de sua graça nos tempos mais recentes e em variadíssimas áreas. Desde o Alpha Go, da Google, que cometeu a proeza de ganhar a um campeão humano naquele que é reconhecido como o mais intelectualmente complexo de os jogos de mesa, o milenar e chinês Go, ou a empresa que criou uma IA que aprende rapidamente a jogar videojogos da Atari com muito mais destreza do que as pessoas, já sem falar nos avanços inimagináveis seja nas linguagens de tradução, nos carros autónomos – ambos com falhas ainda, obviamente – ou na medicina e até na criação de novas moléculas, todos os dias a AI dá novos passos em direcção a um progresso aparentemente ilimitado.

Mas, questiona-se, quão avançada conseguirá esta inteligência artificial ser? Será que vai continuar apenas a “exceder-se”em tarefas supostamente “restritas” ou será capaz de vir a desenvolver – e na medida em que “aprende” – competências de aprendizagem alargadas que permitirão ultrapassar os humanos em muitas das tarefas que executamos? Ou, e pergunta ainda o FLI, como nos vamos preparar para uma IA que pode ser muito mais inteligente do que imaginamos?

A principal ausência de consenso na resposta a estas perguntas reside no facto de existir um conjunto de cientistas e investigadores que defende que o facto de a AI poder atingir, ou exceder, o nível de inteligência humana, está apenas a umas poucas décadas de distância (ou até em muito menos tempo) e um outro que sustenta que este “feito” nunca será alcançado. E é exactamente para acautelar as dúvidas que surge o Principio da Precaução (em inglês e sem tradução “directa”, apelidado de Capability Caution Principle e no sentido das capacidades e competências da IA), o qual argumenta que até existirem evidências concretas que confirmem até onde poderá chegar esta tecnologia, é mais seguro assumir que não existem “limites máximos” para os seus (e)feitos – ou seja, que para já, tudo deve ser considerado como possível e planeado adequadamente.

Entre o “mais vale prevenir do que remediar” defendido tanto por Stefano Ermon como por Roman Yampolskiy, que recordam que basta olhar para a própria história da humanidade para nos lembrarmos o quão difícil é prever o futuro, a ideia é que tal como existem já “suposições por defeito” em várias áreas das ciências computacionais e cujo planeamento contra “más utilizações” deram origem a determinadas políticas de segurança, o mesmo deveria acontecer com as tecnologias de inteligência artificial. Ou seja, se correr bem, não virá mal ao mundo por nos termos precavido, e se correr mal, estaremos adequadamente preparados para lidar com os seus malefícios.

Uma apreensão de natureza diferente é a manifestada por Dan Weld, professor na Universidade de Washington, que se mostra “preocupado com o próprio Princípio em si mesmo” ou e como explica, porque “já parece estar implícita a ideia de que existe um perigo imediato porque a IA se vai transformar, muito em breve, numa entidade super-humana e extremamente inteligente”. Afirmando que existem razões muito mais prementes (e relacionados com a automação presente) com as quais nos devemos preocupar – desde a perda de postos de trabalho à necessidade de cuidados de saúde, educação e rendimento básico garantido para todos, o professor chama a atenção para uma outra inquietação, a seu ver muito mais possível e imediata: a possibilidade mais real de que algum terrorista possa atacar um sistema de IA e tentar programá-lo para matar todos americanos [neste caso] do que propriamente ser a própria IA a acordar um dia e decidir fazê-lo por sua “alta recriação”.

Por seu turno, o optimista vice-presidente da IBM Research Guruduth Banavar demonstra uma preocupação inversa: a de que a definição de limites “máximos” na IA poderá, ao invés, confinar as suas possibilidades. E explica, em detalhe, o que pretende dizer com esta afirmação: “a ideia geral é a de que a inteligência, e tal como a entendemos hoje é, e em última instância, a capacidade de processar informação a partir de todas a fontes possíveis e utilizar esse conhecimento para se prever e nos adaptarmos ao futuro. E é inteiramente no domínio da possibilidade que a inteligência artificial poderá fazer isso”. E, acrescenta, “penso que devemos evitar suposições sobre os limites máximos no que respeita à inteligência das máquinas porque ‘eu’ simplesmente não quero estabelecer limites artificiais em quão avançada a IA poderá vir a ser”.

Por último, uma perspectiva também ela diferente e digna de ser sublinhada: a de Francesca Rossi, também ela cientista da IBM Research e que, para além de reforçar a ideia do seu vice-presidente, acrescenta ainda que e pessoalmente, o seu trabalho em sistemas de AI serve, sim, para aumentar a inteligência humana e não para a substituir. “Penso que no tal espaço que existe para se aumentar a inteligência humana existe um enorme potencial para que a AI transforme as vidas pessoais e profissionais de toda a gente para melhor”, declara. Seguindo uma das correntes mais “defendidas” na actualidade, Rossi acredita igualmente que é na complementaridade entre as duas inteligências que reside o seu maior valor, na medida em que a AI serve, ou deverá servir, para ajudar os humanos a tomar decisões melhores, a viver melhor e a resolver problemas que não são passíveis de resolver agora. E é para este “bem” que a investigadora não quer ver estabelecidos limites alguns.

© Future of Life Institute

O Princípio do Alinhamento de Valores
Os sistemas de AI de elevada autonomia devem ser desenhados de forma a assegurar que os seus objectivos e comportamentos sejam alinhados com os valores humanos

“Os robots não vão revoltar-se contra a humanidade”, afirma Anca Dragan, professora na Universidade de Berkeley e investigadora principal no Center for Human Compatible AI. A ideia é, antes pelo contrário, optimizar seja o que for que lhes “digam” para fazer, acrescenta ainda, alertando, e consequentemente, para a necessidade de serem os humanos os responsáveis por os programar de forma adequada e tendo em conta os “desejos do mundo”.

Todavia, é na definição exacta do que é que “nós” ou esse mesmo “mundo” realmente deseja que reside o problema. Ou, como defende Stefano Ermon o busílis da questão é definir exactamente que valores são esses, porque as pessoas são oriundas de várias geografias com culturas distintas, têm backgrounds socioeconómicos diferentes – e, por isso mesmo, a sua opinião face a esses mesmos valores não é unânime”. Por seu turno, Roman Yampolskiy, que concorda com esta complexidade, acrescenta ainda que “apesar de ser muito difícil codificar [ou “embutir”] os valores humanos nas linguagens de programação, o problema complica-se ainda mais na medida em que a humanidade não acredita em valores comuns”.

Por outro lado, e apesar de muitos dos valores que guiam a humanidade serem de difícil consenso, existe também um conjunto deles com o qual, e em princípio, implicitamente todos concordamos. Mas se qualquer pessoa percepciona valores emocionais e sentimentais como inerentes à nossa socialização, é muito difícil garantir que um robot possa ser programado com essa mesma percepção. Mais uma vez, a voz da esperança é traduzida por Francesca Rossi, da IBM, que declara que é possível levar a cabo “pesquisas científicas que possam, adequadamente, compreender de que forma é possível transmitir esses valores que são comuns à humanidade e integrá-los nos sistemas de IA que estão a ser trabalhados pelos humanos”.

A pesquisa de Anca Dragan vai ao encontro do problema, mas a partir de uma abordagem diferente. Em vez de tentar perceber as pessoas, a sua ideia “é tentar treinar os robots – ou os sistemas de IA – para serem flexíveis nos seus objectivos à medida que vão interagindo com as pessoas”.

Um outro problema em torno deste Princípio prende-se não com a sua aceitação – a qual é praticamente generalizada por parte dos cientistas e investigadores que o(s) subscreveram – mas sim com a forma como está formulado e, por consequência, com a sua futura implementação. E são vários os que defendem que o mesmo deverá ser reescrito.

Yoshua Bengio, pioneiro na investigação em IA , sugere que o verbo “assegurar” possa ser forte demais. Como explica o também professor na Universidade de Montreal, “poderá não ser possível assegurar este ‘alinhamento de valores’, na medida em que existe uma panóplia de coisas que são inatas, as quais não seremos capazes de obter através da ‘aprendizagem das máquinas’ e que podem ser muito difíceis de obter seja através da filosofia ou da introspecção, o que torna difícil sermos capazes desse ‘alinhamento perfeito’”. Ou, e como remata Bengio, o mais que podemos fazer é “dar o nosso melhor”.

Rossi, que afirma apoiar o Princípio do Alinhamento de Valores como “aquele que está mais perto do seu coração”, concorda, por outro lado, que o mesmo deve ser debatido o mais cedo possível e nos sistemas de AI já existentes. E como sublinha, “este princípio não está apenas relacionado com os sistemas autónomos de AI, sendo igualmente essencial para os sistemas que já trabalham de forma estreita com os humanos e nos quais é o humano o decisor final”.

É que, e como acrescenta, “quando um humano e uma máquina estão a trabalhar em conjunto, o importante é que sejam uma verdadeira equipa”.