Já não são histórias ficcionadas, guiões de filmes ou visões apocalípticas. Para muitos cientistas, visionários mas não loucos, estamo-nos a aproximar da era em que a capacidade das “máquinas pensantes” ultrapassará a do cérebro humano. E, entre benefícios ou malefícios, há uma importante questão que se coloca: quem vai ser responsável por assegurar que os mais recentes desenvolvimentos tecnológicos não servirão para maus fins?
POR
HELENA OLIVEIRA

Imagine um mundo sem aborrecimento, sem erros, sem mistérios e sem surpresas. Um mundo no qual tudo se torna eficiente, optimizado, hiperconectado, inteligente e em que tudo acontece em tempo real. Um mundo que funcione como uma “máquina cerebral global”.

Nesse mesmo mundo, o que acontecerá a nós, humanos, limitados e imperfeitos? Como serão os oito ou nove mil milhões de pessoas que o habitarão daqui a 20 anos, altura em que a inteligência artificial (IA) atingirá um expoente considerável? Teremos de nos esforçar e comportar cada vez mais como máquinas para nos mantermos úteis e produtivos? Ou seremos obrigados a aprimorar, o mais possível, todas as características e valores que definem a nossa essência enquanto humanos? O que acontecerá à condição humana e ao conceito de vida inteligente? E, mais importante que tudo, quem controlará a ascensão e possíveis “super-poderes” das máquinas inteligentes?

As questões são inúmeras e quase todas elas já foram formuladas em livros ou filmes de ficção científica, tendo como ponto de partida o dia em que as máquinas ultrapassaram os humanos em “doses” de inteligência. Desde o filme Blade Runner, ao Minority Report, ao The Matrix ou ao mais recente Her, a verdade é que o nosso mundo está a ser completamente “reformulado” por inovações e progressos que, até há um par de anos, existiam apenas na imaginação de escritores ou guionistas.

E tudo está a acontecer tão rápido que, à primeira vista, apenas reconhecemos os benefícios da digitalização, automatização, virtualização e robotização que testemunhamos todos os dias, em todos os sectores da sociedade, dos governos e das empresas.

Mas a verdade é que estamos só no início de uma tendência que continuará a crescer de forma exponencial ao longo da próxima década, com estimativas para que, em 2020, sejam cinco ou seis mil milhões os utilizadores da Internet e, muito provavelmente, que existam mais de 100 mil milhões de dispositivos conectados na denominada era da Internet das Coisas, desde sensores, a computadores “vestíveis” (wearables, em inglês), sem esquecer os “localizadores” e muitos outros afins.

[pull_quote_left]Por volta do ano de 2025, as máquinas terão o mesmo poder de um cérebro humano e, em 2051, conseguirão concentrar o poder [dos cérebros] de toda a população global[/pull_quote_left]Exagero? De todo. Está a acontecer, por exemplo, na área da tradução em tempo real, como o Google Translate ou o SkypeTranslate; no sector automóvel, com os carros sem condutor ou semi-autónomos, desenvolvidos, com algumas diferenças, pela Google e pela Tesla, e ainda pela Volvo; na batalha já existente entre os vários “assistentes digitais inteligentes” como o Siri, o Cortana, o Google now ou o Alexa; na realidade virtual ou “aumentada”, como as Microsoft Hololens ou o Oculus Rift; nos robots que tomam conta de crianças ou idosos, uma realidade no Japão ou na Coreia; na área da saúde, com a utilização das chamadas “drogas inteligentes” já utilizadas para aumentar a performance académica ou ainda no que à genética diz respeito, com a possibilidade de se alterar o ADN de forma a “escolhermos” que tipo de filhos queremos ter. Os exemplos começam a ser inesgotáveis para a generalidade das esferas que rodeiam a nossa vida e novas questões começam agora (e ainda bem) a ser debatidas.

Quem vai ser responsável por assegurar que os mais recentes desenvolvimentos tecnológicos não servirão para maus fins? Precisamos de um novo organismo, uma espécie de “agência moral ou ética” para supervisionar estes progressos? Quem poderá decidir se determinado “avanço” é benéfico ou maléfico? E, que normas legais serão necessárias para asseverar que, sendo estes benéficos, deverão estar ao serviço de todos e não só dos que tiverem capacidade financeira para os adquirir?

Como alerta o artigo “Brave new era in technology needs new ethics”, publicado no Finantial Times, “os governos e parlamentos nacionais, preocupados com questões muito mais prementes como a austeridade fiscal ou os fluxos de refugiados, raramente possuem a ‘banda larga’ política para considerar estes desafios [aparentemente] abstractos, e muito menos para ajudar a estabelecer normas ou regulações internacionais”. Mas a verdade é que são já muitas as vozes a alertar para os possíveis perigos e abusos de todos estes avanços sem precedentes – e para a inexistente “fiscalização” dos mesmos – e tudo indica que, se nada for feito para os abordar rapidamente, não tarda e seremos obrigados a recordar o velho ditado “casa roubada, trancas à porta”. E as consequências que advierem desta passividade poderão ser demasiado graves para as podermos solucionar.

28012016_EseAInteligencia
Quem vai controlar o quê?

“Por volta do ano de 2025, as máquinas terão o mesmo poder de um cérebro humano e, em 2051, conseguirão concentrar o poder [dos cérebros] de toda a população global”. A afirmação parece, no mínimo, exacerbada, o que não é de espantar, visto que foi proferida Gerd Leonhard, um futurista, autor reconhecido e CEO da The Futures Agency, uma espécie de think tank que reúne especialistas em tecnologia (e em futurologia), e reconhecido em 2015, pela revista Wired, como um dos mais influentes pensadores europeus.

O trabalho de Leonhard tem como principal enfoque o futuro da humanidade e da tecnologia, no que respeita, em particular, à interacção entre ambos. Nas muitas conferências em que participa como orador, este visionário alemão tem por hábito colocar duas questões que se complementam: o que queremos, enquanto humanos, das máquinas e o que realmente desejamos [continuar a] ser enquanto espécie humana. Leonhard defende que, entre as inúmeras áreas de progresso tecnológico, a Inteligência Artificial será o mais significativo desafio que a humanidade irá enfrentar. Cunhando um neologismo para a definir, denominando-a como “hellven” – no sentido que é uma moeda com duas faces, uma “paradisíaca”(heaven) pelos benefícios que encerra e outra “infernal” (hell) pelos perigos que poderá causar, Leonhard sublinha também que a IA é, crescentemente, uma prioridade em Silicon Valley, com muitos investidores a apostarem forte no seu desenvolvimento.

[pull_quote_left]Teremos de nos esforçar e comportar cada vez mais como máquinas para nos mantermos úteis e produtivos?[/pull_quote_left]

Independentemente de projectos mais mediatizados como o supercomputador Watson, da IBM, o projecto Global Brain que está a ser desenvolvido pela Google, a iniciativa europeia Human Brain Project ou ainda as fortes apostas da chinesa Baidu, é certo que a Inteligência Artificial já deu o tiro de partida para a próxima corrida ao ouro. Certo é também que, e dado que as máquinas não têm ética – não serão também os capitalistas de risco a preocuparem-se com questões “morais”, na medida em que as suas preocupações estão centradas nos seus retornos financeiros.

As preocupações relacionadas com um possível crescimento, sem controlo, da AI têm, vindo a aumentar. O exemplo mais citado é personificado pelo físico e cosmólogo Stephen Hawking, o qual tem vindo a alertar que, para além de a raça humana estar a enfrentar, presentemente, um dos séculos mais perigosos da sua existência, os progressos na ciência e tecnologia estão a transformar-se e muito rapidamente, numa ameaça ainda maior: em 2014, o afamado cientista partilhou os seus receios numa entrevista à BBC, na qual afirmava que a AI poderia, mesmo, ditar o fim da espécie humana. O mesmo aconteceu com Elon Musk, o criador do PayPall e do Tesla car – o qual, como sabemos, “guia sozinho” exactamente devido aos enormes progressos da tecnologia – que identificou a IA como “ a nossa maior ameaça existencial” numa entrevista que concedeu num simpósio organizado pelo MIT sobre exploração e colonização espacial, acrescentando que é necessário “termos muito cuidado” e que estaria “inclinado a pensar que deveria existir uma entidade supervisora – ao nível nacional ou internacional – que assegurasse que os humanos não fizessem nenhum grande disparate” a este respeito. Um outro exemplo é o de Steve Wozniak, o co-fundador da Apple, que numa entrevista à Australian Financial Review afirmou que “os computadores vão levar a melhor aos humanos e ponto final”, acrescentando ainda que concorda ainda com a visão de Hawking e de Musk quando estes alertam que “o futuro se afigura perigoso e muito mau para as pessoas, na medida em que, e eventualmente, os computadores irão pensar muito mais rápido do que nós e irão ver-se livres destes ‘humanos lentos’ para gerirem as empresas de forma muito mais eficaz”.

[pull_quote_left]Precisamos de um novo organismo, uma espécie de “agência moral ou ética” para supervisionar os progressos tecnológicos?[/pull_quote_left]

Apesar desta ideia arrojada de pensarmos em robots inteligentes a expulsar humanos incompetentes das suas empresas e a tomarem-nas de assalto, a verdade é que Musk é um dos maiores investidores, em conjunto com Mark Zuckerberg do Facebook e o actor Ashton Kuchner, de uma empresa cujo principal objectivo é construir um robot que pense como uma pessoa, através de uma rede neural capaz de replicar a parte do cérebro que controla a visão, os movimentos do corpo e a linguagem.

Mas também não se pode dizer que o seu discurso não tenha paralelismo com as suas acções: no final do ano passado, Musk anunciou a criação, em conjunto com vários especialistas em AI, cientistas e engenheiros de gabarito mundial e muitos insiders de Silicon Valley, da iniciativa sem fins lucrativos OpenAI que visa manter a IA como “uma extensão das vontades humanas”.

No blog da iniciativa, os seus fundadores escrevem mesmo que “apesar de ser difícil compreender até que ponto a IA de ‘nível humano’ poderá beneficiar a sociedade, é igualmente complexo imaginar o quanto poderá a mesma prejudicar a sociedade se for ‘construída’ para maus fins ou se for usada incorrectamente”. E, não querendo ficar por aqui, o multimilionário Musk doou, também, 10 milhões de dólares para a organização The Future of Life Institute (FLI), com sede em Cambridge, Massachusetts, a qual está a estudar as dimensões éticas e sociais da IA, pertencendo, em conjunto com Stephen Hawking e entre muitos outros, ao seu quadro de fundadores. Como missão, a FLI pretende catalisar e apoiar pesquisas e iniciativas que salvaguardem a vida [humana], ao mesmo tempo que espera contribuir para o desenvolvimento de visões optimistas para o futuro, incluindo formas positivas para a humanidade se manter no seu próprio caminho tendo em conta as novas tecnologias e respectivos desafios.

Apesar da utilidade destas iniciativas, também é verdade que (quase) tudo há ainda a fazer. Não só no que respeita a alargar o debate o mais possível à sociedade em geral, como incluir as empresas, as universidades, os centros de investigação e, obviamente, os governos num esforço comum que possa estabelecer limites e antecipar abusos – que acabarão por ser inevitáveis – neste e noutros progressos tecnológicos. Não porque seja necessário entrar em histeria ou passar a pertencer ao grupo dos tecno-cépticos, mas porque sabemos que existirão sempre candidatos dispostos a utilizar esta “inteligência ilimitada” para fins destrutivos.

Mais problemático ainda será divisar o tipo de “organização” capaz de lidar com as inúmeras questões que os avanços tecnológicos encerram, principalmente porque os mesmos não estão exclusivamente relacionados com empresas e tecnologia, mas e em particular, com questões éticas, sociais e culturais, muito mais difíceis de gerir.

28012016_EseAInteligencia2
Competição ou colaboração entre humanos e máquinas?

Para além de algumas das iniciativas já referidas, uma boa notícia é a de que o tema em causa começa já a constar em reuniões de “alto nível”, como aconteceu este ano em Davos. Na medida em que a 4ª Revolução Industrial dominou a agenda para 2016 – apesar de problemáticas muito mais prementes terem “abafado” , de certa forma, a importância da temática escolhida – foi exactamente a “manutenção da humanidade versus o crescimento das máquinas” que encerrou a reunião mundial de líderes do Fórum Económico Mundial.

Neste painel, cientistas reconhecidos, em conjunto com pensadores da área social e legal, foram unânimes em considerar que “sermos capazes de dominar as tecnologias desta nova revolução industrial é essencial”, bem como, enquanto indivíduos, “sermos capazes de perceber e reter a essência da nossa própria humanidade”.

[pull_quote_left]Apesar de ser difícil compreender até que ponto a IA de ‘nível humano’ poderá beneficiar a sociedade, é igualmente complexo imaginar o quanto poderá a mesma prejudicar a sociedade se for ‘construída’ para maus fins ou se for usada incorrectamente[/pull_quote_left]Mas e no que respeita “ao bem e ao mal” que do progresso tecnológico possam emergir, as opiniões divergiram. Por exemplo, para Amira Yahyaoui, fundadora e presidente de um grupo de activismo social sedeado na Tunísia, e membro da comunidade Global Shapers, “estamos a competir com a inteligência artificial e (…) teremos de mostrar que nós é que somos os bons”, declarou, sublinhando também que a discussão sobre a ética e os valores [neste contexto] nunca foi tão relevante.

Mas opinião contrária demonstrou Justine Cassell, da School of Computer Science da Universidade Carnegie Mellon. que defendeu não considerar “os robots como concorrentes, mas antes como colaboradores, que nos podem ajudar a tornar real o que desejamos fazer, mas que não conseguimos fazer sozinhos”. A também responsável pelo departamento de Tecnologia, Estratégia e Impacto desta faculdade norte-americana defende também que os robots e a inteligência artificial forçarão as pessoas a aprimorar as suas competências humanas, as quais eram consideradas muito mais importantes em gerações anteriores e em épocas em que a tecnologia era ainda muito limitada. “A empatia e o respeito serão, por exemplo, competências extremamente importantes para a eficácia no local de trabalho do futuro”, considera, afirmando ainda que será “através da comparação com os robots que saberemos o que é ser humano”.

[pull_quote_left]Os humanos são o vinho e não as garrafas[/pull_quote_left]Uma outra perspectiva tem Henry T. Greely, especialista, na Universidade de Stanford, nas implicações éticas, legais e sociais das tecnologias biomédicas, que afirma que os humanos “são o vinho e não as garrafas”, na medida em que ele próprio, ao ter uma anca metálica, não se sente menos humano. Opinião corroborada por Jenniffer Doudna, Professora de Química e Biologia Molecular na Universidade da Califórnia, que também concorda que não é o corpo que nos faz humanos, mas sim o que existe no seu interior. “Sou cientista e sinto que o que faz de nós humanos é o que é proveniente da nossa química cerebral. Não somos o que ‘se passa’ no nosso corpo, mas sim o que ‘se passa’ no nosso cérebro”, afirma.

Opinião similar tem Greely no que à extraordinária importância da genética diz respeito. Para este especialista, “ser humano implica um conjunto ‘aprendido’ de respostas às coisas” explica, acrescentando que “existe alguma base genética para o altruísmo, a ambição ou a compaixão, mas a forma como expressamos esses ‘comportamentos’ depende da forma como fomos ensinados. Ser humano não é uma coisa, mas sim um processo. E a forma de assegurarmos que somos humanos é ter professores que nos ensinem a ser humanos. Se um robot interiorizar os mesmos tipos de reacções humanas que nós temos, eu era capaz de o considerar um humano amigo”.

Resta saber se tal possibilidade é bem ou mal vinda.