Uma vez que a neurociência enfatiza crescentemente a importância das emoções nas nossas decisões, dando-nos a ideia de que afinal não somos tão racionais assim, como é que uma máquina conseguirá ser emotiva? Se a maioria das nossas decisões tem por base emoções, emoções essas que dependem da história de cada um de nós, como é que uma máquina pode ter uma “história”?
POR SOFIA SANTOS

A inteligência artificial (IA) tem diferentes definições. Vamos assumir que a IA é o estudo e o desenho de agentes inteligentes, sendo que esses agentes inteligentes são sistemas que compreendem o ambiente em que se encontram e que implementam acções que maximizam as suas hipóteses de ser bem-sucedido.

John McCarthy definiu IA em 1956 como a “ciência e a engenharia de fazer máquinas inteligentes”. Assim, estas máquinas são programadas para pensar como um ser humano e para agir imitando o ser humano. Assume-se, portanto, que a inteligência humana pode ser definida e padronizada de uma forma exacta e, como tal, uma máquina pode imitá-la.

Não sendo eu uma especialista da Inteligência Artificial, penso que faz sentido reflectir sobre o pressuposto de ser possível padronizar de forma exacta a inteligência humana. Para ter esta capacidade, penso ser necessário um conhecimento profundo sobre a inteligência humana, sendo esta definida como a “a capacidade da mente em aprender a partir de experiências passadas, em se adaptar a novas situações, em compreender uma ideia abstracta e em ser capaz de mudar o seu ambiente usando o conhecimento que adquiriu”.

Uma vez que se sabe relativamente pouco sobre a forma como o nosso cérebro funciona, e que “todos os dias” a neurociência nos traz novas justificações sobre a forma como a espécie humana age, não será exagerado temer que uma máquina a possa substituir? Uma vez que a neurociência enfatiza crescentemente a importância das emoções nas nossas decisões, induzindo a ideia de que afinal não somos tão racionais assim, como é que uma máquina conseguirá ser emotiva? Se a maioria das nossas decisões tem por base emoções, emoções essas que dependem da história de cada um de nós, como é que uma máquina pode ter uma “história”?

Não estou com isto a desvalorizar a IA, mas apenas a colocar em debate a ideia de que esta vai substituir os Humanos em trabalhos mais mecânicos e lógicos. Mas, na realidade, muitas das decisões que se tomam diariamente nas empresas não têm um racional lógico. Aliás, muitas decisões têm um carácter ideológico, estratégico, moral ou até utilitarista, o que implica que “cada cabeça sua sentença”.

Parece-me que para se falar de IA de forma mais estruturada, faz igualmente sentido falar-se da inteligência humana natural. Se ainda não compreendemos bem como é que o nosso cérebro funciona, como é que o queremos imitar? Só o conseguiremos imitar em situações funcionais, e não, ainda, em situações de mudança de ambiente e de processamento de várias informações em simultâneo? Imitar as situações funcionais seria uma primeira fase. Mas como a espécie humana ambiciona sempre “ir mais longe”, a próxima fase seria conseguir que uma máquina imitasse as decisões decorrentes das emoções humanas. Para que isso acontecesse, seria então necessário dedicarmos mais tempo a compreender porque somos o que somos, o que nos leva a decidir o que decidimos, e se estamos satisfeitos com essas decisões de forma consciente.

Num século em que as máquinas vão fazer parte da força de trabalho, em que os carros andarão sem condutor e os frigoríficos nos vão dizer o jantar que devemos ter para melhorar os níveis de hemoglobina cuja análise veio directamente da colheita analisada pela sanita, talvez a única forma de evitarmos uma alienação total da população mais inserida na sociedade (e que tenderá a crescer) é dedicarmos mais tempo a reflectir sobre como queremos que as máquinas nos emitem.

Que tipo de pessoas devemos ser nós, para que, no futuro, as máquinas nos possam imitar fazendo o bem e não o mal? Que tipo de máquinas queremos nós que existam quando os nossos netos estiverem a trabalhar? Será que um dia as nossas práticas de decisão poderão ser imitadas pelas máquinas? Ou isso iria causar um caos na sociedade? Será que deverei eu aplicar processos de decisão com base no meu propósito para a sociedade?

Em última instância, será que as máquinas deverão conseguir imitar um processo de decisão com um propósito social e ambiental positivo para a sociedade? É que se elas nos imitam, o futuro apenas dependerá de todos nós, dos humanos, e não delas, das máquinas.

CEO da Systemic