O aparecimento do ChatGPT em novembro passado expôs mediaticamente que a IA já saiu dos laboratórios e é acessível a muitos
POR TERESA PEÑA 

A automação iniciada no fim do século XIX alterou profundamente o valor e a organização do trabalho. Valorizou capacidades de operar máquinas, fazer a sua manutenção e adaptação a tarefas. Agora, com a nova automação da Inteligência Artificial (IA) é diferente? Como na automação anterior, a IA pode libertar mais tempo para ações transformadoras, levar a maior produtividade, mais bem-estar, melhores padrões de vida. Tudo depende de medidas para equilíbrio de benefícios e ameaças. Desta vez, porém, são visadas as competências tradicionais de um graduado universitário, potencialmente em muitos setores: saúde, transportes, construção, ensino, direito, finanças etc. As Universidades, fábricas de investigação e ensino, vão sentir os efeitos desta nova realidade de trabalho. A melhor resposta é melhorar a qualidade e versatilidade da formação, usar a IA para a complementar, treinar mais a imaginação, a tomada de decisão e o espírito crítico.

O aparecimento do ChatGPT em novembro passado expôs mediaticamente que a IA já saiu dos laboratórios e é acessível a muitos. O ChatGPT espalhou-se globalmente em apenas poucos meses. Em 1989 foi muito mais lenta a transposição da World Wide Web (WWW) que mudou a forma como trocamos informação, do Laboratório de Física Fundamental (CERN) para os negócios e o quotidiano. Hoje há maior vulgarização das tecnologias, mas principalmente devido à naturalidade, antropomorfismo, fluidez impressionantes do diálogo que permite, o ChatGPT veio para ficar e vai evoluir. 

No séc. XIX não se travou a revolução industrial. Hoje faz pouco sentido proibir a realidade da IA a uma geração de estudantes profundamente embebida na cultura digital. Uma alternativa a proibir é avaliar as implicações da IA, abraçar os seus benefícios, influenciar a sua evolução. Que competências devem as Universidades dar na era da IA? Poderão cientistas usar a IA como ghost writer? Que tarefas de investigação e ensino se podem apoiar em sistemas da IA? Que verificação humana cabe na investigação e ensino assistidos por IA? Que implicações legais (direitos de autor, propriedade intelectual, responsabilidade pelos resultados) e éticas advêm da IA? 

O termo chatbot, introduzido em 1994 por M. L. Mauldin, designa um programa baseado em modelos matemáticos que imita a conversa humana. Pensamento e linguagem poderão deixar de ser próprios só do ser humano. Modelos matemáticos conseguem imitá-los e criar a ilusão dessas capacidades. Os sistemas IA de diálogo são como conversas com bons atores. Um ator pode improvisar. Pode um computador também azê-lo, e surpreender-nos? Os computadores pensam, ou antes geram a ilusão de pensamento? É uma velha questão, que opôs Alan Turing, matemático e cientista de computação do século XX, a Ada Lovelace, pioneira no século XIX de uma área dominada hoje pelo género masculino. Para Lovelace, as máquinas são limitadas pelas regras de programação. Para Turing, o critério de inteligência é operacional e definido pela experiência. O teste de Turing: se em mais de metade de realizações da experiência de conversação com uma máquina, o participante humano não reconhece a natureza do interlocutor, considera-se que a máquina possui inteligência artificial.

Hoje a IA realiza tarefas complexas: reconhecimento da fala e imagem, escrita de textos, tradução entre centenas de idiomas, condução de veículos, resolução de alguns problemas lógicos. Para gerar respostas, o ChatGPT usa um modelo de amostras estatísticas, sendo treinado num conjunto vastíssimo de textos para determinar a probabilidade de uma sequência de palavras. As respostas são geradas palavra a palavra. O sucesso de sistemas como o ChatGPT vem do aumento do tamanho dos modelos da IA, em número de parâmetros, aproximando-se do milhão de milhões, em número de palavras ou unidades de informação para treinar esses modelos, e da capacidade de muitas operações nesse treino.

O ChatGPT gera textos verosímeis, mas há estudos que concluem ser geradas cerca de 74% respostas erradas a certas questões de raciocínio e cálculo. Isto tranquiliza professores demasiado preocupados com a avaliação dos estudantes. Mas como o aumento do tamanho dos modelos de IA vai aumentar a correção das respostas, é a altura de refletirem sobre como ensinam e avaliam. Cabe ao ensino complementar a IA com modelos causais para a verificação e a decisão que se treinam com experiência, abstração e desenvolvimento da imaginação. O ChatGPT pode ser um teaser para desenvolver esse sentido crítico.

Os sistemas de diálogo da IA podem usar-se para feedback aos estudantes, experiência da aprendizagem personalizada, melhor gestão de tempo, monitorizar a satisfação académica com intervenção rápida. Na investigação, a IA pode estimular a imaginação (brainstorming), criar e editar textos sobre resultados, gerar questões, análise de dados e reconhecimento de padrões – aceleradores do conhecimento em qualquer área. Nas ciências físicas já acontece, nas ciências sociais e humanas são passos transformadores.

“Como um modelo de linguagem treinado em dados, não sou capaz de ter opiniões”, respondeu o ChatGPT à minha pergunta se os computadores podem pensar. Como nós temos opiniões, somos humanos. Ainda bem! As opiniões alavancam e transformam. Vejam-se os exemplos de Alan Turing e Ada Lovelace.

Nota: Artigo originalmente publicado no jornal i. Republicado com permissão.

TERESA PEÑA

Professora Catedrática e Presidente do Conselho Pedagógico do Instituto Superior Técnico