Uma viagem num autocarro avariado chega bem para vislumbrar os limites éticos da Inteligência Artificial (IA) generativa. Qualquer mecânico que tenha de reparar o veículo tem a possibilidade de conhecer previamente todos os componentes e respetivas formas de funcionamento, que facilitam a identificação da origem de uma qualquer falha. Está fora de questão impedir o uso de autocarro ou de IA, mas por algum motivo mais ou menos insondável muitos humanos continuam a manter a expectativa de reparar assistentes virtuais desvairados com a mesma lógica com que se resolvem avarias em veículos motorizados. E é nesse ponto que o problema pode ganhar a dimensão do mundo inteiro.
“Num assistente virtual, o número de funcionalidades e cenários de uso permanece sempre em aberto e é muito maior que o de um autocarro. Por isso é mais difícil de garantir a fiabilidade de um chatbot do que de um autocarro”, descreve António Branco, professor da Faculdade de Ciências da Universidade de Lisboa (Ciências ULisboa) e coordenador do Grupo de Fala e Linguagem Natural (NLX), que tem vindo a desenvolver o assistente virtual (ou chatbot, ou bot) Evaristo.ai.
Apesar das discrepâncias na fiabilidade, o número de utilizadores de chatbots não parou de crescer nos últimos tempos – e não será de estranhar que, contas feitas às ferramentas disponíveis no telemóvel, já tenha mesmo superado o total de pessoas que viajam de autocarros. O que deixa em aberto outra questão: quem é que garante que a IA disponibilizada no mundo não é usada para gerar bots mal-intencionados?
“Todo este processo começou mal, quando se deixou a IA aprender todas as coisas boas e… também todas as coisas más que aparecem nas redes sociais e na Internet”, responde Luís Correia, professor de Ciências ULisboa e investigador do centro LASIGE.


