1etica-na-ia

A Inteligência Artificial precisa de ética. E os humanos também

Hugo Séneca
Artigo, Destaque, Inteligência Artificial30 janeiro, 2026

Uma viagem num autocarro avariado chega bem para vislumbrar os limites éticos da Inteligência Artificial (IA) generativa. Qualquer mecânico que tenha de reparar o veículo tem a possibilidade de conhecer previamente todos os componentes e respetivas formas de funcionamento, que facilitam a identificação da origem de uma qualquer falha. Está fora de questão impedir o uso de autocarro ou de IA, mas por algum motivo mais ou menos insondável muitos humanos continuam a manter a expectativa de reparar assistentes virtuais desvairados com a mesma lógica com que se resolvem avarias em veículos motorizados. E é nesse ponto que o problema pode ganhar a dimensão do mundo inteiro.

“Num assistente virtual, o número de funcionalidades e cenários de uso permanece sempre em aberto e é muito maior que o de um autocarro. Por isso é mais difícil de garantir a fiabilidade de um chatbot do que de um autocarro”, descreve António Branco, professor da Faculdade de Ciências da Universidade de Lisboa (Ciências ULisboa) e coordenador do Grupo de Fala e Linguagem Natural (NLX), que tem vindo a desenvolver o assistente virtual (ou chatbot, ou bot) Evaristo.ai.

Apesar das discrepâncias na fiabilidade, o número de utilizadores de chatbots não parou de crescer nos últimos tempos – e não será de estranhar que, contas feitas às ferramentas disponíveis no telemóvel, já tenha mesmo superado o total de pessoas que viajam de autocarros. O que deixa em aberto outra questão: quem é que garante que a IA disponibilizada no mundo não é usada para gerar bots mal-intencionados?

“Todo este processo começou mal, quando se deixou a IA aprender todas as coisas boas e… também todas as coisas más que aparecem nas redes sociais e na Internet”, responde Luís Correia, professor de Ciências ULisboa e investigador do centro LASIGE.

Inteligência Artificial

A Inteligência Artificial tem um novo desafio pela frente: integrar nos algoritmos os princípios éticos dos humanos

Depois de milénios como um exclusivo humano, os limites da ética deram início à primeira aplicação de grande escala com máquinas que, desejavelmente, deveriam ter autonomia para discernir o bem do mal a cada momento. E o caso não é para menos. Nos transportes, nas telecomunicações, na medicina, na meteorologia, na energia ou até na agricultura não faltam exemplos de ferramentas de IA que processam informação, fazem previsões, identificam padrões e executam ações.

Enquanto os humanos se habituaram a mandamentos religiosos ou filosóficos que condenam quem mata, rouba ou simplesmente envereda por uma alimentação interdita, as máquinas usam algoritmos numa lógica que a gíria dos departamentos de informática conhece por “if (…), then (…)”, que permite elencar várias opções possíveis, sempre que um determinado cenário se perfila perante a IA. É com esta lógica que um qualquer autómato ou plataforma de IA ganha a capacidade de decidir se trava um comboio desembestado para evitar uma tragédia, escolhe um candidato a um emprego sem preconceitos raciais ou religiosos, ou simplesmente fecha as portas de um edifício no caso de ter detetado uma intrusão.

Estes são apenas os cenários mais previsíveis. Depois, há todas as outras situações que nenhum humano pode acautelar, como a recente notícia sobre o bot que recomendou a uma utilizadora a contratação de um assassínio profissional para liquidar o marido. Ou do jovem sentenciado a nove anos de prisão, depois de longas conversas com um bot e uma intrusão no Castelo de Windsor com o propósito de assassinar a Rainha Isabel II. Nas pesquisas de Internet, também surgem muitos mais casos de suicídio que, alegadamente, foram potenciados por chatbots do que aqueles que as grandes marcas tecnológicas estarão dispostas a reconhecer. Sabe-se que é nas famílias de sistemas de IA “generalistas”, que há maior potencial de erros, preconceitos, manipulação, ou “alucinações” que levam a respostas e descrições irreais, devido ao facto de lidarem com quase todos os temas abordados pela humanidade – mas isso não significa que se possa abandonar as salvaguardas aplicadas a sistemas especializados que, eventualmente, lidam com funções críticas.

“A aplicação de filtros éticos é desejável, mas os sistemas mais usados da atualidade têm sido disponibilizados por grandes marcas comerciais, e ainda há alguma opacidade naquilo que esses sistemas conseguem fazer”, refere Luís Correia. “Nem sempre se sabe bem como funcionam estes assistentes virtuais, mas, por outro lado, sabe-se que são manipuláveis”, acrescenta o professor do Departamento de Informática.

Até Elon Musk, o homem mais rico do mundo que é conhecido por defender o império tecnológico com aguerrida convicção, já veio a terreiro admitir que os bots são manipuláveis. Aconteceu no verão de 2025, quando um bot que operava com a tecnologia Grok, da rede social X, desatou a louvar publicamente Adolf Hitler e os criminosos ideais do partido Nazi.

Luís Correia

Luís Correia recorda que ainda há limitações na Inteligência Artificial quando tem de proceder a um raciocínio simbólico

Mais uma vez, será uma ilusão considerar que a reparação de um simples bot chega bem para se gerar uma tranquila e pacífica primavera em toda a IA. Talvez porque os bots aprendem consoante aquilo que lhes dão para processar, Luís Correia e António Branco admitem que, numa primeira análise, a solução possa remeter para medidas corretivas dos humanos.

“Os grandes modelos de linguagem, que têm sido usados pela IA, são treinados com grandes repositórios de textos e dados e seguem lógicas de aprendizagem por reforço, que envolve humanos que vão classificando como adequadas ou inadequadas as diferentes respostas apresentadas a diferentes questões ou problemas. Depois de classificadas, essas respostas são introduzidas na linguagem usada durante as interações com outros humanos. É assim que os chatbots são condicionados do ponto de vista ético”, refere António Branco.

Num mundo virtual perfeito não seria preciso fazer mais nada, além das correções humanas. Mas, na realidade, as coisas são diferentes. “Como todos estes sistemas têm por base redes neuronais probabilísticas e não tanto processos determinísticos, há sempre a possibilidade de a IA fazer coisas que não são pretendidas”, acrescenta o coordenador do NLX.

Devido ao impacto mediático pode haver a tentação de achar que a IA generativa é a única metodologia existente na IA, mas quem estuda o tema lembra que há mais ferramentas e conceitos disponíveis nos laboratórios de informática. “A aprendizagem feita a partir dos dados é uma área bem conhecida que tem feito avançar a IA, mas há ainda alguma dificuldade em ligar este tipo de aprendizagem com o raciocínio simbólico, que permite (a um sistema de IA) fazer inferências e abstrações a partir dos dados que vai analisando”, sublinha Luís Correia.

"Os grandes modelos de linguagem, que têm sido usados pela IA, são treinados com grandes repositórios de textos e dados e seguem lógicas de aprendizagem por reforço, que envolve humanos que vão classificando as diferentes respostas"

No estado em que a tecnologia se encontra, a  expectativa de ter uma IA melhor que os humanos revela-se, logo à partida, manifestamente exagerada, quando se compreende que, sem um raciocínio simbólico ou outro método  de aprendizagem, a IA habilita-se a continuar a depender, em grande parte, das meras lógicas da probabilidade para formular respostas a partir dos dados e padrões que vai encontrando. Tem grande potencial para levar chatbots a imitarem as melhores práticas – mas também abre portas para a imitação de ações indesejadas. E por isso, já há quem esteja a tomar medidas.

“A OpenAI contratou especialistas para “desintoxicarem” as respostas da IA. Acredito que haja mais marcas que tenham a sentido a necessidade de fazer esse trabalho, porque sabem que a IA aprende tudo por si própria sem controlo e pode acabar por inflacionar mensagens de racismo, linguagem de ódio, misoginia e muitas outras coisas que se encontram na Internet”, acrescenta Luís Correia.

Ainda que possam minimizar o mal, os processos de “desintoxicação” não deixam de ser morosos e caros – e por isso já começaram a atrair especialistas que testam chatbots  e verificam se dizem o que não devem. Acontece que essa mesma estratégia também pode ser usada para obter resultados opostos. Tal como acontece com os estratagemas que os humanos usam quando querem influenciar, ludibriar ou burlar alguém.

António Branco: "Num assistente virtual, o número de funcionalidades e cenários de uso permanece sempre em aberto"

António Branco: "Num assistente virtual, o número de funcionalidades e cenários de uso permanece sempre em aberto"

“Um chatbot pode estar programado para não dizer ou explicar certas coisas que são consideradas perigosas para os humanos, mas também se sabe que os humanos têm a capacidade de levar determinadas conversas para determinados “sítios” que podem levar um chatbot a dizer o que não deve”, sublinha Luís Correia.

Algumas abordagens teóricas admitem o recurso a bots supervisores que monitorizam potenciais falhas que outros vão fazendo, mas Luís Correia recorda que essa solução só será viável se se garantir a fiabilidade destas ferramentas de supervisão. O que de algum modo também comporta desfechos imprevisíveis.

Sendo fácil de imaginar, a expectativa de ter uma IA melhor que os humanos fica logo limitada a partir do momento em que se percebe que a IA atual imita os humanos. Até porque a ética e os valores morais podem seguir lógicas, restrições e objetivos  diferentes consoante a geografia ou o histórico cultural dos utilizadores finais. Resultado: é possível ter mitigações e correções, mas será razoável admitir que qualquer projeto que tenha a veleidade de converter todos os bots para o lado do “bem”, habilita-se a ter um grau de dificuldade comparável à de qualquer projeto que pretenda limpar todos os males da humanidade. Não será uma “guerra” perdida, mas tende a manter-se como um desafio sempre em aberto, que exige monitorização e correções em permanência.

“Quanto mais capacidades tiverem os bots, maior é a tendência para os humanos os tratarem como pessoas".

Enquanto nos humanos há indícios comportamentais e linguísticos que ajudam a detetar mentiras ou manipulação, os bots tendem a apresentar respostas com muita convicção, independentemente de estarem certos ou com “alucinações” que os levam a inventar dados e factos, recorda Luís Correia. E nesses casos, só mesmo espírito crítico pode livrar os interlocutores de carne e osso de males maiores – seja com a introdução de mais questões e a busca de fontes de informação alternativas ou a consulta da ficha técnica que indica os limites éticos, técnicos e temáticos de cada agente virtual.

“Quanto mais capacidades tiverem os bots, maior é a tendência para os humanos os tratarem como pessoas. Quando contratamos alguém fazemos entrevistas, e depois colocamos essas pessoas à experiência, vemos como se adapta a trabalhar, e com todo esse processo passamos a saber o que lhe podemos pedir para fazer com confiança. Quando perguntamos algo à IA, devemos ter cuidados equivalentes”, conclui Luís Correia.

Comunicados

A Inteligência Artificial precisa de ética. E os humanos também.