Para quando os agentes artificiais serão de facto capazes de pensar e planear com conceitos (representações abstratas) e em situações normais do dia-a-dia
Quando se fala em complexidade pensamos que estamos perante muitas coisas diferentes, com grandes quantidades de relações e de interações, e, sobretudo, na necessidade de múltiplos recursos. E, porquê? Sabemos que é a diversidade de meios que permite alcançar os vários fins.
A tese do “algoritmo mestre”, de Pedro Domingos (2015), parte da ideia de que temos de combinar multitudes de singularidades se quisermos ter êxito na resolução de problemas muito complicados. Pelo contrário, tudo o que é simples pode ser atacado com meios mais modestos.
Outrora, reduzir problemas a coisas mais elementares (método cartesiano) parecia ser o caminho perfeito. No entanto, quando os grandes problemas se tornam mais difíceis de tratar, o método foi considerado incapaz. E, daí a necessidade de dispormos de mais tipos de inteligência (concreta, abstracta, convergente, divergente, criativa, analítica, sequencial, holística), de raciocínios (monótono, não monótono, temporal, espacial, hipotético, analógico), e de algoritmos. Falar agora do império de uma super inteligência artificial, para nos amedrontar, parece não ser apropriado e ajuizado. O que o homem tem necessidade, quando enfrenta o complexo, é de “agentes” com um pouco de mais inteligência (estendida, aumentada) e de ajuda (cooperação, colaboração). Combinar o natural e o artificial. Trabalhar com coletivos, e isso já acontece no sector da saúde com bons resultados.
Em gestão é costume falar-se em “pensar fora da caixa” ou combinar o pensar global com o agir local. Não é só compreender, mas sim encadear, raciocinar, julgar, refletir, explicar, reagir, antecipar e prever.
O modelo BDI (Belief-Desire-Intention), de (Bratman, 1987), para caracterizar a mente de um agente é simples demais, mas produz resultados interessantes. Epstein (2014) propôs, recentemente, o Agente Zero, juntando àquele triângulo BDI os lados afetivo e social de uma arquitetura mais agressiva para a simulação social. Contudo, nos nossos dias é preciso ainda descobrir a emulação da realidade, isto é escalar a experiência, até se tornar credível e próxima daquilo que acontece.
Peguemos no caso dos drones comerciais, aptos a navegar com autonomia graças a um GPS (também os seres humanos estão dotados de um GPS no cérebro). Embora tenham já desempenhos notáveis (por exemplo, na Guerra dos EUA no Afeganistão) não escapam a erros grosseiros de precisão da perceção da realidade: matar famílias inocentes de pertenceram aos talibãs. Estes enganos têm também ocorrido com os automóveis sem condutor, incapazes de reagirem, com rapidez, a acontecimentos imprevisíveis, de compreenderem o que se passa em redor, e de refletir sobre o que escolher e fazer em seguida. Estão já prontos a aprender (imitar) algumas capacidades dos condutores humanos, mas isso é ainda muito pouco.
O algoritmo DroNet (Loquercio et al., 2018), desenvolvido na Universidade de Zurique, interpreta a cena que observa com uma câmara de telemóvel (em vez dos habituais sensores), e permite não só reconhecer obstáculos dinâmicos e estáticos, mas também de desacelerar a velocidade do veículo, evitando o choque iminente. Resta ainda saber em que tipo de situações (só simples?) se adapta e se é possível preverem desastres.
O DroNet aprende (coleciona), graças ao Deep Learning e a redes neuronais, apoiado em milhares de exemplos de automóveis e de bicicletas (conduzidas por seres humanos) em ambientes urbanos e reais. No entanto, a dúvida continua a ser como um algoritmo se adaptará (flexibilidade) a novas (parecidas) situações (não registadas previamente), ou mesmo como descobrirá aspetos (traços, propriedades) não conhecidos, mas relevantes para as novas situações que podem encontrar. Ou seja, para quando os agentes artificiais serão de facto capazes de pensar e planear com conceitos (representações abstratas) e em situações normais do dia-a-dia.