Helder Coelho
“Tudo do que gostamos é um produto da inteligência, assim se amplificarmos a nossa inteligência com a artificial teremos mais força para ajudar a civilização a florescer como nunca – desde que consigamos manter a tecnologia como benéfica.”
Max Tegmark, presidente do Future of Life Institute
Ao serviço de quem está a ciência e a tecnologia? Devemos ter medo das suas utilizações? Há mesmo o perigo de uma superinteligência fazer-nos mal? Em 2014 e 2015, um conjunto de personalidades pôs em causa o controlo (ou a sua falta) da disciplina da Inteligência Artificial (IA) e abriu o debate com os temas da superinteligência e do domínio dos humanos por máquinas mais inteligentes. Graças a Elan Musk, Bill Gates, Stephen Hawking, Nick Bostrom e Noam Chomsky podemos estar mais descansados com o alerta (na singularidade defende-se que a Inteligência Artificial ultrapassará a humana para criar uma IA geral ou forte), mas mesmo assim cuidado.
A comunidade de Inteligência Artificial respondeu ao desafio, através de um Manifesto (“An Open Letter”) em 2015, encabeçada pelo professor Stuart Russell da Universidade de Berkeley (EUA), e da criação do Future of Life Institute. Entretanto, a discussão instalou-se, outros institutos foram criados, vários movimentos ocorreram e um abaixo-assinado já ultrapassou 25.000 assinantes.
Poderá a IA ser benéfica e ajudar-nos a combater doenças, como o cancro e a Alzheimer? Poderá proteger-nos e manter em nossa volta um ambiente seguro? Estar ao nosso lado, a auxiliar-nos a preservar o clima, impedindo o desastre iminente? Não se esquecer dos que têm incapacidades físicas, inventando novas próteses e implantes?
A Universidade de Stanford (EUA) lançou, em 2015, o estudo AI100, cujo relatório de 2016 pode ser obtido na Internet, e onde se fala de muitos assuntos, incluindo a questão do trabalho (emprego), que tem merecido a melhor atenção da Organização Mundial do Trabalho, da educação, da saúde pública, da segurança, ou dos transportes.
Nos últimos anos temos ouvido falar muito da IA, sobretudo das melhorias de desempenho, como no reconhecimento de uma cara (leitura da fisionomia) e na visão de fotografias (normais, via raios X), de ecografias ou de ressonâncias, ou ainda na síntese da fala (Siri da Apple, Watson da IBM, Google, Microsoft), usada desde há uns anos (Intel) por Stephen Hawking para comunicar com os outros.
O que se pretende agora é passar da inteligibilidade para a naturalidade. Todos os sistemas funcionam bem ao nível das frases, mas não abordam a prosódia (ritmo e entonação da fala, ou seja significado e contexto emocional). Os sistemas de síntese da fala começaram por ser apoiados em parâmetros e agora recorrem à estatística (com modelos de Markov). Estes modelos estão a ser substituídos por redes neuronais profundas, com várias camadas (também misturadas com a aprendizagem na DeepLearning), e passaram a ser mais automáticos e precisos, pois são guiados pelos dados.
A naturalidade depende muito do controlo dos significados, ou seja da compreensão do que se quer dizer, e isto impõe mais profundidade ou camadas. Uma solução partilhada pela Google não é ainda prática pois é lenta (algumas horas de computação). Uma outra via, desenvolvida em Espanha (Universidade Ramon Llull), é intensiva do ponto de vista computacional, apoiando-se num modelo físico. Na Universidade de Edimburgo, o ponto de vista principal são as aplicações práticas e recorre-se muito à aprendizagem mecânica.
O que podemos classificar então como benéfico para a nossa civilização? O algoritmo de procura da Google, o do Watson da IBM, o Siri do iPhone, são todos produtos de uma IA estreita ou fraca. E, o programa AlphaGo da DeepMind para jogar o Go, o qual o faz com estilo e surpreende o adversário?
Tem um algoritmo geral (em vez da força bruta do DeepBlue de 1997 para o xadrez), é capaz de auto aprender e de atacar vários domínios de problemas diferentes (o número de jogos possíveis do Go 10761 é bem mais complexo do que o do xadrez 10120). Dois aspetos determinaram o êxito do DeepBlue, o poder computacional e a função de avaliação (heurísticas para varrer a árvore de procura, cuja profundidade era maior do que seis). No caso do Go, o fator de ramificação da árvore é mais largo, e isto quer dizer que é mais difícil procurar a árvore do jogo com uma profundidade suficiente. Também é mais difícil desenhar as funções de avaliação, e o fim do jogo é especialmente complexo. No caso dos anteriores programas (Fuego, Pachi, Zen, Crazy Stone) foi sempre escolhida a MCTS (Monte Carlo Tree Search) e as regras feitas à mão, enquanto no caso do AlphaGo (Google) optou-se por misturar aprendizagem mecânica (algoritmo que aprende a partir dos dados, para evitar as regras manuais) com uma combinação de três tipos de redes neuronais de convolução (múltiplas camadas, 13 níveis, de neurónios artificiais) com um procedimento de procura da árvore. O termo DeepLearning (https: //www.tastehit.com/blog/google-deepmind-alphago-how-it-works), muito utilizado na imprensa, refere-se ao treino das redes de modo ávido, não supervisionado, e camada a camada.
A forma como o AlphaGo bateu, em janeiro e março de 2016, os campeões da Europa e do Mundo de Go (respetivamente, por 5-0 e 4-1), a publicação de um artigo na revista Nature da equipa da DeepMind comandada por Demis Hassabis (DeepMind/Google), justifica a expetativa geral sobre as suas vantagens e potencialidades para apoiar o ataque a domínios de problemas bem mais benéficos para a humanidade, como o da saúde pública.