No Campus com Helder Coelho

Atualidade dos Analisadores Semânticos

Helder Coelho

Nos últimos anos, a possibilidade de falar com uma máquina (relógio, telemóvel, computador portátil, automóvel), um dos sonhos da Inteligência Artificial, tornou-se trivial, pois a tecnologia da linguagem (tradução, reconhecimento, análise, síntese) evoluiu bastante desde a aposta da Apple no Siri em 2011 (veja-se o "Technology Quarterly" do "Economist" de 5 de janeiro de 2017, e a melhoria da precisão no reconhecimento das palavras ou na tradução, cada vez mais perto dos 100%). No entanto, esta vitória da ciência (na idade da avalanche dos dados ou Big Data) não foi fácil e, o que estava em causa, o poder de análise semântica (semantic parser) cresceu (scaled up) graças à fusão dos aspetos lógicos e estatísticos. Mais, o analisador é agora capaz de aprender (Liang, 2016), e foram os avanços da Aprendizagem Mecânica e dos Modelos Estatísticos (Hidden Markov Model, a via da força bruta) os principais responsáveis pelo entusiasmo da indústria e dos mercados. A Microsoft, a Facebook, a Google foram também para a luta e parecem estar empenhadas em melhorar os seus resultados.

Duas linhas de investigação confrontaram-se nos últimos 40 anos, o lado da linguística formal, defendido por Noam Chomsky, e o lado da teoria da informação, que se apoiou em Claude Shannon. E, não se deve esquecer Zellig Harris, o qual defendeu uma aliança forte entre os princípios gramaticais e os informacionais, e o mesmo aconteceu com a via da teoria das linguagens formais.

As técnicas matemáticas ganharam espaço e estão hoje na frente pelos avanços e a lidar com as avalanches de dados. Na presente década, graças aos esforços de um grupo pequeno de empresas, a via da teoria da informação ganhou adeptos, sobretudo devido aos sucessos no reconhecimento da voz (discurso), na busca de informação, e na tradução das línguas. Ferramentas online como o BabelFish (apoiada em regras) e o Google Translate, passaram a ser usadas e prezadas. Empresas mais pequenas, como a Nuance (e o programa Dragon Dictate), mostraram que as tecnologias das redes neuronais são úteis (a DeepMind da Google inaugurou, em 2014, um novo modo de sintetizar os discursos orais, recorrendo a redes neuronais profundas).

O mercado do processamento da língua natural (PLN), segmentado em codificação automatizada, análise de textos, reconhecimento de carateres óticos, resposta interativa em voz, reconhecimento de padrões e imagens, e analítica da voz, tenderá a aumentar muito nos próximos dez anos.

A compreensão de uma língua natural (Português) passou a poder ser decomposta em duas etapas, a tradução das frases lógicas (representação do seu significado) e a produção de ações. E, os analisadores semânticos são capazes de aprender as formas lógicas que estão associadas aos pares frases/ações. A compreensão é organizada com vários módulos, como o executor, a gramática, o modelo, o analisador e o aprendiz. E, o sistema por detrás da compreensão é ensinado e, após o treino, aumenta a sua precisão de trabalho. Mas, devemos ter um certo cuidado pois as línguas estão cheias de ambiguidades e exceções.

Compreensão profunda + raciocínio lógico
(sintaxe, semântica e pragmática)

A composição do significado de uma frase (expressão) é o resultado do arranjo/combinação das subexpressões (partes significantes da frase).

No início (anos 60), e nas duas décadas seguintes, era muito difícil ir além de domínios limitados (fechados) e de enfrentar as complexidades de uma língua em geral, apenas com regras feitas à mão. A evolução da aprendizagem mecânica, foi influenciada pelas técnicas estatísticas, já adotadas pelo reconhecimento de padrões (discurso com voz), e também graças ao modo repetitivo de explorar exemplos de comportamento (entrada/saída) e de os obrigar ao encaixe num modelo (estatístico). A revolução passou ainda pelo enfraquecimento da supervisão (na passagem das formas lógicas anotadas às respostas) e pela ampliação (scaling up) dos analisadores semânticos a domínios mais abertos e complicados. Se os primeiros sistemas exigiam as formas anotadas, os novos começaram a ser treinados com as respostas (via aprendizagem). E, finalmente, a aplicação dos analisadores a diferentes domínios e além do que é mais comum, a pergunta/resposta, tais como a navegação de robôs, a identificação de objetos em cenas, ou a conversão da língua natural em expressões regulares.

O escalamento (scaling up) é, hoje em dia, um dos problemas interessantes da Informática. Consiste em passar de um protótipo (em geral com uma escala pequena) para um sistema mais realista, e na maioria dos casos não exige apenas grandes computadores (alta velocidade e poder de processamento, enormes memórias).

Por exemplo, em simulação social baseada em agentes inteligentes, requer paciência para afinar os principais parâmetros, tornar os agentes cognitivos parecidos com os seres humanos, e multitudes de agentes diferentes em cenários com paisagens bem sofisticadas (o filme Avatar de James Cameron é um bom exemplo de um empreendimento que levou dez anos a realizar, recorrendo a novas tecnologias e ferramentas). No caso de conflitos sociais (como as manifestações de protesto em rua) passar de 1.000 agentes para 2.000 é trivial, mas o salto para 10.000 impõe muito trabalho, tempo e paciência para as afinações.

No futuro, os desafios são ainda grandes, como por exemplo a representação semântica da linguagem ou que supervisão se deverá adotar para aprender a semântica. Recentemente, houve bastante interesse em recorrer às redes neuronais, e suas extensões, para atacar as tarefas mais populares do processamento da língua natural, a tradução mecânica e a pergunta/resposta (veja-se o sucesso do sistema Watson da IBM e da interface Siri da Apple, desde 2011). A paridade entre a tecnologia e o desempenho humano está ainda longe, medida em 2/3 anos, embora os produtos comecem a surgir, como os automóveis com controles ativados por voz. Para alguns, criar discurso ou compreendê-lo são duas operações opostas.

No Departamento de Informática (DI) da Faculdade de Ciências da Universidade de Lisboa (Ciências ULisboa), o grupo do professor António Branco, por detrás da unidade de investigação e desenvolvimento NLX (criada no início de 2000), disponibilizou um serviço o LX-Service para se observarem algumas das ferramentas desenvolvidas em cerca de 20 anos de estudo (LX-Suite, LX-Conjugator, LXGram, POS Tagger, LX-Tokenizer, Lematizador verbal). Recentemente foi aprovado o projeto CNPTDeepMT (Tradução Automática Profunda entre Chinês e Português, no domínio do eCommerce), com a duração de três anos, o apoio da FCT e do Ministério da Ciência e Tecnologia da China e a ser realizado na unidade NLX no DI Ciências ULisboa.

Referência
Liang, P. Learning Executable Semantic Parsers for Natural Language Understanding, Communications of the ACM, Setembro, Vol. 59, Nº 9, 2016.

Helder Coelho, professor do Departamento de Informática de Ciências
info.ciencias@ciencias.ulisboa.pt

Novo estudo com recurso a análises genéticas revela que o sapo-asiático que está a invadir a ilha de Madagáscar terá origem numa população do Camboja e Vietname.

“Ao transformarmos o problema dos resíduos orgânicos, numa oportunidade para  melhorarmos o solo do campus de Ciências, ou seja, a matriz que suporta a vida, estamos a melhorar as plantas que aqui crescem com externalidades positivas para o ambiente”, declara David Avelar, guardião da HortaFCUL.

Exposição de design inclui projetos de comunicação de ciência, fruto de uma parceria entre o Instituto de Astrofísica e Ciências do Espaço e a Faculdade de Belas-Artes da Universidade de Lisboa.

Miguel Morgado-Santos, doutorando de Ciências, descobriu um peixe apenas com genes de pai, da espécie bordalo (Squalius alburnoides). Este é o primeiro caso de androgénese natural em vertebrados, sem qualquer manipulação durante o processo de reprodução.

Mafalda Carapuço continua a falar sobre a onda da Nazaré. Em maio passado esteve na Biblioteca São Francisco Xavier, com uma turma do 2.º ano da Escola Moinhos do Restelo. Este mês participou no colóquio "Nazaré e o Mar", ocorrido na Biblioteca Municipal da Nazaré.

Será a ética determinante na sustentabilidade de uma sociedade de consumo? Este é o tema aborado por Sofia Guedes Vaz, no dia 22 de junho, pelas 17h30, no MUHNAC-ULisboa.

O que fazem e o que pensam alguns membros da comunidade de Ciências? O Dictum et factum de junho é com Nuno Rato, coordenador do Gabinete de Orçamento e Prestação de Conta da Direção Financeira e Patrimonial de Ciências.

Ao longo do ano são muitos os alunos dos ensinos básico e secundário que visitam a Faculdade. Este ano letivo cerca de 63 estudantes, entre os 9 e 10 anos, da Escola Básica Maria Lamas, em Odivelas, conheceram os Departamentos de Biologia Animal, Biologia Vegetal e Química e Bioquímica.

A empresa Surftotal associou-se ao Instituto Dom Luiz e à Faculdade de Ciências da Universidade de Lisboa, num projeto que visa testar a utilização de surfcams instaladas na costa portuguesa para melhor monitorização costeira.

“É um jogo que trabalha consistentemente o raciocínio e a capacidade de prever os acontecimentos, muito como no xadrez. Para além disso, ajuda nas relações interpessoais, visto que é um jogo de parceiros e é necessário muita confiança mútua para ter sucesso”, reforça Afonso Ribeiro, aluno do 1.º ano de Matemática Aplicada, membro do curso de Bridge da FCUL.

O concurso de programação do Departamento de Informática recebeu 45 participantes, alunos do ensino secundário, na edição de 2017.

Hoje em dia quando se fala de imaginação (criatividade, inovação) queremos dizer, na maior parte dos casos, antecipação e surpresa. Um empresário, um investigador, um professor querem captar a atenção do outro, inventando e brincando com o possível ou o provável. Por isso, falamos frequentemente de criar imagens, ideias, ou mesmo histórias (veja-se o tópico criatividade computacional, e o grupo de Amílcar Cardoso da Universidade de Coimbra).

O Air4, um protótipo para medição de gases indicadores da qualidade do ar, associado a um modelo de análise de mapas e a uma aplicação mobile, ficou em 2.º lugar no 1.º Hackathon de Tra

No Dia da Criança Galopim de Carvalho lança “O Avô e os Netos Falam de Geologia”, editado pela Âncora Editora e apresentado durante a Feira do Livro de Lisboa.

Foi em setembro do ano passado que a HortaFCUL decidiu abraçar o projeto de ajudar a construir uma Horta Pedagógica na Escola Básica de Santo António em Alvalade, em parceria com Direção e Associação de Pais da Escola e apoiado pelo programa de estímulo à aprendizagem financiado pela Gulbenkian.

Miguel Centeno Brito, professor do DEGGE, foi um dos participantes das II Jornadas da Energia, que ocorreram em abril passado, tendo sido um dos convidados do programa da Rádio Renascença Insónia.

Este ano as Jornadas celebraram a efeméride dos 35 anos da criação da licenciatura em Química Tecnológica.

 É necessário estabelecer redes de monitorização mais robustas e de larga escala para avaliar o impacto das alterações climáticas e da poluição atmosférica na Bacia do Mediterrâneo, refere comunicado de imprensa do cE3c - Centro de Ecologia, Evolução e Alterações Ambientais.

A primeira abordagem a uma reconstituição tridimensional da circulação atmosférica de Vénus pode ser lida no artigo “Venus's winds and temperatures during the MESSENGER's flyby: An approximation to a three-dimensional instantaneous state of the atmosphere”, publicado na Geophysical Research Letters.

O ano passado “The Sphere of the Earth” integrou a exposição “Formas & Fórmulas”, patente no Museu Nacional de História Natural e da Ciência. De lá para cá e por sugestão de José Francisco Rodrigues, um dos comissários desta mostra, Daniel Ramos começou a atualizar o referido programa tornando-o ainda mais rico em termos de funcionalidades e design, com uma multitude de visualizações cartográficas e da geometria da esfera e pela primeira vez em Português. Assim surgiu Mappae Mundi.

As plantas estão por todo o lado, são-nos indispensáveis de diversas formas, mas a nossa consciência, individual e coletiva, da sua importância, é ainda muito limitada.

“Não só quero continuar a adquirir competências, como quero passar a mensagem de que a Comunicação de Ciência é essencial para que a ciência seja compreendida e bem sucedida. É nosso dever informarmos a sociedade dos progressos científicos que vão sendo alcançados”, declara Rúben Oliveira, aluno do mestrado em Biologia da Conservação, finalista do concurso FameLab Portugal.

“O que realmente me aqueceu o coração foi o facto de que, depois da apresentação, algumas pessoas dedicaram tempo a dirigirem-se a mim para discutir o tema em mais profundidade, explicar-me os seus pontos de vista e opiniões”, declara Helena Calhau, aluna do 2.º ano da licenciatura em Física.

Ao serviço de quem está a ciência e a tecnologia? Devemos ter medo das suas utilizações? Há mesmo o perigo de uma superinteligência fazer-nos mal? Em 2014 e 2015, um conjunto de personalidades pôs em causa o controlo (ou a sua falta) da disciplina da Inteligência Artificial (IA) e abriu o debate com os temas da superinteligência e do domínio dos humanos por máquinas mais inteligentes. Graças a Elan Musk, Bill Gates, Stephen Hawking, Nick Bostrom e Noam Chomsky podemos estar mais descansados com o alerta (na singularidade defende-se que a Inteligência Artificial ultrapassará a humana para criar uma IA geral ou forte), mas mesmo assim cuidado.

“Sempre achei as áreas da educação e comunicação bastante interessantes, sonho desde jovem em incorporar um pouco destas duas áreas na minha carreira científica”, declara Hugo Bettencourt, aluno do mestrado integrado em Engenharia Biomédica e Biofísica.

Páginas