No Campus com Helder Coelho

Atualidade dos Analisadores Semânticos

Helder Coelho

Nos últimos anos, a possibilidade de falar com uma máquina (relógio, telemóvel, computador portátil, automóvel), um dos sonhos da Inteligência Artificial, tornou-se trivial, pois a tecnologia da linguagem (tradução, reconhecimento, análise, síntese) evoluiu bastante desde a aposta da Apple no Siri em 2011 (veja-se o "Technology Quarterly" do "Economist" de 5 de janeiro de 2017, e a melhoria da precisão no reconhecimento das palavras ou na tradução, cada vez mais perto dos 100%). No entanto, esta vitória da ciência (na idade da avalanche dos dados ou Big Data) não foi fácil e, o que estava em causa, o poder de análise semântica (semantic parser) cresceu (scaled up) graças à fusão dos aspetos lógicos e estatísticos. Mais, o analisador é agora capaz de aprender (Liang, 2016), e foram os avanços da Aprendizagem Mecânica e dos Modelos Estatísticos (Hidden Markov Model, a via da força bruta) os principais responsáveis pelo entusiasmo da indústria e dos mercados. A Microsoft, a Facebook, a Google foram também para a luta e parecem estar empenhadas em melhorar os seus resultados.

Duas linhas de investigação confrontaram-se nos últimos 40 anos, o lado da linguística formal, defendido por Noam Chomsky, e o lado da teoria da informação, que se apoiou em Claude Shannon. E, não se deve esquecer Zellig Harris, o qual defendeu uma aliança forte entre os princípios gramaticais e os informacionais, e o mesmo aconteceu com a via da teoria das linguagens formais.

As técnicas matemáticas ganharam espaço e estão hoje na frente pelos avanços e a lidar com as avalanches de dados. Na presente década, graças aos esforços de um grupo pequeno de empresas, a via da teoria da informação ganhou adeptos, sobretudo devido aos sucessos no reconhecimento da voz (discurso), na busca de informação, e na tradução das línguas. Ferramentas online como o BabelFish (apoiada em regras) e o Google Translate, passaram a ser usadas e prezadas. Empresas mais pequenas, como a Nuance (e o programa Dragon Dictate), mostraram que as tecnologias das redes neuronais são úteis (a DeepMind da Google inaugurou, em 2014, um novo modo de sintetizar os discursos orais, recorrendo a redes neuronais profundas).

O mercado do processamento da língua natural (PLN), segmentado em codificação automatizada, análise de textos, reconhecimento de carateres óticos, resposta interativa em voz, reconhecimento de padrões e imagens, e analítica da voz, tenderá a aumentar muito nos próximos dez anos.

A compreensão de uma língua natural (Português) passou a poder ser decomposta em duas etapas, a tradução das frases lógicas (representação do seu significado) e a produção de ações. E, os analisadores semânticos são capazes de aprender as formas lógicas que estão associadas aos pares frases/ações. A compreensão é organizada com vários módulos, como o executor, a gramática, o modelo, o analisador e o aprendiz. E, o sistema por detrás da compreensão é ensinado e, após o treino, aumenta a sua precisão de trabalho. Mas, devemos ter um certo cuidado pois as línguas estão cheias de ambiguidades e exceções.

Compreensão profunda + raciocínio lógico
(sintaxe, semântica e pragmática)

A composição do significado de uma frase (expressão) é o resultado do arranjo/combinação das subexpressões (partes significantes da frase).

No início (anos 60), e nas duas décadas seguintes, era muito difícil ir além de domínios limitados (fechados) e de enfrentar as complexidades de uma língua em geral, apenas com regras feitas à mão. A evolução da aprendizagem mecânica, foi influenciada pelas técnicas estatísticas, já adotadas pelo reconhecimento de padrões (discurso com voz), e também graças ao modo repetitivo de explorar exemplos de comportamento (entrada/saída) e de os obrigar ao encaixe num modelo (estatístico). A revolução passou ainda pelo enfraquecimento da supervisão (na passagem das formas lógicas anotadas às respostas) e pela ampliação (scaling up) dos analisadores semânticos a domínios mais abertos e complicados. Se os primeiros sistemas exigiam as formas anotadas, os novos começaram a ser treinados com as respostas (via aprendizagem). E, finalmente, a aplicação dos analisadores a diferentes domínios e além do que é mais comum, a pergunta/resposta, tais como a navegação de robôs, a identificação de objetos em cenas, ou a conversão da língua natural em expressões regulares.

O escalamento (scaling up) é, hoje em dia, um dos problemas interessantes da Informática. Consiste em passar de um protótipo (em geral com uma escala pequena) para um sistema mais realista, e na maioria dos casos não exige apenas grandes computadores (alta velocidade e poder de processamento, enormes memórias).

Por exemplo, em simulação social baseada em agentes inteligentes, requer paciência para afinar os principais parâmetros, tornar os agentes cognitivos parecidos com os seres humanos, e multitudes de agentes diferentes em cenários com paisagens bem sofisticadas (o filme Avatar de James Cameron é um bom exemplo de um empreendimento que levou dez anos a realizar, recorrendo a novas tecnologias e ferramentas). No caso de conflitos sociais (como as manifestações de protesto em rua) passar de 1.000 agentes para 2.000 é trivial, mas o salto para 10.000 impõe muito trabalho, tempo e paciência para as afinações.

No futuro, os desafios são ainda grandes, como por exemplo a representação semântica da linguagem ou que supervisão se deverá adotar para aprender a semântica. Recentemente, houve bastante interesse em recorrer às redes neuronais, e suas extensões, para atacar as tarefas mais populares do processamento da língua natural, a tradução mecânica e a pergunta/resposta (veja-se o sucesso do sistema Watson da IBM e da interface Siri da Apple, desde 2011). A paridade entre a tecnologia e o desempenho humano está ainda longe, medida em 2/3 anos, embora os produtos comecem a surgir, como os automóveis com controles ativados por voz. Para alguns, criar discurso ou compreendê-lo são duas operações opostas.

No Departamento de Informática (DI) da Faculdade de Ciências da Universidade de Lisboa (Ciências ULisboa), o grupo do professor António Branco, por detrás da unidade de investigação e desenvolvimento NLX (criada no início de 2000), disponibilizou um serviço o LX-Service para se observarem algumas das ferramentas desenvolvidas em cerca de 20 anos de estudo (LX-Suite, LX-Conjugator, LXGram, POS Tagger, LX-Tokenizer, Lematizador verbal). Recentemente foi aprovado o projeto CNPTDeepMT (Tradução Automática Profunda entre Chinês e Português, no domínio do eCommerce), com a duração de três anos, o apoio da FCT e do Ministério da Ciência e Tecnologia da China e a ser realizado na unidade NLX no DI Ciências ULisboa.

Referência
Liang, P. Learning Executable Semantic Parsers for Natural Language Understanding, Communications of the ACM, Setembro, Vol. 59, Nº 9, 2016.

Helder Coelho, professor do Departamento de Informática de Ciências
info.ciencias@ciencias.ulisboa.pt

“Todas as oportunidades devem estar acessíveis a todas as crianças. Enquanto investigadores, apenas podemos mostrar-lhes o fascínio da ciência e provar-lhes que esta não é uma atividade 'para outros', que eles próprios podem sonhar com uma carreira na investigação ou noutras carreiras indispensáveis ao desenvolvimento do país”, declararam os cientistas da FCUL.

Na FCUL, só nas áreas da Biologia, Física e Química, existem mais de duzentos espaços laboratoriais, realizando-se, em cada um, dezenas de atividades diferentes e a cada novo projeto estão associadas outras tarefas diferentes das anteriores.

The doctoral programs in Mathematics of the Faculdade de Ciências (FCUL) and of Instituto Superior Técnico (IST) of the University of Lisbon are now partners under the LisMath Program, funded by the Portuguese Foundation for Science and Technology. The competition for scholarships under the LisMath will be officially announced on 18/1 and will be open 3/2 to 31/3.

Para melhor preparar a sua participação nas calls do Horizon 2020, deverá acompanhar e participar nos Info & Brokerage Events.

Os Work Programmes são a via para pré-selecionar calls do seu interesse.

Agora é Web of Science

“Tomar consciência da existência [de] necessidades e poder contribuir para satisfazer algumas delas é um privilégio que temos quando participamos neste tipo de projetos”, declarou o professor do Departamento de Engenharia Geográfica, Geofísica e Energia, Jorge Maia Alves.

Campus da FCUL

Os programas doutorais em Matemática da Faculdade de Ciências e do Instituto Superior Técnico da nova Universidade de Lisboa são parceiros no âmbito do Programa LisMath, financiado pela Fundação para a Ciência e a Tecnologia.

Joana Almaça, Marisa Sousa, Inna Ulyiakina e Diana Faria não têm dúvidas em afirmar que foram “contaminadas pelo ‘bichinho da ciência’”, por isso, os planos futuros passam por “contribuir para o conhecimento dos mecanismos responsáveis por algumas patologias dos humanos”.

De 4 de janeiro a 1 de fevereiro de 2014,  a Biblioteca do C4 também está aberta aos sábados, das 9h00

A FCUL abriu as portas do Departamento de Física aos alunos da Escola Secundária Vergílio Ferreira, de Lisboa. Durante uma manhã, 26 alunos do 12.º ano exploraram os mistérios da Física.

O percurso académico e profissional da cientista é marcado pela experiência profissional além-fronteiras.

Prémio ANACOM URSI Portugal 2013

O estudo “Técnica multimodal inovadora baseada em PEM-UWB para deteção de cancro da mama e respetiva classificação” é da autoria da cientista Raquel Conceição.

O trabalho da jovem cientista também passa pela criação de uma rede de investigadores europeia, que colabore no desenvolvimento de aplicações médicas na frequência de micro-ondas e agilize processos de ensaios clínicos e de comercialização de novos equipamentos médicos.

“Os ocupantes cumpriram as instruções, saíram do edifício de forma muito ordeira e a evacuação foi feita com rapidez”, declarou Júlia Alves, assessora para a Segurança do Trabalho na FCUL.

Marília Antunes

“[Tê-la na nossa equipa] é absolutamente enriquecedor e imprescindível para a boa continuação do nosso trabalho”, comenta Sandra Garcês, coordenadora do projeto "An Evidence-Based Approach to Optimize Therapeutic Decisions Involving Biological Drugs”, distinguido com o Prémio Pfizer de Investigação Clínica 2013, que contou com a participação da cientista da FCUL.

The European Commission has presented on December 11th  the first calls for projects under Horizon 2020, the European Union's €80 billion research and innovation programme.

Consulte as apresentações disponíveis.

 

Para além de Paulo Urbano o estudo contará com a participação de um bolseiro e a consultoria do investigador Joel Lehman, da University of Texas at Austin. O financiamento total excede os 22.000 euros.

Autores do artigo publicado no Journal of Catalysis

Carla D. Nunes, Cristina I. Fernandes, Marta S. Saraiva, Teresa G. Nunes e Pedro D. Vaz trabalham há dois anos num estudo que visa o desenvolvimento de catalisadores mais eficientes e facilmente separáveis para reciclagem.

A equipa do CAUUL, responsável por este projeto, tem como objetivo “construir um modelo do sistema climático de Vénus e colocar os resultados de vários anos de investigação à disposição da comunidade científica mundial”.

Cartaz

A investigação premiada tem como foco principal os doentes com Artrite Reumatoide.

FCUL recebe delegação russa

“Achei o encontro muito interessante. Na Rússia não há muito conhecimento sobre a educação em Portugal e hoje descobrimos muitos aspetos interessantes que podemos vir a aplicar na nossa estrutura de ensino”, comentou Predybaylo Bladislav, membro da delegação russa em visita à UL

Durante as férias de Natal, de 23 de Dezembro a 3 de Janeiro a biblioteca do C4 está aberta todos os dias úteis das 9:30h às 17:30h.

Páginas