No Campus com Helder Coelho

Atualidade dos Analisadores Semânticos

Helder Coelho

Nos últimos anos, a possibilidade de falar com uma máquina (relógio, telemóvel, computador portátil, automóvel), um dos sonhos da Inteligência Artificial, tornou-se trivial, pois a tecnologia da linguagem (tradução, reconhecimento, análise, síntese) evoluiu bastante desde a aposta da Apple no Siri em 2011 (veja-se o "Technology Quarterly" do "Economist" de 5 de janeiro de 2017, e a melhoria da precisão no reconhecimento das palavras ou na tradução, cada vez mais perto dos 100%). No entanto, esta vitória da ciência (na idade da avalanche dos dados ou Big Data) não foi fácil e, o que estava em causa, o poder de análise semântica (semantic parser) cresceu (scaled up) graças à fusão dos aspetos lógicos e estatísticos. Mais, o analisador é agora capaz de aprender (Liang, 2016), e foram os avanços da Aprendizagem Mecânica e dos Modelos Estatísticos (Hidden Markov Model, a via da força bruta) os principais responsáveis pelo entusiasmo da indústria e dos mercados. A Microsoft, a Facebook, a Google foram também para a luta e parecem estar empenhadas em melhorar os seus resultados.

Duas linhas de investigação confrontaram-se nos últimos 40 anos, o lado da linguística formal, defendido por Noam Chomsky, e o lado da teoria da informação, que se apoiou em Claude Shannon. E, não se deve esquecer Zellig Harris, o qual defendeu uma aliança forte entre os princípios gramaticais e os informacionais, e o mesmo aconteceu com a via da teoria das linguagens formais.

As técnicas matemáticas ganharam espaço e estão hoje na frente pelos avanços e a lidar com as avalanches de dados. Na presente década, graças aos esforços de um grupo pequeno de empresas, a via da teoria da informação ganhou adeptos, sobretudo devido aos sucessos no reconhecimento da voz (discurso), na busca de informação, e na tradução das línguas. Ferramentas online como o BabelFish (apoiada em regras) e o Google Translate, passaram a ser usadas e prezadas. Empresas mais pequenas, como a Nuance (e o programa Dragon Dictate), mostraram que as tecnologias das redes neuronais são úteis (a DeepMind da Google inaugurou, em 2014, um novo modo de sintetizar os discursos orais, recorrendo a redes neuronais profundas).

O mercado do processamento da língua natural (PLN), segmentado em codificação automatizada, análise de textos, reconhecimento de carateres óticos, resposta interativa em voz, reconhecimento de padrões e imagens, e analítica da voz, tenderá a aumentar muito nos próximos dez anos.

A compreensão de uma língua natural (Português) passou a poder ser decomposta em duas etapas, a tradução das frases lógicas (representação do seu significado) e a produção de ações. E, os analisadores semânticos são capazes de aprender as formas lógicas que estão associadas aos pares frases/ações. A compreensão é organizada com vários módulos, como o executor, a gramática, o modelo, o analisador e o aprendiz. E, o sistema por detrás da compreensão é ensinado e, após o treino, aumenta a sua precisão de trabalho. Mas, devemos ter um certo cuidado pois as línguas estão cheias de ambiguidades e exceções.

Compreensão profunda + raciocínio lógico
(sintaxe, semântica e pragmática)

A composição do significado de uma frase (expressão) é o resultado do arranjo/combinação das subexpressões (partes significantes da frase).

No início (anos 60), e nas duas décadas seguintes, era muito difícil ir além de domínios limitados (fechados) e de enfrentar as complexidades de uma língua em geral, apenas com regras feitas à mão. A evolução da aprendizagem mecânica, foi influenciada pelas técnicas estatísticas, já adotadas pelo reconhecimento de padrões (discurso com voz), e também graças ao modo repetitivo de explorar exemplos de comportamento (entrada/saída) e de os obrigar ao encaixe num modelo (estatístico). A revolução passou ainda pelo enfraquecimento da supervisão (na passagem das formas lógicas anotadas às respostas) e pela ampliação (scaling up) dos analisadores semânticos a domínios mais abertos e complicados. Se os primeiros sistemas exigiam as formas anotadas, os novos começaram a ser treinados com as respostas (via aprendizagem). E, finalmente, a aplicação dos analisadores a diferentes domínios e além do que é mais comum, a pergunta/resposta, tais como a navegação de robôs, a identificação de objetos em cenas, ou a conversão da língua natural em expressões regulares.

O escalamento (scaling up) é, hoje em dia, um dos problemas interessantes da Informática. Consiste em passar de um protótipo (em geral com uma escala pequena) para um sistema mais realista, e na maioria dos casos não exige apenas grandes computadores (alta velocidade e poder de processamento, enormes memórias).

Por exemplo, em simulação social baseada em agentes inteligentes, requer paciência para afinar os principais parâmetros, tornar os agentes cognitivos parecidos com os seres humanos, e multitudes de agentes diferentes em cenários com paisagens bem sofisticadas (o filme Avatar de James Cameron é um bom exemplo de um empreendimento que levou dez anos a realizar, recorrendo a novas tecnologias e ferramentas). No caso de conflitos sociais (como as manifestações de protesto em rua) passar de 1.000 agentes para 2.000 é trivial, mas o salto para 10.000 impõe muito trabalho, tempo e paciência para as afinações.

No futuro, os desafios são ainda grandes, como por exemplo a representação semântica da linguagem ou que supervisão se deverá adotar para aprender a semântica. Recentemente, houve bastante interesse em recorrer às redes neuronais, e suas extensões, para atacar as tarefas mais populares do processamento da língua natural, a tradução mecânica e a pergunta/resposta (veja-se o sucesso do sistema Watson da IBM e da interface Siri da Apple, desde 2011). A paridade entre a tecnologia e o desempenho humano está ainda longe, medida em 2/3 anos, embora os produtos comecem a surgir, como os automóveis com controles ativados por voz. Para alguns, criar discurso ou compreendê-lo são duas operações opostas.

No Departamento de Informática (DI) da Faculdade de Ciências da Universidade de Lisboa (Ciências ULisboa), o grupo do professor António Branco, por detrás da unidade de investigação e desenvolvimento NLX (criada no início de 2000), disponibilizou um serviço o LX-Service para se observarem algumas das ferramentas desenvolvidas em cerca de 20 anos de estudo (LX-Suite, LX-Conjugator, LXGram, POS Tagger, LX-Tokenizer, Lematizador verbal). Recentemente foi aprovado o projeto CNPTDeepMT (Tradução Automática Profunda entre Chinês e Português, no domínio do eCommerce), com a duração de três anos, o apoio da FCT e do Ministério da Ciência e Tecnologia da China e a ser realizado na unidade NLX no DI Ciências ULisboa.

Referência
Liang, P. Learning Executable Semantic Parsers for Natural Language Understanding, Communications of the ACM, Setembro, Vol. 59, Nº 9, 2016.

Helder Coelho, professor do Departamento de Informática de Ciências
info.ciencias@ciencias.ulisboa.pt
Pontos de interrogação

"Aquando da candidatura, o projeto estava numa fase embrionária e foi o Programa de Estímulo à Investigação da FCG que deu força e motivação para avançar”, diz Jocelyn Lochon, um dos vencedores da edição 2011 do Programa de Estímulo à Investigação.

Aluna entrevistada, sentada numa rocha

“O mais importante é saber gerir o tempo, ter alguma disciplina, definir os objetivos a alcançar e não dispersar”. A declaração pertence a Ana Bastos, jovem investigadora da FCUL e uma das vencedoras em 2011 do Programa de Estímulo à Investigação da Fundação Calouste Gulbenkian (FCG).

Cara do aluno entrevistado

“Acredito que o meu projeto vá ter efeitos na área da Saúde Pública. Ainda que não seja já nesta fase, espero poder contribuir para evoluções, por exemplo, ao nível da vacinação”, refere Tomás Aquino, um dos vencedores da edição de 2011 do Programa de Estímulo à Investigação.

A Bial, procura um Bioestatista para a oportunidade de emprego que pode ser visualisada em maior detalhe na página através do link:

Information dissemination in unknown radio networks with large labels

Professor Shailesh Vaya,
Xerox Research Centre, India,

July 20 at 10h00 on room 6.3.38

Estudantes sentados, junto a uma mesa

O pedido de apoio à formação pós-graduada na área da Geologia do Petróleo deve ser apresentado até 15 dias úteis, após o último dia do prazo de inscrição no respetivo curso.

Já é possível solicitar a criação de Unidades Curriculares na plataforma Moodle para o ano letivo 2012/2013.

Os pedidos podem ser realizados no Portal da FCUL, após inicio de sessão.

O Centro de Informática terminou, no passado dia 12 de Julho, a migração de um equipamento central na rede da FCUL.

A excelência de sempre na construção do futuro. Escolhe um dos nossos cursos de Física, Astronomia e Astrofísica, Engenharia Física, ou Engenharia Biomédica e Biofísica. [ + ]

Alunos da FCUL no pátio do C6

O “6th SPJ-OCS” realiza-se pela primeira vez em Portugal. Os organizadores do evento acreditam que “este congresso contribui para dar uma imagem do potencial científico de Portugal” nesta área.

Chieko Asakawa and Hironobu Takagi

17 Julho 2012 - 10h30
Anfiteatro da Fundação da FCUL

Chieko Asakawa and Hironobu Takagi

17 Julho 2012 - 10h30
Anfiteatro da Fundação da FCUL

Pormenor de obra artística

Os promotores do FP7 acreditam que “centenas de instituições científicas de toda a União Europeia irão apresentar propostas” e esperam captar novos participantes, nomeadamente pequenas e médias empresas, incrementando dessa forma a competitividade europeia.

Carlos Miguel Farinha, bioquímico docente do DQB e investigador do BioFIG , foi premiado em junho com o Romain Pauwels Research Award, atribuído pela European Respiratory Society.

 

2ª fase de candidaturas:  15 a 22 de Julho.

O mestrado em Matemática para Professores é uma excelente oportunidade para consolidar,  recordar e aprender muitos temas relacionados com a matemática escolar.

No dia 12 de Julho foram feitas as apresentações de quatro trabalhos feitos no âmbito da disciplina de Projecto em Matemática para o Ensino do Mestrado em Matemática para Professores.

A Universidade de Lisboa e a Fundação Amadeu Dias estão a atribuir bolsas aos alunos de 1º Ciclo de qualquer área do saber, leccionado na Universidade de Lisboa e que já tenham concluído o 1.º ano curricular, ou alunos que frequentem&n

Em 18 anos, o Programa de Estímulo à Investigação premiou 34 jovens investigadores e 19 instituições da Universidade de Lisboa. Na última edição, dos oito premiados, três são jovens cientistas da FCUL. As candidaturas à próxima edição decorrem até 21 de setembro.

Cartaz do Seminário

No dia dia 16 de Julho, pelas 11H00, na sala 6.4.30, realizar-se-á um Seminário organizado pelo Centro de Investigação Operacional com o título 'Lagrangian-Based Branch-and-Bound for Two-Echelon Uncapacitated Facility Location with Single Assignment Cons

Os resultados das experiências ATLAS e CMS divulgados recentemente pelo CERN, também foram apresentados publicamente na FCUL, numa sessão organizada pela professora do Departamento de Física Amélia Maio, a responsável pela participação portuguesa na experiência ATLAS.

Apresentações dos Projectos de Física dia 19 de Julho, às 10h, na sala 8.2.17:

O que faz o profissional que passa os seus dias no laboratório? E quem se dedica a resolver equações ou a estudar animais e plantas? Cinquenta alunos da associação EPIS descobriram as respostas a estas e a outras questões.

Servidor da FCUL

O projeto de reestruturação do Centro de Dados da FCUL, iniciado em junho, deverá estar concluído no próximo mês de setembro.

Duas pessoas fazem uma experiência no laboratório

A Faculdade de Ciências abre as portas dos seus laboratórios a 50 jovens, vindos de diferentes pontos do País, para mais uma edição da “Rota das Vocações de Futuro” da EPIS.

Páginas