No Campus com Helder Coelho

Atualidade dos Analisadores Semânticos

Helder Coelho

Nos últimos anos, a possibilidade de falar com uma máquina (relógio, telemóvel, computador portátil, automóvel), um dos sonhos da Inteligência Artificial, tornou-se trivial, pois a tecnologia da linguagem (tradução, reconhecimento, análise, síntese) evoluiu bastante desde a aposta da Apple no Siri em 2011 (veja-se o "Technology Quarterly" do "Economist" de 5 de janeiro de 2017, e a melhoria da precisão no reconhecimento das palavras ou na tradução, cada vez mais perto dos 100%). No entanto, esta vitória da ciência (na idade da avalanche dos dados ou Big Data) não foi fácil e, o que estava em causa, o poder de análise semântica (semantic parser) cresceu (scaled up) graças à fusão dos aspetos lógicos e estatísticos. Mais, o analisador é agora capaz de aprender (Liang, 2016), e foram os avanços da Aprendizagem Mecânica e dos Modelos Estatísticos (Hidden Markov Model, a via da força bruta) os principais responsáveis pelo entusiasmo da indústria e dos mercados. A Microsoft, a Facebook, a Google foram também para a luta e parecem estar empenhadas em melhorar os seus resultados.

Duas linhas de investigação confrontaram-se nos últimos 40 anos, o lado da linguística formal, defendido por Noam Chomsky, e o lado da teoria da informação, que se apoiou em Claude Shannon. E, não se deve esquecer Zellig Harris, o qual defendeu uma aliança forte entre os princípios gramaticais e os informacionais, e o mesmo aconteceu com a via da teoria das linguagens formais.

As técnicas matemáticas ganharam espaço e estão hoje na frente pelos avanços e a lidar com as avalanches de dados. Na presente década, graças aos esforços de um grupo pequeno de empresas, a via da teoria da informação ganhou adeptos, sobretudo devido aos sucessos no reconhecimento da voz (discurso), na busca de informação, e na tradução das línguas. Ferramentas online como o BabelFish (apoiada em regras) e o Google Translate, passaram a ser usadas e prezadas. Empresas mais pequenas, como a Nuance (e o programa Dragon Dictate), mostraram que as tecnologias das redes neuronais são úteis (a DeepMind da Google inaugurou, em 2014, um novo modo de sintetizar os discursos orais, recorrendo a redes neuronais profundas).

O mercado do processamento da língua natural (PLN), segmentado em codificação automatizada, análise de textos, reconhecimento de carateres óticos, resposta interativa em voz, reconhecimento de padrões e imagens, e analítica da voz, tenderá a aumentar muito nos próximos dez anos.

A compreensão de uma língua natural (Português) passou a poder ser decomposta em duas etapas, a tradução das frases lógicas (representação do seu significado) e a produção de ações. E, os analisadores semânticos são capazes de aprender as formas lógicas que estão associadas aos pares frases/ações. A compreensão é organizada com vários módulos, como o executor, a gramática, o modelo, o analisador e o aprendiz. E, o sistema por detrás da compreensão é ensinado e, após o treino, aumenta a sua precisão de trabalho. Mas, devemos ter um certo cuidado pois as línguas estão cheias de ambiguidades e exceções.

Compreensão profunda + raciocínio lógico
(sintaxe, semântica e pragmática)

A composição do significado de uma frase (expressão) é o resultado do arranjo/combinação das subexpressões (partes significantes da frase).

No início (anos 60), e nas duas décadas seguintes, era muito difícil ir além de domínios limitados (fechados) e de enfrentar as complexidades de uma língua em geral, apenas com regras feitas à mão. A evolução da aprendizagem mecânica, foi influenciada pelas técnicas estatísticas, já adotadas pelo reconhecimento de padrões (discurso com voz), e também graças ao modo repetitivo de explorar exemplos de comportamento (entrada/saída) e de os obrigar ao encaixe num modelo (estatístico). A revolução passou ainda pelo enfraquecimento da supervisão (na passagem das formas lógicas anotadas às respostas) e pela ampliação (scaling up) dos analisadores semânticos a domínios mais abertos e complicados. Se os primeiros sistemas exigiam as formas anotadas, os novos começaram a ser treinados com as respostas (via aprendizagem). E, finalmente, a aplicação dos analisadores a diferentes domínios e além do que é mais comum, a pergunta/resposta, tais como a navegação de robôs, a identificação de objetos em cenas, ou a conversão da língua natural em expressões regulares.

O escalamento (scaling up) é, hoje em dia, um dos problemas interessantes da Informática. Consiste em passar de um protótipo (em geral com uma escala pequena) para um sistema mais realista, e na maioria dos casos não exige apenas grandes computadores (alta velocidade e poder de processamento, enormes memórias).

Por exemplo, em simulação social baseada em agentes inteligentes, requer paciência para afinar os principais parâmetros, tornar os agentes cognitivos parecidos com os seres humanos, e multitudes de agentes diferentes em cenários com paisagens bem sofisticadas (o filme Avatar de James Cameron é um bom exemplo de um empreendimento que levou dez anos a realizar, recorrendo a novas tecnologias e ferramentas). No caso de conflitos sociais (como as manifestações de protesto em rua) passar de 1.000 agentes para 2.000 é trivial, mas o salto para 10.000 impõe muito trabalho, tempo e paciência para as afinações.

No futuro, os desafios são ainda grandes, como por exemplo a representação semântica da linguagem ou que supervisão se deverá adotar para aprender a semântica. Recentemente, houve bastante interesse em recorrer às redes neuronais, e suas extensões, para atacar as tarefas mais populares do processamento da língua natural, a tradução mecânica e a pergunta/resposta (veja-se o sucesso do sistema Watson da IBM e da interface Siri da Apple, desde 2011). A paridade entre a tecnologia e o desempenho humano está ainda longe, medida em 2/3 anos, embora os produtos comecem a surgir, como os automóveis com controles ativados por voz. Para alguns, criar discurso ou compreendê-lo são duas operações opostas.

No Departamento de Informática (DI) da Faculdade de Ciências da Universidade de Lisboa (Ciências ULisboa), o grupo do professor António Branco, por detrás da unidade de investigação e desenvolvimento NLX (criada no início de 2000), disponibilizou um serviço o LX-Service para se observarem algumas das ferramentas desenvolvidas em cerca de 20 anos de estudo (LX-Suite, LX-Conjugator, LXGram, POS Tagger, LX-Tokenizer, Lematizador verbal). Recentemente foi aprovado o projeto CNPTDeepMT (Tradução Automática Profunda entre Chinês e Português, no domínio do eCommerce), com a duração de três anos, o apoio da FCT e do Ministério da Ciência e Tecnologia da China e a ser realizado na unidade NLX no DI Ciências ULisboa.

Referência
Liang, P. Learning Executable Semantic Parsers for Natural Language Understanding, Communications of the ACM, Setembro, Vol. 59, Nº 9, 2016.

Helder Coelho, professor do Departamento de Informática de Ciências
info.ciencias@ciencias.ulisboa.pt

Na sexta-feira, a Direção-Geral do Ensino Superior do Ministério da Educação e Ciência anunciava que, este ano, concorreram à 1.ª Fase do Concurso Nacional de Acesso ao Ensino Superior Público 40419 estudantes, sendo que 37415 alunos foram admitidos.

Ivette Gomes

 A sessão especial proferida por Ivette Gomes ocorre no último dia do evento, a 11 de setembro e intitula-se “Penultimate Approximations: Past, Present . . . and Future?”.

Estão abertas inscrições para as seguintes acções de formação:

Conferência no GeoFCUL: Induced passive margin reactivation in the Gulf of Cadiz

Conferência no dia 9 de Setembro

Regina Bispo, professora do Departamento de Estatística e Investigação Operacional (DEIO) da FCUL integrou a equipa vencedora, composta também por Elisa Duarte e cuja coordenação esteve a cargo de Bruno Cecílio de Sousa e Dulce Gomes, ambos ex-alunos daquele Departamento.

A Exigo pretende recrutar candidatos com Licenciatura ou grau académico superior nas áreas de matemática ou informática, com experiência prévia em consultoria e/ou na indústria.

Imagem de uma criança

– Mas do que é que tu gostas, Ana Isabel!? Tirando o bife, o frango e as batatas fritas, de que é que tu gostas, rapariga? Não comes feijão porque enfarta e com o grão é a mesma desculpa.

O primeiro grupo do exame de Química deste ano incluiu um excerto do livro “Química 12.º ano”, editado em 2001 e da autoria de Alda Pereira e de Maria Filomena Camões.

3 de junho de 1949 - 15 de agosto de 2013

É com uma profunda tristeza e eterna gratidão que comunicamos a morte da bióloga Alexandra Escudeiro, associada da Liga dos Amigos do Jardim Botânico.

Rui Malhó

As palestras e as comunicações em forma de póster foram de elevadíssima qualidade (77), facto que foi atestado pelos 230 participantes que louvaram ainda a organização do evento.

A Plataforma Moodle encontra-se em manutenção nos dias 7 e 8 de agosto.

Pedimos desculpa pelo incómodo.

Agradecemos a sua compreensão.

 

Unidade de Informática

 

De entre as matérias que ensino, esta tem sido inspiradora, transformando discretos alunos em cientistas empenhados: “Professora, consegui a bolsa para as microalgas tóxicas, vou seguir o meu sonho…”. Este artigo foi publicado no jornal "Público" no passado dia 2 de agosto.

Estão abertos concursos da FCT para

 

Concurso para atribuição de Bolsas Individuais de Doutoramento, Doutoramento em Empresas e Pós-Doutoramento

A 3ª fase de candidaturas online decorre de 1 de Agosto até 28 de Agosto.

As Nações Unidas procuram candidatos qualificados que desejem ter uma carreira profissional como funcionários internacionais.

Programa jovens profissionais 2013

Paulo Semblano,antigFCUL

A literacia estatística é fundamental para o exercício de cargos públicos ou de gestão e é indispensável nas nossas vidas, na vida das nossas empresas e para o exercício da cidadania.

FCUL Raly Pro

Everybody in this country should learn how to program a computer… Because it teaches you how to think”, citação de Steve Jobs, fundador da Apple, mencionada na sessão de abertura do evento FCUL Rally Pro.

A empresa Grupo Actuarial encontra-se a oferecer estágios remunerados a estatísticos, matemáticos e engenheiros informáticos .

A qualidade da formação será tão mais diferenciada quanto mais os seus graduados forem capazes de integrar habilmente as diversas competências que assimilaram no seu percurso académico.

Fernando Pessoa em destaque nas Redes Sociais

“[Pretendemos] identificar quais os versos e frases de Fernando Pessoa que mais inspiram os seus leitores de todo o mundo e, ao mesmo tempo, conduzir todos aqueles que usam as palavras de Pessoa aos seus textos originais”, explica Francisco Couto, professor do DI-FCUL e coordenador do projeto.

foto de Microsonda

A Faculdade de Ciências da Universidade de Lisboa (FCUL) conta com 3 infraestruturas de investigação registadas na base de dados do projecto MERIL - Mapping of the European Research Infrastructures Landscape.

Dupla Titulação em Geologia - Ano lectivo 2013-2014

Convénio de Cooperação Académica entre o Instituto de Geociências da USP e o GeoFCUL

FCUL promove sessão de informação sobre oportunidades de financiamento no âmbito dos Desafios Societais 2 e 5.

“O principal objetivo é precisamente mostrar o que o EMBL tem para oferecer aos investigadores portugueses (e aos da FCUL, muito em particular) e também demonstrar o que pode ser feito em cooperação com o [laboratório].”, declara Margarida Amaral, docente da FCUL e membro do conselho de organização do evento.

Estão abertas as candidaturas à edição de 2013 do Prémio Academia Lx, destinado a trabalhos de investigação e estudos sobre temas com relevância prática para a cidade de Lisboa.  

Páginas