No Campus com Helder Coelho

Atualidade dos Analisadores Semânticos

Helder Coelho

Nos últimos anos, a possibilidade de falar com uma máquina (relógio, telemóvel, computador portátil, automóvel), um dos sonhos da Inteligência Artificial, tornou-se trivial, pois a tecnologia da linguagem (tradução, reconhecimento, análise, síntese) evoluiu bastante desde a aposta da Apple no Siri em 2011 (veja-se o "Technology Quarterly" do "Economist" de 5 de janeiro de 2017, e a melhoria da precisão no reconhecimento das palavras ou na tradução, cada vez mais perto dos 100%). No entanto, esta vitória da ciência (na idade da avalanche dos dados ou Big Data) não foi fácil e, o que estava em causa, o poder de análise semântica (semantic parser) cresceu (scaled up) graças à fusão dos aspetos lógicos e estatísticos. Mais, o analisador é agora capaz de aprender (Liang, 2016), e foram os avanços da Aprendizagem Mecânica e dos Modelos Estatísticos (Hidden Markov Model, a via da força bruta) os principais responsáveis pelo entusiasmo da indústria e dos mercados. A Microsoft, a Facebook, a Google foram também para a luta e parecem estar empenhadas em melhorar os seus resultados.

Duas linhas de investigação confrontaram-se nos últimos 40 anos, o lado da linguística formal, defendido por Noam Chomsky, e o lado da teoria da informação, que se apoiou em Claude Shannon. E, não se deve esquecer Zellig Harris, o qual defendeu uma aliança forte entre os princípios gramaticais e os informacionais, e o mesmo aconteceu com a via da teoria das linguagens formais.

As técnicas matemáticas ganharam espaço e estão hoje na frente pelos avanços e a lidar com as avalanches de dados. Na presente década, graças aos esforços de um grupo pequeno de empresas, a via da teoria da informação ganhou adeptos, sobretudo devido aos sucessos no reconhecimento da voz (discurso), na busca de informação, e na tradução das línguas. Ferramentas online como o BabelFish (apoiada em regras) e o Google Translate, passaram a ser usadas e prezadas. Empresas mais pequenas, como a Nuance (e o programa Dragon Dictate), mostraram que as tecnologias das redes neuronais são úteis (a DeepMind da Google inaugurou, em 2014, um novo modo de sintetizar os discursos orais, recorrendo a redes neuronais profundas).

O mercado do processamento da língua natural (PLN), segmentado em codificação automatizada, análise de textos, reconhecimento de carateres óticos, resposta interativa em voz, reconhecimento de padrões e imagens, e analítica da voz, tenderá a aumentar muito nos próximos dez anos.

A compreensão de uma língua natural (Português) passou a poder ser decomposta em duas etapas, a tradução das frases lógicas (representação do seu significado) e a produção de ações. E, os analisadores semânticos são capazes de aprender as formas lógicas que estão associadas aos pares frases/ações. A compreensão é organizada com vários módulos, como o executor, a gramática, o modelo, o analisador e o aprendiz. E, o sistema por detrás da compreensão é ensinado e, após o treino, aumenta a sua precisão de trabalho. Mas, devemos ter um certo cuidado pois as línguas estão cheias de ambiguidades e exceções.

Compreensão profunda + raciocínio lógico
(sintaxe, semântica e pragmática)

A composição do significado de uma frase (expressão) é o resultado do arranjo/combinação das subexpressões (partes significantes da frase).

No início (anos 60), e nas duas décadas seguintes, era muito difícil ir além de domínios limitados (fechados) e de enfrentar as complexidades de uma língua em geral, apenas com regras feitas à mão. A evolução da aprendizagem mecânica, foi influenciada pelas técnicas estatísticas, já adotadas pelo reconhecimento de padrões (discurso com voz), e também graças ao modo repetitivo de explorar exemplos de comportamento (entrada/saída) e de os obrigar ao encaixe num modelo (estatístico). A revolução passou ainda pelo enfraquecimento da supervisão (na passagem das formas lógicas anotadas às respostas) e pela ampliação (scaling up) dos analisadores semânticos a domínios mais abertos e complicados. Se os primeiros sistemas exigiam as formas anotadas, os novos começaram a ser treinados com as respostas (via aprendizagem). E, finalmente, a aplicação dos analisadores a diferentes domínios e além do que é mais comum, a pergunta/resposta, tais como a navegação de robôs, a identificação de objetos em cenas, ou a conversão da língua natural em expressões regulares.

O escalamento (scaling up) é, hoje em dia, um dos problemas interessantes da Informática. Consiste em passar de um protótipo (em geral com uma escala pequena) para um sistema mais realista, e na maioria dos casos não exige apenas grandes computadores (alta velocidade e poder de processamento, enormes memórias).

Por exemplo, em simulação social baseada em agentes inteligentes, requer paciência para afinar os principais parâmetros, tornar os agentes cognitivos parecidos com os seres humanos, e multitudes de agentes diferentes em cenários com paisagens bem sofisticadas (o filme Avatar de James Cameron é um bom exemplo de um empreendimento que levou dez anos a realizar, recorrendo a novas tecnologias e ferramentas). No caso de conflitos sociais (como as manifestações de protesto em rua) passar de 1.000 agentes para 2.000 é trivial, mas o salto para 10.000 impõe muito trabalho, tempo e paciência para as afinações.

No futuro, os desafios são ainda grandes, como por exemplo a representação semântica da linguagem ou que supervisão se deverá adotar para aprender a semântica. Recentemente, houve bastante interesse em recorrer às redes neuronais, e suas extensões, para atacar as tarefas mais populares do processamento da língua natural, a tradução mecânica e a pergunta/resposta (veja-se o sucesso do sistema Watson da IBM e da interface Siri da Apple, desde 2011). A paridade entre a tecnologia e o desempenho humano está ainda longe, medida em 2/3 anos, embora os produtos comecem a surgir, como os automóveis com controles ativados por voz. Para alguns, criar discurso ou compreendê-lo são duas operações opostas.

No Departamento de Informática (DI) da Faculdade de Ciências da Universidade de Lisboa (Ciências ULisboa), o grupo do professor António Branco, por detrás da unidade de investigação e desenvolvimento NLX (criada no início de 2000), disponibilizou um serviço o LX-Service para se observarem algumas das ferramentas desenvolvidas em cerca de 20 anos de estudo (LX-Suite, LX-Conjugator, LXGram, POS Tagger, LX-Tokenizer, Lematizador verbal). Recentemente foi aprovado o projeto CNPTDeepMT (Tradução Automática Profunda entre Chinês e Português, no domínio do eCommerce), com a duração de três anos, o apoio da FCT e do Ministério da Ciência e Tecnologia da China e a ser realizado na unidade NLX no DI Ciências ULisboa.

Referência
Liang, P. Learning Executable Semantic Parsers for Natural Language Understanding, Communications of the ACM, Setembro, Vol. 59, Nº 9, 2016.

Helder Coelho, professor do Departamento de Informática de Ciências
info.ciencias@ciencias.ulisboa.pt

O projeto MarCODE visa desenvolver uma ferramenta multidisciplinar para potenciar o rastreio e a rotulagem ecológica de espécies marinhas de interesse comercial, segundo comunicado de imprensa emitido pela Faculdade. O estudo iniciado este mês de julho deverá terminar daqui a três anos.

Sexta rubrica Radar Tec Labs, dedicada às atividades do Centro de Inovação da Faculdade. A empresa em destaque é a Nevaro.

Cláudio Pina Fernandes, coordenador do GAPsi Ciências ULisboa, escreve sobre o Princípio da Incerteza e chama a atenção para alguns aspetos.

O mundo de hoje é completamente dominado pela necessidade imperiosa de saber recolher e analisar dados, escrevem os cientistas Tiago A. Marques e Soraia Pereira. Leia o artigo dedicado ao roteiro serológico nacional, uma iniciativa promovida pelo Instituto Gulbenkian de Ciência e que conta com a colaboração do Centro de Estatística e Aplicações da Universidade de Lisboa, da autoria destes investigadores.

Ciências ULisboa volta a participar com equipas de estudantes no Global Management Challenge (GMC). No passado dia 16 de junho começou a 1ª fase do GMC 2020, que conta com quatro equipas desta faculdade compostas por alunos dos mestrados integrados em Engenharia Biomédica e Biofísica, em Engenharia da Energia e do Ambiente e em Engenharia Física, assim como alunos das licenciaturas em Matemática Aplicada e Tecnologias de Informação.

Cerca de 194 milhões de aves e 29 milhões de mamíferos podem ser atropelados por ano nas estradas europeias, de acordo com a estimativa de uma equipa internacional de investigadores liderada por Clara Grilo, investigadora do Centro de Estudos do Ambiente e do Mar (CESAM), polo da Ciências ULisboa, com sede na Universidade de Aveiro. Os resultados estão publicados na revista científica Frontiers in Ecology and Environment.

“A História do Pi em hipervídeo” está na Internet e pode ser consultada por todos e em toda a parte. O hipervídeo integra de forma estruturada e interativa vídeo e outros tipos de informação, nomeadamente, textos, imagens, áudio e animações. Saiba mais sobre este projeto lendo a entrevista com as professoras Suzana Nápoles e Teresa Chambel.

A dinâmica das epidemias é descrita por sistemas de equações diferenciais. Jorge Buescu, professor do Departamento de Matemática da Ciências ULisboa, apresenta neste artigo o modelo epidemiológico desenvolvido em 1927 por Kermack e McKendrick.

No próximo ano letivo, Ciências ULisboa irá utilizar novos modelos de ensino/aprendizagem, todos com horas de contacto entre docentes e alunos, mas que se diferenciam pela existência e forma da componente presencial, anunciou a Faculdade em comunicado de imprensa.

Um grupo de cientistas da Ciências ULisboa e da Faculdade de Engenharia da Universidade do Porto, membros do CENTRA - Centro de Astrofísica e Gravitação participa no desenvolvimento do METIS (Mid-infrared ELT Imager and Spectrograph), um poderoso instrumento que vai equipar o maior telescópio do mundo - o Extremely Large Telescope.

A equipa do projeto Lista Vermelha de Invertebrados Terrestres e Dulçaquícolas de Portugal Continental preparou a campanha de ciência cidadã - “Invertebrados da Lista Vermelha procuram-se” -, cujo lançamento ocorre esta sexta-feira, dia 5 de junho.

"A nossa necessidade de conexão e de afeto é singular, no sentido em que precisamos e procuramos o contacto com outros seres humanos", escreve Inês Ventura, psicóloga do GAPsi Ciências ULisboa.

Um grupo multidisciplinar de cientistas propõe a criação de um roteiro nacional para a realização de testes serológicos em Portugal e defende que a avaliação rigorosa e concertada da prevalência da doença COVID-19 é a única forma de conhecer a real vulnerabilidade da população e monitorizar a dinâmica da epidemia.

Quinta rubrica Radar Tec Labs dedicada às atividades do Centro de Inovação da Faculdade. A empresa em destaque é a THEREUS.

A primeira etapa do COVIDETECT já está concluída e com sucesso anunciou esta quarta-feira a AdP - Águas de Portugal. Ciências ULisboa assegura a coordenação científica do projeto, financiado através do programa Compete 2020.

"Estudar em tempos da COVID-19 é novo e exigente. No entanto, temos recursos para tomar as rédeas, mesmo numa situação desta dimensão, e retomar o controlo", escreve Madalena Pintão, estagiária académica do GAPsi Ciências ULisboa. Conheça as suas sugestões...

"Independentemente das soluções adotadas, a crise sanitária da COVID-19 vem inequivocamente demonstrar que a Bioética, para além de uma vertente mais teórica e fundamental, tem uma vertente prática que atua no terreno e dá um contributo importante para a estabilização do funcionamento dos sistemas de saúde." Opinião de Jorge Marques da Silva, professor do Departamento de Biologia Vegetal da Ciências ULisboa e investigador do polo da Faculdade do BioISI. 

O Centro de Testes da Ciências ULisboa atualmente inteiramente dedicado à investigação, diagnóstico e rastreio do SARS-CoV-2 e suas variantes começou a sua atividade a 1 de maio, tendo já realizado mais de mil testes de diagnóstico à COVID-19, com a ajuda de cerca de 50 voluntários, sendo que mais de 300 pessoas manifestaram interesse em colaborar voluntariamente nesta nova infraestrutura da Faculdade.

A Delox foi distinguida recentemente com o Born from Knowledge (BfK) Awards no âmbito do protótipo de uma câmara de descontaminação transportável, que permitirá reutilizar máscaras respiratórias e que está a desenvolver em parceria com o Exército Português. A propósito desta distinção entrevistamos um dos fundadores da spin-off fundada há cerca de dois anos – Fernando Antunes, professor do DQB e investigador do polo da Faculdade do CQE.

"Estar em casa, da forma como se tem estado, pode surgir como o 'único lugar' seguro, dando uma forte sensação de proteção. Em oposição, a ideia de sair torna-se ameaçadora. Esta é uma ideia que é preciso cuidar, para que não se torne avassaladora e angustiante no processo de retomar, no encontro entre o 'mundo cá dentro' e o 'mundo lá fora'", escreve a psicóloga Andreia Santos.

"Neste exercício permanente de experimentar será que ganhamos uma impressão do que é uma Teoria Geral da Complexidade?" Mais um ensaio "No Campus com Helder Coelho", em destaque no Dia Nacional dos Cientistas.

“A nossa Faculdade tem uma oferta vasta, diversificada e de enorme qualidade”, diz Fernanda Oliveira, subdiretora da Faculdade em comunicado de imprensa emitido recentemente a propósito dos dias virtuais que têm como público alvo sobretudo candidatos ao ensino superior e que acontecem nos dias 21 de maio e 3 de junho de 2020.

"No restabelecimento do contacto com o mundo alguns receios e ansiedades poderão estar presentes, a recuperação fisiológica e emocional é um processo, e como tal, leva o seu tempo." Mais um artigo do GAPsi, com nova sugestão, convidando a refletir sobre aquilo que era a vida de cada um de nós, exatamente, há um ano atrás.

Rodrigo Santos, atualmente estudante de doutoramento em Informática na Ciências ULisboa, foi galardoado este ano com o prémio da melhor dissertação de mestrado sobre o Processamento de Língua Portuguesa no período de 2017-2019, durante a PROPOR – “14th International Conference on the Computational Processing of Portuguese”, ocorrida em Évora. 

O consórcio da missão Euclid, um telescópio que irá penetrar no lado escuro do Universo e que tem lançamento previsto para 2022, atribuiu o prémio Euclid STAR 2020 na categoria “equipa” a um dos grupos do consórcio com uma forte participação portuguesa, nomeadamente de investigadores do Instituto de Astrofísica e Ciências do Espaço (IA) e da Ciências ULisboa.

Páginas