
Meredith Ringel Morris, Diretora de interação com IA da Google Deepmind, admite que os próximos cinco anos possam trazer novos sistemas generalistas
O ranking MMLU continua uma referência para quem trabalha com Inteligência Artificial (IA), mas até uma cientista da computação como Meredith Ringel Morris tem dúvidas de que esse ranking consiga ser referência para o resto da população. “Por vezes já não se percebe bem o que significam os resultados obtidos nesse ranking (por cada solução de IA)”, avisou a diretora de Investigação em Interação Humano-IA da Google DeepMind, numa palestra organizada pelo laboratório LASIGE, que teve lugar esta terça-feira na Faculdade de Ciências da Universidade de Lisboa (CIÊNCIAS). “Não é só medir por medir. Há que medir coisas que realmente importam para as pessoas”, acrescenta a investigadora americana.
As palavras de Ringel Morris poderiam ser encaradas apenas como um exercício de crítica contra quem tem tentado aferir a real capacidade dos algoritmos de IA, mas também servem de premonição. Repegando em notícias e estudos recentes, a especialista em interfaces entre humanos e Inteligência Artificial admite como possível que os primeiros sistemas de Inteligência Artificial Generalista (AGI) venham a surgir no mercado num prazo de dois a cinco anos. O cenário não deixa de ser auspicioso: A AGI é tida como a evolução que falta para, de alguma forma, dar resposta às expectativas sobre o aparecimento dos primeiros sistemas baseados em algoritmos, que abrangem diferentes áreas do saber e executam tarefas em vários contextos, como os humanos.
Poderá haver quem julgue estar a lidar com previsões típicas de um guião de filme ficcional, mas a Meredith Ringel Morris basta fazer uma simples comparação com o que de melhor tem sido feito. E até nem precisou sair do histórico da marca em que trabalha para ilustrar a diferença: em 2024, o prémio Nobel da Química foi atribuído a três mentores do sistema de IA AlphaFold, da Google DeepMind, que permitiu descodificar imbricadas estruturas de proteínas. Sem tirar ponta de mérito aos investigadores David Baker, Demis Hassabis e John Jumper no desenvolvimento da nova ferramenta científica, esse prémio Nobel não permite esquecer que o AlphaFold tem por base uma IA especializada, que tem por objetivo as simulações que desconstroem proteínas.
Sem dúvida que foi um grande salto para ciência, mas não invalida que a comunidade científica se mantenha à espreita de um salto de igual monta para o dia em que a IA passe a ser AGI. E nesse caso, é até expectável que a AGI possa subir na escala do conhecimento e até passe a integrar os conhecimentos agregados ao longo do tempo por especialistas humanos de várias áreas do saber dentro de 10 anos. Mas esse é apenas o cenário em que a AGI consegue o grau de sofisticação mais avançado – e a própria Meredith Ringel Morris, sem esconder o entusiasmo no novo paradigma tecnológico, também admite que há fatores que podem não ser controláveis. O que torna plausível um cenário de evolução em que a IA escala, nos próximos cinco anos, até a um nível de competência na execução de tarefas de diferentes áreas e contextos, e se mantém num “planalto” evolutivo durante parte da próxima década, sem conseguir alcançar os níveis especialização dos peritos humanos.
Mas se há tanta euforia em torno do tema, o que pode afinal travar o crescendo da IA? Meredith Ringel Morris não hesita ao elencar fatores, começando pela aplicação de regulação por governos que poderão não estar satisfeitos com a evolução da IA, mas sem deixar de admitir que também podem surgir limitações de capacidade energética ou ambiental nos diferentes sistemas computacionais. “E também pode acontecer que sejam necessários novos paradigmas!”, acrescentou ainda.
Entre os esquemas que a especialista da Google Deepmind fez desfilar frente ao grande auditório de CIÊNCIAS, há um que se destacou de sobremaneira pela tentativa de ilustrar a capacidade de influências exercida pelas máquinas no imaginário humano. Se é verdade que, neste momento, a IA tende a ser mais conhecida pela expansão para as áreas do conhecimento humano, também não deixa de ser verdade que há uma expansão em sentido contrário que leva os humanos a obterem novas lógicas e formas de encararem problemas mais complexos porque já usam IA.
É nessa encruzilhada que as interfaces entre homens e máquinas ganham relevância – e abrem até caminho para o antropormorfismo, com a atribuição de características dos humanos a sistemas de IA, com o objetivo de fomentar a empatia. Entre os riscos desta corrente antropomorfista, figura a possibilidade de as pessoas passarem a confiar em sistemas que consideram inteligentes, ou que parecem atuar com o mesmo senso comum dos humanos, mas afinal seguem outras lógicas. “Há que ter em conta que estes sistemas eventualmente podem fazer coisas que as pessoas não sabem”, lembrou Ringel Morris, sem deixar de alertar para necessidade de analisar bem os efeitos produzidos na população pelos novos modelos de interação com as máquinas. “Em vez de acharmos que a IA vai automatizar tudo, devemos encará-la como algo que tem capacidade de desbloquear (funções). Se calhar, algumas vezes, vamos querer que faça tudo de forma autónoma, e noutras vamos preferir que colabore connosco como assistente”, referiu ainda a investigadora durante a preleção.
De resto, no caso de a AGI evoluir para o cenário mais sofisticado, até pode acontecer que as interfaces usadas pelos humanos sejam totalmente diferentes das de hoje, devido à crescente tendência de uso de dados multimodais, que tentam funcionar de forma equivalente aos sentidos humanos, para depois tentarem inferir pensamentos, estados de espírito ou raciocínios dos interlocutores durante um qualquer diálogo. “Temos de analisar as reações das pessoas antes de lançar estas coisas livremente no mercado”, sublinha.
É também por questões de design que a investigadora recorda que as instruções (ou prompts) que são dadas aos diferentes sistemas de IA não podem continuar a ser confundidas com mera comunicação na linguagem dos humanos. E como prova disso mesmo recordou todas as prompts altamente complexas que já começaram a ser vendidas no circuito comercial pelo facto de implicarem conceitos e estratégias que facilitam a extração de informação. Manter esta diferença entre diálogos e prompts pode ser especialmente valiosa, tendo em conta que a própria IA está a funcionar como trampolim de novos dispositivos, como os “crachás” artilhados de sensores que recolhem toda a informação à volta do utilizador, e logo se disponibilizam a executar várias tarefas e missões. Ringel Morris recorda que estes primeiros conceitos têm fracassado, mas acredita que a evolução da IA acabará por potenciar novos formatos. E como exemplo de maior potencial aponta para o duelo que tem sido levado a cabo por Google e Meta em torno do desenvolvimento de óculos de realidade virtual e aumentada.
“Há agora uma oportunidade para desenvolver novos formatos (de interação) que têm em conta os nossos princípios”, antevê a investigadora.
Em paralelo com os avanços do hardware, o software continua ao rubro, com o objetivo de “engolir” o mundo inteiro para o converter em conhecimento. E os dados sintéticos são apenas uma dessas tendências em crescendo. Hoje, alguns laboratórios já tentam recriar cenários complexos, com réplicas virtuais que tentam comportar-se como humanos, que foram perfilados por antecipação, com a recolha de dados mais ou menos pessoais. Além das questões de privacidade, a tendência levanta questões sobre a legitimidade – e a fiabilidade – de sistemas que preveem reações e comportamentos de indivíduos perante diferentes situações. Os exemplos são mais que muitos, mas podem ser ilustrados facilmente com o diferendo entre os benefícios de criar clones virtuais de entes desaparecidos para apaziguar o luto, e o desenvolvimento de “fantasmas” igualmente virtuais que replicam o comportamento de pessoas que morreram com o único propósito de assediar parentes e inimigos.
A questão permanece em aberto, tal como o tema infoexclusão: Ringel Morris admite que, futuramente, quem tiver menos dinheiro pode ficar limitado ao uso de ferramentas de IA, porque é caro contratar humanos especializados, enquanto os mais ricas poderão combinar os dois recursos à medida das necessidades. Em contrapartida, a explicabilidade da IA, que é o grande desafio sem solução à vista, terá de encontrar uma via para se tornar viável.
“No Estado, é muito importante o poder de auditar e explicar (a IA)”, referiu Meredith Ringel Morris. “Não podemos trocar, neste momento, pessoas por chatbots, se não forem confiáveis e não conseguirmos explicar o que fazem”, conclui a investigadora.