Helder Coelho
Nos últimos anos, quem trabalha em Informática sabe que a proteção quanto à intromissão nos nossos dados está a ser muito discutida, nos meios de comunicação social e nos congressos científicos: computação na nuvem, segurança das tecnologias, ubiquidade e virtualidade dos ambientes, acessos inteligentes, cibercrime, ciberguerra, gestão do risco. O que se passa? A resposta é simples: existem novas ferramentas informáticas mais poderosas para analisar os dados Big Data, que são muito usadas não só em ciências sociais e políticas, mas também na saúde pública, no mundo financeiro e dos negócios. Isto é, consegue-se, simultaneamente, conhecer coisas sobre uma certa pessoa para a salvar (de uma depressão), ou para a difamar!
Suponhamos que se acede a uma multitude de tweets do Twitter ou uma enorme coleção de posts do Facebook. Se usarmos algoritmos de aprendizagem Deep Learning que são capazes de construir inferências sobre categorias (inspirados na backpropagation), relacionadas com saúde pública, identificaremos a depressão pós-parto de algumas mães. Um médico sabe que uma tal depressão tem consequências sérias, embora a descoberta e prevenção seja difícil de realizar quanto antes, pois os sinais podem aparecer associados à escrita dos textos (em geral, os bocados de textos, existentes nas redes sociais, não estão disponíveis).
Deste modo, a tecnologia da aprendizagem mecânica tanto pode conduzir ao bem, como ao mal. Do ponto de vista social, concluímos que teremos de ter algum cuidado quanto ao controlo sobre a colheita da informação, e discutir como chegar a um equilíbrio entre as vantagens e os inconvenientes do uso destas tecnologias, pois os benefícios para um doente podem também significar a invasão da sua segurança. Sem auditorias e fiscalizações certos dados podem dar origem a manchetes de um vespertino, se não acautelarmos as devidas proteções da privacidade dos cidadãos através de leis bem feitas e do seu rigoroso cumprimento.
Do mesmo modo, o uso de drones em campanhas militares, munidos de bombas, podem conduzir a massacres de inocentes, mesmo com cuidados quanto aos alvos (os chamados efeitos colaterais). As tecnologias se forem desacompanhadas, e manipuladas por agentes não credenciados, causarão danos irreparáveis em populações indefesas, e em certos casos de ambiguidade ou de incerteza quanto aos objetivos, a escolha sobre a decisão do disparo poderá ser decidida com uma alta probabilidade de risco colateral (situações típicas dos dilemas morais).
A maioria dos algoritmos de aprendizagem centram-se em problemas de aproximação funcional, em que a tarefa é incorporada numa função que está explícita, como por exemplo, a entrada é uma transação e a saída é uma fraude. Noutros casos, a função está implícita e pode ser obtida através de um processo de procura, de uma factorização, de uma optimização ou de uma simulação. Frequentemente, existem dificuldades devido à existência de complexidade. E, as intuições, previsões ou as decisões estão misturadas com os conjuntos de dados - data sets. Também é normal necessitarmos de algoritmos que sejam tratáveis do ponto de vista computacional, e como os dados são muitas vezes pessoais torna-se imperioso obter algoritmos capazes de garantir as questões da privacidade (minimizar os efeitos).
Recentemente, para enfrentar as ameaças procuraram-se outras tecnologias como a dos agentes, onde a inteligência se mistura com a distribuição e adaptabilidade. Em foco, nas reuniões técnicas, estão os mecanismos de segurança, a modelação dos adversários, a proteção das infraestruturas críticas, os métodos inspirados na teoria dos jogos, a modelação do comportamento humano, as políticas de recomendação/negociação, ou o controle de acessos.
Recentemente, a Google anunciou o SmartReply para diminuirmos a carga que muitos de nós têm com o serviço de correio (emails), as dezenas de mensagens que se vão acumulando enquanto as horas passam. Quem está interessado nesta facilidade? É segura, não invasiva, e quem ganha no fim?