• Sintonia

Três projetos da Unicamp são contemplados com bolsas de pesquisa LARA, do Google América Latina

Pesquisas envolvem recursos computacionais e de inteligência artificial na solução de problemas do cotidiano


Por Felipe Mateus

Fotos Divulgação

Edição de Imagem Renan Garcia

Fonte Portal Unicamp





A Unicamp teve três projetos selecionados na 8ª edição do Prêmio LARA 2020, o programa de bolsas de pesquisa Latin American Research Awards. A iniciativa é realizada pelo Centro de Engenharia do Google na América Latina. Neste ano, foram selecionados 22 projetos, sendo 13 brasileiros, quatro argentinos, dois chilenos, um do Peru, um da Colômbia e um do México. Todos propõem soluções tecnológicas para problemas do cotidiano. Ao lado da Universidade Federal de Minas Gerais (UFMG), a Unicamp foi a instituição brasileira com mais propostas contempladas. No total, foram três projetos da Unicamp e da UFMG, além de projetos das Universidades Federais de Uberlândia (1), do Rio de Janeiro (1), Fluminense (1) e do Rio Grande do Sul (1) e um projeto também da Universidade de São Paulo (1).


Os projetos de mestrado e doutorado selecionados pelo LARA recebem bolsas de pesquisa durante um ano. Os valores são de US$ 1,2 mil para doutorandos e US$ 750 para orientadores de doutorado e de US$ 750 para mestrandos e US$ 675 para orientadores de mestrado. Conheça as pesquisas realizadas pela Unicamp contempladas nesta edição do prêmio. As três são do Instituto de Computação (IC) e têm como característica o diálogo entre esta área e outras demandas do cotidiano.


Internet lenta? Chame o drone


Toda vez que você acessa um site, aplicativo ou utiliza serviços de internet, seu dispositivo envia uma solicitação a uma central de dados, que responde enviando os dados requisitados. O tempo decorrido entre o envio desses dados e o recebimento da resposta é chamado de latência e pode aumentar quando a demanda por rede aumenta. Isso pode ocorrer quando muitas pessoas acessam muitos serviços ao mesmo tempo, como em grandes eventos, ou quando a rede não foi projetada para quantidade de dados sendo transmitida. A solução para esse problema passa por ampliar esses centros de dados, dando a eles maior capacidade de processamento, ou então descentralizá-los, aproximando-os dos usuários.


Pensando em uma alternativa para esse problema, o projeto "Redução de Latência de serviço pelo emprego de veículos aéreos não tripulados de asas fixas", do doutorando Rodrigo Augusto Cardoso da Silva, do IC, propõe o uso de drones para tornar essas estruturas, que operam como centros de dados, mais próximas das pessoas, além de contarem com mobilidade para atender a demandas em locais e momentos diferentes. A pesquisa, que conta com a orientação do professor Nelson Luis Saldanha da Fonseca, é baseada na ideia da computação em névoa (fog computing).

Projeto dá preferência aos drones de asas fixas, que têm maior autonomia de voo e cobrem áreas maiores


Rodrigo explica que a diferença entre esse tipo de computação e a chamada computação em nuvem (cloud computing), conceito mais conhecido entre usuários não-especializados, diz respeito à estrutura dessas redes, pensada de forma descentralizada. No primeiro caso, os dados são concentrados em grandes centros, muitas vezes instalados fora do país. Já na computação em névoa, a ideia é que eles sejam distribuídos por centros menores. "Com o conceito de computação em névoa, nosso objetivo é trazer esses recursos mais próximos do usuário, dentro das cidades ou até mesmo dentro dos bairros, dependendo do tipo de aplicação. Com isso, conseguimos ter um acesso mais rápido e um processamento desses dados em frações de segundo, algo muito rápido. Isso é importante porque é previsto que no futuro, com uma capacidade de processamento maior dos dispositivos móveis, haja mais e mais aplicações desse tipo, que exigem uma resposta rápida", detalha.


O projeto então busca ampliar a forma com que esses centros de dados menores e descentralizados, chamados de "nós" dentro da estrutura de rede, avaliando a possibilidade de drones suprirem essa necessidade. "Hoje existem muitos usos para os drones, como entrega de encomendas, captação de imagens aéreas, e, dentro da área de desenvolvimento de redes, existem pesquisas que estudam como usar um drone no lugar de uma torre de celular, por exemplo. No nosso caso, olhamos para esse problema de processamento, em como podemos usar um drone para fazer o processamento de dados mais perto dos usuários", conta Rodrigo. O pesquisador esclarece que o objetivo não é o de substituir estruturas fixas por drones, mas avaliar quais situações os equipamentos podem ser complementares, reduzindo a latência.


Para isso, a pesquisa investe em simulações de cenários hipotéticos em que os drones poderiam ser empregados como alternativas. "Variamos o número de usuários, os tipos de requisições feitas, a quantidade de dados que eles precisam transmitir pela infraestrutura. Então avaliamos esses parâmetros para ver em que cenários essa solução funciona melhor e em quais ela não funciona", pontua Rodrigo, que também leva em conta fatores como autonomia de voo dos drones, consumo de energia, cobertura de área. Por isso, a pesquisa dá preferência a drones de asas fixas, parecidos com aeromodelos, pois conseguem fazer voos mais altos com menor consumo de energia.


Ela cita como exemplo desses cenários o próprio campus da Unicamp, com locais distintos, em que a demanda por acesso à internet em cada um deles pode variar ao longo do dia: "Por exemplo, no campus da Unicamp, há o Ciclo Básico, o Hospital de Clínicas e a Reitoria. Vamos supor que cada local tenha um pico no tráfego de dados em momentos diferentes do dia. Pode ser que eu consiga atender a esses três locais com um apenas um drone, ao invés de uma infraestrutura terrestre em cada um deles".


Aprendizagem de máquina a serviço da saúde e da inclusão


Dados da Sociedade Brasileira de Dermatologia mostram que o câncer de pele corresponde a 33% de todos os casos da doença no país. De acordo com o órgão, todos os anos são registrados 185 mil novos casos de câncer. Desses, 177 mil (95,6%) são do tipo não-melanoma, menos agressivos e com baixa mortalidade, mas muito recorrentes. O restante, cerca de 8,4 mil casos (4,4%) são do tipo melanoma, porém mais agressivo.


Para auxiliar no diagnóstico da doença, já são comuns bancos de imagens com informações de quais lesões, como pintas e manchas, são casos de câncer ou não. Com base na inteligência artificial, sistemas computacionais conseguem aprender quais são os padrões existentes em cada caso, facilitando no diagnóstico quando uma nova imagem é analisada. No entanto, esse processo esbarra em algumas limitações. A primeira é a de disponibilidade de tempo, de especialistas e de recursos para inserir nas imagens, uma a uma, os dados importantes para que os sistemas reconheçam os padrões e passe a fazer isso sozinho: se é ou não um tipo de câncer, de que parte do corpo, quais as informações importantes sobre o paciente.


Outra limitação, sensível à realidade brasileira, são os tipos de pele encontrados nesses bancos de imagens. "Essas bases de dados vêm, essencialmente, da Austrália, dos Estados Unidos e da Europa. Ou seja, elas têm exemplos de pessoas, na maioria das vezes, de pele branca. Se a gente quer criar um modelo que seja utilizado pela população brasileira, e o tipo de pele do brasileiro não está nele, ele não vai funcionar. Até existem técnicas para adaptar o domínio de um banco para o nosso domínio, já estamos preocupados com isso, mas quando nos deparamos com melanomas em peles negras, por exemplo, os padrões não são os mesmos dos melanomas em peles brancas", detalha Sandra Avila, professora do IC.

Bancos de imagens contêm fotos de lesões de pele classificadas como malignas ou benignas. À esquerda, um exemplo de melanoma, um dos tipos de câncer de pele. À direita, uma lesão benigna


Pensando em ampliar a diversidade existente nessas bases de dados, favorecendo o diagnóstico do câncer de pele no país, e facilitar a formação desses bancos, ela e o doutorando Alceu Bissoto foram contemplados pelo programa LARA com o projeto "Repensando a classificação automática do câncer de pele com aprendizado não supervisionado de representação".


A proposta é ampliar a autonomia dos sistemas para que eles dependam menos das chamadas imagens anotadas, que recebem os dados acrescentados por especialistas, de forma que eles possam identificar os casos de câncer em imagens comuns. "Que tal tentarmos trabalhar com imagens não anotadas, com um conjunto grande de imagens não anotadas e um pequeno de imagens anotadas, onde seja possível trabalhar com essa representação, encontrar esses padrões, para que primeiro a máquina aprenda a representar esses dados e depois seja capaz de representar dados diferentes? Então primeiro ela detecta uma lesão, dentro das características da população brasileira, e depois identifica o que for uma lesão maligna, ou benigna, faz essa diferenciação", explica Sandra. Nesse grupo de imagens então passam a ser representados diferentes tipos de peles, de forma condizente com a diversidade do país.


De acordo com a professora, viabilizar o uso de imagens comuns nessas bases de dados facilita no diagnóstico e no encaminhamento de possíveis casos de câncer de pele que poderiam ser identificados em unidades básicas de saúde por meio de fotos feitas com o celular. Mas pela falta de equipamentos médicos, como dermatoscópios, e profissionais especializados, muitas vezes passam despercebidos. Entretanto, ela ressalta que a ferramenta funcionaria como um facilitador na tomada de decisão do diagnóstico e encaminhamento, sem substituir o papel de dermatologistas e outros profissionais da área.

"A ideia não é fazer diagnóstico, no sentido de ocupar o lugar do especialista, aliás ninguém trabalha com inteligência artificial com esse objetivo, a ideia é ter uma inteligência aumentada, dando suporte ao especialista. Até porque o que sai do sistema é uma informação numérica, mas não uma instrução do que fazer com aquele número. Então realmente é preciso da interpretação de um especialista", comenta.


Doutorando em Ciência da Computação, Alceu Bissoto já trabalha com esse projeto há três anos. Para ele, direcionar o potencial da computação para outras áreas é uma oportunidade importante. "A computação, para muitas áreas, é vista como uma ferramenta, ela age para resolver problemas. Mas, de fato, trabalhar com profissionais de outras áreas, com essa pluralidade de backgrounds, é muito positivo, porque você acaba não se preocupando apenas com os problemas da computação e acaba prestando atenção em coisas que nem passam pela nossa cabeça", reflete o pesquisador.


"Está cada vez mais difícil o trabalho de apurar a informação"


Ficar em dúvida se uma informação é falsa ou não já se tornou algo comum na vida de muitas pessoas. Para jornalistas e profissionais que trabalham com a produção de conteúdos, esta é uma preocupação fundamental. Um simples erro pode trazer consequências de grandes proporções. Na busca por uma ferramenta que auxilie esse trabalho, o projeto "Combate a notícias falsas por meio da atribuição de autoria e análise de filogenia" tem o objetivo de tornar mais transparentes textos curtos publicados no Twitter. A iniciativa é de autoria de Anderson Rocha, professor do IC, e do doutorando Antonio Theóphilo.


O trabalho mira duas áreas relacionadas à checagem se uma mensagem foi produzida ou não por determinado usuário da rede social: a atribuição de autoria, quando é verificado se uma mensagem tem as mesmas características estilísticas que outras publicadas pela mesma pessoa, e a análise de filogenia, que aponta se aquela é uma mensagem original ou se foi reproduzida por outras pessoas e, nesse caminho, passou por modificações em seu conteúdo. Para que isso seja feito, os pesquisadores utilizam recursos de aprendizagem de máquina. Com eles, os sistemas computacionais podem reconhecer padrões da escrita de uma pessoa e dizer se um texto se encaixa naquele estilo.

Ferramenta desenvolvida pelos pesquisadores tem foco em mensagens postadas no Twitter, mas abre caminho para outros recursos que analisem textos publicados em outros espaços


"Quando há diferentes mensagens de uma mesma pessoa, como identificar o estilo de escrita dela? Geralmente é a linguagem que a pessoa usa, as palavras e expressões mais comuns, se ela usa abreviações, se usa emojis. Quando essa análise é feita de forma automática para identificar o que é padrão, isso é feito com a inteligência artificial", explica Anderson Rocha. Segundo os pesquisadores, o estudo realizado a partir de mensagens no Twitter abre possibilidades para o desenvolvimento de recursos aplicáveis a outros textos, desde notícias reproduzidas em sites de autoria e credibilidade questionáveis até perícias realizadas por órgãos policiais.


"Imagine que você vê um post no Twitter, supostamente vindo de uma autoridade ou um jornalista. Seria interessante se houvesse uma plataforma que utilizasse essas técnicas e informasse, com base nos textos antigos dessa pessoa, se esse texto é ou não da pessoa e questão. Se o consumidor da notícia vai acreditar ou não, é outra história. Nós não acreditamos em soluções do tipo bala de prata, que resolva todos os problemas de fake news, mas acreditamos que podemos desenvolver ferramentas que ajudem as pessoas, no final do fluxo de informação, a decidirem se aquilo é falso ou não", exemplifica Antonio Theóphilo.


A pesquisa integra uma série de projetos desenvolvidos pelo Laboratório RECOD - Reasoning for Complex Data, que trabalha com a gestão de dados da informação digital. Anderson Rocha explica que as pesquisas desenvolvidas no local favorecem parcerias com uma série de instituições, incluindo projetos jornalísticos de checagem de informações. "Nós temos um projeto grande no laboratório RECOD que se chama DéjàVu. Seu objetivo é justamente investigar, em diferentes tipos de mídia, se houve alguma falsificação ou não. Nós analisamos artigos científicos, imagens, vídeos. Há ainda trabalhos sobre fake news que tentam comparar artigos com os comentários deixados e com as postagens em redes sociais deixadas naqueles artigos, então conseguimos olhar para essas três coisas em um mesmo contexto, para verificar se em alguma dessas publicações há pistas de falsificação", detalha o professor.

1 visualização0 comentário