Pular para o conteúdo principal

Consulta sobre Semântica ao professor Altigran - em 2020

S: A ideia é fazer um buscador em base "fechada" contemplando lattes dos profs PUC e disciplinas que ministram. UM pedido do reitor que eu resolvi ajudar, para facilitar quem desejar procurar na PUC-Rio quem mexe com coisas de meio-ambiente. 

Inicialmente o pessoal do NIMA passou algumas palavras-chave de termos ligados com meio-ambiente mas obviamente é um conjunto limitado. Há sinonimos, há contextos, etc. Se eu quiser pesquisar colocando na caixa de busca "mobilidade urbana" por exemplo, eu gostaria de apontar, entre outros, ao meu colega da Eng Mecanica que mexe com combustíveis menos poluentes. Ou ainda, em mim mesmo que faço pesquisa com onibus inteligentes com dispositivos IoT para coleta de poluição urbana. Mas como permitir fazer tais associações semanticas que nós humanos fazemos "facilmente"? Outro problema é ligado às palavras compostas: se ao invés de meio-ambiente, procurar apenas por ambiente, acho um monte de profs que nada têm a ver com meio-ambiente, um monte de colegas do meu depto que falam ou escreveram sobre ambiente de desenvolvimento de software por exemplo. Eu queria que meu buscador entender que ambiente é apenas "ambiental" no sentido ecologico, etc. COmo restringir as buscas assim? 

A: Tem basicamente duas linhas de ação em casos como esse. Uma mais "artesanal" e outra mais "automática".


Na mais "artesanal" o que todo mundo acaba usando é algum tipo de técnica de  expansão de termos, seja na consulta ou no documento. A ideia geral é enriquecer de forma automática a representação da consulta e/ou dos documentos de forma a aumentar as chances de match (ou seja, melhorar o recall/revocação). Para isso precisa ter algum recurso que permita, por exemplo, associar o termo "mobilidade urbana" com "transporte público". No caso do Google, esse recurso é um grande e muito bem feito knowledge graph (existe um API pra ele, mas eu nunca usei). Essas técnicas são bem conhecidas na literatura, e embora tenha muito paper, eu peguei aqui uns ponteiros pra coisas práticas que são aderentes ao Elastic Search. 


Veja que essa coisa melhora a revocação, mas não ajuda (e pode atrapalhar) a precisão. Portanto, o ranking tem um papel muito importante para capturar o contexto da consulta e ajudar na precisão.


Estou colocando aqui coisas mais práticas de sistema. Tem literatura dando suporte pra tudo isso, mas não sei se é isso que procuras. 

Na mais automática, mas também mais sofisticada e experimental, os caras estão trocando a representação vetorial clássica e esparsa por um representação vetorial mais densa e mais "semântica". Isso é feito usando uma técnica chamada "word embedding", que é meio um subproduto super bacana das técnicas de deep learning. Aqui tem um post bacana sobre o assunto:


A ideia básica aqui é que os termos são representados por vetores (os tais word embeddings) que modelam o contexto típico em que as palavras são usadas em textos diversos. O bacana é que estes vetores já existem "prontos" (pré-treinados) por aí. Assim, sabemos que mobilidade e transporte, apesar de sintaticamente não terem nada em comum, são semanticamente relacionados. 

Aqui vale a pena mencionar dois surveys, indo mais para o mundo acadêmico, bem completos sobre o assunto. O primeiro deve ser suficiente pra ter uma boa ideia.


Dependendo de quanto estás disposto a investir, talvez seja o caso de montar uma coleção de referência. Uma coleção destas é composta por pares do tipo <Q,R> onde Q é uma consulta e R é uma lista dos documentos esperados para essa consulta, chamados de documentos relevantes. Isso dá trabalho, mas tem uma vantagem importante: tu tens como avaliar continuamente a melhoria do teu sistema de forma bem objetiva. 
 
S: A gente tá pegando do lattes (institucionalmente) somente os CVs de quem é prof ou pesquisador PUC. E montou "na mão" uma lista de disciplinas, e seus professores, que tem algo a ver com meio-ambiente. Mas nos lattes temos muito mais do que isso e, na prática, nosso  buscador "busca tudo". E não sabemos ainda qual a melhor abordagem: trabalhar os lattes a priori com algum preprocessamento para retirar tudo que não é meio ambiente da base ou deixar pra filtrar na hora da busca mesmo. 
 
A: Acho que os modelos de RI dão conta de fazer o filtro.

No entanto, talvez seja boa ideia indexar separadamente cada seção do Lattes como se fosse um documento independente, mas sempre recuperar no resultado o pesquisador cujo currículo essa seção pertence. A vantagem de fazer isso é que pode ser feito automaticamente. Depois de um tempo, um experimento pode ser feito para podar do índice as seções que comumente não são recuperadas ou são mal ranqueadas, ou nas quais os usuários não clicam no resultado.

Comentários

Postagens mais visitadas deste blog

Connected Papers: Uma abordagem alternativa para revisão da literatura

Durante um projeto de pesquisa podemos encontrar um artigo que nos identificamos em termos de problema de pesquisa e também de solução. Então surge a vontade de saber como essa área de pesquisa se desenvolveu até chegar a esse ponto ou quais desdobramentos ocorreram a partir dessa solução proposta para identificar o estado da arte nesse tema. Podemos seguir duas abordagens:  realizar uma revisão sistemática usando palavras chaves que melhor caracterizam o tema em bibliotecas digitais de referência para encontrar artigos relacionados ou realizar snowballing ancorado nesse artigo que identificamos previamente, explorando os artigos citados (backward) ou os artigos que o citam (forward)  Mas a ferramenta Connected Papers propõe uma abordagem alternativa para essa busca. O problema inicial é dado um artigo de interesse, precisamos encontrar outros artigos relacionados de "certa forma". Find different methods and approaches to the same subject Track down the state of the art rese...

Knowledge Graph Embedding with Triple Context - Leitura de Abstract

  Jun Shi, Huan Gao, Guilin Qi, and Zhangquan Zhou. 2017. Knowledge Graph Embedding with Triple Context. In Proceedings of the 2017 ACM on Conference on Information and Knowledge Management (CIKM '17). Association for Computing Machinery, New York, NY, USA, 2299–2302. https://doi.org/10.1145/3132847.3133119 ABSTRACT Knowledge graph embedding, which aims to represent entities and relations in vector spaces, has shown outstanding performance on a few knowledge graph completion tasks. Most existing methods are based on the assumption that a knowledge graph is a set of separate triples, ignoring rich graph features, i.e., structural information in the graph. In this paper, we take advantages of structures in knowledge graphs, especially local structures around a triple, which we refer to as triple context. We then propose a Triple-Context-based knowledge Embedding model (TCE). For each triple, two kinds of structure information are considered as its context in the graph; one is the out...

KnOD 2021

Beyond Facts: Online Discourse and Knowledge Graphs A preface to the proceedings of the 1st International Workshop on Knowledge Graphs for Online Discourse Analysis (KnOD 2021, co-located with TheWebConf’21) https://ceur-ws.org/Vol-2877/preface.pdf https://knod2021.wordpress.com/   ABSTRACT Expressing opinions and interacting with others on the Web has led to the production of an abundance of online discourse data, such as claims and viewpoints on controversial topics, their sources and contexts . This data constitutes a valuable source of insights for studies into misinformation spread, bias reinforcement, echo chambers or political agenda setting. While knowledge graphs promise to provide the key to a Web of structured information, they are mainly focused on facts without keeping track of the diversity, connection or temporal evolution of online discourse data. As opposed to facts, claims are inherently more complex. Their interpretation strongly depends on the context and a vari...