Pular para o conteúdo principal

Consulta sobre Semântica ao professor Altigran - em 2020

S: A ideia é fazer um buscador em base "fechada" contemplando lattes dos profs PUC e disciplinas que ministram. UM pedido do reitor que eu resolvi ajudar, para facilitar quem desejar procurar na PUC-Rio quem mexe com coisas de meio-ambiente. 

Inicialmente o pessoal do NIMA passou algumas palavras-chave de termos ligados com meio-ambiente mas obviamente é um conjunto limitado. Há sinonimos, há contextos, etc. Se eu quiser pesquisar colocando na caixa de busca "mobilidade urbana" por exemplo, eu gostaria de apontar, entre outros, ao meu colega da Eng Mecanica que mexe com combustíveis menos poluentes. Ou ainda, em mim mesmo que faço pesquisa com onibus inteligentes com dispositivos IoT para coleta de poluição urbana. Mas como permitir fazer tais associações semanticas que nós humanos fazemos "facilmente"? Outro problema é ligado às palavras compostas: se ao invés de meio-ambiente, procurar apenas por ambiente, acho um monte de profs que nada têm a ver com meio-ambiente, um monte de colegas do meu depto que falam ou escreveram sobre ambiente de desenvolvimento de software por exemplo. Eu queria que meu buscador entender que ambiente é apenas "ambiental" no sentido ecologico, etc. COmo restringir as buscas assim? 

A: Tem basicamente duas linhas de ação em casos como esse. Uma mais "artesanal" e outra mais "automática".


Na mais "artesanal" o que todo mundo acaba usando é algum tipo de técnica de  expansão de termos, seja na consulta ou no documento. A ideia geral é enriquecer de forma automática a representação da consulta e/ou dos documentos de forma a aumentar as chances de match (ou seja, melhorar o recall/revocação). Para isso precisa ter algum recurso que permita, por exemplo, associar o termo "mobilidade urbana" com "transporte público". No caso do Google, esse recurso é um grande e muito bem feito knowledge graph (existe um API pra ele, mas eu nunca usei). Essas técnicas são bem conhecidas na literatura, e embora tenha muito paper, eu peguei aqui uns ponteiros pra coisas práticas que são aderentes ao Elastic Search. 


Veja que essa coisa melhora a revocação, mas não ajuda (e pode atrapalhar) a precisão. Portanto, o ranking tem um papel muito importante para capturar o contexto da consulta e ajudar na precisão.


Estou colocando aqui coisas mais práticas de sistema. Tem literatura dando suporte pra tudo isso, mas não sei se é isso que procuras. 

Na mais automática, mas também mais sofisticada e experimental, os caras estão trocando a representação vetorial clássica e esparsa por um representação vetorial mais densa e mais "semântica". Isso é feito usando uma técnica chamada "word embedding", que é meio um subproduto super bacana das técnicas de deep learning. Aqui tem um post bacana sobre o assunto:


A ideia básica aqui é que os termos são representados por vetores (os tais word embeddings) que modelam o contexto típico em que as palavras são usadas em textos diversos. O bacana é que estes vetores já existem "prontos" (pré-treinados) por aí. Assim, sabemos que mobilidade e transporte, apesar de sintaticamente não terem nada em comum, são semanticamente relacionados. 

Aqui vale a pena mencionar dois surveys, indo mais para o mundo acadêmico, bem completos sobre o assunto. O primeiro deve ser suficiente pra ter uma boa ideia.


Dependendo de quanto estás disposto a investir, talvez seja o caso de montar uma coleção de referência. Uma coleção destas é composta por pares do tipo <Q,R> onde Q é uma consulta e R é uma lista dos documentos esperados para essa consulta, chamados de documentos relevantes. Isso dá trabalho, mas tem uma vantagem importante: tu tens como avaliar continuamente a melhoria do teu sistema de forma bem objetiva. 
 
S: A gente tá pegando do lattes (institucionalmente) somente os CVs de quem é prof ou pesquisador PUC. E montou "na mão" uma lista de disciplinas, e seus professores, que tem algo a ver com meio-ambiente. Mas nos lattes temos muito mais do que isso e, na prática, nosso  buscador "busca tudo". E não sabemos ainda qual a melhor abordagem: trabalhar os lattes a priori com algum preprocessamento para retirar tudo que não é meio ambiente da base ou deixar pra filtrar na hora da busca mesmo. 
 
A: Acho que os modelos de RI dão conta de fazer o filtro.

No entanto, talvez seja boa ideia indexar separadamente cada seção do Lattes como se fosse um documento independente, mas sempre recuperar no resultado o pesquisador cujo currículo essa seção pertence. A vantagem de fazer isso é que pode ser feito automaticamente. Depois de um tempo, um experimento pode ser feito para podar do índice as seções que comumente não são recuperadas ou são mal ranqueadas, ou nas quais os usuários não clicam no resultado.

Comentários

Postagens mais visitadas deste blog

Connected Papers: Uma abordagem alternativa para revisão da literatura

Durante um projeto de pesquisa podemos encontrar um artigo que nos identificamos em termos de problema de pesquisa e também de solução. Então surge a vontade de saber como essa área de pesquisa se desenvolveu até chegar a esse ponto ou quais desdobramentos ocorreram a partir dessa solução proposta para identificar o estado da arte nesse tema. Podemos seguir duas abordagens:  realizar uma revisão sistemática usando palavras chaves que melhor caracterizam o tema em bibliotecas digitais de referência para encontrar artigos relacionados ou realizar snowballing ancorado nesse artigo que identificamos previamente, explorando os artigos citados (backward) ou os artigos que o citam (forward)  Mas a ferramenta Connected Papers propõe uma abordagem alternativa para essa busca. O problema inicial é dado um artigo de interesse, precisamos encontrar outros artigos relacionados de "certa forma". Find different methods and approaches to the same subject Track down the state of the art rese...

Knowledge Graph Embedding with Triple Context - Leitura de Abstract

  Jun Shi, Huan Gao, Guilin Qi, and Zhangquan Zhou. 2017. Knowledge Graph Embedding with Triple Context. In Proceedings of the 2017 ACM on Conference on Information and Knowledge Management (CIKM '17). Association for Computing Machinery, New York, NY, USA, 2299–2302. https://doi.org/10.1145/3132847.3133119 ABSTRACT Knowledge graph embedding, which aims to represent entities and relations in vector spaces, has shown outstanding performance on a few knowledge graph completion tasks. Most existing methods are based on the assumption that a knowledge graph is a set of separate triples, ignoring rich graph features, i.e., structural information in the graph. In this paper, we take advantages of structures in knowledge graphs, especially local structures around a triple, which we refer to as triple context. We then propose a Triple-Context-based knowledge Embedding model (TCE). For each triple, two kinds of structure information are considered as its context in the graph; one is the out...

Exploratory Search: From Finding to Understanding - Leitura de Artigo

Gary Marchionini. 2006. Exploratory search: from finding to understanding. Commun. ACM  49, 4 (April 2006), 41–46. https://doi.org/10.1145/1121949.1121979   This article distinguishes exploratory search that blends quer ying and browsing strategies from retrieval that is best served by analytical strategies ...   Exploratory search. Search is a fundamental life activity.   A hierarchy of information needs may also be defined that ranges from basic facts that guide short-term actions (for example, the predicted chance for rain today to decide whether to bring an umbr ella) to networks of related concepts that help us under stand phenomena or execute complex activities (for example, the relationships between bond prices and stock prices to manage a retirement portfolio) to com plex networks of tacit and explicit knowledge that accretes as expertise over a lifetime (for example, the most promising paths of investigation for the sea soned scholar or designer)....