Pular para o conteúdo principal

SBBD 2020 - Tutorial - Altigran (UFAM)

Vídeo -> https://youtu.be/XKmnAmhEkGs

NLIDBs = Natural Language Interfaces para Banco de Dados

> Keyword Search over RDF 
> Já tem uso do BERT para essas abordagens mas não viu sobre GPT-3 ainda
> Codd em 74 já estimulava
> Como entender a necessidade de informação do usuário?  Natural Language Understanding (NLU) é IA Hard. Semiótica.

Tem um survey no VLDBJ'19

  • Sistemas Centrados em Dados (SCD) 
como os de consulta por palavras-chaves em BD Relacional.  Usam mais regras de mapeamento e menos dependente do banco de dados e mais dependentes das variações de consulta

ATHENA (SCD) usa ontologias de domínio para permitir consultas em linguagem natural

NaLIR usou o BD do MAG para avaliação das consultas SQL geradas. Quais consultas?  

Em python: https://github.com/pr3martins/nalir-sbbd 

> Faz mapeamento das palavras em nós do esquema em grafo
> Usa Entity Resolution

Templar usa o log de consultas para reduzir a interação do usuário (aproveita o conhecimento)

  • Sistemas Centrados em Linguagem (SCL)

exploram Deep learning, sistemas supervisionados precisam de dados de treinamento

Seq2Seq: ex tradução automática = Lingua 1 ( ENCODER ) <Embeddings> ( DECODER ) Lingua 3 ... RNN (Redes Neurais Recorrentes)

SCL convertem tudo: consulta, esquema e dados em embeddings

Vários benchmarks de SCL para gerar consulta SQL dado um conjunto de palavras chaves, ex WikiSQL

Devem ser retreinados para cada banco de dados

Seq2SQL usa Reinforcement Learning

DBPal (Sec2Sec) utilizando mecanismo de atenção, gera exemplos sintéticos de treinos (data augmentation)

Linguagem Natural como Língua Franca para dados de modelos heterogêneos (polystores e data lakes) e sofrem menos impacto caso o esquema mude (schema evolution) pq são consultas mais relaxadas

Como aferir que a resposta (query SQL) é correta? Fazer ranking, usar heurística também.

Os bancos de dados são semanticamente muito pobres em termos de esquema conceitual. No caso do ATHENA o uso da Ontologia tem esse propósito. 

Como delimitar contexto, somente com ontologias? Sim

Comentários

Postagens mais visitadas deste blog

Connected Papers: Uma abordagem alternativa para revisão da literatura

Durante um projeto de pesquisa podemos encontrar um artigo que nos identificamos em termos de problema de pesquisa e também de solução. Então surge a vontade de saber como essa área de pesquisa se desenvolveu até chegar a esse ponto ou quais desdobramentos ocorreram a partir dessa solução proposta para identificar o estado da arte nesse tema. Podemos seguir duas abordagens:  realizar uma revisão sistemática usando palavras chaves que melhor caracterizam o tema em bibliotecas digitais de referência para encontrar artigos relacionados ou realizar snowballing ancorado nesse artigo que identificamos previamente, explorando os artigos citados (backward) ou os artigos que o citam (forward)  Mas a ferramenta Connected Papers propõe uma abordagem alternativa para essa busca. O problema inicial é dado um artigo de interesse, precisamos encontrar outros artigos relacionados de "certa forma". Find different methods and approaches to the same subject Track down the state of the art rese...

Aprendizado de Máquina Relacional

 Extraído de -> https://www.lncc.br/~ziviani/papers/Texto-MC1-SBBD2019.pdf   Aprendizado de máquina relacional (AMR) destina-se à criação de modelos estatísticos para dados relacionais (seria o mesmo que dados conectados) , isto é, dados cuja a informação relacional é tão ou mais impor tante que a informação individual (atributos) de cada elemento.    Essa classe de aprendizado tem sido utilizada em diversas aplicações, por exemplo, na extração de informação de dados não estruturados [Zhang et al. 2016] e na modelagem de linguagem natural [Vu et al. 2018].   A adoção de técnicas de aprendizado de máquina relacional em tarefas de comple mentação de grafo de conhecimento se baseia na premissa de existência de regularidades semânticas presentes no mesmo . Modelos grafos probabilísticos  Baseada em regras / heurísticas que não podem garantir 100% de precisão no resultado da inferência mas os resultados podem ser explicados. Modelos de características de ...

Knowledge Graph Embedding with Triple Context - Leitura de Abstract

  Jun Shi, Huan Gao, Guilin Qi, and Zhangquan Zhou. 2017. Knowledge Graph Embedding with Triple Context. In Proceedings of the 2017 ACM on Conference on Information and Knowledge Management (CIKM '17). Association for Computing Machinery, New York, NY, USA, 2299–2302. https://doi.org/10.1145/3132847.3133119 ABSTRACT Knowledge graph embedding, which aims to represent entities and relations in vector spaces, has shown outstanding performance on a few knowledge graph completion tasks. Most existing methods are based on the assumption that a knowledge graph is a set of separate triples, ignoring rich graph features, i.e., structural information in the graph. In this paper, we take advantages of structures in knowledge graphs, especially local structures around a triple, which we refer to as triple context. We then propose a Triple-Context-based knowledge Embedding model (TCE). For each triple, two kinds of structure information are considered as its context in the graph; one is the out...