Pular para o conteúdo principal

SBBD 2020 - Tutorial - Altigran (UFAM)

Vídeo -> https://youtu.be/XKmnAmhEkGs

NLIDBs = Natural Language Interfaces para Banco de Dados

> Keyword Search over RDF 
> Já tem uso do BERT para essas abordagens mas não viu sobre GPT-3 ainda
> Codd em 74 já estimulava
> Como entender a necessidade de informação do usuário?  Natural Language Understanding (NLU) é IA Hard. Semiótica.

Tem um survey no VLDBJ'19

  • Sistemas Centrados em Dados (SCD) 
como os de consulta por palavras-chaves em BD Relacional.  Usam mais regras de mapeamento e menos dependente do banco de dados e mais dependentes das variações de consulta

ATHENA (SCD) usa ontologias de domínio para permitir consultas em linguagem natural

NaLIR usou o BD do MAG para avaliação das consultas SQL geradas. Quais consultas?  

Em python: https://github.com/pr3martins/nalir-sbbd 

> Faz mapeamento das palavras em nós do esquema em grafo
> Usa Entity Resolution

Templar usa o log de consultas para reduzir a interação do usuário (aproveita o conhecimento)

  • Sistemas Centrados em Linguagem (SCL)

exploram Deep learning, sistemas supervisionados precisam de dados de treinamento

Seq2Seq: ex tradução automática = Lingua 1 ( ENCODER ) <Embeddings> ( DECODER ) Lingua 3 ... RNN (Redes Neurais Recorrentes)

SCL convertem tudo: consulta, esquema e dados em embeddings

Vários benchmarks de SCL para gerar consulta SQL dado um conjunto de palavras chaves, ex WikiSQL

Devem ser retreinados para cada banco de dados

Seq2SQL usa Reinforcement Learning

DBPal (Sec2Sec) utilizando mecanismo de atenção, gera exemplos sintéticos de treinos (data augmentation)

Linguagem Natural como Língua Franca para dados de modelos heterogêneos (polystores e data lakes) e sofrem menos impacto caso o esquema mude (schema evolution) pq são consultas mais relaxadas

Como aferir que a resposta (query SQL) é correta? Fazer ranking, usar heurística também.

Os bancos de dados são semanticamente muito pobres em termos de esquema conceitual. No caso do ATHENA o uso da Ontologia tem esse propósito. 

Como delimitar contexto, somente com ontologias? Sim

Comentários

Postagens mais visitadas deste blog

Connected Papers: Uma abordagem alternativa para revisão da literatura

Durante um projeto de pesquisa podemos encontrar um artigo que nos identificamos em termos de problema de pesquisa e também de solução. Então surge a vontade de saber como essa área de pesquisa se desenvolveu até chegar a esse ponto ou quais desdobramentos ocorreram a partir dessa solução proposta para identificar o estado da arte nesse tema. Podemos seguir duas abordagens:  realizar uma revisão sistemática usando palavras chaves que melhor caracterizam o tema em bibliotecas digitais de referência para encontrar artigos relacionados ou realizar snowballing ancorado nesse artigo que identificamos previamente, explorando os artigos citados (backward) ou os artigos que o citam (forward)  Mas a ferramenta Connected Papers propõe uma abordagem alternativa para essa busca. O problema inicial é dado um artigo de interesse, precisamos encontrar outros artigos relacionados de "certa forma". Find different methods and approaches to the same subject Track down the state of the art rese...

Aula 12: WordNet | Introdução à Linguagem de Programação Python *** com NLTK

 Fonte -> https://youtu.be/0OCq31jQ9E4 A WordNet do Brasil -> http://www.nilc.icmc.usp.br/wordnetbr/ NLTK  synsets = dada uma palavra acha todos os significados, pode informar a língua e a classe gramatical da palavra (substantivo, verbo, advérbio) from nltk.corpus import wordnet as wn wordnet.synset(xxxxxx).definition() = descrição do significado É possível extrair hipernimia, hiponimia, antonimos e os lemas (diferentes palavras/expressões com o mesmo significado) formando uma REDE LEXICAL. Com isso é possível calcular a distância entre 2 synset dentro do grafo.  Veja trecho de código abaixo: texto = 'útil' print('NOUN:', wordnet.synsets(texto, lang='por', pos=wordnet.NOUN)) texto = 'útil' print('ADJ:', wordnet.synsets(texto, lang='por', pos=wordnet.ADJ)) print(wordnet.synset('handy.s.01').definition()) texto = 'computador' for synset in wn.synsets(texto, lang='por', pos=wn.NOUN):     print('DEF:',s...

DGL-KE : Deep Graph Library (DGL)

Fonte: https://towardsdatascience.com/introduction-to-knowledge-graph-embedding-with-dgl-ke-77ace6fb60ef Amazon recently launched DGL-KE, a software package that simplifies this process with simple command-line scripts. With DGL-KE , users can generate embeddings for very large graphs 2–5x faster than competing techniques. DGL-KE provides users the flexibility to select models used to generate embeddings and optimize performance by configuring hardware, data sampling parameters, and the loss function. To use this package effectively, however, it is important to understand how embeddings work and the optimizations available to compute them. This two-part blog series is designed to provide this information and get you ready to start taking advantage of DGL-KE . Finally, another class of graphs that is especially important for knowledge graphs are multigraphs . These are graphs that can have multiple (directed) edges between the same pair of nodes and can also contain loops. The...