Pular para o conteúdo principal

SBBD 2021- Tutorial - Aprendizado de Máquina e Grafos

Introdução

Linguagem Geral (ou Modelo)? Linguagem de Modelagem

Foco na generalização e relacionamentos entre instâncias de dados. 

Tarefas podem ser realizadas em diferentes escalas, níveis: nó, relação, comunidade, grafo completo

Features extraídas estatisticamente como o grau.

Matriz de Adjacência é esparsa, Multigrafos, Conectividade de Grafos

ML:acurácia é a proporção de exemplo que o modelo classifica corretamente. Entrada é um vetor de features e saída podem ser rótulos de classes, um indicador de regressão,o cluster que pertencem ou um vetor latente de representação. Objetivo é minimizar o erro empírico (função de custo) de classificação (usar L1, L2, Entropia Cruzada ...), pode ser usado o Gradiente Descendente para otimizar a função de custo. 

Redes neurais: feed foward cada camada está conectada a camada seguinte, redes convolucionais recebem a entrada em partes para achatar o vetor e gerar a predição

Machine Learning Tasks on Graphs

O grau do nó pode ser uma feature mas trata os vizinhos de modo igual. Medidas de centralidade capturam melhor o conceito de importância (eigenvector, betweeness, closeness). Coeficiente de clusterização conta o número de triângulos fechados (graphlets de 3 nós totalmente conectados) saindo de um nó. Graphlets são todos os sub-grafos possíveis de tamanho até x, onde x é no máximo n-1.

Similaridade entre nós pode estar relacionado com a probabilidade de haver uma aresta entre eles. Tarefas de predição de Links. Essa similaridade pode ser calculada com shortest-path (feature baseada em distância) ou sobreposição local/global de vizinhos (jaccard). Separar as arestas de treinamento e testes do grafo. Em métodos locais, se os nós não tiverem vizinhos em comum então a similaridade é zero. Métodos globais não tem essa característica. 

Features a nível de grafos: métodos kernel. Usar Bag of Nodes e agregar as estatísticas dos nós. Contar os graphlets. Essas features não são completamente independentes e agrupar pode gerar problemas ao serem usados em algoritmos de ML.

Embeddings de Nós: Encoder -> Decoder. A similaridade entre os embeddings podem regerar a própria matriz de adjacências. 

Abordagem tradicional: Shallow embeddings ... uma coluna por nó (vetor) na matriz de embeddings. A matriz é d x |V| , onde d é a dimensão do vetor. 

Decoder: Método de Fatorização da Matriz como o produto interno entre os vetores.

Decoder: Random Walk para identificar nós que co-ocorrem em caminhos aleatórios de tamanho t. DeepWalk e node2vec (BFS ou DFS)

É possível usar Redes Neurais para gerar os embeddings: Deep Autoencoders

- Cada nó tem uma representação de ALTA dimensionalidade na entrada, a dimensão do vetor é |V| -> isso é um problema, e o vetor é esparso

Taxonomia de Técnicas para Graph Embeddings (imagem importante) ... artigo 2018 "A Comprehensive Survey of Graph Emebddings ....

Shallow não compartilham informações entre nós, requerem que seja retreinado caso incluam novos nós ou arestas, 

GNN

2020 A Comprehensive Survey on Graph Neural ... 

Redes são mais complexas que imagem e texto para serem inputados em uma rede neural

Cada camada na rede de convolução faz a informação de um nó se propagar aos seus vizinhos. 

A agregação de vizinhança é análogo ao pooling de redes convolucionais convencionais. A diferença entre os métodos está justamente no pooling e update. 

Split do grafo em Treinamento, Validação e Teste: esconder o label dos nós do processo de treinamento para classificação de nós

Split do grafo em Treinamento, Validação e Teste: remover arestas do processo de treinamento para predição de links

Quais são as limitações dessas abordagens: over-smoothing e over-squashing 

Pesquisas

Embeddings de Grafos Dinâmicos

Bibliotecas e GraphDBs

AliGraph é do Alibaba




Comentários

Postagens mais visitadas deste blog

Connected Papers: Uma abordagem alternativa para revisão da literatura

Durante um projeto de pesquisa podemos encontrar um artigo que nos identificamos em termos de problema de pesquisa e também de solução. Então surge a vontade de saber como essa área de pesquisa se desenvolveu até chegar a esse ponto ou quais desdobramentos ocorreram a partir dessa solução proposta para identificar o estado da arte nesse tema. Podemos seguir duas abordagens:  realizar uma revisão sistemática usando palavras chaves que melhor caracterizam o tema em bibliotecas digitais de referência para encontrar artigos relacionados ou realizar snowballing ancorado nesse artigo que identificamos previamente, explorando os artigos citados (backward) ou os artigos que o citam (forward)  Mas a ferramenta Connected Papers propõe uma abordagem alternativa para essa busca. O problema inicial é dado um artigo de interesse, precisamos encontrar outros artigos relacionados de "certa forma". Find different methods and approaches to the same subject Track down the state of the art rese...

Knowledge Graph Embedding with Triple Context - Leitura de Abstract

  Jun Shi, Huan Gao, Guilin Qi, and Zhangquan Zhou. 2017. Knowledge Graph Embedding with Triple Context. In Proceedings of the 2017 ACM on Conference on Information and Knowledge Management (CIKM '17). Association for Computing Machinery, New York, NY, USA, 2299–2302. https://doi.org/10.1145/3132847.3133119 ABSTRACT Knowledge graph embedding, which aims to represent entities and relations in vector spaces, has shown outstanding performance on a few knowledge graph completion tasks. Most existing methods are based on the assumption that a knowledge graph is a set of separate triples, ignoring rich graph features, i.e., structural information in the graph. In this paper, we take advantages of structures in knowledge graphs, especially local structures around a triple, which we refer to as triple context. We then propose a Triple-Context-based knowledge Embedding model (TCE). For each triple, two kinds of structure information are considered as its context in the graph; one is the out...

KnOD 2021

Beyond Facts: Online Discourse and Knowledge Graphs A preface to the proceedings of the 1st International Workshop on Knowledge Graphs for Online Discourse Analysis (KnOD 2021, co-located with TheWebConf’21) https://ceur-ws.org/Vol-2877/preface.pdf https://knod2021.wordpress.com/   ABSTRACT Expressing opinions and interacting with others on the Web has led to the production of an abundance of online discourse data, such as claims and viewpoints on controversial topics, their sources and contexts . This data constitutes a valuable source of insights for studies into misinformation spread, bias reinforcement, echo chambers or political agenda setting. While knowledge graphs promise to provide the key to a Web of structured information, they are mainly focused on facts without keeping track of the diversity, connection or temporal evolution of online discourse data. As opposed to facts, claims are inherently more complex. Their interpretation strongly depends on the context and a vari...