Pular para o conteúdo principal

Apache Spark + GraphX

 

No dia 29/01/2020, o colega do BioBD Diogo Munaro fez uma apresentação sobre Apache Spark. Os slides estão aqui e o vídeo aqui

Em termos de anotações gerais temos:  

  • O Spark faz parte de versões mais recentes do Hadoop, na 1.0 só tinha MapReduce e HDFS, na 2.0 foi acrescentado o suporte a outros data processing e ao YARN (gerenciamento de cluster)
  • MapReduce é um paradigma de programação paralela da Google, a Yahoo fez um implementação e colocou público
  • HDFS tem API para comunicação direta
  • Suporte a várias linguagens (Scala, R,Java, Python) e Conectores para Data Sources (API)
  • Conceito de dataframe, é igual a uma planilha

 

Um dos componentes que me interessou foi o Graph. Nesse componente o grafo é representado por duas tabelas: Vértices (com suas propriedades) e Arestas (v1, v2, aresta). Nessa representação é possível representar um multigrafo direcionado, próximo ao modelo LPG porém sem propriedades nas arestas. 

 

Um operação me chamou a atenção, trata-se da necessidade de inicializar os atributos não definidos com valores NULOS. Acredito que esteja relacionado com o conceito de Data Frames (os dados são representados na forma tabular, ou seja, tabelas).


 Nesse link tem algumas operações possíveis usando a linguagem Scala com o GraphX como ferramenta para Graph Analytics. 

A vantagem de uso do Spark+GraphX em relação estaria expressa no seguinte trecho:

The goal of the GraphX project is to unify graph-parallel and data-parallel computation in one system with a single composable API. The GraphX API enables users to view data both as graphs and as collections (i.e., RDDs) without data movement or duplication. By incorporating recent advances in graph-parallel systems, GraphX is able to optimize the execution of graph operations.

O componente fornece as classes vertices, Edge e EdgeTriplet (que estende a Edge). Permite utilizar o pardigma MapReduce para as análise, oferece funções específicas para esse tipo de dados como por exemplo achar um subgrafo que atenda a determinados critérios, gerar o grafo reverso e até mesmo algoritmos como PageRank, Componentes Conexas e Contagem de Triângulos.

Na documentação completa, disponível aqui, é possível entender a classe EdgeTriplet através do comando SQL que faz a junção das tabelas que representam os vértices e as arestas:

SELECT src.id, dst.id, src.attr, e.attr, dst.attr
FROM edges AS e LEFT JOIN vertices AS src, vertices AS dst
ON e.srcId = src.Id AND e.dstId = dst.Id

Comentários

  1. Até o momento não testei essa solução. Tenho usado somente o Jupyter Notebook.

    ResponderExcluir
  2. Comecei a testar o toolkit KGTK por sugestão do professor Daniel Schwabe. O GraphX não permite também a manipulação de hipergrafos uma vez que as arestas não possuem ids para serem consideradas como vértices de outras arestas.

    ResponderExcluir

Postar um comentário

Sinta-se a vontade para comentar. Críticas construtivas são sempre bem vindas.

Postagens mais visitadas deste blog

Connected Papers: Uma abordagem alternativa para revisão da literatura

Durante um projeto de pesquisa podemos encontrar um artigo que nos identificamos em termos de problema de pesquisa e também de solução. Então surge a vontade de saber como essa área de pesquisa se desenvolveu até chegar a esse ponto ou quais desdobramentos ocorreram a partir dessa solução proposta para identificar o estado da arte nesse tema. Podemos seguir duas abordagens:  realizar uma revisão sistemática usando palavras chaves que melhor caracterizam o tema em bibliotecas digitais de referência para encontrar artigos relacionados ou realizar snowballing ancorado nesse artigo que identificamos previamente, explorando os artigos citados (backward) ou os artigos que o citam (forward)  Mas a ferramenta Connected Papers propõe uma abordagem alternativa para essa busca. O problema inicial é dado um artigo de interesse, precisamos encontrar outros artigos relacionados de "certa forma". Find different methods and approaches to the same subject Track down the state of the art rese...

Knowledge Graph Embedding with Triple Context - Leitura de Abstract

  Jun Shi, Huan Gao, Guilin Qi, and Zhangquan Zhou. 2017. Knowledge Graph Embedding with Triple Context. In Proceedings of the 2017 ACM on Conference on Information and Knowledge Management (CIKM '17). Association for Computing Machinery, New York, NY, USA, 2299–2302. https://doi.org/10.1145/3132847.3133119 ABSTRACT Knowledge graph embedding, which aims to represent entities and relations in vector spaces, has shown outstanding performance on a few knowledge graph completion tasks. Most existing methods are based on the assumption that a knowledge graph is a set of separate triples, ignoring rich graph features, i.e., structural information in the graph. In this paper, we take advantages of structures in knowledge graphs, especially local structures around a triple, which we refer to as triple context. We then propose a Triple-Context-based knowledge Embedding model (TCE). For each triple, two kinds of structure information are considered as its context in the graph; one is the out...

KnOD 2021

Beyond Facts: Online Discourse and Knowledge Graphs A preface to the proceedings of the 1st International Workshop on Knowledge Graphs for Online Discourse Analysis (KnOD 2021, co-located with TheWebConf’21) https://ceur-ws.org/Vol-2877/preface.pdf https://knod2021.wordpress.com/   ABSTRACT Expressing opinions and interacting with others on the Web has led to the production of an abundance of online discourse data, such as claims and viewpoints on controversial topics, their sources and contexts . This data constitutes a valuable source of insights for studies into misinformation spread, bias reinforcement, echo chambers or political agenda setting. While knowledge graphs promise to provide the key to a Web of structured information, they are mainly focused on facts without keeping track of the diversity, connection or temporal evolution of online discourse data. As opposed to facts, claims are inherently more complex. Their interpretation strongly depends on the context and a vari...