Pular para o conteúdo principal

Programa de Verão LNCC 2021 - Minicursos Big Data & Data Mining

Canal de Vídeos -> https://www.youtube.com/c/LNCCbr/videos

Descrição: MC-CD02 (Análise de Dados): Data Mining

Professor Eduardo Ogasawara

Site -> https://eic.cefet-rj.br/~eogasawara/lncc-curso-de-verao-em-analise-de-dados/

Anotações de aula

Dedutive Expert Systems: Sistemas de Recomendação

DM Funções: Generalização (gerar cubo multidimensional). Associação ou Análise de Correlação (análise de carrinho de compras, frequent itemset com métricas de suporte e confiança do cálculo), Predição (fase de treinamento supervisionado para gerar modelos através de métodos como árvores de decisão, naive bayes, SVM, ...), Análise de Agrupamentos (métodos não supervisionados como o K-means, relações intrínsecas dos dados de modo que aumente a similaridade intra-classe e reduza a similaridade inter-classe), Descoberta de Outliers (detecção de fraudes), Detecção de Eventos, Padrões de Sequencia de Eventos

Tipos de atributos: nominal, binário, ordinal (hierarquia)

Iris Dataset

Medidas estatísticas: centralidade (moda, média, mediana), dispersão (variância, desvio padrão)

Normalização é essencial para o aprendizado de máquina

Distribuição normal é um histograma mais próximo de um formato de um sino

skewed: viés dos dados

Quartil: 25% (Q1) e 75% (Q3)

Análise Bloxpot: outliers  x > Q3 + 1.5 IQR ou y < Q1 - 1.5 IQR, sendo IQR = Q3 - Q1

Análise de Correlação: matriz N x N entre duas variáveis

Como lidar com valores ausentes? IMPUTAÇÃO

Imputar com a média pode levar a modificar o padrão dos dados de modo a tornar a distribuição normal onde não é, alternativa pode ser clusterizar por outros atributos e imputar os valores ausentes com valores que melhor caracterizem o grupo

Dados com ruído pode ser discretizados para mudar faixa de valor, usar modelo de regressão ao invés de usar o próprio valor

Processos de limpezas de dados em ETL: remoção de outliers, integração de dados (esquema, entidade e atributos conflitantes)

Redução de dados: amostra para ter um piloto para compreensão dos dados, remover atributos não relacionados ao interesse de análise, calcular um novo atributo significativo a partir da relação entre outros existentes

Redução de dimensionalidade pq a medida que o volume de dados aumenta, se torna mais esparso. PCA

Overfit: modelo é muito ajustado a dados de treinamento e não responde bem a dados novos

Existem 2^n relações possíveis entre atributos de um dataset, é possível usar heurística para selecionar e criar uma árvore de decisão


Descrição: MC-CD03 (Algoritmos e Modelos de Programação para Big Data)

Professor Fabio Porto

Site ->http://dexl.lncc.br/pv2021/

Anotações de aula

Goods: Google Datasets SIGMOD 2016 Halevy

Ingestão de dados em Data Lakes, armazenamento com catálogo de metadados (para não virar Data Swap) inclusive o esquema de dados

Interaction Layers: visões, data marts sob demanda

HDFS: sistema de arquivos distribuídos, read-only, append (não tem update in place), leitura sequencial, partições de tamanho fixo, interface de comunicação padrão ISO

Sistema de memória compartilhada e distribuída

Shared Nothing: nós com processamento, memória e disco local, Name Node é o SPoF mas pode ser contingenciado/replicado

A transferência de dados é feita entre nós via rede, deve ser minimizada

Lazy evaluation: os passos do data flow são executados de fato somente quando o escalonador encontra uma ação

Artigo VLDB 2019 sobre implementações de algoritmos em grafos


Comentários

Postagens mais visitadas deste blog

Connected Papers: Uma abordagem alternativa para revisão da literatura

Durante um projeto de pesquisa podemos encontrar um artigo que nos identificamos em termos de problema de pesquisa e também de solução. Então surge a vontade de saber como essa área de pesquisa se desenvolveu até chegar a esse ponto ou quais desdobramentos ocorreram a partir dessa solução proposta para identificar o estado da arte nesse tema. Podemos seguir duas abordagens:  realizar uma revisão sistemática usando palavras chaves que melhor caracterizam o tema em bibliotecas digitais de referência para encontrar artigos relacionados ou realizar snowballing ancorado nesse artigo que identificamos previamente, explorando os artigos citados (backward) ou os artigos que o citam (forward)  Mas a ferramenta Connected Papers propõe uma abordagem alternativa para essa busca. O problema inicial é dado um artigo de interesse, precisamos encontrar outros artigos relacionados de "certa forma". Find different methods and approaches to the same subject Track down the state of the art rese...

Knowledge Graph Embedding with Triple Context - Leitura de Abstract

  Jun Shi, Huan Gao, Guilin Qi, and Zhangquan Zhou. 2017. Knowledge Graph Embedding with Triple Context. In Proceedings of the 2017 ACM on Conference on Information and Knowledge Management (CIKM '17). Association for Computing Machinery, New York, NY, USA, 2299–2302. https://doi.org/10.1145/3132847.3133119 ABSTRACT Knowledge graph embedding, which aims to represent entities and relations in vector spaces, has shown outstanding performance on a few knowledge graph completion tasks. Most existing methods are based on the assumption that a knowledge graph is a set of separate triples, ignoring rich graph features, i.e., structural information in the graph. In this paper, we take advantages of structures in knowledge graphs, especially local structures around a triple, which we refer to as triple context. We then propose a Triple-Context-based knowledge Embedding model (TCE). For each triple, two kinds of structure information are considered as its context in the graph; one is the out...

KnOD 2021

Beyond Facts: Online Discourse and Knowledge Graphs A preface to the proceedings of the 1st International Workshop on Knowledge Graphs for Online Discourse Analysis (KnOD 2021, co-located with TheWebConf’21) https://ceur-ws.org/Vol-2877/preface.pdf https://knod2021.wordpress.com/   ABSTRACT Expressing opinions and interacting with others on the Web has led to the production of an abundance of online discourse data, such as claims and viewpoints on controversial topics, their sources and contexts . This data constitutes a valuable source of insights for studies into misinformation spread, bias reinforcement, echo chambers or political agenda setting. While knowledge graphs promise to provide the key to a Web of structured information, they are mainly focused on facts without keeping track of the diversity, connection or temporal evolution of online discourse data. As opposed to facts, claims are inherently more complex. Their interpretation strongly depends on the context and a vari...