Pular para o conteúdo principal

Deep Learning na prática com TensorFlow - Ygor Canalli (Doutorando COPPE/UFRJ)

Vídeo->https://youtu.be/KXg-81FhYVc

Redes Neurais: em teoria tem forma de grafo k-partido, multi layer percepton (MLP) só tem ligações com outras camadas (não tem ligações com neurônios da mesma camada)

No exemplo tem uma camada de entrada, uma e saída e uma camada oculta (hidden). Entrada com cinco neurônios (cada neurônio recebe um número real de entrada), dois neurônios de saída (um para cada classe, classificação binária) e 8 na camada intermediária.

Na prática, é Algebra Linear. Cada neurônio da camada k é o somatório dos pesos x entrada de cada neurônio da camada k-1 adicionado ao bias. É uma combinação linear Ni(k) = soma (Nj(k-1) x Wj(k-1)) + Bi(k)

Funções não lineares (ativação): Sigmoid; Tangente hiperbólica (tanh) e ReLU (retificação)

Tensor Flow / Keras

Programação em GPU é excelente quando se trata de uma única operação pq tem vários "operários" mas é complexo (linguagem CUDA)

Mas o colab da Google só tem GPU nas assinaturas pagas.

Na classificação binária deve ser usada softmax ... função softmax fará com que a soma dos dois valores em y somem sempre 1. Desta forma para determinar a classe de saída basta verificarmos qual neurônio aprenta valor maior que 0.5.

No exemplo são 3 camadas ocultas.  Modelo do tipo Sequential. A quantidade de registros é indiferente e pode ser qq valor para o modelo, o que importa é a quantidade de atributos de cada entrada que define o número de neurônios.

Em redes neurais aprender significa encontrar os melhores pesos para minimizar a função de custo. Precisa de um gabarito para o treinamento. 

Metodologia experimental para avaliar se o modelo está correto ainda é o mais complexo em ML. 

A função de custo: dada uma previsão e um valor real  calcular o erro ... exemplo entropia cruzada (para problemas de classificação binária)

Python: numpy, scikitlearn, pytorch ... Tensor Flow é o padrão DL para a indústria (investimento da Google)

Gradiente indica a direção de subida e descida da curva, o vetor gradiente negativo da função de custo é a direção de decréscimo. Cada batch tem uma atualização dos pesos que é chamada de aprendizado. O tamanho do batch é a quantidade de dados usados para "caminhar" no gradiente. A época é uma passada em todo o conjunto de dados para a fase de treinamento, quando menor o batch mais passos são dados para completar uma época. Quanto maior o batch mais memória é usada na GPU.

Aumentar a quantidade de camadas pode dar problema na aplicação do gradiente via backpropagation, pode não encontrar o mínimo. 

Acurácia é para monitorar o desempenho do modelo e não para atualizar os pesos.

Overfitting: muitas épocas ou tamanho muito pequenos para os batches podem super ajustar o modelo aos dados de treinamento e não generaliza. Usar um conjunto de validação para ajudara identificar o ponto de early stop. Ou aplicar drop-out, ou seja, descartar parte da informação de entrada para tornar o modelo mais robusto. 

Separou 80% para treino e 20% para teste. O teste fornece uma estimativa do desempenho do modelo no mundo real. 

sgd performou mal por volta de 61% de acurácia no treino, com adam chegou a 93%. 

Redes Neurais Profundas

tensor: n-dimensões de entrada, volume

convolução: aplicar um filtro em uma matriz de pixels, esse filtro é aprendido através do treinamento, a profundidade é a quantidade de filtros.

o tamanho do filtro é o tamanho da área onde o mesmo é aplicado. 

cada classe é transformada em um vetor one-hot

flatten: planificar, tornar o volume um vetor, uma dimensão

aumentar muito a dimensionalidade e depois descartar uma parte grande dos dados (drop out)

o tempo de treinamento é bem maior, no exemplo foi quase 1 minuto em cada época em CPU, para GPU seria bem mais rápido


Comentários

Postagens mais visitadas deste blog

Connected Papers: Uma abordagem alternativa para revisão da literatura

Durante um projeto de pesquisa podemos encontrar um artigo que nos identificamos em termos de problema de pesquisa e também de solução. Então surge a vontade de saber como essa área de pesquisa se desenvolveu até chegar a esse ponto ou quais desdobramentos ocorreram a partir dessa solução proposta para identificar o estado da arte nesse tema. Podemos seguir duas abordagens:  realizar uma revisão sistemática usando palavras chaves que melhor caracterizam o tema em bibliotecas digitais de referência para encontrar artigos relacionados ou realizar snowballing ancorado nesse artigo que identificamos previamente, explorando os artigos citados (backward) ou os artigos que o citam (forward)  Mas a ferramenta Connected Papers propõe uma abordagem alternativa para essa busca. O problema inicial é dado um artigo de interesse, precisamos encontrar outros artigos relacionados de "certa forma". Find different methods and approaches to the same subject Track down the state of the art rese...

Knowledge Graph Embedding with Triple Context - Leitura de Abstract

  Jun Shi, Huan Gao, Guilin Qi, and Zhangquan Zhou. 2017. Knowledge Graph Embedding with Triple Context. In Proceedings of the 2017 ACM on Conference on Information and Knowledge Management (CIKM '17). Association for Computing Machinery, New York, NY, USA, 2299–2302. https://doi.org/10.1145/3132847.3133119 ABSTRACT Knowledge graph embedding, which aims to represent entities and relations in vector spaces, has shown outstanding performance on a few knowledge graph completion tasks. Most existing methods are based on the assumption that a knowledge graph is a set of separate triples, ignoring rich graph features, i.e., structural information in the graph. In this paper, we take advantages of structures in knowledge graphs, especially local structures around a triple, which we refer to as triple context. We then propose a Triple-Context-based knowledge Embedding model (TCE). For each triple, two kinds of structure information are considered as its context in the graph; one is the out...

KnOD 2021

Beyond Facts: Online Discourse and Knowledge Graphs A preface to the proceedings of the 1st International Workshop on Knowledge Graphs for Online Discourse Analysis (KnOD 2021, co-located with TheWebConf’21) https://ceur-ws.org/Vol-2877/preface.pdf https://knod2021.wordpress.com/   ABSTRACT Expressing opinions and interacting with others on the Web has led to the production of an abundance of online discourse data, such as claims and viewpoints on controversial topics, their sources and contexts . This data constitutes a valuable source of insights for studies into misinformation spread, bias reinforcement, echo chambers or political agenda setting. While knowledge graphs promise to provide the key to a Web of structured information, they are mainly focused on facts without keeping track of the diversity, connection or temporal evolution of online discourse data. As opposed to facts, claims are inherently more complex. Their interpretation strongly depends on the context and a vari...