Pular para o conteúdo principal

[TGDK] Article Requires Revisions - comentários Professor Altigran

Resumo do professor Altigran sobre os comentários dos revisores

Nosso principal problema é o revisor 4, vejam abaixo:

AspectoRevisor 1Revisor 2Revisor 3Revisor 4
NoveltyNovel solutionNovel solutionNovel problem & solutionNo novelty
RelevanceHighly relevantHighly relevantMostly relevantMostly irrelevant
ImpactNotable impact on narrow audience or small impact on broad audienceSmall impact on narrow audienceNotable impact on narrow audience or small impact on broad audienceLittle or no impact expected
Technical CorrectnessNo technical flawsFrequent major technical flawsFrequent minor or infrequent major technical flawsFrequent major technical flaws
ClarityGenerally well-written; clear in large partDifficult to understand; unclear in large partUnderstandable, but various parts could be clearerDifficult to understand; unclear in large part
ComentáriosNenhumNenhumNenhumNenhum
ExpertiseParcialmente familiar: leu sobre tópicos relacionadosConhecedor: leu e trabalhou com tópicos relacionadosConhecedor: leu e trabalhou com tópicos relacionadosEspecialista: trabalhou extensivamente no tópico

Algumas outras coisas que acho que devem ser feitas:

Reestruturar a seção de trabalhos relacionados (atualmente na conclusão):
  • Movê-la para antes da apresentação do framework.
  • Ampliar a cobertura de trabalhos relacionados, incluindo abordagens semelhantes para KGs confiáveis.
  • Comparar sistematicamente o CoaKG com outras soluções existentes para destacar a novidade e contribuição.
  • Apontar lacunas claras nas abordagens anteriores e como o CoaKG as resolve.

Definir formalmente os conceitos centrais:
  1. Fornecer definições precisas para contexto, metainformação, camadas (Trust, Knowledge, Decision) e Dual Open World Assumption (DOWA).
  2. Explicitar como os conceitos se relacionam e são aplicados no framework.

Reforçar o detalhamento técnico do framework:
  • Descrever formalmente os componentes do CoaKG (e.g., estrutura do grafo em camadas).
  • Detalhar como a camada de confiança (Trust Layer) é implementada, incluindo regras e políticas.
  • Apresentar um pseudocódigo ou fluxograma para as etapas principais de construção e consulta do CoaKG.

Incluir um exemplo gráfico do mapeamento de KGs para CoaKGs.
  • Explicar o processo de inferência de contexto implícito com regras semânticas.
  • Expandir a avaliação experimental:
  • Adicionar mais exemplos práticos que demonstrem as vantagens do CoaKG em relação a outros KGs (não apenas Wikidata).
  • Incluir métricas quantitativas (precisão, recall, tempo de execução) para medir o impacto e desempenho do framework.
  • Testar a abordagem em casos de uso alternativos (e.g., DBpedia) para validar generalização.

Reformular o exemplo da Tabela 1:
  • Usar gráficos em vez de tabelas para representar a estrutura do CoaKG, destacando as camadas e conexões.

Detalhar perguntas de competência (Competency Questions):
  • Relacioná-las diretamente com os objetivos e métricas do framework.
  • Demonstrar como as respostas são refinadas pelo mecanismo de consulta (Query Engine).

Demonstrar funcionalidade do motor de consulta (Query Engine):
  • Disponibilizar código e documentação detalhada no GitHub.
  • Mostrar como o motor responde a diferentes tipos de consultas (com e sem contexto).
  • Comparar resultados do CoaKG com abordagens convencionais para destacar ganhos.
Resumir a introdução:
  • Reduzir discussões sobre confiança e incerteza.
  • Apresentar rapidamente o problema, a solução e os objetivos.
Melhorar clareza e gramática:
  • Revisar o uso de terminologia técnica, removendo jargões desnecessários.
  • Corrigir problemas de referências cruzadas, como a linha 223 mencionando "1" sem contexto.
  • Revisar a formatação para garantir consistência em citações, espaçamentos e títulos.
Especificar detalhes do conjunto de dados:
  • Justificar o uso de dumps antigos do Wikidata.
  • Fornecer links diretos e versões utilizadas para reprodutibilidade.

Reescrever a conclusão:
  • Focar em resultados concretos e limitações atuais.
  • Evitar apresentar novas ideias (como integração com LLMs) sem detalhes.
  • Apontar próximos passos para abordar as limitações identificadas.

Comentários

Postagens mais visitadas deste blog

Connected Papers: Uma abordagem alternativa para revisão da literatura

Durante um projeto de pesquisa podemos encontrar um artigo que nos identificamos em termos de problema de pesquisa e também de solução. Então surge a vontade de saber como essa área de pesquisa se desenvolveu até chegar a esse ponto ou quais desdobramentos ocorreram a partir dessa solução proposta para identificar o estado da arte nesse tema. Podemos seguir duas abordagens:  realizar uma revisão sistemática usando palavras chaves que melhor caracterizam o tema em bibliotecas digitais de referência para encontrar artigos relacionados ou realizar snowballing ancorado nesse artigo que identificamos previamente, explorando os artigos citados (backward) ou os artigos que o citam (forward)  Mas a ferramenta Connected Papers propõe uma abordagem alternativa para essa busca. O problema inicial é dado um artigo de interesse, precisamos encontrar outros artigos relacionados de "certa forma". Find different methods and approaches to the same subject Track down the state of the art rese...

Aula 12: WordNet | Introdução à Linguagem de Programação Python *** com NLTK

 Fonte -> https://youtu.be/0OCq31jQ9E4 A WordNet do Brasil -> http://www.nilc.icmc.usp.br/wordnetbr/ NLTK  synsets = dada uma palavra acha todos os significados, pode informar a língua e a classe gramatical da palavra (substantivo, verbo, advérbio) from nltk.corpus import wordnet as wn wordnet.synset(xxxxxx).definition() = descrição do significado É possível extrair hipernimia, hiponimia, antonimos e os lemas (diferentes palavras/expressões com o mesmo significado) formando uma REDE LEXICAL. Com isso é possível calcular a distância entre 2 synset dentro do grafo.  Veja trecho de código abaixo: texto = 'útil' print('NOUN:', wordnet.synsets(texto, lang='por', pos=wordnet.NOUN)) texto = 'útil' print('ADJ:', wordnet.synsets(texto, lang='por', pos=wordnet.ADJ)) print(wordnet.synset('handy.s.01').definition()) texto = 'computador' for synset in wn.synsets(texto, lang='por', pos=wn.NOUN):     print('DEF:',s...

DGL-KE : Deep Graph Library (DGL)

Fonte: https://towardsdatascience.com/introduction-to-knowledge-graph-embedding-with-dgl-ke-77ace6fb60ef Amazon recently launched DGL-KE, a software package that simplifies this process with simple command-line scripts. With DGL-KE , users can generate embeddings for very large graphs 2–5x faster than competing techniques. DGL-KE provides users the flexibility to select models used to generate embeddings and optimize performance by configuring hardware, data sampling parameters, and the loss function. To use this package effectively, however, it is important to understand how embeddings work and the optimizations available to compute them. This two-part blog series is designed to provide this information and get you ready to start taking advantage of DGL-KE . Finally, another class of graphs that is especially important for knowledge graphs are multigraphs . These are graphs that can have multiple (directed) edges between the same pair of nodes and can also contain loops. The...