- O projeto nesse link desenvolveu um pipeline e componentes específicos para a atividade de carga de dados (de diversas fontes)
https://meta.wikimedia.org/wiki/Grants:Project/MFFUK/Wikidata_%26_ETL
- Tutorial para o pipeline de exemplo
https://etl.linkedpipes.com/components/l-wikibase
- O componente de carga com exemplo de como carregar statments com qualificadores
https://etl.linkedpipes.com/components/l-wikibase
- Formato RDF dump para Wikidata (WD-RDF)
https://www.mediawiki.org/wiki/Wikibase/Indexing/RDF_Dump_Format
Pipeline draft para XML do Lattes
1. Obter o arquivo
2. Converter XML para RDF usando um script genérico (xml2rdf)
3. Converter RDF para o Schema WD-RDF com um componente SPARQL construct
4. Verificar se o item já existe usando um componente SPARQL Endpoint para acessar o WDQS
5. Realizar o merge do que foi gerado no ETL no passo 3 com o que foi recuperado no passo 4.
6. Carregar usando o componente Wikidata Loader
7. Avaliar os erros de carga
Obs.: os passos 3 e 4 dependem do tipo de entidade como pesquisador, publicação, projeto,....
Pré-requisito: criar uma conta de bot no WD
Comentários
Postar um comentário
Sinta-se a vontade para comentar. Críticas construtivas são sempre bem vindas.