Wikidata获取大量ID的标签

2024-05-19 21:37:57 发布

您现在位置:Python中文网/ 问答频道 /正文

我在ndjson文件中有一个大约300000个wikidata ID(例如Q1347065、Q731635等)的列表,如下所示

{"Q1347065": ""}
{"Q731635": ""}
{"Q191789": ""} ... etc

我希望得到每个id的标签,并形成键值字典,例如

{"Q1347065":"epiglottitis", "Q731635":"Mount Vernon", ...}

在ID列表变得如此庞大之前,我使用的是Wikidata python库(https://pypi.org/project/Wikidata/

from wikidata.client import Client
import ndjson

client = Client()
with open("claims.ndjson") as f, open('claims_to_strings.json', 'w') as out:
    claims = ndjson.load(f)

    l = {} 
    for d in claims: 
        l.update(d)

    for key in l:
        v = client.get(key)
        l[key] = str(v.label)

    json.dumps(l, out)

但速度太慢(1000个ID大约需要15个小时)。有没有比我所做的更快的方法来实现这一点


Tags: keyimportclientidjson列表asopen
1条回答
网友
1楼 · 发布于 2024-05-19 21:37:57

在回答之前:我不知道你说的json.dumps(r, out)是什么意思;我假设你想要json.dump(l, out)

我的答案是使用以下SPARQL查询Wikidata Query Service

SELECT ?item ?itemLabel WHERE {
  VALUES ?item { wd:Q1347065 wd:Q731635 wd:Q105492052 }
  SERVICE wikibase:label { bd:serviceParam wikibase:language "en". }
}

用于同时询问多个标签

这大大加快了执行时间,因为瓶颈是连接的数量,使用这种方法id->;标签映射完全在服务器端完成

import json
import ndjson
import re
import requests

def wikidata_query(query):
    url = 'https://query.wikidata.org/sparql'
    try:
        r = requests.get(url, params = {'format': 'json', 'query': query})
        return r.json()['results']['bindings']
    except json.JSONDecodeError as e:
        raise Exception('Invalid query')

with open("claims.ndjson") as f, open('claims_to_strings.json', 'w') as out:
    claims = ndjson.load(f)

    l = {} 
    for d in claims: 
        l.update(d)
    
    item_ids = l.keys()
    sparql_values = list(map(lambda id: "wd:" + id, item_ids))
    item2label = wikidata_query('''
        SELECT ?item ?itemLabel WHERE {
        VALUES ?item { %s }
        SERVICE wikibase:label { bd:serviceParam wikibase:language "en". }
    }''' % " ".join(sparql_values))

    for result in item2label :
        item = re.sub(r".*[#/\\]", "", result['item']['value'])
        label = result['itemLabel']['value']
        l[item] = label
    
    json.dump(l, out)

我猜您无法对所有300.000个项目进行单一查询,但您可以轻松找到受支持的最大可接受id数,并根据该数拆分原始id列表

相关问题 更多 >