我试图用gremlin python在尽可能短的时间内插入数百万个顶点和边。 我有两件事要考虑: 避免顶点和边重复 避免花费10小时插入所有数据
请求的主要时间用于查找现有顶点并创建关系。 如果我插入边而不检查顶点是否已经存在,脚本会更快
我也尝试过批量处理事务,如:
g.addV("person").property("name", "X").as_("p1")
.addV("person").property("name", "Y").as_("p2")
.addE("has_address").from("p1").to(g.V().has("address", "name", "street"))
.addE("has_address").from("p2").to(g.V().has("address", "name", "street2")).iterate()
但我没有提高表现
对于重复项,我将在查询中获得相同的结果? 我想以后对于重复的查询会更昂贵没有
谢谢
我的{a1}对你的最后一个问题提供了一些关于如何快速加载数据的提示,现在我知道你的大小是百万的,我希望你能考虑这些策略。
如果您继续使用Gremlin和Python加载,则考虑以下几点:
addV()
和addE()
的巨型链式小精灵遍历更快李>同样,在这样的论坛上不可能真正提供细节,但也许这些想法会激励你找到答案
相关问题 更多 >
编程相关推荐