在NLP任务中,我想了解分类器的“规则”。为此,我建立了一个LimeTExtExplainer
c= make_pipeline(cv,naive_bayes)
explainer = LimeTextExplainer(class_names=class_names, random_state=42, bow=False)
exp = explainer.explain_instance(X_test[i], c.predict_proba, num_features=20,)
fig = exp.as_pyplot_figure()
上面的代码创建了一个很好的1Gram列表,这正是我想要的。 :
在下一步中,我想做同样的事情,但是要用bigrams。我将功能提取器更改为仅计算Bigram:
cv = CountVectorizer(strip_accents='ascii', analyzer='word',
token_pattern=u'(?ui)\\b\\w*[a-z]+\\w*\\b',
lowercase=True, stop_words='english',
ngram_range=(2,2), max_features=None)
问题:
提前谢谢
至少我得到了第二个问题的答案:
这些都是概率,但不是我想的那样
例如,X类的预测概率为0.808。如果现在从基础语料库中删除单词“recognit”,那么预测类的总预测概率将减少0.008&燃气轮机;概率等级x等于0.800
有关石灰的详细信息,我强烈建议: “我为什么要相信你?”Riberio et.al(2016)
相关问题 更多 >
编程相关推荐