擅长:python、mysql、java
<p>我在<a href="https://stackoverflow.com/questions/45361559/feature-importance-chart-in-neural-network-using-keras-in-python/52410345#52410345">Feature Importance Chart in neural network using Keras in Python</a>回答了一个相关的问题。我在这里能看到的唯一区别是,与其寻找集成度量的特征重要性的解释,不如希望每个单独预测的特征重要性。在本例中,同一个包<a href="https://eli5.readthedocs.io/en/latest/overview.html" rel="nofollow noreferrer">ELI5</a>具有可以解释<a href="https://eli5.readthedocs.io/en/latest/autodocs/sklearn.html#module-eli5.sklearn.explain_prediction" rel="nofollow noreferrer">eli5.sklearn.explain_prediction</a>中单个预测的函数。我还没有必要使用这个功能,但是那里的文档看起来很简单。在</p>