擅长:python、mysql、java
<p>这一建议只会消除一些明显的低效率,但不会影响解决方案的总体复杂性:</p>
<pre><code>def find_word(text, s1=s1): # micro-optimization, make s1 local
tokens = nltk.word_tokenize(text)
for i, word in in enumerate(tokens):
if word in s1:
# Do something with `word` and `i`
</code></pre>
<p>本质上,当你真正需要的只是循环体中的一个条件时,你可以通过使用<code>map</code>来减慢速度。。。所以基本上,只要去掉<code>get_token_index</code>,它就被过度设计了。在</p>