<p>事实证明,<a href="https://github.com/tesseract-ocr/tesseract" rel="nofollow noreferrer">^{<cd1>}</a>wiki有一篇文章以我能想象到的最佳方式回答了这个问题:</p>
<ul>
<li><p>关于<a href="https://github.com/tesseract-ocr/tesseract/wiki/ImproveQuality" rel="nofollow noreferrer">"Improving the quality of the <em>[OCR]</em> output"</a>的图解指南。</p></li>
<li><p>问题<a href="https://stackoverflow.com/a/10034214/2419207">"image processing to improve tesseract OCR accuracy"</a>也可能引起兴趣。</p></li>
</ul>
<hr/>
<p><em>(初步答案,仅供参考)</em></p>
<p>我没有用过<code>PyTesser</code>,但是我用<code>tesseract</code>(版本:<code>3.02.02</code>)做了一些实验。</p>
<p>如果对彩色图像调用tesseract,则它首先应用全局<a href="https://en.wikipedia.org/wiki/Otsu%27s_method" rel="nofollow noreferrer">Otsu's method</a>对其进行二值化,然后在二值(黑白)图像上运行实际的字符识别。</p>
<p>图片来源:<a href="http://scikit-image.org/docs/dev/auto_examples/plot_local_otsu.html" rel="nofollow noreferrer">http://scikit-image.org/docs/dev/auto_examples/plot_local_otsu.html</a></p>
<p><img src="https://i.stack.imgur.com/t8QqZ.png" alt="Otsu's threshold illustration"/></p>
<p>可以看出,“全球大津”未必总能产生令人满意的结果。</p>
<p>为了更好地理解tesseract“看到”的是将Otsu的方法应用到您的图像,然后查看结果图像。</p>
<p>总之:提高识别率的最直接的方法是自己对图像进行二值化(很可能通过反复试验找到了好的阈值)</em>,然后将这些二值化的图像传递给<code>tesseract</code>。</p>
<p><em>有人很好地发布了<a href="http://fossies.org/dox/tesseract-ocr-3.02.02/" rel="nofollow noreferrer">api docs for tesseract</a>,因此可以验证以前关于处理管道的语句:<a href="http://fossies.org/dox/tesseract-ocr-3.02.02/group__AdvancedAPI.html#ga09be3b61fd89f7803fe37cc420b92b30" rel="nofollow noreferrer">ProcessPage</a>->;<a href="http://fossies.org/dox/tesseract-ocr-3.02.02/group__AdvancedAPI.html#gaee19c9ea78a647420bbe99a447569995" rel="nofollow noreferrer">GetThresholdedImage</a>->;<a href="http://fossies.org/dox/tesseract-ocr-3.02.02/classtesseract_1_1ImageThresholder.html#a8240c360cff397784e7e9f635d9ed7a3" rel="nofollow noreferrer">ThresholdToPix</a>->;<a href="http://fossies.org/dox/tesseract-ocr-3.02.02/classtesseract_1_1ImageThresholder.html#a9bbeac96aad481ce652816d8780b6e00" rel="nofollow noreferrer">OtsuThresholdRectToPix</a></em></p>