我们有一个在nginx后面运行的tornado应用程序,支持用户文件上传(我只使用self.request.files
来访问上传的文件)。最大文件大小是10MB,这是在nginx配置中设置的,因此python进程不会看到大于这个值的文件。在
我注意到每次用户上传文件时,内存都会增加一点。但我想不出其中的模式。我试图找出是否有内存泄漏(使用pympler
和objgraph
),但没有发现任何特别可疑的东西。他们只告诉我,最消耗内存的对象是字符串和dict,它们的组合对象大小不超过7-8MB。如果上传的文件本身在请求完成后仍有引用,那么我还希望bytes
类型由pympler
和/或{
我想知道如何最好地处理这种情况。这是“high water”行为的另一个例子吗?切换到stream_request_body
会产生更好的结果吗?或者,一旦流程达到某个阈值,是否更容易重新启动?在
目前没有回答
相关问题 更多 >
编程相关推荐