Tensorflow模型服务器在CPU上的性能问题与Tensorflow模型推断的比较

2024-09-28 22:04:14 发布

您现在位置:Python中文网/ 问答频道 /正文

我观察到了使用Tensorflow模型服务器的CPU的性能问题。与原始张量流模型推理相比,它的推理时间增加了一倍。两者都是用MKL为CPU构建的。在

要复制的代码:https://github.com/BogdanRuzh/tf_model_service_benchmark

Tensorflow MKL内部版本:bazel build --config=mkl -c opt --copt=-msse4.1 --copt=-msse4.2 --copt=-mavx --copt=-mavx2 --copt=-mfma --copt=-O3 //tensorflow/tools/pip_package:build_pip_package

Tensorflow server MKL内部版本:bazel build --config=mkl --config=opt --copt=-msse4.1 --copt=-msse4.2 --copt=-mavx --copt=-mavx2 --copt=-mfma --copt=-O3 tensorflow_serving/model_servers:tensorflow_model_server

目标模型为简单的CNN分割模型。在

原始张量流模型在0.17s内处理图像。 Tensorflow模型服务器在0.32s内处理相同的图像

我怎样才能提高这种表现?这对我的申请非常重要。在


Tags: 模型build版本服务器configmodeltensorflowcpu