Googleチュートリアルから、TensorFlowでモデルをトレーニングする方法を知っています。しかし、トレーニング済みモデルを保存してから、本番サーバーで基本的な最小python apiを使用して予測を提供するための最良の方法は何ですか。
私の質問は基本的に、速度とメモリの問題を犠牲にすることなく、モデルを保存してライブサーバーで予測を提供するためのTensorFlowのベストプラクティスです。 APIサーバーはバックグラウンドで永久に実行されるためです。
pythonコードの小さなスニペットをいただければ幸いです。
TensorFlow Serving は、機械学習モデル向けの高性能なオープンソースサービングシステムであり、本番環境向けに設計され、TensorFlow向けに最適化されています。初期リリースには、C++サーバーとPythonクライアントの例 gRPC に基づく)が含まれています。基本的なアーキテクチャを次の図に示します。
すぐに始めるには、 チュートリアル を確認してください。