創(chuàng)建一個容器化的機器學習模型
數據科學家在創(chuàng)建機器學習模型后,必須將其部署到生產中。要在不同的基礎架構上運行它,使用容器并通過 REST API 公開模型是部署機器學習模型的常用方法。本文演示了如何在 Podman 容器中使用 Connexion 推出使用 REST API 的 TensorFlow 機器學習模型。
準備
首先,使用以下命令安裝 Podman:
sudo dnf -y install podman
接下來,為容器創(chuàng)建一個新文件夾并切換到該目錄。
mkdir deployment_container && cd deployment_container
TensorFlow 模型的 REST API
下一步是為機器學習模型創(chuàng)建 REST API。這個 github 倉庫包含一個預訓練模型,以及能讓 REST API 工作的設置。
使用以下命令在 deployment_container 目錄中克隆它:
git clone https://github.com/svenboesiger/titanic_tf_ml_model.git
prediction.py 和 ml_model/
prediction.py 能進行 Tensorflow 預測,而 20x20x20 神經網絡的權重位于文件夾 ml_model/ 中。
swagger.yaml
swagger.yaml 使用 Swagger規(guī)范 定義 Connexion 庫的 API。此文件包含讓你的服務器提供輸入參數驗證、輸出響應數據驗證、URL 端點定義所需的所有信息。
額外地,Connexion 還將給你提供一個簡單但有用的單頁 Web 應用,它演示了如何使用 Javascript 調用 API 和更新 DOM。
swagger: "2.0"info:description: This is the swagger file that goes with our server codeversion: "1.0.0"title: Tensorflow Podman Articleconsumes:- "application/json"produces:- "application/json"basePath: "/"paths:/survival_probability:post:operationId: "prediction.post"tags:- "Prediction"summary: "The prediction data structure provided by the server application"description: "Retrieve the chance of surviving the titanic disaster"parameters:- in: bodyname: passengerrequired: trueschema:$ref: '#/definitions/PredictionPost'responses:'201':description: 'Survival probability of an individual Titanic passenger'definitions:PredictionPost:type: object
server.py 和 requirements.txt
server.py 定義了啟動 Connexion 服務器的入口點。
import connexionapp = connexion.App(__name__, specification_dir='./')app.add_api('swagger.yaml')if __name__ == '__main__':app.run(debug=True)
requirements.txt 定義了運行程序所需的 python 包。
connexiontensorflowpandas
容器化!
為了讓 Podman 構建映像,請在上面的準備步驟中創(chuàng)建的 deployment_container 目錄中創(chuàng)建一個名為 Dockerfile 的新文件:
FROM fedora:28# File Author / MaintainerMAINTAINER Sven Boesiger <donotspam@ujelang.com># Update the sourcesRUN dnf -y update --refresh# Install additional dependenciesRUN dnf -y install libstdc++RUN dnf -y autoremove# Copy the application folder inside the containerADD /titanic_tf_ml_model /titanic_tf_ml_model# Get pip to download and install requirements:RUN pip3 install -r /titanic_tf_ml_model/requirements.txt# Expose portsEXPOSE 5000# Set the default directory where CMD will executeWORKDIR /titanic_tf_ml_model# Set the default command to execute# when creating a new containerCMD python3 server.py
接下來,使用以下命令構建容器鏡像:
podman build -t ml_deployment .
運行容器
隨著容器鏡像的構建和準備就緒,你可以使用以下命令在本地運行它:
podman run -p 5000:5000 ml_deployment
在 Web 瀏覽器中輸入 http://0.0.0.0:5000/ui 訪問 Swagger/Connexion UI 并測試模型:

當然,你現在也可以在應用中通過 REST API 訪問模型。





























