TensorFlow 2 模型部署方法实践培训
机器学习问题不仅是一个科学问题,
更是一个工程问题。实际应用中,我们不仅要学会构建完美的机器学习模型上,
同时还需要将其部署向用户提供便捷的服务。
本课程将使用 TensorFlow 2 框架完成机器学习模型部署实践。
1 预训练模型使用方法
2 将模型部署在后端
3 部署模型性能优化
4 TensorFlow Serving 用法
5 将模型部署在前端
6 第三方库部署模型
1
预训练模型使用方法
1.Keras导入预训练模型
2.预训练模型的使用方法
3.保存模型为HDF5格式
4.保存模型为SavedModel格式
2
TensorFlow Serving 部署模型
1.通过Docker部署TensorFlowServing
2.通过RESTAPI访问TensorFlowServing服务
3.通过gRPC访问TensorFlowServing服务
3
使用 Flask 框架部署模型
1.通过Flask进行模型部署
2.通过传输图片访问API
3.通过网页访问API
4
使用 TensorFlow.js 部署模型
1.将预训练模型转换到TensorFlowjs
2.开启跨源资源共享
3.TensorFlowjs的基本语法
4.TensorFlowjs载入模型
5.TensorFlowjs模型预测
5
使用 TensorFlow Lite 部署模型
1.转换Keras模型为TensorFlowLite格式
2.TensorFlowLite解释器安装与使用
3.TensorFlowLite权重量化
4.TensorFlowLite整数量化
5.TensorFlowLiteFloat16量化
6
使用 Gradio 快速部署模型
1.Gradio安装与配置
2.使用Gradio进行图像分类
3.使用Gradio进行手写数字识别
4.使用Gradio进行文本处理