阿里云国际站代理商:如何通过Serverless调用GPU资源?
1.采用支持GPU资源的Serverless系统
选择支持GPU资源的Serverless系统,如Dilu系统,它通过内省弹性(introspectiveelasticity)机制,提供细粒度和自适应的二维协同扩展机制,支持GPU资源按需分配。
2.系统设计与架构
控制平面:负责深度学习任务的分析、部署、调度和请求分发。用户提交带有预定义QoS描述的深度学习函数程序,系统通过分析获取资源计划,并由调度器管理实例部署要求。
扩展平面:提供横向和纵向的自适应二维协同扩展服务。全局扩展器负责水平扩展,本地扩展器动态调整计算资源。
服务平面:深度学习函数作为实例在服务平面运行,共享GPU和其他云资源。
3.资源调度与分配
资源互补性调度:采用启发式贪婪算法进行调度,遵循减少滞后者、通过资源互补性消碎片、平衡过量订阅和QoS保证的原则。
动态资源分配:根据实时需求动态调整GPU资源分配,避免资源碎片和浪费。
4.任务分析与资源配置
多因素任务分析:对深度学习任务进行多因素分析,包括计算资源、内存需求等,为任务分配合适的资源。
资源配置与优化:根据任务分析结果,配置合适的GPU资源,并通过内省弹性机制实时优化资源分配。
5.实现与部署
系统实现:基于Docker和Kubernetes实现系统原型,包括分析器、调度器和全局扩展器等组件。
深度学习函数构建:构建包含模型参数文件、执行入口脚本和深度学习运行时的深度学习函数。