快速部署大模型!青云科技QKE 助你开启自己的 AI 时代

来源:咸宁新闻网    2024-01-11 15:09
来源: 咸宁新闻网
2024-01-11 15:09 
分享
分享到
分享到微信

2023 年,大模型和 AIGC 的发展呈现出快速推进的态势,不仅在技术层面有所突破,而且在产业应用和市场前景方面也展现出积极的趋势。

为了方便更多企业用户体验,本文将介绍如何通过青云科技(qingcloud.com)容器引擎 QKE 快速部署 ChatGLM-6B  大模型,开启属于您自己的 AI 时代!

QKE 是基于 Kubernetes  的容器引擎,能够轻松地管理和部署容器化应用。它具备自动化扩容、高可用性、安全性等多项优势,让应用更加稳定、高效。

近日,新发布的 QKE v3.1 版本不仅提高了容器集群的性能、可靠性、安全性和可维护性,还为大模型应用场景提供了更好的支持。

接下来,我们来看看如何使用 QKE 容器引擎部署 ChatGLM-6B 大模型。

01创建 QKE GPU 集群

第一步:创建一个带有 GPU 工作节点池的 QKE 集群

QKE 集群创建成功后,如需以 HTTP 访问带授权的镜像仓库,可在集群信息,镜像参数中配置镜像拉取的  insecure-registries、docker-auths。

第二步:检查 GPU 工作节点上 GPU Device Plugin 的就绪情况。

第三步:将 GPU 工作节点打上标签:accelerator: nvidia-gpu

0 2部署 ChatGLM-6B

第一步:编辑创建 K8s deployment 和 service 的 chatglm-6b.yaml。

其中 nodeSelector.accelerator: nvidia-gpu 让 Pod 调度到的 GPU 工作节点。

第二步:部署 ChatGLM-6B03暴露服务给外部访问第一步:通过如下命令找到 NodePort 号这里显示 NodePort 号为 30313  。

第二步:在 QKE 集群对应的 VPC 上,添加一条端口转发规则,转发到节点的 30313 端口。

04测试访问打开浏览器, 输入地址 http:// 即可访问 ChatGLM 推理服务。

整个部署过程非常简单,只需几步,就可以快速完成大模型应用的部署。而且,QKE 还提供了丰富的监控和日志功能,能够实时了解应用的运行状态和性能。

如果您正在寻找一个高效、稳定、易用的容器引擎,不妨试试 QKE 吧!

整个部署过程非常简单,只需几步,就可以快速完成大模型应用的部署。而且,QKE 还提供了丰富的监控和日志功能,能够实时了解应用的运行状态和性能。

随着 AI  技术的不断进步和在各行各业中的深入应用,大模型的发展将会更加迅速,其在处理大规模数据和复杂任务方面的能力将得到进一步的提升。同时,大模型在自然语言处理、计算机视觉、推荐系统等领域的应用也将不断拓展,为各行各业带来创新的解决方案。

QKE 作为一款强大的容器引擎,为大模型和 AI 及其他 AI 应用提供了健壮、易用、轻简的云原生基础设施。通过 QKE,可以更好地实现 AI  与业务的结合,推动 AI 技术在不同领域的广泛应用。

编辑:rwzh4

免责声明:该文章系我网转载,旨在为读者提供更多新闻资讯。所涉内容不构成投资、消费建议,仅供读者参考。
【责任编辑:钟经文】
中国日报网版权说明:凡注明来源为“中国日报网:XXX(署名)”,除与中国日报网签署内容授权协议的网站外,其他任何网站或单位未经允许禁止转载、使用,违者必究。如需使用,请与010-84883777联系;凡本网注明“来源:XXX(非中国日报网)”的作品,均转载自其它媒体,目的在于传播更多信息,其他媒体如需转载,请与稿件来源方联系,如产生任何问题与本网无关。
版权保护:本网登载的内容(包括文字、图片、多媒体资讯等)版权属中国日报网(中报国际文化传媒(北京)有限公司)独家所有使用。 未经中国日报网事先协议授权,禁止转载使用。给中国日报网提意见:rx@chinadaily.com.cn