为 RTP-LLM 提供 Arm CPU 后端,助力 Arm AI 软件生态持续发展
原创

13
9641浏览
发布于 2025-1-27 16:07:49
举报
0
随着大语言模型(LLM)的普及与应用,AI 计算需求快速增长。许多 LLM模型运行在基于 GPU 的硬件上,而随着 Arm 架构不仅在边缘设备,而且在数据中心领域也愈发流行,如何让 RTP-LLM(实时推理框架)有效支持 Arm CPU 平台变得尤为重要。通过优化 LLM 在 Arm 平台的推理性能,可以进一步提升功耗效率和模型部署的灵活性。
©视频版权归作者和鸿蒙开发者社区共同所有,如需转载,请注明出处,否则将追究法律责任
0/500
发布
互动
暂无数据
这个用户很懒,还没有个人简介
觉得TA不错?点个关注精彩不错过
视频
帖子
声望
粉丝
发布视频

热门标签

操作系统统信软件eBPF网络可观测龙蜥赛题擎创科技系统运维开发者OpenAnolisAnolis OS商密龙蜥操作系统龙蜥MeetUp开源AI英特尔龙蜥操作系统大会Arm技术分享国产操作系统鸿钧微龙蜥社区龙蜥