阿里云发布多模态交互开发套件,让硬件能听、会看、会交互

发布时间:2026-01-11 09:36

Google会在IO开发者大会发布新的Android系统和硬件产品。 #生活知识# #科技生活# #科技新品发布#

1 月 8 日,在阿里云通义智能硬件展上,阿里云发布多模态交互开发套件,该套件集成了千问、万相、百聆三款通义基础大模型,并预置十多款生活休闲、工作效率等领域的 Agent 和 MCP 工具,不仅能听、会看,还能思考并且与物理世界交互,可应用于 AI 眼镜、学习机、陪伴玩具、智能机器人等硬件设备。

随着多模态大模型的发展,大模型已开始具备理解、感知以及和物理世界交互的能力,越来越多的硬件和终端设备厂商开始通过接入大模型来提升交互体验。然而,仅靠基础大模型仍无法同时满足硬件设备对低成本、低时延、功能丰富和高质量效果的需求。

阿里云多模态交互开发套件为硬件企业和解决方案商提供了低开发门槛、响应速度快、场景丰富的平台。在芯片层面,该套件适配了 30 多款主流 ARM、RISC-V 和 MIPS 架构终端芯片平台,满足市面上绝大多数硬件设备的快速接入需求。未来,通义大模型还将与玄铁 RISC-V 实现软硬全链路的协同优化,实现通义大模型家族在 RISC-V 架构上的极致高效部署和推理性能。

在模型优化层面,除通义模型家族外,阿里云还针对大量多模态交互场景进行分析,推出适合 AI 硬件交互的专有模型,全面支持全双工语音、视频、图文等交互方式,端到端语音交互时延低至 1 秒,视频交互时延低至 1.5 秒。

此外,该套件预置十多款 MCP 工具和 Agent,覆盖生活、工作、娱乐、教育等多个场景,例如,基于预置的出行规划 Agent,用户可直接调用路线规划、旅行攻略、吃喝玩乐探索等能力。该套件还接入了阿里云百炼平台生态,用户不仅可以添加其他开发者提供的 MCP 和 Agent 模板,还能通过 A2A 协议兼容三方 Agent,极大程度地扩展了应用的能力边界,帮助企业灵活搭建业务场景。

现场,阿里云还展示了面向智能穿戴设备、陪伴机器人、具身智能等领域的解决方案。例如,在 AI 眼镜领域,基于千问 VL、百聆 CosyVoice 等模型,阿里云打造了感知层、规划层、执行层以及长期记忆的完整交互链路,可一站式实现同声传译、拍照翻译、多模态备忘录、录音转写功能,有效解决交互不自然、回答准确率低的难题。面向家庭陪伴机器人场景,基于千问模型和多模态交互套件,阿里云推出的解决方案不仅可实时监测异常状况,并及时告警信息推送,用户还能基于关键词查找、定位视频,与机器人进行对话交互和控制设备等。

根据国际权威市场研究机构 Gartner 发布的 GenAI(生成式 AI)技术创新指南系列报告,阿里云在 GenAI 云基础设施、GenAI 工程、GenAI 模型以及 AI 知识管理应用四大维度均位于新兴领导者象限,为入选全部四项新兴领导者象限的唯一亚太厂商,并比肩谷歌、OpenAI。

查看原文

网址:阿里云发布多模态交互开发套件,让硬件能听、会看、会交互 https://www.yuejiaxmz.com/news/view/1434552

相关内容

阿里云IoT发布生活物联网平台2.0,智能硬件开发效率提高5倍
阿里云IoT发布生活物联网平台2.0 智能硬件开发效率提高5倍
揭秘阿里巴巴智能语音交互技术
重构人机交互新生态,“AI+硬件”破壁日常生活圈
多模态交互:模拟人机交流的艺术
智能家居配件中的多模态交互
多模态交互:开启交互设计的新纪元
HaaS云端一体智能语音交互方案
语音交互 在智能硬件领域日益强大
李未可科技古鉴:发布自研多模态大模型WAKE-AI,三大优化让AI眼镜交互体验升级 丨GenAICon 2024

随便看看