IT之家10月10日报道,vivo在今天举行的vivo 2025开发者大会上公布了大型AI模型的最新进展。更新了蓝心生活语言模型,重建了中央意图控制,让系统能够分解复杂的任务、协调执行步骤,并结合长期记忆,在对用户意图的精确理解的基础上,提供更精准、个性化的交互体验。今年的蓝心小V具备了深度思考的能力,能够为用户提供更有洞察力、更优质的智能问答服务。此外,vivo正在积极发展深度研究能力。只需10分钟即可完成对大型模型的广泛研究和数据分析,并生成“包含数千字的高质量报告”。发布会上,IT之家了解到,大蓝心的语音模型与多模态技术的融合,使得小V的语音交互更加智能。更自然、更流畅。这意味着它可以在没有唤醒词的情况下发出直接命令,并且可以并行“收听”和“回复”全双工语音交互。超拟人化音调在语调、节奏、呼吸细节等方面更接近真人,而自定义音调则具有更高的相似度和抵抗力。同声传译将收音距离从1米增加到3米。声音记忆可以识别说话者并识别“谁说了什么、何时以及由谁说的”。小V的全新语音交互可以检测语气和情绪,并支持自然打断,使语音交流像面对面交互一样流畅自然。
特别提示:以上内容(包括图片和视频,如有)由自媒体平台“网易号”用户上传发布。本平台仅提供信息存储服务。
请注意:以上内容(包括图片和视频,如适用)为社交媒体和信息源橙子平台。由网易号用户上传发布,仅供服务。