豆包大模型升级:语言理解能力提升33.3%

来源:网络    作者:佚名    人气:     发布时间: 2024-08-23    

近日,2024火山引擎AI创新巡展上海站活动正式举办。会上,火山引擎发布了豆包大模型一系列产品升级。火山引擎总裁谭待表示,自豆包大模型正式发布以来,模型调用量快速增长,更丰富的业务场景也促进了模型关键能力的持续迭代升级。

以语言大模型为例,在过去的两个月里,豆包通用模型pro、通用模型lite都完成了多项重要更新。测试数据表明,最新版豆包通用模型pro,对比三个月前的版本综合能力提升了20.3%。

其中,角色扮演能力提升了38.3%,使得豆包模型带来的对话更加生动、拟人度更高,AI交互流程更自然连贯,从而带来更好的用户留存。

语言理解能力则提升了33.3%,这让大模型在信息分类、抽取、摘要总结、理解、知识问答等多项能力都有显著增强,使其越来越多地出现在企业的生产力环节中,帮助企业解决真实的业务需求。

1.jpg

图像创作方面,豆包大模型对“文生图”模型做了升级迭代。新模型对长文本有了更精准的图文匹配能力,并且对于多主体、多位置,以及手部结构等难题,新模型都有大幅提升。

同时,新“文生图”模型对于中国本土的人物、物品、艺术风格都有更深一层的理解,可以图文一致的创造出更多中国风格的高美感图片,进而广泛应用到设计、广告、营销、电商等多个领域,帮企业解决实际问题。

语音模型方面,火山引擎对语义识别准确性进行了相关升级,尤其是利用大模型丰富的知识储备和强大的推理能力,结合上下文感知,提升语音识别的准确性。

2.jpg

对此,谭待以滑雪运动为例进行解释。滑雪运动里有非常多专业术语,如立刃、搓雪等,如果没有上下文理解,模型很难识别。豆包语音识别模型通过更精准的上下文感知,就可以让模型更好理解其意义,让整个语音识别的召回率提升15%,错误率比国内公开的其他语音识别大模型相对降低了10%至40%。

同时,火山引擎还将豆包大模型和实时音频技术(RTC)结合在一起,从而能够提供端到端的大模型实时对话能力,企业可以将其接入自己的AI应用中,让用户真正和模型直接、自由对话,让用户获得与真人交流的体验。

谭待介绍,通过推理,以及RTC的端到端优化,火山引擎已经可以把这类对话的延迟做到1秒以内,即使在网络环境很差,可能80%丢包的情况下,仍保持清晰流畅的通话质量。

谭待表示,火山引擎通过降价,将企业的试错创新成本降到足够低,使大模型真正成为了创新源泉。火山引擎不仅提供了更低的价格,也提供了更好的性能和吞吐。豆包通用模型pro支持初始800K的TPM,比行业平均水平高出4—5倍。


责任编辑: 李将


关于我们 | 免责声明 | 网站公告 | 人才招聘 | 联系我们 | 加盟我们 | 会员中心 | 人员查询

运营机构:淮安市中访文化传播有限公司   法律顾问:江苏六仁律师事务所 郭继  苏公网安备 32080302000082号  苏ICP备17035845号-1

版权所有:新华访谈网   地 址:淮安市淮安区河下古镇北入口5-5号  百度信誉认证主体识别码:BDV-530364954 网站可信认证联盟编号:603190110037519911274

统一社会信用代码:91320811MA1UXYHY5E  广告审查员注册号:广审字(苏)H038号  违法和不良信息举报电话:183 6077 4478