火山引擎正式发布了豆包1.5·深度思考模型,采用MoE架构,总参数量为200B,激活参数仅20B,在多项基准测试中达到或接近全球第一梯队水平。
在数学、编程、科学领域,豆包1.5·深度思考模型的测试表现超过DeepSeek-R1、QwQ-32B等国产推理模型,与OpenAI o1、o3-mini-high等模型能力相仿。在高难度通用人工智能测试ARC-AGI上,其得分更是超过了OpenAI o1和o3-mini-high。

高并发场景延迟仅20毫秒可边想边搜、视觉理解
豆包1.5·深度思考模型较小的参数量和激活参数量,使其具备更低的训练和推理成本,可在高并发场景实现20毫秒低延迟。
搜索能力是豆包1.5·深度思考模型的亮点之一。与其他推理模型“先搜索再思考”的模式不同,豆包App基于豆包1.5·深度思考模型进行了定向训练,可以“边想边搜”。
直出2K高清图片,还能搜索视频内容
全新升级的豆包·文生图模型3.0,能够实现更好的文字排版表现、实拍级的图像生成效果,以及2K的高清图片生成方式。

视觉理解模型则具备更强的视觉定位能力
支持多目标、小目标、通用目标的框定位和点定位,并支持定位计数、描述定位内容、3D定位。可应用于线下门店的巡检场景、GUI agent、机器人训练、自动驾驶训练等。
将一盒草莓的图片发送给豆包·视觉理解模型,它能迅速数出有多少草莓,并框定其位置。

相关导航
暂无评论...