核心观点 ·
12月18日,字节跳动旗下火山引擎于2024 FORCE原动力大会发布了豆包视觉理解模型。通过豆包视觉理解模型,用户可以同时输入文本和图像相关的问题。模型能够综合理解并给出准确的回答,大幅简化开发流程。豆包视觉理解模型主要有三大能力:(1)更强的内容识别能力,不仅可以识别出图像中的物体类别、形状等基本要素,还能理解物体之间的关系、空间布局以及场景的整体含义;(2)更强的理解和推理能力,不仅能识别图文信息,还能进行复杂的逻辑计算;(3)更细腻的视觉描述能力,可以基于图像信息,更细腻的描述图像呈现的内容,还能进行多种文体的创作。基于这些能力,豆包视觉理解模型在教育、旅游、电商等场景有着广泛的应用。例如在教育场景中,为学生优化作文、科普知识;在旅游场景中,帮助游客看外文菜单、讲解照片中建筑的背景知识;在电商营销场景中,帮助商家充分描述商品细节,高效发布种草广告等等。此外,豆包视觉理解的输入价格为每千tokens 0.003元,比行业平均价格降低85%,有利于企业和开发者利于视觉理解模型,在更广泛的场景创造商业价值。
豆包大模型使用量大幅增长,模型家族再扩容,多模态能力不断提升
根据火山引擎数据,豆包大模型12月日均tokens使用量超过4万亿,较5月发布时期增长超过33倍,豆包大模型在信息处理、客服与销售、硬件助手、AI工具等场景的调用量也在快速增长。不断增加的调用量和多场景覆盖使豆包大模型越来越全面,并迎来全面升级,其中豆包通用模型pro完成新版本迭代,综合任务处理能力较5月份提升32%。除了视觉理解模型,火山引擎还发布了豆包音乐模型4.0、豆包文生图模型2.1以及veOmniverse 豆包3D生成模型,豆包视频生成模型将在2025年1月正式对外开放服务,明年春季,字节跳动还将发布具备更长视频生成能力的豆包视频生成模型1.5版。此外,火山引擎还推出全域AI搜索,通过场景化搜索推荐一体化服务、企业私域信息整合服务、联网问答服务,将企业的信息、业务和用户需求紧密结合,加速多行业智能化转型。
豆包大模型有望带动大模型产业快速发展,关注相关AI应用投资机会