9月20日,上海人工智能实验室与商汤科技联合香港中文大学和复旦大学正式推出书生·浦语大模型(InternLM)200亿参数版本InternLM-20B,并在阿里云魔搭社区(ModelScope)开源首发。同时,书生·浦语面向大模型研发与应用的全链条工具链全线升级,与InternLM-20B一同继续全面开放,向企业和开发者提供免费商用授权。记者还了解到,火山引擎9月19日在其举办的 “V-Tech 数据驱动科技峰会”上宣布,火山引擎数智平台 VeDI推出“AI 助手”,通过接入人工智能大模型,帮助企业提升数据处理和查询分析的效率。即使是不会写代码的运营人员,和大模型对话也能做好业务运营数据的取数、看数和归因分析。大模型的应用,正在走向深入。


(资料图)

增的不只是量

自今年6月首次发布以来,书生·浦语已经历多轮升级,在开源社区和产业界产生了广泛影响。

相比于此前的开源模型,InternLM-20B的能力优势主要体现在,优异的综合性能,强大的工具调用能力,更长的语境,更安全的价值对齐。

对于应用端来说,数据资产的查询和开发,是数据消费的基础。在以往,数据资产的检索和开发非常依赖专业人员,大模型则极大地降低了门槛。非研发人员利用DataLeap-找数助手,通过对话式的查询方式,能高效准确找数,实现员工自助数据消费第一步;基于 DataLeap-开发助手,使用自然语言,就可以自动生成、优化SQL代码,以及对话式咨询SQL 使用问题等,打破技术阻碍,让数据开发简单高效,取数便捷。

火山引擎总裁谭待认为,数据飞轮将是大模型在企业市场应用落地的一个重要方向。他表示,大模型降低了企业挖掘数据价值的门槛,更高效地构建以数据消费为核心的数据飞轮,“AI 加持的数据飞轮将成为企业做好数据驱动的一个新范式。”

改变数据探索方式

在相对有限的参数规模下,研究人员在架构设计时面临重要的取舍——提高模型的深度还是宽度?通过广泛的对照实验,书生·浦语团队发现,更深的模型层数更有利于复杂推理能力的培养。因此在架构设计时,研究人员把模型层数设定为60层,超过7B与13B模型通常采用的32层或者40层设计;同时内部维度保持在5120,处于适中水平。通过架构设计上的新取舍,InternLM-20B在较高计算效率的条件下实现了复杂推理能力的显著提升。

记者了解到,大模型在数据产品中的应用,在字节内部业务实践中已初步获得成效。字节跳动数据平台负责人罗旋表示:“目前,字节跳动内部80%的员工可以直接使用数据产品,可管理、运营的数据资产覆盖80%的日常分析场景。”罗旋介绍,大模型能力的加持,让数据消费变得普惠,业务也更容易数据驱动。

今年4月,火山引擎基于字节跳动数据驱动的实践经验,对外发布企业数智化升级新模式“数据飞轮”,核心要素就是做好数据消费。火山引擎数智平台应用最新的AI技术,进一步降低数据消费门槛。

数据作为新型生产要素,正支撑企业的数智化转型。不少企业数字化建设较多,却无法较好释放数据价值,存在数据建设与管理成本高、数据产品使用门槛高、数据资产价值低的问题,其原因在于业务和数据之间没有形成双向良性驱动。谭待表示,构建以数据消费为中心的数据飞轮,将是企业数字化建设的必然趋势,“火山引擎 VeDI还将进一步升级,通过AI+数据飞轮持续降低数据消费门槛,充分释放企业的数据价值,帮助企业更好地从数据中获取增长的动力。”

此外,经过多轮测试后,书生·浦语团队也开源了智能体框架,支持用户快速将一个大语言模型转变为多种类型的智能体,并提供典型工具为大语言模型赋能。(经济日报记者 李治国)

关键词: