专栏观察

2024,大模型的产业腾飞从“信任”开始

作者 | 曾响铃

文 | 响铃说

能力越大,带来的价值也就越大,但若是“人品”不好,这样的人也就越危险。

这是评价一个人的普遍共识。

如今炙手可热的大模型,也面临同样的“评价标准”。

2023年年初,欧美千人联名公开信反对ChatGPT的快速发展,其中提到:

“人工智能的研究和开发应该重新聚焦于优化最先进的系统,让它更加准确、安全、可解释、透明、稳健、一致、值得信赖、对人类忠诚。与此同时,AI开发人员必须与决策者合作,大力推进强有力的AI治理系统的发展。”

这股反对浪潮,与大模型席卷全球的技术浪潮一起,构成了2023年人类科技发展大局的底色。

到了临近2023年收官,以马斯克为代表的名人,还在通过各种方式表达对大模型的担忧,“AI比核弹更危险。

虽然马斯克转手就大力投入自家的大模型开发工作,但对大模型这枚能够实现巨大“价值爆发力”的核弹进行监管,树立与引导行业规范,也逐步形成国内外的共识。

这种共识,不仅仅基于“人类”、“未来”之类的宏大叙事,更重要的是,它与产业落地同样息息相关。

不久前,全国信息技术标准化技术委员会人工智能分委会全体会议期间,国内首个官方“大模型标准符合性评测”结果正式公布,包括百度文心大模型在内几个大模型首批通过该评测。

在2024大模型注定要在商业价值上大展拳脚时,行业规范的建设工作也在默默完善,它能为产业场景中的客户带去真正的信任,扫清场景落地的最后一重障碍——“信任”度的建设问题。

01 宏大叙事背后,是产业落地的“信任度”问题

过去,以百度文心大模型为代表,国内大模型实际上解决了产业客户关注的两个问题:

首先,是价值上限,即大模型“技术发展”的深入,认知智能的不断完善,可以在业务改造上给产业客户带来全新的可能。

堪比GPT-4的文心大模型 4.0,代表了中国大模型发展的技术水准,让中国大模型拥有了世界话语权。而对产业客户而言,大模型的这种不断迭代,意味着服务其业务变革升级的“脑子”越来越聪明,产生业务变革价值的能力越来越强。

然后,是业务契合度,即大模型“场景契合”的不断提升,能够有效融合到各类业务当中,产生源源不断的场景应用。

截至最新数据,文心一言用户数已经破亿,覆盖场景 4300 个,其背后的百度文心大模型调用量居国内首位,日均调用量达数千万次,每月服务企业超过 1 万家。

这些数据,彰显出大模型产业落地的进程之快、之深。

但是,如果说“技术发展”、“场景契合”代表了大模型的产业落地“上限”,那么在狂奔突袭之外,大模型正越来越需要关注“下限”问题,即“行业规范”的建设推动产业客户最终形成对大模型的普遍“信任”。

在全球范围内,大模型之所以在2023年初“未成熟先被猜忌”,原因在于它带来的预期牵连是多方面的。

在“挖掘数据要素价值”这个本质下,大模型天生有这些隐忧:

数据隐私问题——各类数据被倒入“训练”的大锅中,是否在应用时对外“无意间”透露出某些重要的个人、企业隐私?典型如,与大模型发展如影随形的“提示词攻击”正变得越来越猖狂,通过刻意的提示词引导,导致模型生成不适当的内容,泄露敏感信息等。

数据安全问题——大模型意味着大数据量,要保证效果,就必须要有大批量的核心数据纳入到训练当中,但这些数据一旦被窃取,损失将比过去的AI模型要大很多,安全容错率更低。

知识版权问题——在数据输入端,数据来源是否有版权支撑,在结果输出端,版权归于谁?都等待梳理。

伦理道德问题——科研、制造、医药、法律……大模型已经走向诸多能带来社会正向价值的场景,但在诸如伪造视频进行诈骗等“场景应用”上,大模型“技术支撑”带来的欺骗性会变得更强,带来的损失可能性也更大,这方面,很多案例正在集中涌现。

由此可见,当问题被具体拆解后,开篇那些宏大叙事之下,对大模型未来发展的担忧,其实都与产业落地密切相关。

对很多潜在的客户而言,使用大模型改造升级业务,会不会有直接的数据隐私、数据安问题?毕竟,如果商业隐私外泄、重要数据被偷窃,企业运营会面临各种直接的商业竞争风险。以及,会不会带来知识版权、伦理道德等新的“麻烦”,让企业陷入被动?

毫无疑问,这些“后顾之忧”,就是大模型产业落地的“下限”问题。

由此,配套机制的建设尤为必要。

当文心大模型等逐步走向大型产业客户,或敏感行业客户等对象时,一定绕不开信任度的拷问。

经验表明,任何一个领域要避免走向“风口”式的衰败命运,行业规范的建设一定要与技术、应用的快速发展同步进行。

某种程度上,有没有统一的、权威的行业规范,是衡量行业成熟与否的标志。

“大模型标准符合性评测”正是产生于这样的背景下,其旨在通过制定科学合理的评测标准和方法,推动大模型技术的规范化发展,提升我国AI技术的整体竞争力,代表了中国引导大模型行业发展的监管优势——我们没有各种花哨的联名信、名人蹭热度的大放厥词,确有实实在在的行业规范建设前瞻动作。

而通过评测,意味着大模型本身也将获得行业甚至监管层的认可,能够为产业场景的客户所真正信任,不会在未来某个深入发展的时间节点突然“碰钉子”。

对百度文心大模型而言,“技术发展”、“场景契合”带来卓越的性能和广泛的应用场景,现在加上“行业规范”的建设,三大要素齐备,既不断拉升“上限”,又锁住了“下限”,未来的加速发展将无后顾之忧,更值得客户信任,2024的产业落地也可以放心“大干一场”了。

02 逆向破局,行业规范的继续发展也需领头羊推动

行业标准的指引和规范,是新兴行业成长并最终步入正轨的基础。

在制度优势下,近些年在新兴领域,我国相继建立了1300多个全国标准化专业技术委员会,截至2021年已发布国家标准4万多项、行业标准7.6万多项,有力推动了创新力量的迸发,成为我国新技术比肩欧美的重要支撑,大模型概莫能外。

但行业规范的建立也并非一件容易的事,“大模型标准符合性评测”仅仅是一个开始,后续还会,也必须要有更多行业规范式的动作落地,才能构建产业落地“信任”的完全体。

在开篇提到的“公开信”中,就提到大模型发展要建立的规范包括:

对高能力AI系统的监督追踪和大型算力池;

帮助区分真实数据与AI生成的数据、并且追踪模型泄漏的溯源和水印系统;

健全的审计和认证生态系统;

对AI造成的损害定责;

为AI技术安全研究提供强大的公共资金……

作为新兴行业的“必答题”,下一步在行业规范这里,大模型要做的事还有很多。

尤其是,大模型本身发展十分快速,迭代升级导致相关标准的制定要有充分的前瞻性,要有足够的预判,不能出现技术先进性不够,或者修改、调整跟不上技术更新速度的情况。

而且,在规范建设后,能否起到引导的作用,还需要考虑普遍的执行问题。

因此,在国际上,一个普遍做法是,行业规范的制定本身,就需要邀请行业内的领头羊企业、专家等,进行新兴基础研究,以最前沿的行业探索直接充实规范、标准内容,让行业规范、标准兼具科学性与可操作性。

在TE智库根据RlueEva-System大模型测评体系发布《中国通用大模型内容生成及安全性能力评测》中,百度文心一言综合得分排名第一,“安全体系能力”一骑绝尘,甚至超越ChatGPT同期产品。

再加上强大的自然语言理解和生成能力,文本、图像、音频多模态数据处理,高效推理和部署能力,坚实的数据安全保障能力……可以想见的是,下一步,百度这样的厂商,不应该只是做规范、标准的遵从者、执行者,更应该在统一指挥下积极协助相关规范、标准的建设工作,如此,大模型行业才能更加健康地成长。

而事实上,这样的工作,百度已经配合有关方面在持续进行当中。

作为国内AI领域标准的主导力量,百度已经多次参与国家人工智能技术标准体系设计和讨论,并作为标准核心贡献单位之一,起草人工智能预训练大模型系列国家标准。就在2023年7月,百度还被中国电子技术标准化研究院授予“国家人工智能标准化总体组大模型专题组联合组长单位”,此前,百度同时获批向公众开放服务备案和深度合成服务算法备案。

还是回到2023年年初那封让大模型热度更上一个台阶的公开信,其中的呼吁“AI开发人员必须与决策者合作,大力推进强有力的AI治理系统的发展”,恰恰正在中国被实现。

在2024年,相信有了更好的行业规范建设,大模型产业落地也将更上一个台阶。

*本文图片均来源于网络

 

希望看到您的想法,请您发表评论x