近期,传神语联发布了任度双脑深度思考大模型-T1、企业知识增强智能平台KAI,并联合CIO等成立了AI+专委会,展现了在AI领域的一系列新成绩。
今天,CSDN创始人&董事长在《滔滔不绝》栏目中,深度对话传神语联创始人何恩培、传神语联副总裁何征宇,深入探讨了传神语联在根原创、大模型上的探索与突破。
访谈过程中呈现出的一些观点,对当前大模型的发展颇有借鉴价值。
观点一:用根原创奠定底气
在被问及为什么现在才入局大模型市场时,何恩培解释说,并不是刚刚入局。早在GPT火起来之前,传神语联已经在法律、语言服务等领域研究并应用大模型技术。尤其是OpenAI的Sam Altman提到GPT5、GPT6将数据和推理做分离之后,被刺激到了,因为这是传神语联已经实现了的技术,所以选择自信地站出来。传神语联以根原创为底气,始终走在大模型市场前列,虽然在2024年11月份才发布任度双脑大模型,但其实早就做出来了。此外,最新的深度思考版本T1也早在今年2月份就有了,只是在传神A纪元一周年向大家公开发布。
观点二:大模型并不是越大越好
在当前的AI赛道中,许多大模型追求“大而全”,参数规模动辄数百亿甚至上千亿。
但何恩培认为,大模型不是越大越好,因为模型的最终表现取决于架构设计效率、训练策略优化以及硬件实现等多方面的综合作用,参数量并非决定大模型性能的唯一因素。任度双脑大模型参数规模仅为9B,但在国内SuperCLUB评测中以及八九个国外评测中也呈现出了优异的表现,位列前10名以内,性能不输任何其他大模型。
观点三:只有客户数据真实,才能给出正确答案
在谈到客户数据时,何恩培明确指出,客户数据必须保持真实,不能轻易被清洗。如果客户数据被轻易清洗或修改,那么大模型可能无法获得足够的信息来生成有意义的答案,从而影响其性能和准确性。
这也是任度双脑大模型采用数推分离架构的原因。例如,传统的检索增强生成(RAG)模式,在Level 1(表面答案)的表现尚可,但在Level 2(推理答案)和Level 3(深度分析答案)上的表现则较为有限,而任度双脑大模型通过数据网络的学习与压缩,能够在后两个层次上达到更高的准确率。
观点四:底层参数控制得好,大模型才能不“跑偏”
大模型经常会出现不遵循提示词约束的情况,原因何在?
何征宇解释说,这是由于大模型学习了外部数据后会有自身的生成逻辑,此时仅靠提示词难以扭转。通过增加底层参数控制等方式可实现更优的提示词干预,比如,将知识向量化后建立标准及控制点,在大模型训练时就定义好属性,后续可通过另一种提示词方式进行干预,使其按照期望的方向生成内容。
观点五:大模型新未来在于自主可控的AI生态
何恩培在对话中多次强调,自主可控的AI生态对中国未来的技术发展至关重要。他认为,人工智能将成为未来社会的核心基础设施,如果不能实现自主可控,将面临巨大的风险。
同时,在产业生态上,传神语联正联合一些原创公司发起原创联盟,向合作伙伴开放技术,共同构建国产原创的AI研究和应用生态,希望通过自主研发和根原创技术,摆脱对国外技术的依赖,为国家构建一个安全、可靠的AI生态体系。
此外,何恩培呼吁社会各界对原创技术多些支持,多谢偏爱,今天中国的原创已经和世界一流水平比肩,甚至领先。原创,还需要市场积极拥抱,这样中国的原创才能越来越多,才能逐步形成中国的技术生态。
在这场深度对话中,传神语联不仅展现了技术突破,更传递了一种产业觉醒——AI的未来不在于盲目追逐参数规模,而在于回归价值本质:真实的数据、根原创、自主的生态。这不仅是技术的进化,更是一场认知的升级。