科大讯飞也要打造中国版ChatGPT,5

本文来源:时代财经作者:高浩翔

毫无疑问,科技圈时下最大的热点是ChatGPT。

这一由美国科技公司OpenAI开发的聊天机器人,以其优秀的意图识别与语言理解能力震惊全世界。在发布短短两个月时间内,ChatGPT月活用户更是突破了1亿大关,成为史上用户增长速度最快的消费级应用程序。微软创始人比尔盖茨在接受媒体采访时,甚至直言ChatGPT的历史重要性不亚于互联网的发明。

在ChatGPT的引领下,越来越多的科技企业开始加入这场人工智能竞赛。在海外,微软、谷歌、Meta等美国科技巨头纷纷重金布局相关赛道,大幅增加对AI领域的投资。

国内一众大厂同样不甘寂寞。百度迅速宣布类ChatGPT项目“文心一言”正在开发,预计3月份发布;与此同时,阿里达摩院类ChatGPT项目则被曝出已开放内测。除此之外,据媒体统计,截止2月10日,还有腾讯、华为、字节、京东、、快手、网易等10余家企业宣布有相关技术储备,或准备发布类似产品。

不过,从时间表来看,最快给出具体上市时间的国内玩家并非上述大厂,而是长期专注在AI技术领域的科大讯飞。

2月8日晚间,科大讯飞在投资者互动平台回应称,ChatGPT主要涉及到自然语言处理相关技术,属于认知智能领域的应用之一,公司在该方向技术和应用具备长期深厚的积累。科大讯飞AI学习机将成为该项技术率先落地的产品,将于今年5月6日进行产品级发布。

但相关疑虑也随之而来。市场不禁好奇,科大讯飞是否真的有希望复刻ChatGPT?而这家公司又为何选择将这一技术率先落地AI学习机?

技术差距没有外界设想的那么大

ChatGPT里的Chat,即指聊天,GPT是GenerativePre-trainedTransformer的缩写,指“生成型预训练变换模型”,其本质是一种基于机器学习的大语言模型,属于自然语言处理NLP的范畴。通俗来说,可以将ChatGPT理解为通过大规模预先训练,处理巨量语言材料,从而获得接近人与人直接对话能力的一种算法模型。

不过,ChatGPT并未出现算法的革命性突破几乎成为业内共识。如复旦大学信息管理与商业智能系系主任、教授张诚在接受媒体采访时就指出,从技术应用上看,ChatGPT并没有创新性可言,其出圈的关键在于选对了技术应用的落脚点。

因而从技术层面来看,国内企业也并未如外界设想的那样落后那么多年。2月8日,三六零公司董秘赵路明在接受采访时曾表示,国内的技术水平目前整体在GPT2.3左右。如果基于互联网优势,大家都用中文提问、尤其是国内的问题,实际体验能达到GPT2.5版本左右。

相比ChatGPT目前仰仗的GPT3.5版本,只存在一代左右的技术差距。

而具体来看,ChatGPT核心绕不过算法、数据、算力三要素。在算法层面,国内大厂基本都有做NLP预训练模型的能力,如百度有文心大模型、腾讯有混元大模型、阿里有通义大模型等等,基本处在世界领先的水平。

作为AI龙头的科大讯飞,在NLP方面同样有诸多研究积累。时代财经获悉,科大讯飞主导承建了认知智能全国重点实验室。这一实验室是科技部首批20家标杆全国重点实验室之一,多年来始终保持关键核心技术处于世界前沿水平,在去年曾获得CommonsenseQA2.0、OpenBookQA等12项认知智能领域权威评测的第一。

与此同时,科大讯飞面向认知智能领域陆续开源了6大类、超过40个通用领域的系列中文预训练语言模型,成为业界最广泛流行的中文预训练模型系列之一,在Github获颗星,位列中文预训练模型星标数第一。

科大讯飞在预训练模型方面的先发优势,也得到了同行的肯定。2月8日,三六零公司董秘赵路明在接受采访时表示,“科大讯飞人家从很早开始就做AI训练模型,做的很专业。”

除算法之外,数据量同样是ChatGPT有如此惊艳效果的重要原因。资料显示,ChatGPT底层技术GPT3共计拥有亿参数,而上一版本GPT-2只有15亿参数,数据量的差异,成为它们表现存在巨大差异的主要原因。

从这个角度看,起家AI的科大讯飞虽略逊于百度、这样的搜索引擎玩家天然的数据来源优势,但依然拥有在讯飞输入法、讯飞开放平台、消费办公类产品带来的大量数据。与此同时,科大讯飞还在教育、医疗这种高壁垒、高门槛的领域有规模化的专业数据积累。

而AI训练和使用所需要的强大算力方面,科大讯飞同样有着深厚的积累。从年开始,科大讯久就已着手进行算力基础设施建设,目前已建成4城7中心深度学习计算平台,算力不仅完全满足AI算法模型训练,还能面向开放平台数百万开发者和其他行业伙伴提供相关的服务。

此外,算力的基础是芯片,鉴于当下的不可控的国际环境,能否实现“自主可控”一直是行业和市场



转载请注明地址:http://www.laichangsteel.com/jbzl/9858.html
  • 上一篇文章:
  • 下一篇文章: