旗下微信矩阵:

Llama 2全球合作伙伴海天瑞声发布超大规模中文对话数据集DOTS-NLP-216

当前在中文对话领域,公开的数据集往往量少、分布有偏、价格昂贵甚至不能商用。
2023-07-28 15:18 · 投资界综合     
   

在过去六个月中,生成式人工智能呈爆炸式增长趋势,人工智能技术在商业和科技领域的重要性不断上升,国内外企业都在争相发布自研大模型。

上周,Llama 2 发布的消息更是在AI圈引起了巨大轰动。在Llama 2 官网公布的50余家合作伙伴中,海天瑞声作为唯 一中国公司榜上有名,成为Llama 2 全球合作伙伴,以高质量数据为大模型赋能。

Llama 2全球合作伙伴海天瑞声发布超大规模中文对话数据集DOTS-NLP-216

同时,海天瑞声COO李科及CTO黄宇凯作为Supporter,支持Meta AI 的这种开源行为,可以让每个人都能从这个技术中受益良多,并为技术带来足够的透明度、审慎性和可信性。

Llama 2全球合作伙伴海天瑞声发布超大规模中文对话数据集DOTS-NLP-216

据公开资料显示,Llama 2在数据层面,相比上一代不仅使用了更多的训练数据,而且context length翻倍,达到4096。

值得一提的是,Llama 2在公开测试基准上的结果显示,其在代码、常识推理、世界知识、阅读理解、数学等评测维度的能力均获得大幅提升。7B版本在很多测试集上接近甚至有超越30B的MPT模型的表现。

当前在中文对话领域,公开的数据集往往量少、分布有偏、价格昂贵甚至不能商用。导致一些大模型在中文对话方面的能力,相比英文对话略逊一筹。尤其是在一些需要比较深的中文语言理解能力的对话场景,无论开源的还是闭源的大模型,都往往表现不佳。

针对以上痛点,海天瑞声正式推出「中文千万轮对话语料库DOTS-NLP-216」。

真实场景采集,符合中文表达习惯的自然对话数据,将为中文大语言模型(LLM)带来新动能。我们致力于在安全合规的基础上,为大模型提供更好的性能和鲁棒性,帮助企业更轻松的构建高质量生成式AI应用。

数据集优势

· 中文多轮对话:符合中文表达习惯,真实场景采集的自然对话

· 超大规模:上亿级 token

· 立等可取:成品数据集

· 自有版权:安全合规,可授权商用

数据集详情

这是一个符合中国人表达习惯的自然对话数据集,共计约1,0000,000轮,上亿级token,包含正式&非正式风格对话,使用偏口语化自然表达。覆盖工作、生活、校园等场景,及金融、教育、娱乐、体育、汽车、科技等领域。

在数据集构成上,DOTS-NLP-216包含了对真实场景的对话采集,及高度还原真实场景的模拟对话这两种方式,兼顾分布的代表性、多样性和样本规模。

样例:

Llama 2全球合作伙伴海天瑞声发布超大规模中文对话数据集DOTS-NLP-216

此外,海天瑞声近期发布再融资预案,将建设不少于10大类型的大模型数据集系列产品,用于大语言模型、多模态大模型的训练和大模型评测。

【本文经授权发布,不代表投资界立场。本平台仅提供信息存储服务。】如有任何疑问题,请联系(editor@zero2ipo.com.cn)投资界处理。