RedPajama大语言模型
RedPajama 项目旨在创建一套领先的全开源大语言模型。目前,该项目已完成了第一步,成功复制了 LLaMA 训练数据集超过 1.2 万亿个数据 token。该项目由Together、Ontocord.ai、ETH DS3Lab、斯坦福大学 CRFM、Hazy Research 和 MILA 魁北克 AI 研究所联合开发。
RedPajama 包含三个主要组成部分:预训练数据、基础模型和指令调优数据与模型。
评论
OPT-175B大语言模型
OPT-175B是Meta开源的大语言模型,拥有超过1750亿个参数——和GPT-3相当。相比GPT-3,OPT-175B的优势在于它完全免费。Meta还公布了代码库、开发过程日志、数据、研究论文和其
OPT-175B大语言模型
0
LLaMA大语言模型
LLaMA语言模型全称为"LargeLanguageModelMetaAI",是Meta的全新大型语言模型(LLM),这是一个模型系列,根据参数规模进行了划分(分为70亿、130亿、330亿和650亿
LLaMA大语言模型
0
ChatYuan对话语言大模型
ChatYuan是一个支持中英双语的功能型对话语言大模型。ChatYuan-large-v2使用了和v1版本相同的技术方案,在微调数据、人类反馈强化学习、思维链等方面进行了优化。ChatYuan-la
ChatYuan对话语言大模型
0
SALMONN听觉大语言模型
SALMONN是清华大学电子工程系与字节跳动火山语音团队联手开源的全新听觉大语言模型。SALMONN支持语音、音频以及音乐输入,它可以感知和理解不同类型的音频内容输入,并具备多语言语音识别和翻译以及语
SALMONN听觉大语言模型
0
CodeFuse-13B代码大语言模型
CodeFuse-13B是基于GPT-NeoX框架训练的13B参数代码生成模型,能够处理4096个字符的代码序列。该模型在1000BToken的代码、中文、英文数据数据集上进行预训练,覆盖超过40种编
CodeFuse-13B代码大语言模型
0