搜索
下载APP
VisualGLM-6B多模态对话语言模型
认领
关注
0
粉丝
VisualGLM-6B 是一个开源的,支持图像、中文和英文的多模态对话语言模型,语言模型基于 ChatGLM-6B,具有 62 亿参数;图像部分通过训练 BLIP2-Qformer 构建起视觉模型与语言模型的桥梁,整体模型共 78 亿参数。VisualGLM-6B 依靠来自于 CogView 数据
知识
简介
VisualGLM-6B 是一个开源的,支持图像、中文和英文的多模态对话语言模型,语言模型基于 ChatGLM-6B,具有 62 亿参数;图像部分通过训练 BLIP2-Qformer 构建起视觉模型与语言模型的桥梁,整体模型共 78 亿参数。VisualGLM-6B 依靠来自于 CogView 数据...
更多
其它信息
授权协议
Apache
开发语言
Python
操作系统
跨平台
软件类型
开源软件
所属分类
神经网络/人工智能、 LLM(大语言模型)
开源组织
无
地区
国产
适用人群
未知
时光轴
里程碑
1
LOG
0
2023
09-25
轻识收录
打卡
我要打卡
我要打卡
评价
0.0
(满分 10 分)
0 个评分
什么是点评分
图片
表情
视频
评价
全部评价( 0)
推荐率 100%
推荐
VisualGLM-6B多模态对话语言模型
VisualGLM-6B多模态对话语言模型
0
mPLUG-Owl多模态大语言模型
阿里达摩院提出的多模态GPT的模型:mPLUG-Owl,基于 mPLUG 模块化的多模态大语言模型。它不仅能理解推理文本的内容,还可以理解视觉信息,并且具备优秀的跨模态对齐能力。论文:https://
mPLUG-Owl多模态大语言模型
阿里达摩院提出的多模态GPT的模型:mPLUG-Owl,基于 mPLUG 模块化的多模态大语言模型。
悟道双语多模态大语言模型
“悟道”是双语多模态预训练模型,规模达到 1.75 万亿参数。项目现有 7 个开源模型成果,模型参数
悟道双语多模态大语言模型
“悟道”是双语多模态预训练模型,规模达到1.75万亿参数。项目现有7个开源模型成果,模型参数文件需到悟道平台进行下载申请。图文类CogViewCogView参数量为40亿,模型可实现文本生成图像,经过
VLE视觉-语言多模态预训练模型
VLE (Vision-Language Encoder) 是一种基于预训练文本和图像编码器的图像-
VLE视觉-语言多模态预训练模型
VLE (Vision-Language Encoder)是一种基于预训练文本和图像编码器的图像-文本多模态理解模型,可应用于如视觉问答、图像-文本检索等多模态判别任务。特别地,在对语言理解和推理能力
ChatYuan对话语言大模型
ChatYuan是一个支持中英双语的功能型对话语言大模型。ChatYuan-large-v2使用了和v1版本相同的技术方案,在微调数据、人类反馈强化学习、思维链等方面进行了优化。ChatYuan-la
MOSS对话大语言模型
MOSS是一个支持中英双语和多种插件的开源对话语言模型,moss-moon系列模型具有160亿参数,在FP16精度下可在单张A100/A800或两张3090显卡运行,在INT4/8精度下可在单张309
Macaw-LLM多模态语言建模
Macaw-LLM:具有图像、视频、音频和文本集成的多模态语言建模Macaw-LLM 是一项探索性的