一键 input 苹果 OpenELM,零门槛 Llama 3 教程,40+ 优质模型/数据集/教程,建议收藏!...

现在 AI 行业什么最火?

「大模型」一定仍然排在前三甲的位置。

自从 2022 年底 ChatGPT 面世以来,大模型在各行各业已经带来了太多的惊喜,应用场景愈发丰富,同时也带动了相关底层技术的普及与普适化。尤其是在开源模型繁荣发展之下,无论是从兴趣出发的开发者,亦或是有资金支持的企业,都能够「站在巨人的肩膀上」,打磨更加优质的模型。

然而,随着越来越多的开源大模型涌入市场,如何挑选优质、合适的大模型和数据集,以及如何使用大模型,成为了开发者和 AI 爱好者的难题,为了方便大家使用和下载,HyperAI超神经为大家汇总了优质大模型相关资源:

* 优质开源模型:20 个

* 优质教程精选:10 个

* 优质公共数据集:20 个

获取更多大模型资源,请访问官网hyper.ai

大模型精选

1. Llama 3 系列

Llama 3 是 Meta 公司的开源 Llama 系列的最新版本,该模型采用了新的 Tokenizer,将词汇表大小扩展至 128,256。

* Llama 3-8B-Instruct

该模型为 Llama 3 8B 基础模型的指令调优版,可以用于在消费级 GPU 上高效部署和开发。模型的上下文长度为 8k,预训练数据的截止日期为 2023 年 3 月。

直接使用:https://go.hyper.ai/pKyMI

* Llama 3-70B

该模型为 Meta 新一代开源大模型 Llama 3 的 70B 参数规模模型,适用于大规模 AI 原生应用程序。模型的上下文长度为 8k,预训练数据的截止日期为 2023 年 12 月。

直接使用https://go.hyper.ai/XII1S

2. OpenELM-3B-Instruct

OpenELM 是苹果研究团队推出的一种先进的开源语言模型,该模型为 OpenELM 3B 规模大小的指令调整模型。

直接使用:https://go.hyper.ai/Jx3Xs

3. C4AI Command-R

C4AI Command-R 是由 Cohere 和 Cohere For AI 联合开发的一个 350 亿参数的高性能生成式模型。多语言生成能力和高性能 RAG 能力的结合,使 Command-R 在跨语言任务和知识密集型任务上具有独特优势。

直接使用:https://go.hyper.ai/Q6kAf

4. InternLM 2-Chat-20B

InternLM2 是书生·浦语 2.0 系列的 20B 规模大小的聊天模型,它的综合性能更为强劲,可以有效支持更加复杂的实用场景。 

直接使用:https://go.hyper.ai/pD2rN

5. 金融大模型 deepmoney-34B-chat

该模型是基于 Yi-34B-200K 训练的,分为 pt(全参数训练)和 sft (lora 微调) 两个阶段。

直接使用:https://go.hyper.ai/7BO4O

6. Mixtral-8x7B

该模型是 Mistral AI 在 Mistral 7B 的基础上推出的大语言模型,采用了多专家 (MoE) 架构,由 8 个独立的专家模型组成,每个专家模型都是一个 Mistral 7B 模型。

直接使用:https://go.hyper.ai/jWfMl

7. FuseChat-7B-VaRM

FuseAI 提出了一个扩展的 FuseLLM 框架,将多个结构和尺度不同的聊天 LLM 的集体知识和个人优势融合为一个更强大的聊天 LLM,即 FuseChat。

直接使用:https://go.hyper.ai/EWGvY

8. ChatGLM 3 系列

ChatGLM 3 是智谱AI 和清华大学 KEG 实验室联合发布的对话预训练模型。

* ChatGLM 3-6B

该模型为 ChatGLM3 系列中的开源模型,在保留了前两代模型对话流畅、部署门槛低等众多优秀特性

直接使用:https://go.hyper.ai/0AcHz

* ChatGLM 3-6B-Base

该模型是 ChatGLM3-6B 的基础模型,采用了更多样的训练数据、更充分的训练步数和更合理的训练策略。

直接使用https://go.hyper.ai/SaNvM

9. LLaVA-v1.5 系列

LLaVA (Large Language-and-Vision Assistant) 是一个能够进行视觉和语言多模态转换的模型,由视觉编码器和大型语言模型 (Vicuna v1.5 13B) 组成。

* LLaVA-v1.5-7B

该模型是 LLaVA-v1.5 系列的 70 亿参数规模的模型。

直接使用:https://go.hyper.ai/Ha2Y9

* LLaVA-v1.5-13B

该模型是 LLaVA-v1.5 系列的 130 亿参数规模的模型。

直接使用:https://go.hyper.ai/ubBDL

10. Yi-34B 系列

Yi 系列模型是 01.AI 从零开始训练的下一代开源大语言模型。该系列为其 34B 大小的型号模型。

* Yi-34B-Chat

该模型为  Yi-34B 系列是 Chat 模型,适用于多种对话场景。

直接使用:https://go.hyper.ai/i74NJ

* Yi-34B-Chat-GGUF

该模型是 Yi-34B-Chat 的 GGUF 格式。

直接使用https://go.hyper.ai/e3Vdl

* Yi-34B-Chat-4bits

该模型是 Yi-34B-Chat 模型的 4bit 量化版,可以直接在消费级显卡(如 RTX3090)上使用。

直接使用:https://go.hyper.ai/UagO0

11. Qwen 通义千问大模型系列

Qwen 是阿里云推出的一系列超大规模语言模型,包括参数数量各不相同的不同模型。它包括 Qwen(基础预训练语言模型)和 Qwen-Chat(聊天模型),聊天模型采用人类对齐技术进行了微调。

* Qwen 1.5-1.8B-Chat

Qwen 1.5 是 Qwen 2 的 beta 版本,该模型是 Qwen 2 系列中较小参数规模的聊天模型版本,参数大小为 18 亿。

直接使用:https://go.hyper.ai/fFzxL

* Qwen-14B-Chat-Int4

Qwen-14B-Chat 是通义千问大模型系列的 140 亿参数规模的聊天模型,该模型为其 Int4 量化模型。

直接使用:https://go.hyper.ai/LHdxk

* Qwen-72B-Chat

该模型是是通义千问大模型系列的 720 亿参数规模的聊天模型。

直接使用https://go.hyper.ai/7250m

* Qwen-72B-Chat-Int4

该模型为 Qwen-72B-Chat 的 Int4 量化模型。

直接使用:https://go.hyper.ai/Rh4f3

* Qwen-72B-Chat-Int8

该模型为 Qwen-72B-Chat 的 Int8 量化模型。

直接使用:https://go.hyper.ai/n2tOo

优质教程精选

1. 使用 Ollama 和 Open WebUI 部署 Llama 3-8B-Instruct

该教程为 Ollama + Open WebUI 一键运行包,只需按步骤输入命令即可运行 Llama3-8B-Instruct。

在线运行:https://go.hyper.ai/1sero

2. 使用 Ollama 和 Open WebUI 部署 Llama 3-70B

该教程通过 Ollama 和 Open WebUI 工具一键运行模型,仅需按步骤输入命令即可运行 Llama3-70B。虽然模型参数较大,但经过平台部署后单卡 A6000 即可使用,仅占用 1.07 GB 存储。

在线运行:https://go.hyper.ai/kJl8Y

3. 一键运行 Qwen1.5-MoE

Qwen1.5-MoE-A2.7B 是通义千问团队推出 Qwen 系列的首个 MoE 模型,该教程为其 Demo 容器,一键克隆即可使用 Gradio 链接体验大模型。

在线运行:https://go.hyper.ai/ldW1h

4. 一键运行 Yi-9B Demo

Yi-9B 是目前 Yi 系列模型中代码和数学能力最强的模型,该教程为 Yi-9B 的 Demo 容器。

在线运行:https://go.hyper.ai/fopo0

5. 在线运行 Yi-34B-Chat 的量化模型

本教程主要演示了使用 LlamaEdge 运行 Yi-34B-Chat 的量化模型的主要流程,Yi-34B-Chat 是零一万物在 Yi-34B 预训练模型的基础上推出的微调模型。

在线运行:https://go.hyper.ai/osUvl

6. 在线运行金融大模型 deepmoney-34B-full

Deepmoney 是一个专注于金融领域投资的大型语言模型项目。Deepmoney-34B-full 是基于 01-ai  开源的 Yi-34B-200K 模型进行训练的,分为 pt(全参数训练)和 sft (lora 微调) 两个阶段。现可在超神经官网一键克隆使用。

在线运行:https://go.hyper.ai/lFXHY

7. Qwen-14B-Chat-Int4 模型 Gradio Demo

该教程为 Qwen-14B-Chat-Int4 的 Demo 容器,Qwen-14B-Chat 是阿里云发布的一个基于大模型的 AI 助手。该教程使用的模型是 Qwen-14B-Chat 的 Int4 量化模型。

在线运行:https://go.hyper.ai/x7qnN

8. Qwen-1.8B-Chat-API-FT 模型 Demo

本教程主要演示了如何运行通义千问 Qwen-1.8B-Chat 模型并进行微调的主要流程。Qwen-1.8B 是阿里云研发的通义千问大模型系列的 18 亿参数规模的模型。

在线运行:https://go.hyper.ai/ZSJGR

9. Qwen-72B-Chat-Int4 模型 Gradio Demo

该教程为  Qwen-72B-Chat-Int4 的 Demo 容器,该模型是一个量化模型,其权重和激活函数被量化为4位整数 (INT4)。

在线运行:https://go.hyper.ai/r2gfP

10. 快速部署 ChatGLM 2-6B

该教程为  ChatGLM2-6B 的 Demo 容器,ChatGLM2-6B 是开源中英双语对话模型ChatGLM-6B 的第二代版本,保留了初代模型对话流畅、部署门槛较低等众多优秀特性。

在线运行:https://go.hyper.ai/GVs8s

数据集

1. COIG-CQIA 高质量中文指令微调数据集

COIG-CQIA 全称为 Chinese Open Instruction Generalist – Quality is All You Need,是一个开源的高质量指令微调数据集,旨在为中文 NLP 社区提供高质量且符合人类交互行为的指令微调数据。

直接使用:https://go.hyper.ai/Pg37L

2. HalluQA 中文大模型幻觉评估数据集

HalluQA 数据集包含 450 个对抗性问题,跨越多个领域,并涉及到中国历史文化、习俗和社会现象。

直接使用:https://go.hyper.ai/pWyqe

3. Pinocchio 匹诺曹事实知识评估数据集 

Pinocchio 数据集是由清华大学、伊利诺伊大学芝加哥分校和剑桥大学的研究人员联合创建的,其目的在于全方位评测大型语言模型 (LLMs) 在事实知识存储以及推理能力上的表现。

直接使用:https://go.hyper.ai/yggNY

4. FineFake 细粒度多领域假新闻检测数据集

FineFake 是一个专门用于细粒度多领域假新闻检测的数据集,由北京航空航天大学和北京邮电大学联合创建。该数据集共有 16,909 个数据样本,覆盖了 6 个语义主题和 8 个不同的平台。

直接使用:https://go.hyper.ai/CNWIn

5. TriviaQA 用于阅读理解和问答的大型数据集

TriviaQA 是一个阅读理解数据集,包含超过 65 万个问答证据三元组。TriviaQA 包括来自维基百科和网络的 662K 文档中的 95K 问答对。

直接使用:https://go.hyper.ai/aant8

6. PD&CFT 人民日报中文阅读理解数据集 

该数据集是第一个中文阅读理解数据集,其中包括人民日报和儿童童话(People Daily&Children’s Fairy Tale,简称 PD&CFT)。

直接使用:https://go.hyper.ai/yO9N5

7. 今日头条中文文本分类数据集

该数据集为今日头条中文新闻(短文本)分类数据集。数据来源为今日头条客户端。共包含 15 个分类,382,688 条文本。

直接使用:https://go.hyper.ai/f7Bu8

8. FewJoint 基准数据集 

该数据集来自讯飞 AIUI 开放平台上真实用户语料和专家构造的语料(比例大概为 3:7),包含 59 个真实域,目前域最多的对话数据集之一。

直接使用:https://go.hyper.ai/gSwPM

9. PAWS-X :用于释义识别的跨语言对抗数据集 

该数据集包含 23,659 个人工翻译的 PAWS 评估对和 296,406 个机器翻译的训练对,采用六种类型不同的语言:法语、西班牙语、德语、中文、日语和韩语。所有翻译对均源自 PAWS-Wiki 中的示例。

直接使用:https://go.hyper.ai/iGq5u

10. Wikipedia 维基百科数据集

该数据集是根据 Wikipedia 转储构建的,包含 56 种语言,每种语言有一个子集,每个子集包含一个训练分割。每个示例都包含一篇完整的维基百科文章的内容,并经过清理以去除降价和不需要的部分(参考文献等)。

直接使用:https://go.hyper.ai/WTcXF

11. RJUA-QA 首个中文医疗专科问答推理数据集 

RJUA-QA 数据集共含 2,132 个问答对,每对问答由医生根据临床经验编写的问题、专家提供的回答以及相关的推理上下文构成,这些上下文信息源自中国泌尿外科和男科疾病诊断治疗指南。

直接使用:https://go.hyper.ai/1zAiG

12. ShareGPT 90k 中英文双语人机问答数据集 

ShareGPT-Chinese-English-90k 是中英文平行双语优质人机问答数据集,覆盖真实复杂场景下的用户提问。可用于训练高质量的对话模型。

直接使用:https://go.hyper.ai/fhmFF

13. SMP-2017 中文对话意图识别数据集

该数据集为 SMP2017 中文人机对话技术评测 (ECDT) 任务一数据集。

直接使用:https://go.hyper.ai/pBjME

14. Chinese-Poetry 中文古典诗歌文集数据库

该数据集是最全的中华古典文集数据库,包含 5.5 万首唐诗、 26 万首宋词、 2.1 万首宋词等古典文集。

直接使用:https://go.hyper.ai/JKxW5

15. MCFEND 中国假新闻检测的多源基准数据集

该数据集是由香港浸会大学、香港中文大学等机构联合构建的一个多源中文虚假新闻检测基准数据集。

直接使用:https://go.hyper.ai/WKwhh

16. seq-monkey 序列猴子开源数据集 1.0

序列猴子数据集是用于训练序列猴子模型的数据集合,涉及领域包括:中文通用文本语料、古诗今译语料、文本生成语料。

直接使用:https://go.hyper.ai/6k2Bz

17. IEPile 大规模信息抽取语料库 

IEPile 是由浙江大学研发的大规模高质量的双语(中英)信息抽取 (IE) 指令微调数据集,涵盖了通用、医学、金融等多个领域。

直接使用:https://go.hyper.ai/2wRp6

18. LongAlign 10K 大模型长上下文对齐数据集 

LongAlign-10k 是清华大学提出的一个针对大模型在长上下文对齐任务中面临的挑战而设计的数据集,包含 10,000 条长指令数据,长度在 8k-64k 之间。

直接使用:https://go.hyper.ai/fXZ85

19. 大众点评数据集

该数据集包含 54 万用户对 24 万家餐馆的440 万条评论或评分数据。可用于推荐系统、情感/观点/评论倾向性分析等任务。

直接使用:https://go.hyper.ai/5UiXF

20. 亚马逊用户评价数据集

该数据集包含 142 万用户对亚马逊上 1,100 多个类目 52 万件商品的 720 万条评论或评分数据,可用于推荐系统、情感/观点/评论倾向性分析等任务。

直接使用:https://go.hyper.ai/SIJXO

更多公共数据集,请访问

https://hyper.ai/datasets

a5a4b7454f97461f37fd6712ab13bbe2.gif

以上就是大模型编辑精选的全部内容,如果你有想要收录 hyper.ai 官方网站的资源,也欢迎留言或投稿告诉我们哦!

关于 HyperAI超神经 (hyper.ai)

HyperAI超神经 (hyper.ai) 是国内领先的人工智能及高性能计算社区,致力于成为国内数据科学领域的基础设施,为国内开发者提供丰富、优质的公共资源,截至目前已经:

* 为 1200+ 公开数据集提供国内加速下载节点

* 收录 300+ 经典及流行在线教程

* 解读 100+ AI4Science 论文案例

* 支持 500+ 相关词条查询

* 托管国内首个完整的 Apache TVM 中文文档

访问官网开启学习之旅:

https://hyper.ai/

 往期推荐 

ec4da3d45b2004b573fc2c505db87fa6.png

7b818bac51a95e23470376a9a16d68c3.png

202dad7534f3aeed213bb00d02dfa222.png

4c2c097bf9e7234005b0b8bdf33f2a12.gif

a0e81a257a9bdec7800172319840caf1.gif

戳“阅读原文”,免费获取海量数据集资源!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mfbz.cn/a/595611.html

如若内容造成侵权/违法违规/事实不符,请联系我们进行投诉反馈qq邮箱809451989@qq.com,一经查实,立即删除!

相关文章

拼多多标准推广怎么开出自然流量呢

拼多多标准推广开出自然流量的策略如下: 拼多多推广可以使用3an推客。3an推客(CPS模式)给商家提供的营销工具,由商家自主设置佣金比例,激励推广者去帮助商家推广商品链接,按最终有效交易金额支付佣金&…

408数据结构-树与森林 自学知识点整理

前置知识:树的基本概念与性质 树的存储结构 树既可以采用顺序存储结构,又可采用链式存储结构。但无论采取哪种方式,都要求能够唯一地反映树中各结点之间的逻辑关系。 1. 双亲表示法 这种存储结构采用一组连续空间来存储每个结点&#xff0…

柯桥西语培训之在西班牙旅游点菜哪些坑不能踩?

Por muy bien que se coma en Espaa —que es mucho— hay una cosa innegable: lo que pasa en la cocina se queda en la cocina. No todos los alimentos son igualmente seguros o sabrosos cuando se encuentran fuera de la comodidad de nuestra propia casa. Ya sea po…

Linux网络服务的存储,FTP服务和NFS共享

目录 一.存储 1.存储类型 2.应用场景 二.FTP服务 1.FTP工作原理介绍 2.FTP协议的两种模式 3.用户类型 4.匿名用户案例 三.NFS 1.NFS简介 2.NFS服务主要进程 3.NFS特点 4.NFS共享配置文件格式 5.NFS工具 5.1 exportfs 5.2 showmount 5.3 mount.nfs 6.创建文…

Go 语言基础(一)【基本用法】

前言 最近心情格外不舒畅,不仅仅是对前途的迷茫,这种迷茫倒是我自己的问题还好,关键它是我们这种普通吗喽抗衡不了的。 那就换个脑子,学点新东西吧,比如 Go? 1、Go 语言入门 介绍就没必要多说了&#xff0…

网络安全(6) 模拟实验 Metasploit 控制并获取Windows 登录HASH、LM Hash和NTLM Hash密文解析

窃取WINDOWS账号密码 系统环境:主机(Windows系统 IP:192.168.126.129),虚拟机(KALI系统 IP:192.168.126.3),两者需要能通过本地网络互通互连。 攻击工具:Metasploit是一…

自动化工具

一、介绍一些自动化的工具 puppet和chef用的是Ruby语言http协议,淘汰 saltstack Python语言 c/s ssh协议,5% ansible 无cilent ssh协议 用Python开发 95% 二、ansible简介 2.1 ansible自动化运维工具特点 Ansible 与 Saltstack 均是基于…

HNU-人工智能-实验2-简单CSP问题

人工智能-实验2 计科210x 甘晴void 一、实验目的 求解约束满足问题 使用回溯搜索算法求解八皇后问题 二、实验平台 课程实训平台https://www.educoder.net/paths/369 三、实验内容 3.0 题目要求 回溯搜索算法 搜索与回溯是计算机解题中常用的算法,很多问…

【STM32嵌入式系统设计与开发】——18StaticNixite(静态数码管应用)

这里写目录标题 STM32资料包: 百度网盘下载链接:链接:https://pan.baidu.com/s/1mWx9Asaipk-2z9HY17wYXQ?pwd8888 提取码:88881、函数编辑(1)主函数编辑(2)主函数头文件函数&#x…

LangChain-RAG学习之 文档加载器

目录 一、实现原理 二、文档加载器的选择 (一).PDF 加载本地文件 可能需要的环境配置 (二).CSV 1、使用每个文档一行的 CSV 数据加载 CSVLoader 2、自定义 csv 解析和加载 (csv_args 3、指定用于 标识文档来源的 列(source_column (三)、文件目…

某了么数据获取脚本

某了么数据获取脚本 这段代码定义了一个名为 ElemeH5 的类,继承自 Base 类,用于处理与饿了么平台的API交互。该类包括了多种方法来进行网络请求、数据处理和API接口的动态生成。以下是对主要组成部分的详细解析: 类属性定义: fun…

2023陇剑杯-流量分析篇-wp

1.ez_web Q1:服务器自带的后门文件是什么? 常用http过滤命令:http.request.full_urihttp.request.methodPOST 查看第一个POST请求,发现关键点file_put_contents(备注:file_put_contents内置函数,用于将字…

2×24.5W、内置 DSP、低失真、高信噪比、I2S 输入 D 类音频功率放大器,完美替换TPA5805,晶豪,致盛,

ANT3825 是一款高集成度、高效率的双通道数字 输入功放。供电电压范围在 5V~18V,数字接口 电源支持 3.3V 或 1.8V。双通道 BTL 模式下输出 功率可以到 224.5W(4Ω,16V,THDN1%), 单通道 PBTL 模式下可以输出 37W&#x…

Rust里的Fn/FnMut/FnOnce和闭包匿名函数关系

闭包(英语:Closure),又称词法闭包(Lexical Closure)或函数闭包(function closures),是引用了自由变量的函数。这个被引用的自由变量将和这个函数一同存在,即使…

武汉星起航:策略升级,亚马逊平台销售额持续增长显实力

武汉星起航电子商务有限公司,一家致力于跨境电商领域的企业,于2023年10月30日在上海股权托管交易中心成功挂牌展示,这一里程碑事件标志着公司正式踏入资本市场,开启了新的发展篇章。公司董事长张振邦在接受【第一财经】采访时表示…

Java_从入门到JavaEE_09

一、构造方法/构造器 含义:和new一起是创建对象的功能 特点: 与类名相同的方法没有返回项 注意: 当类中没有写构造方法时,系统会默认添加无参构造(无参数的构造方法)构造方法可以重载的 有参构造好处&…

开源15T tokens!HuggingFace放出规模最大、质量最高预训练数据集 | 最新快讯

新智元报道 编辑:LRS FineWeb 是一个高质量的预训练数据集,包含 15T 个 tokens,主要包含英语文本;消融实验证明了 FineWeb 数据集的质量要高于其他开源数据集;数据清洗脚本也已开源。 Meta 最近开源的 Llama 3 模型再次…

vulnhub靶场之FunBox-2

一.环境搭建 1.靶场描述 Boot2Root ! This can be a real life scenario if rockies becomes admins. Easy going in round about 15 mins. Bit more, if you are find and stuck in the rabbit-hole first. This VM is created/tested with Virtualbox. Maybe it works with…

C#编程模式之外观模式

创作背景:给位伙伴,五一小长假结束,我们继续对C#编程之路进行探索。本文将继续编程模式的研究,主要介绍外观模式。外观模式也称为门面模式,是一种结构型设计模式,它的目的是为子系统中的一组接口提供一个统…

【隧道篇 / WAN优化】(7.4) ❀ 01. 启动WAN优化 ❀ FortiGate 防火墙

【简介】几乎所有的人都知道,防火墙自带的硬盘是用来保存日志,以方便在出现问题时能找到原因。但是很少的人知道,防火墙自带的硬盘其实还有另一个功能,那就是用于WAN优化。 防火墙自带的硬盘 在FortiGate防火墙A、B、C、D系列&…
最新文章