Iawen's Blog

我喜欢这样自由的随手涂鸦, 因为我喜欢风......

finetune 的几种方法和对应框架

给定预训练模型(Pre_trained model),基于模型进行微调(Fine Tune)。相对于从头开始训练(Training a model from scatch),微调为你省去大量计算资源和计算时间,提高了计算效率,甚至提高准确率。

大模型 2024-06-14 20:59:51

transformers 入门<一>

Huggingface Transformer能够帮我们跟踪流行的新模型, 并且提供统一的代码风格来使用BERT、XLNet和GPT等等各种不同的模型。而且它有一个模型仓库, 所有常见的预训练模型和不同任务上fine-tuning的模型都可以在这里方便的下载。

大模型 2024-06-14 20:59:51

大模型功能简介以及对应工具整理

大型语言模型是深度学习神经网络, 可以通过对大量文本进行训练来理解、处理和生成人类语言。LLM(Large Language Model) 可以归类为自然语言处理(NLP), 这是一个旨在理解、解释和生成自然语言的人工智能领域。

大模型 2024-06-14 20:59:51

大模型LLM 的基准测试<一>

LLMs的不可思议的能力可以推广到广泛的NLP任务,这要求研究人员设计全面的评估基准,以有效地测试他们在各种任务上的能力。这些基准测试应该涵盖 LLM 的全部功能,同时足够简单,易于管理和解释。

大模型 2024-06-14 20:59:51

初次接触chatGPT<一>

chatGPT 是在经历了多轮迭代之后, 才出现的产物。从最开始的 GPT-1.0, 经历了GPT- 2.0 , GPT-3.0 , GPT-3.5 再到instructGPT、chatGPT.OpenAI的语言模型使用了深度神经网络, 并使用了非常大的数据集进行训练, 这导致了模型参数数量的大幅度增加。

大模型 2024-03-09 14:19:37

deepspeed 入门<一>

DeepSpeed是一个开源深度学习训练优化库, 其中包含的一个新的显存优化技术—— ZeRO(零冗余优化器), 通过扩大规模, 提升速度, 控制成本, 提升可用性, 极大地推进了大模型训练能力。

大模型 2024-01-12 18:01:14

LLaMA,开源语言模型

LLaMA是Meta(Facebook)的开源语言模型, 该语言模型据说是比openAI的ChatGPT能力更强的。虽说是开源语言模型, 但如果想要直接使用, 还是需要通过Edu教育邮箱来申请资格的, 得到批复邮件之后, 可以做为科学研究使用

大模型 2024-01-10 13:53:19

StarCoder初接触

BigCode 是由 HuggingFace和ServiceNow共同领导的开放式科学合作项目, 该项目致力于开发负责任的代码大模型。StarCoderBase 模型是使用 The Stack(v1.2)中的 80+ 种编程语言训练的 15.5B 参数模型, 不包括选择退出请求。该模型使用多查询注意力(包含 8192 个令牌的上下文窗口), 并使用 1 万亿个令牌的中间填充目标进行训练。

大模型 2024-01-10 13:53:19