Select Language

AI社区

人工智能模型

LMFlow

469 浏览
3 喜欢
0 条讨论
适用垂直行业模型 70亿参数 3090单卡 签署文件取得授权

一个可扩展、方便和高效的工具箱,用于微调大型机器学习模型。我们的目标是开发一套用户友好、快速可靠,并对整个社区开放的全流程微调代码库。所有人的大语言模型。请查看我们的愿景Latest News[2023-04-02] Web se......

README.md

Code LicensePython 3.9+DocEmbarkWeChat badgeslack badge

一个可扩展、方便和高效的工具箱,用于微调大型机器学习模型。我们的目标是开发一套用户友好、快速可靠,并对整个社区开放的全流程微调代码库。

所有人的大语言模型。请查看我们的愿景

LMFlow-features

Latest News

Demos

当前我们的检查点下载服务已满负荷。我们增加了一个服务器来支持该服务。如果您遇到"too many HTTP requests"的错误,请等待几分钟后再试。谢谢您的理解。

我们提供四种演示,包括:

  • 在线服务:如果您不想运行任何代码,只是想尝试我们的模型,我们部署了调整指令的LLaMA-7B和LLaMA-33B供您尝试。

  • Colab Chatbot (shell):一个基于交互式shell的聊天机器人,让您可以轻松在Colab上部署聊天机器人。

  • Colab Chatbot (web):一个基于交互式Web的聊天机器人,让您可以轻松在Colab上部署自己的聊天机器人。

  • 本地部署:我们还提供一种方式,让您可以在本地部署模型/聊天机器人,这意味着如果您有足够的资源,您可以部署比前三种方法更大的模型。

Code Licensecolab badgecolab badge

online Service

欢迎访问我们的在线演示。我们部署了经过LLaMA-7B和LLaMA-33B调整指令的模型进行预览。由于网站访问量较高,有时网站可能无法响应。您也可以参考“本地部署”来部署自己的聊天机器人。

Colab chatbot(shell)

我们提供了一个使用Google Colab的T4/P100/V100 GPU的聊天机器人简单shell演示。请注意,提供的gpt-neo-2.7b模型是相对较弱的模型,仅支持英文,并且有时会生成不理想的响应。为了改善性能,用户可以使用自己的数据集进行微调,并使用LMFlow获得更好的模型。也可以尝试其他可用的仅解码器(decoder only)模型。 huggingface, by

./scripts/run_chatbot.sh {another-model-name}

Colab chatbot (web)

我们提供了一个使用Google Colab的T4/P100/V100 GPU的聊天机器人简单web演示。请注意,提供的gpt-neo-2.7b模型是相对较弱的模型,仅支持英文,并且有时会生成不理想的响应。

Local Deploy

如果您有资源并想在本地部署自己的模型,我们为您提供了一种简单的方法,可以通过以下方式运行一个Flask服务器来启动后端(以进一步向其他前端提供服务),并提供一个交互式Web前端(让您直接开始聊天):

cd ./service
python app.py

Medical Performance


PubMedQA (ID)MedQA-USMLE (OOD)MedMCQA (ID)Average
Human (pass)60.050.0

Human (expert)78.087.090.085.0





InstructGPT 175B73.246.044.054.4
ChatGPT63.957.044.755.2
LLaMA 7B5.227.124.318.9
LLaMA 33B1.843.430.325.2





Task-tuned LLaMA 7B (Full)75.144.549.956.5
Task-tuned LLaMA 33B (LoRA)74.051.350.258.5

LLaMA 33B(LoRA)的性能仅经过约16小时的微调,即可在PubMedQA和MedMCQA的训练集上使用单个8 * A100服务器实现。要了解更多性能信息,包括指令微调结果,请参考我们的documentation

Model Zoo

我们将训练好的检查点开源给所有人进行进一步的训练和推理。

Instruct-tuned ModelsStatusbase ModelDownload
LLaMA-7B-tunedcompletedLLaMA-7BGoogle Drive
LLaMA-13B-tunedcompletedLLaMA-13BGoogle Drive
LLaMA-33B-tunedcompletedLLaMA-33BGoogle Drive
LLaMA-65B-tunedtrainingLLaMA-65BGoogle Drive
LLaMA7B-medicalcompletedLLaMA-7BGoogle Drive
LLaMA13B-medicalcompletedLLaMA-13BGoogle Drive
LLaMA33B-medicalcompletedLLaMA-33BGoogle Drive
LLaMA65B-medicaltrainingLLaMA-65BGoogle Drive

Supported Pipelines

PipelinesStatus
Task TuningSupported
Instruction TuningSupported
Parameter-Efficient TuningSupported
Large Model InferenceSupported
Alignment TuningDeveloping

Supported Models

我们支持huggingface中的所有decoder models,包括LLaMA、GPT2、GPT-Neo和Galactica等,均已进行了全面测试。我们很快将支持编码器(encoder-decoder)模型。

1.Setup

我们的软件包已经在Linux操作系统(Ubuntu 20.04)上进行了全面测试。其他操作系统平台(MacOS、Windows)尚未进行全面测试。 您可能会遇到一些意料之外的错误。建议您先在Linux机器上尝试,或者使用Google Colab进行体验。

git clone https://github.com/OptimalScale/LMFlow.gitcd LMFlow
conda create -n lmflow python=3.9 -y
conda activate lmflow
conda install mpi4py
pip install -e .

2.Prepare Dataset

您可以通过以下指令下载训练数据集和测试数据集:

cd data
bash download.sh allcd -

您也可以将您的数据转换成以下格式来使用自己的数据集:

{  "type": "text2text",  "instances": [
    {      "input": "Question: The Transformer architecture [START_REF]",      "output": "N/A"
    },    ...
  ]
}
{  "type": "text_only",  "instances": [
    {      "text": "Defintion: In this task, we ask you to write an answer to a question that involves events that may be stationary (not changing over time) or transient (changing over time). For example, the sentence \"he was born in the U.S.\" contains a stationary event since it will last forever; however, \"he is hungry\" contains a transient event since it will remain true for a short period of time. Note that a lot of the questions could have more than one correct answer. We only need a single most-likely answer. Please try to keep your \"answer\" as simple as possible. Concise and simple \"answer\" is preferred over those complex and verbose ones. \n Input: Question: Sentence: It's hail crackled across the comm, and Tara spun to retake her seat at the helm. \nQuestion: Will the hail storm ever end? \n Output: NA \n\n"
    },    ...
  ]
}

3. Run scripts

3.1 Run Finetuning

您可以通过运行 scripts/run_finetune.sh 来微调一个GPT-2的模型

./scripts/run_finetune.sh

如果您想要提供反映您机器设置的deepspeed参数,可以将相应的deepspeed参数传递给脚本。例如:

./scripts/run_finetune.sh "--num_gpus=8 --master_port 10001"

为了开启LoRA的训练,您可以参考:

./scripts/run_finetune_with_lora.sh

如果需要详细的配置,可以直接修改这些脚本。这些脚本实际上只是调用了python脚本examples/finetune.py,该脚本可以按以下方式运行:

deepspeed ${deepspeed_args} \
  examples/finetune.py \
    --deepspeed configs/ds_config_zero3.json \
    --bf16 \
    --run_name finetune_with_lora \
    --model_name_or_path facebook/galactica-1.3b \
    --num_train_epochs 0.01 \
    --learning_rate 2e-5 \
    --dataset_path ${dataset_path} \
    --per_device_train_batch_size 1 \
    --per_device_eval_batch_size 1 \
    --validation_split_percentage 0 \
    --logging_steps 20 \
    --block_size 512 \
    --do_train \
    --output_dir output_models/finetune \
    --overwrite_output_dir \
    --ddp_timeout 72000 \
    --save_steps 5000 \
    --dataloader_num_workers 1
python examples/finetune.py -h

注意:在训练数据集容量比较小的情况下,需要减小block_size的值,否则会出现Epoch 迭代器中没有可用的样本的情况。

3.2 Run evaluation

大家可以通过以下方式来对训练好的模型进行测评:

./scripts/run_evaluation.sh

--model_name_or_path 指定了模型存储的位置。

对于LoRA模型的测评,执行以下指令:

./scripts/run_evaluation_with_lora.sh

这些脚本调用了基于我们API构建的示例examples/*.py。要获取更多与API相关的示例,可以参考单元测试中的方法tests.

4. Additional Notes

4.1 LLaMA Checkpoint

首先,您需要从facebookresearch/llama获取LLaMA模型的访问权限。下载官方检查点并将其保存到${llama-path}中。

其次,通过运行以下命令将官方检查点${llama-path}转换为HuggingFace支持的检查点${llama-hf-path}

`python ./scripts/convert_llama_weights_to_hf.py --input_dir ${llama-path} --model_size 7B --output_dir ${llama-hf-path}/llama-7b-hf`

然后,将检查点路径设置为${llama-hf-path}/llama-7b-hf即可开始使用。祝您使用愉快!

现在,您已经拥有了原始的llama-7b-hf预训练模型。

4.2 DeepSpeed Config

您可以在config文件夹下设置DeepSpeed的config,具体可以参考 DeepSpeed Configuration

5. Model Release

5.1 Medical Model Checkpoints

您可以运行以下脚本来下载我们的权重:

cd output_models
bash download.sh medical_ckptcd -

您可以直接通过Google Drive下载我们的模型: medical_ckpt.tar.gz

5.2 Instruction Model Checkpoints

cd output_models
bash download.sh instruction_ckptcd -

您可以直接通过Google Drive下载我们的模型: instruction_ckpt.tar.gz

5.3 Begin Reproduce

在下载了模型Checkpoints之后,您可以在LMFlow/scripts/run_evaluation_with_lora.sh中将--lora_model_path替换为output_models/instruction_ckpt/llama7b-lora(以instruction的llama-7b为例),并将--model_name_or_path替换为您转换的llama模型。然后运行这个shell脚本以重现结果。

然后,您可以在我们的文档中检查模型性能。

documentation

请参考我们的documentation获取更多API参考和实验结果信息。

Vision

我们很高兴地开源LMFlow代码库,其中包括了完整的大模型训练流程,能够快速、高效地训练和部署自己的语言模型。

我们的代码库不仅仅是一个简单的模型; 它包括完整的训练流程、模型权重和测试工具。 您可以使用它来构建各种类型的语言模型,包括对话模型、问答模型和文本生成模型等。

此外,我们旨在创建一个开放和民主的大模型共享平台,任何人都可以在这个平台上分享训练模型权重和经验。 我们欢迎任何对大模型感兴趣的人参与进来,与我们一起建设一个开放友好的社区!

无论您是初学者还是专家,我们相信大家都能从这个平台中获益。让我们共同努力,建立一个充满活力和创新的大模型社区!

EmbarkWeChat badgeslack badge

Disclaimer

此软件包旨在为大型模型调整提供简化和用户友好的流程。其功能可作为用户参考并供用户使用。然而,需要注意的是,数据和预训练模型的准备工作完全由用户负责。本软件包不保证用户准备组件的准确性、完整性、适用性或合法性。用户必须了解并承担与模型和数据准备相关的所有风险和责任,并在使用本软件包之前获取法律、商业和技术建议。该流程不应对用户不当准备数据和预训练模型所导致的任何直接、间接、特殊、偶然或后果性损害负责。

我们提供的检查点仅供研究目的使用,包括英文和中文版本。这些检查点包含ChatGPT语言模型生成的结果。我们不支持或鼓励将这些检查点用于商业目的的分发或使用。这些检查点的用户应当负责确保正确和适当地使用它们。

还需要强调的是,模型生成的结果是基于概率模型,与此流程没有直接关系。本流程不保证结果的准确性、可靠性、适用性和合法性。因此,在依赖模型生成的结果之前,用户还必须了解与结果相关的风险和责任,并寻求法律、商业和技术建议。该流程不应对用户依赖模型生成的结果所导致的任何直接、间接、特殊、偶然或后果性损害负责。

Support

如果您需要任何帮助,请提交Github问题。

协议

本项目所含代码采用Apache 2.0协议。如果您希望将本项目所含模型用于商业用途,请填写并签署本文件取得授权。

Contributors

 

Citation

如果您觉得我们的软件包有用,欢迎点赞、fork、转发和引用。谢谢大家的支持!

@misc{lmflow,
  author = {Shizhe Diao and Rui Pan and Hanze Dong and KaShun Shum and Jipeng Zhang and Wei Xiong and Tong Zhang},
  title = {LMFlow: An Extensible Toolkit for Finetuning and Inference of Large Foundation Models},
  year = {2023},
  publisher = {GitHub},
  journal = {GitHub repository},
  howpublished = {\url{https://optimalscale.github.io/LMFlow/}},
}


暂无相关内容。
暂无相关内容。
暂无相关内容。
  • 分享你的想法
去分享你的想法~~

全部内容

    欢迎交流分享
    开始分享您的观点和意见,和大家一起交流分享.