暂无图片
暂无图片
暂无图片
暂无图片
暂无图片

Text2SQL 微调|快速开始 Text2SQL(一)

EosphorosAI 2023-10-16
212

欢迎各位关注 DB-GPT 专注于 Text-to-SQL 微调的子项目 DB-GPT-Hub!本文由社区核心成员赵旺、张洪洋、石健共同完成,是关于 DB-GPT-Hub 系列文章的第一篇文章,将与大家介绍分享项目的整体情况和进展。目前项目已经完成一次较大重构,我们非常兴奋地宣布,经过持续的优化,我们成功利用本项目代码基于开源 13B 的模型,在 Spider 数据集上的执行准确率超越了 GPT-4!在接下来的文章中,我们会为大家提供 step by step 的教程,详细解读利用本项目仅在公开的 Spider 的训练集上微调开源 LLM,实现在评估集上准确率超过 GPT-4。


PART 1
简介

DB-GPT-Hub 是一个利用 LLMs 实现 Text-to-SQL 解析的实验项目,主要包含数据集收集、数据预处理、模型选择与构建和微调权重等步骤,通过这一系列的处理可以在提高 Text-to-SQL 能力的同时降低模型训练成本,让更多的开发者参与到 Text-to-SQL 的准确度提升工作当中,最终实现基于数据库的自动问答能力,让用户可以通过自然语言描述完成复杂数据库的查询操作等工作。

目前我们已经基于多个大模型打通从数据处理、模型 SFT 训练、预测输出和评估的整个流程,代码在本项目中均可以直接复用

截止 20231010,我们利用本项目基于开源的 13B 大小的模型微调后,在 Spider 的评估集上的执行准确率,已经超越 GPT-4 !


PART 2
Text-to-SQL 微调

我们基于大语言模型的 SFT 来提升Text-to-SQL的效果。

01

  数据集

本项目案例数据主要以 Spider 数据集为示例 :

  • Spider: 一个跨域的复杂 text2sql 数据集,包含了 10,181 条自然语言问句、分布在200 个独立数据库中的 5,693 条 SQL,内容覆盖了 138 个不同的领域。


其他数据集:

  • WikiSQL: 一个大型的语义解析数据集,由 80,654 个自然语句表述和 24,241 张表格的 sql 标注构成。WikiSQL 中每一个问句的查询范围仅限于同一张表,不包含排序、分组、子查询等复杂操作。

  • CHASE:  一个跨领域多轮交互 text2sql 中文数据集,包含 5459 个多轮问题组成的列表,一共 17,940 个 <query, SQL> 二元组,涉及 280 个不同领域的数据库。

  • BIRD-SQL:数据集是一个英文的大规模跨领域文本到 SQL 基准测试,特别关注大型数据库内容。该数据集包含 12,751 对文本到SQL数据对和 95 个数据库,总大小为 33.4GB,跨越 37 个职业领域。BIRD-SQL  数据集通过探索三个额外的挑战,即处理大规模和混乱的数据库值、外部知识推理和优化 SQL 执行效率,缩小了文本到 SQL 研究与实际应用之间的差距。

  • CoSQL:  一个用于构建跨域对话文本到 sql 系统的语料库。它是 Spider 和 SParC 任务的对话版本。CoSQL 由 30k+ 回合和 10k+ 带注释的 SQL 查询组成,这些查询来自 Wizard-of-Oz 的 3k 个对话集合,查询了跨越 138 个领域的 200 个复杂数据库。每个对话都模拟了一个真实的 DB 查询场景,其中一个工作人员作为用户探索数据库,一个 SQL 专家使用 SQL 检索答案,澄清模棱两可的问题,或者以其他方式通知。

  • 按照 NSQL 的处理模板,对数据集做简单处理,共得到约 20w 条训练数据,链接详见附录 Healthy13/Text2SQL


02

  基座模型

DB-GPT-HUB 目前已经支持的 base 模型有:

  • CodeLlama

  • Baichuan2

  • LLaMa/LLaMa2

  • Falcon

  • Qwen

  • XVERSE

  • ChatGLM2

  • internlm

  • Falcon


模型可以基于 quantization_bit 为 4 的量化微调 (QLoRA) 所需的最低硬件资源,可以参考如下:

模型参数GPU RAM
CPU RAMDISK
7B
6GB
3.6GB
36.4GB
13B
13.4GB
5.9GB
60.2GB

其中相关参数均设置为最小,batch_size 为 1 ,max_length 为 512。根据经验,如果计算资源足够,为了效果更好,建议相关长度值设置为 1024 或者 2048。


PART 3
使用方法

01

   环境准备
    git clone https://github.com/eosphoros-ai/DB-GPT-Hub.git
    cd DB-GPT-Hub
    conda create -n dbgpt_hub python=3.10
    conda activate dbgpt_hub
    pip install -r requirements.txt


    02

       数据准备

    DB-GPT-Hub使用的是信息匹配生成法进行数据准备,即结合表信息的 SQL + Repository 生成方式,这种方式结合了数据表信息,能够更好地理解数据表的结构和关系,适用于生成符合需求的 SQL 语句。从 spider数据集链接下载 spider 数据集,默认将数据下载解压后,放在目录 dbgpt_hub/data下面,即路径为 dbgpt_hub/data/spider。

    数据预处理部分,只需运行如下脚本即可:

      #生成train数据 和dev(eval)数据,
      sh dbgpt_hub/scripts/train_eval_data_gen.sh

      在 dbgpt_hub/data/ 目录你会得到新生成的训练文件 example_text2sql_train.json 和测试文件 example_text2sql_dev.json ,数据量分别为 8659 和 1034 条。

      生成的json中的数据形如:

        {
        "db_id": "department_management",
        "instruction": "I want you to act as a SQL terminal in front of an example database, you need only to return the sql command to me.Below is an instruction that describes a task, Write a response that appropriately completes the request.\n\"\n##Instruction:\ndepartment_management contains tables such as department, head, management. Table department has columns such as Department_ID, Name, Creation, Ranking, Budget_in_Billions, Num_Employees. Department_ID is the primary key.\nTable head has columns such as head_ID, name, born_state, age. head_ID is the primary key.\nTable management has columns such as department_ID, head_ID, temporary_acting. department_ID is the primary key.\nThe head_ID of management is the foreign key of head_ID of head.\nThe department_ID of management is the foreign key of Department_ID of department.\n\n",
        "input": "###Input:\nHow many heads of the departments are older than 56 ?\n\n###Response:",
        "output": "SELECT count(*) FROM head WHERE age > 56",
        "history": []
        },


        03

          模型微调

        本项目微调不仅能支持 QLoRA 和 LoRA 法,还支持 deepseed。可以运行以下命令来微调模型,默认带着参数 --quantization_bit 为 QLoRA 的微调方式,如果想要转换为 lora的微调,只需在脚本中去掉 quantization_bit 参数即可。默认 QLoRA 微调,运行命令:

          sh dbgpt_hub/scripts/train_sft.sh

          微调后的模型权重会默认保存到 adapter 文件夹下面,即 dbgpt_hub/output/adapter 目录中。

          如果使用多卡训练,想要用 deepseed,则将 train_sft.sh 中如下的默认的内容:

            CUDA_VISIBLE_DEVICES=0 python dbgpt_hub/train/sft_train.py \
            --quantization_bit 4 \
            ...
            更改为:
              deepspeed --num_gpus 2  dbgpt_hub/train/sft_train.py \
              --deepspeed dbgpt_hub/configs/ds_config.json \
              --quantization_bit 4 \
              ...

              其他省略 (...) 的部分均保持一致即可。如果想要更改默认的 deepseed 配置,进入 dbgpt_hub/configs 目录,在 ds_config.json 更改即可。

              脚本中微调时不同模型对应的关键参数 lora_target 和 template,如下表:

              模型名称Lora_target
              Template
              LLaMA-2

              q_proj,v_proj

              llama2

              CodeLlama-2

              q_proj,v_proj

              llama2

              Baichuan2

              W_pack

              baichuan2

              InternLM

              q_proj,v_proj

              intern

              Qwen

              c_attn

              chatml

              XVERSE

              q_proj,v_proj

              xverse

              ChatGLM2

              query_key_value

              chatglm2

              LLaMA

              q_proj,v_proj

              -

              BLOOM

              query_key_value

              -

              BLOOMZ

              query_key_value

              -

              Baichuan

              W_pack

              baichuan

              Falcon

              query_key_value

              -


              train_sft.sh 中其他关键参数含义:

              • quantization_bit:是否量化,取值为[ 4 或者 8 ]。

              • model_name_or_path:LLM模型的路径。

              • dataset:取值为训练数据集的配置名字,对应在 dbgpt_hub/data/dataset_info.json 中外层 key 值,如 example_text2sql。

              • max_source_length:输入模型的文本长度,如果计算资源支持,可以尽能设大,如 1024 或者 2048。

              • max_target_length:输出模型的 sql 内容长度,设置为 512 一般足够。

              • output_dir :SFT 微调时 Peft 模块输出的路径,默认设置在 dbgpt_hub/output/adapter/路径下 。

              • per_device_train_batch_size :batch 的大小,如果计算资源支持,可以设置为更大,默认为 1 。

              • gradient_accumulation_steps :梯度更新的累计 steps 值。

              • save_steps :模型保存的 ckpt 的 steps 大小值,默认可以设置为 100。

              • num_train_epochs :训练数据的 epoch 数。


              04

                 模型预测


              项目目录下 ./dbgpt_hub/ 下的 output/pred/,此文件路径为关于模型预测结果默认输出的位置(如果没有则需要创建上)。
              预测运行命令:

                sh ./dbgpt_hub/scripts/predict_sft.sh


                脚本中默认带着参数 --quantization_bit 为 QLoRA 的预测,去掉即为 LoRA 的预测方式。


                其中参数 --predicted_out_filename 的值为模型预测的结果文件名,结果在dbgpt_hub/output/pred 目录下可以找到。


                05

                   模型权重


                可以从 Huggingface 查看我们之前8月份上传的对应的 Peft 模块的权重 ,huggingface 地址参见附录 。新的更好的在 spider 的评估集上执行准确率超越 GPT-4 的权重我们将尽快释放出。


                如果你需要将训练的基础模型和微调的Peft模块的权重合并,导出一个完整的模型。则运行如下模型导出脚本:

                  sh ./dbgpt_hub/scripts/export_merge.sh


                  注意将脚本中的相关参数路径值替换为你项目所对应的路径。



                  06

                     模型评估


                  对于模型在数据集上的效果评估,默认为在 spider 数据集上。运行以下命令来:

                    python dbgpt_hub/eval/evaluation.py --plug_value --input  Your_model_pred_file


                    你可以在项目的 docs/eval_llm_result.md 找到我们最新的评估结果。



                    PART 4
                    发展路线


                    整个过程我们会分为三个阶段:

                    • 阶段一:

                      • 搭建基本框架,基于数个大模型打通从数据处理、模型 SFT 训练、预测输出和评估的整个流程,截止 20230804 我们已经整个打通。我们现在支持

                        • CodeLlama

                        • Baichuan2

                        • LLaMa/LLaMa2

                        • Falcon

                        • Qwen

                        • XVERSE

                        • ChatGLM2

                        • internlm

                    • 阶段二:

                      • 优化模型效果,支持更多不同模型进行不同方式的微调。截止 20231010,我们已经完成对项目代码的重构,支持更多的模型。

                      • 对 prompt 优化

                      • 放出评估效果,和优化后的还不错的模型

                    • 阶段三:

                      • 基于更多论文进行优化,如 RESDSQL 等,结合我们社区的兄弟项目 Awesome-Text2SQL 进行更多的优化;




                    PART 5
                    贡献

                    欢迎更多小伙伴在数据集、模型微调、效果评测、论文推荐与复现等方面参与和反馈,如提 issues 或者 pr 反馈,我们会积极给出回应。提交代码前请先将代码按 black 格式化,有任何问题可以加小蜜微信进一步沟通。


                    PART 6
                    感谢

                    我们的工作主要是在众多开源工作的基础上开展的,非常感谢以下开源项目。

                    • Spider

                    • CoSQL

                    • Chase

                    • BIRD-SQL

                    • LLaMA

                    • BLOOM

                    • Falcon

                    • ChatGLM

                    • WizardLM

                    • text-to-sql-wizardcoder

                    • test-suite-sql-eval

                    • LLaMa-Efficient-Tuning


                    附录



                    DB-GPT 框架: https://github.com/eosphoros-ai
                    Text2SQL 微调:https://github.com/eosphoros-ai/DB-GPT-Hub

                    Awesome-Text2SQL:https://github.com/eosphoros-ai/Awesome-Text2SQL

                    DB-GPT-WEB:  https://github.com/eosphoros-ai/DB-GPT-Web

                    Huggingface :https://huggingface.co/eosphoros

                    Healthy13/Text2SQL:https://huggingface.co/datasets/Healthy13/Text2SQL/tree/main




                    文章转载自EosphorosAI,如果涉嫌侵权,请发送邮件至:contact@modb.pro进行举报,并提供相关证据,一经查实,墨天轮将立刻删除相关内容。

                    评论