喜讯!成功拿到智谱AI和极客时间联合授予的大模型微调技能认证证书!!!
喜讯!成功拿到智谱AI和极客时间联合授予的大模型微调技能认证证书!!! 大模型微调技能认证证书 – 2024年4月 AI大模型微调训练营毕业证书 – 2024年2月
目标 路径 时间 结果 信息 定位 闭环 复盘 精力 极限 稳态 框架 邮箱:linqingyang@datagov.top
喜讯!成功拿到智谱AI和极客时间联合授予的大模型微调技能认证证书!!! 大模型微调技能认证证书 – 2024年4月 AI大模型微调训练营毕业证书 – 2024年2月
任务 使用 LangChain,并调用 GPT API Key 实现文本摘要和翻译聊天助手。 交付 进行中…
任务 使用完整的 YelpReviewFull 数据集训练,对比看 Acc 最高能到多少。课程代码( https://github.com/DjangoPeng/LLM-quickstart/blob…
任务 替换课程示例代码中的模型( https://github.com/DjangoPeng/LLM-quickstart/blob/main/transformers/pipelines.ipynb…
任务 在“LoRA 低秩适配 OpenAI Whisper-Large-V2 语音识别任务”中,为中文语料的训练过程增加过程评估,观察 Train Loss 和 Validation Loss 变化。…
任务 使用 GPTQ 量化 OPT-6.7B 模型。课程代码( https://github.com/DjangoPeng/LLM-quickstart/blob/main/quantization/…
任务介绍 基于 data 目录下的数据训练 ChatGLM3 模型,使用 inference Notebook 对比微调前后的效果。 (可选):将 gen_dataset Notebook 改写为 p…
任务介绍 调整 ZeRO-3 配置文件,使其支持 T5-3B 甚至 T5-11B 模型训练。 作业提交方式: 提交运行起来后 NVIDIA-smi 和 htop 的输出截图即可,跟视频里给老师大家展示…
作业描述 使用官方提供的示例,成功微调出广告数据集,要求使用 Lora 进行微调: 你能看到 loss 的下降,并在最终回到 3.2 左右。 你需要自己适配 inference.py 中的代码,并迁移…
完成大模型微调训练营第0期的学习,拿到毕业证书啦!!!回味无穷,没有辜负购课时候的目标🎯,工作中都用上了,但是还得继续不断消化实践,推荐~