课程介绍
《大模型微调实战营-应用篇》是一门专门针对大规模预训练模型(如GPT, BERT等)的微调(Fine-tuning)和应用的课程。该课程旨在帮助学员掌握如何利用大模型处理特定任务,并优化模型的性能。
课程内容通常包括以下几个方面:
大模型概述:介绍大规模预训练模型的基本概念、架构和应用场景。
微调技术:教授如何针对具体任务调整模型的参数,包括学习率调整、数据增强、正则化技术等。
实战案例:通过具体的案例,如文本分类、情感分析、问答系统等,展示如何在实际应用中微调和部署大模型。
性能优化:介绍如何通过各种技术提升模型的效率和效果,如模型压缩、量化、并行计算等。
最新进展:探讨大模型领域的最新研究成果和未来趋势。
此课程适合有一定机器学习和深度学习基础的开发者、数据科学家或研究人员,希望通过该课程能够使学员能够熟练运用大模型技术解决实际问题,并在工作中取得更好的成效。
课程目录
14-040-贪心科技-大模型微调实战营-应用篇(1)/
│├─01 第一周
│├─02 第二周
│├─03 第三周
│├─04 第四周
│├─05 第五周
│├─06 第六周
│├─07 第七周
│├─08 第八周
│├─09 第九周
│├─10 第十周
│├─课件资料
│01 第一周/
││├─01 第一节 2024年1月21日
││01 第一节 2024年1月21日/
│││├─01 开营+大模型介绍、Transformer
│││01 开营+大模型介绍、Transformer/
││││├─01 开营.mp4 168.9MB
││││├─02 大模型爆发式发展.mp4 240.5MB
││││├─03 大模型是如何炼成的.mp4 88.3MB
││││├─04 Transformer的应用.mp4 183.1MB
││││├─05 Self-Attention.mp4 329.3MB
│02 第二周/
││├─01 第二节 2024年1月28日
││01 第二节 2024年1月28日/
│││├─01 Transformer、Encoder、Advanced
│││01 Transformer、Encoder、Advanced/
││││├─01 Transformer Part1.mp4 264.4MB
││││├─02 Transformer Part2.mp4 289.4MB
││││├─03 Encoder-based and Decoder Based LLMs.mp4 80.9MB
││││├─04 Advanced Topics.mp4 190.1MB
│03 第三周/
││├─01 第三节 2024年2月25日
││01 第三节 2024年2月25日/
│││├─01 大模型微调概览 Lora微调
│││01 大模型微调概览 Lora微调/
││││├─01 大模型微调概览.mp4 283.1MB
││││├─02 Lora微调-Lora算法.mp4 302MB
││││├─03 Lora微调-从零实现Lora到Roberta.mp4 437.6MB
│04 第四周/
││├─01 第四节 2024年3月3日
││01 第四节 2024年3月3日/
│││├─01 Alpaca、AdaLoRA、QLoRA
│││01 Alpaca、AdaLoRA、QLoRA/
││││├─01 Alpaca.mp4 788.3MB
││││├─02 AdaLoRA.mp4 464.6MB
││││├─03 QLoRA.mp4 372.4MB
│05 第五周/
││├─01 第五节 2024年3月17日
││01 第五节 2024年3月17日/
│││├─01 Prefix Tuning、Quantization
│││01 Prefix Tuning、Quantization/
││││├─01 Prefix Tuning.mp4 354.1MB
││││├─02 Quantization01.mp4 194.5MB
││││├─03 Quantization02.mp4 277.5MB
││││├─04 Quantization Methos for LLM.mp4 83.6MB
│06 第六周/
││├─01 助教补充课 2024年3月24日
││01 助教补充课 2024年3月24日/
│││├─01 llama介绍&运行&量化&部署&微调
│││01 llama介绍&运行&量化&部署&微调/
││││├─01 llama介绍&运行&量化&部署&微调01.mp4 566.4MB
││││├─02 llama介绍&运行&量化&部署&微调02.mp4 927.3MB
│07 第七周/
││├─01 第六节 2024年3月31日
││01 第六节 2024年3月31日/
│││├─01 Distributed Computing、Flash Attention
│││01 Distributed Computing、Flash Attention/
││││├─01 GPU时间计算.mp4 411.1MB
││││├─02 Distributed Computing.mp4 328.6MB
││││├─03 ZeRO-123 and FSDP.mp4 459.6MB
││││├─04 Flash Attention.mp4 403.4MB
│08 第八周/
││├─01 第六节补充课
││01 第六节补充课/
│││├─01 Flash Attention cont、微调Mistral 7B
│││01 Flash Attention cont、微调Mistral 7B/
││││├─01 Flash Attention cont.mp4 123.5MB
││││├─02 Self-Attention的分块计算.mp4 557.5MB
││││├─03 分块模式中计算O.mp4 285.9MB
││││├─04 Mixture of Expert Model.mp4 78MB
││││├─05 微调Mistral 7B.mp4 730.5MB
│09 第九周/
││├─01 第七节 2024年4月14日
││01 第七节 2024年4月14日/
│││├─01 强化学习
│││01 强化学习/
││││├─01 RLHF介绍.mp4 687.3MB
││││├─02 强化学习.mp4 282.1MB
││││├─03 Multi-armed Bandit.mp4 343.9MB
││││├─04 The goal of Agent.mp4 542.5MB
│10 第十周/
││├─01 第七节补充课 2024年4月17日
││01 第七节补充课 2024年4月17日/
│││├─01 Optimal Policy、Intro to Monte Carlo
│││01 Optimal Policy、Intro to Monte Carlo/
││││├─01 Optimal Policy.mp4 434.4MB
││││├─02 Intro to Monte Carlo.mp4 229.4MB
│课件资料/
││├─课件资料.exe 193.2MB
1、本内容转载于网络,版权归原作者所有,所涉及软件、配套资料等均与本站无关,请自行辨别内容真伪。
2、虚拟资源不支持退换,资源存放百度/115/夸克/123等网盘,因网盘屏蔽有1‰资源内容不全,介意者慎拍。
3、本内容若侵犯到您的版权利益,请联系:15906391238,我们会尽快给予删除处理。