D丁师兄大模型训练营网盘资源免费观看百度云网盘链接提取码分享下载
- file:大模型训练营7:GPU的计算原理 2024-01-31 12_46【耗时整理‖cunlove.cn】.mp4
- file:预习资料:Transformer和bert 2024-02-02 08_56【耗时整理‖cunlove.cn】.mp4
- file:预习资料1:Attention模型【耗时整理‖cunlove.cn】.mp4
- file:大模型训练营8:大模型技术一览,一些细节 2024-01-30 22_46【公众号:CunWorkNotes】.mp4
- file:大模型训练营3:项目实战:文旅对话大模型实战(模型参数微调【耗时整理‖cunlove.cn】.mp4
- file:大模型训练营2.大数据和大模型,常见分词方法 【公众号:CunWorkNotes】.mp4
- file:大模型训练营4:prefixtuning和adapter【公众号:CunWorkNotes】.mp4
- file:1.距离精讲 2024-02-01 22_33 【公众号:CunWorkNotes】.mp4
- file:高频面试题-阶段4.html
- file:大模型(LLMs)强化学习—— PPO 面.pdf
- file:大模型(LLMs)评测面【公众号:CunWorkNotes】.pdf
- file:大模型(LLMs)agent 面【耗时整理‖cunlove.cn】.pdf
- file:怎么学.docx
- file:本阶段作业和考试.docx
- file:本阶段作业和考试【公众号:CunWorkNotes】.docx
- file:丁师兄综合项目实战项目.zip
- file:参数高效微调篇PRFT.pdf
- file:适配器微调(Adapter-tuning)篇.pdf
- file:提示学习(Prompting)篇.pdf
- file:LoRA篇.pdf
- file:大模型(LLMs)Tokenizer篇.pdf
- file:多模态常见面试题.pdf
- folder:D丁师兄大模型训练营
- folder:阶段6:基于垂直数据大模型微调
- folder:面试题目
- folder:阶段9:产品级LLM推理优化方法论
- folder:18-LLM-模型
- folder:阶段2:大模型技术总览
- folder:阶段12:LLM大型复杂项目实战
- folder:阶段10:推理引擎部署与优化实战
- folder:阶段5:基于langchain搭建LLMs应用
- folder:阶段7:大语言模型的训练和构建
- folder:阶段1:大模型必备的深度学习基础
- folder:阶段4:prompt提示工程实战
- folder:大模型(LLMs)langchain面
- folder:大模型(LLMs)参数高效微调(PEFT)面
- folder:31-LLM-Interview-Plus
- folder:【脉络】ChatGPT的前世今生
- folder:【原理】大模型原理
- folder:【手撕】图解系列之Transformer
- folder:项目实战2:法律方向智能问答系统
- folder:项目实战2:大模型金融对话交互系统_files
- folder:【实战】LangChain实战项目
- folder:项目实战1:智能座舱汽车知识大脑_files
- folder:1.【框架】Pytorch学习
- folder:3.【应用】自然语言处理
- folder:2.【原理】深度学习必看
- folder:【入门】吴恩达Prompt公开课
- folder:【进阶】提示工程高级用法
- folder:【产品化】压力测试
- folder:【实战】清华ChatGLM2-6B开源大模型部署
- folder:【框架】FastAPI后端框架
- folder:nl2sql
- folder:jinyong
- folder:27NLP常见面试篇
- folder:10大模型(LLMs)强化学习面
- folder:21LLMs 测试集 中 数据泄露 问题篇
- folder:22MOE(Mixture-of-Experts)篇
- folder:16LLMs Tokenizer 常见面试篇
- folder:25Token及模型参数准备篇
- folder:17大模型(LLM)部署框架对比篇
- folder:15LLMs 位置编码篇
- folder:18大模型幻觉(LLM Hallucination)面
- folder:20思维链 Chain-of-Thought(COT)篇
- folder:29大模型推理加速——KV Cache篇
- folder:05大模型 RAG 经验面
- folder:30大模型——角色扮演大模型篇
- folder:【精校版】Andrej Karpathy微软Build大会精彩演讲: GPT状态和原理 - 解密OpenAI模型训练
- folder:3.InstructGPT 论文精读【论文精读·48】
- folder:2.Andrej Karpathy大神亲授:大语言模型入门【中英】
- folder:【珍藏】从头开始用代码构建GPT - 大神Andrej Karpathy 的“神经网络从Zero到Hero 系列”之七
- folder:【精校珍藏版】大牛Andrej Karpathy的stanford深度学习课程:深入理解Transformer,从零打造最简版GPT
- folder:【精校】“让我们构建GPT Tokenizer”AI大神Andrej Karpathy最新大模型技术讲座 【中英】
- folder:新建文件夹
- folder:04 统计语言模型(n元语言模型)
- folder:15 Transformer 框架概述
- folder:03 什么是预训练(Transformer 前奏)
- folder:14 Transformer之位置编码Positional Encoding (为什么 Self-Attention 需要位置编码)
- folder:11 Self-Attention 相比较 RNN 和 LSTM 的优缺点
- folder:10 Transformer 之 Self-Attention(自注意力机制)
- folder:13 Transformer的多头注意力,Multi-Head Self-Attention(从空间角度解释为什么做多头)
- folder:19 Transformer 解码器的两个为什么(为什么做掩码、为什么用编码器-解码器注意力)
- folder:Transformer和BERT看不懂来这里,告诉你他们的前世今生,必能懂
- folder:1001 Attention 和 Self-Attention 的区别(还不能区分我就真的无能为力了)
- folder:06 Word2Vec模型(第一个专门做词向量的模型,CBOW和Skip-gram)
- folder:1401 位置编码公式详细理解补充
- folder:16 Transformer的编码器(Encodes)——我在做更优秀的词向量
- folder:08 ELMo模型(双向LSTM模型解决词向量多义问题)
- folder:05 神经网络语言模型(独热编码+词向量 Word Embedding 的起源)
- folder:07 预训练语言模型的下游任务改造简介(如何使用词向量)
- folder:PyTorch深度学习快速入门教程(绝对通俗易懂!)【小土堆】
- folder:train_similar_model
- folder:MedDialog_processed
- folder:model-lora
- folder:wandb
- folder:ChatGPT 是怎么炼成的 - GPT社会化的过程 (李宏毅)
- folder:CS224N|2023更新-Huggingface课程|精翻中文|自然语言处理|2024最新
- folder:my_model
- folder:checkpoint-2950
- folder:offline-run-20240213_015934-tvfvjjfk
- folder:Feb12_17-22-07_WY-20230411FNEJ
| 分享时间 | 2026-02-15 |
|---|---|
| 入库时间 | 2026-02-15 |
| 状态检测 | 有效 |
| 资源类型 | QUARK |
| 分享用户 | 昂首*胸的绵羊 |
资源有问题?点此举报