授课老师: 周红伟
常驻地: 重庆

大模型算法实战专家—周红伟老师

课程背景

随着人工智能技术的快速发展,智能助手(如DeepSeek-R1)在多模态理解、个性化交互、知识推理等领域的应用日益广泛。DeepSeek-R1作为深度求索公司推出的第三代智能助手,凭借其先进的核心技术(如大规模预训练、多模态理解、上下文感知等),在智能客服、内容创作、教育、医疗等领域展现了强大的潜力。

然而,要将DeepSeek-R1的能力充分发挥并应用于实际业务场景,不仅需要深入理解其核心技术原理,还需要掌握本地部署和微调的方法,以满足特定领域或银行的定制化需求。为此,本课程旨在帮助学员系统学习DeepSeek-R1的核心技术原理,并通过实操掌握本地部署和微调的技能,从而提升在实际项目中的应用能力。

课程收益

1. 深刻理解DeepSeek-R1的核心技术原理

▪ 掌握DeepSeek-R1的架构设计、多模态理解、上下文感知、知识图谱等核心技术。

▪ 掌握大规模预训练模型(如Transformer)的工作原理及其在DeepSeek-R1中的应用。

2. 掌握DeepSeek-R1的本地部署方法

▪ 学习如何搭建适合DeepSeek-R1运行的本地环境(包括硬件配置、依赖库安装等)。

▪ 掌握DeepSeek-R1的本地部署流程,包括模型加载、服务启动和接口调用。

▪ 掌握如何优化部署性能,以支持高并发和低延迟的应用场景。

3. 学会DeepSeek-R1的微调和蒸馏微调以及定制化

▪ 掌握如何利用领域数据对DeepSeek-R1进行微调,以提升其在特定任务中的表现。

▪ 学习微调过程中的关键技术,包括数据预处理、模型训练、参数调优等。

4. 提升实际项目中的应用能力

▪ 通过实战案例,学习如何将DeepSeek-R1应用于智能客服、内容生成、知识问答等场景。

授课形式:理论讲解+案例实操+代码实战+课堂练习+实战演练+小组研讨+互动答疑

课程时间:3天

课程大纲

第一部分:DeepSeek的API的应用实践

1. DeepSeek大模型的技术原理

1.1大模型的Attention机制原理

1.2大模型的核心技术原理:Transformer架构

1.3DeepSeek大模型的四阶段训练过程

1.3.1阶段一 冷启动(主要关注推理):

通过R1-Zero生成数千条长CoT数据

1.3.2阶段二 面向推理的GRPO RL:

类似Zero的规则奖励,但增加语言一致性奖励

1.3.3 阶段三 V3上的的两轮SFT(结合rejection sampling):

SFT+RL训练,涉及80w通用层面的推理和非推理数据

1.3.4 阶段四 所有场景的RL:

提高有用性和无害性,且混合规则奖励和偏好奖励

1.4  知识蒸馏:赋予小模型推理能力

案例分析:分析LLM在银行实际应用中的典型案例,语义问答、文本生成,实体词提取等。

2. DeepSeek大模型的Prompt Tuning & Fine Tuning

2.1Prompt Tuning技术原理

2.2提示微调的应用框架

2.3提示微调的应用方法

2.4提示微调与传统训练方法的区别

2.5提示微调的应用场景

2.6案例实践:银行业务提示微调的案例实践

2.2Fine Tuning技术原理

2.3Fine Tuning原理和适用场景

2.4Fine Tuning的流程与步骤

2.5Fine Tuning数据标注

2.6Fine Tuning模型训练

2.7Fine Tuning参数优化

2.8案例实践:利用Fine Tuning的案例实操,如银行客户评级分析、评价分类

3. DeepSeek API的使用

3.1DeepSeek API技术开发

3.2DeepSeek API开发调用的两种方法

3.3DeepSeek API调用的代码开发

3.4DeepSeek API动态权限接口开发的配置

3.5DeepSeek API调用的内容模板化

3.6API请求与响应

3.6.1案例实操基本请求

3.6.2代码编写:基本的API请求参数设置

3.6.3响应解析:讲解如何解析API响应

3.7API集成

3.7. 代码集成

3.8 案例实践:应用程序通过API调用的业务应用

4. 实践:微调自己的DeepSeek,实现银行敏感问题审查

4.1数据准备

4.1.1数据收集

4.1.2敏感问题定义:敏感问题的定义

4.1.3案例实操:标注业务数据,业务数据的精准标注、清洗和校正

4.2微调过程

4.2.1配置微调环境:依赖包的配置

4.2.2案例实操:微调的具体操作

4.3微调的效果评估:评估微调后的DeepSeek在敏感问题审查中表现

第二部分:大语言模型LLM的本地部署

1. Hugging Face & Model Scope

1.1Hugging Face平台应用

1.2Hugging Face平台主要产品

1.3Model Scope平台介绍:数据集、模型库、模型评估

1.4模型选择与下载

1.5模型浏览:模型选择:模型使用场景和性能指标

1.6案例实操:模型下载,代码示例下载过程

2. 文本信息提取

2.1信息提取方法和应用场景

2.2文本信息提取方法

2.3文本提取案例:实体识别、关系抽取

2.4网络知识图谱

2.2文本信息提取实践操作

2.3传统文本抽取工具与库

2.4大模型的文本抽取方法和案例实操

3. 词模型与词嵌入(Tokenizer)

3.1Tokenizer原理

3.2词向量化的技术方法

3.3Embedding的技术原理

3.4Tokenizer类型和对比:WordPiece、BPE和SentencePiece

3.2Tokenizer实现

3.3Tokenizer应用案例

3.4词嵌入构建

4. Hugging Face API

4.1 Hugging Face API应用

4.2功能与用途:模型调用和数据处理

4.3API调用代码编程

4.4API调用请求示例

4.5API调用错误处理

5. DeepSeek-R1大模型的部署

5.1 基于vLLM和各类插件构建智能对话

5.1.1 vLLM下的DeepSeek-R1终端命令行交互

5.1.2 vLLM下的open-webui交互

5.1.3 vLLM + ChatBox部署deepseek-r1:70B

5.2 基于vLLM 和AnythingLLM构建本地知识库问答系统

5.2.1 基于vLLM + Page Assist联网搜索

5.3 部署实操:vLLM+deepseek-r1:70B+OpenWeB-UI,银行构建私有知识库的构建

6. 案例实践:基于Hugging Face API的 DeepSeek-R1快速部署模型

6.1环境准备

6.2环境配置:依赖包配置

6.3工具安装

6.2模型部署

6.3部署步骤:详细描述模型部署的步骤,包括模型加载、接口设置、测试验证

6.4案例实操:本地部署代码实操,提供实际操作示例,展示如何将模型部署到生产环境,包括常见问题及解决方案。

第三部分 大语言模型LLM的银行本地微调

1. Full Fine Tuning技术详解

1.1Full Fine Tuning:全微调的适用场景

1.2技术原理

1.3微调流程

1.4数据准备

1.5训练过程

1.6评估与优化

2. 微调框架PEFT

2.1PEFT框架介绍

2.2PEFT技术优势

2.3PEFT实践操作

2.4PEFT框架使用

2.5案例分析:分析PEFT框架在实际应用中的案例

3. Prompt Tuning, P-Tuning, Prefix-Tuning

3.1Prompt Tuning的定义与方法

3.2Prompt Tuning的实施步骤: 包括Prompt设计框架、优化方法

3.3P-Tuning概述与原理

3.4P-Tuning应用案例

3.3Prefix-Tuning概述与原理

3.4Prefix-Tuning技术细节

4. LoRA微调技术原理和实操

4.1LoRA概述

4.2LoRA定义与背景

4.3LoRA技术原理:讲解LoRA的技术原理:低秩矩阵分解、参数高效微调

4.2LoRA实践操作

4.3案例实操:通过LoRA微调,包括代码示例、配置步骤

4.4效果评估

5. 实践:蒸馏微调DeepSeek-R1-Distill-Qwen-7B

5.1数据准备

5.2数据收集:数据格式

5.3数据处理:数据校准

5.2微调操作

5.3微调配置环境:介绍微调环境的配置、工具和依赖包

5.4执行微调:蒸馏微调DeepSeek-R1的操作步骤,包括训练过程、参数设置、结果验证

5.5效果评估:评估蒸馏微调后的DeepSeek-R1模型,包括测试用例、性能分析

第四部分Agent工作流:Dify+Agent+RAG工作流开发实操案例(LangGraph)

1. 大语言模型的能力增强

1.1增强概述

1.2LLM能力增强的方法

1.3Dify实践应用

1.4Dify应用场景

1.5Dify技术实现

2. Dify+LangGraph的核心模块

2.1核心模块:图机制、图表和图的构建

2.2模块概述

2.3技术实现

2.2Dify案例实操

2.3Dify模块配置

2.4应用案例:提供实际案例,Dify核心模块的应用效果

2.5案例实操:DeepSeek+Dify+Agent+RAG银行私有知识销售助手

3. LangGraph数据连接封装与记忆封装

3.1数据连接封装

3.2数据连接封装实现方法

3.3记忆封装

3.4记忆封装技术实现

4. 链架构

4.1链架构概述

4.2链架构定义与结构

4.3链架构实践操作

4.3.1构建链:演示如何构建链架构,包括设计步骤、代码示例

4.3.2案例分析

5. 数据处理流

5.1 数据处理流概述

5.2 数据处理流实践操作

5.3 构建数据流

6. Dify+Agent与外挂知识库

6.1Agent的应用

6.2设计与实现:讲解Agent的设计与实现,包括代码示例、操作步骤

6.3外挂知识库RAG应用

6.4概述与应用

6.5实现方法

7. Dify与Agent应用实践

7.1实践任务

7.1.1综合案例:综合案例,展示LangGraph与Agent的实际应用

7.1.2解决方案设计

7.1.3案例实操:DeepSeek+Dify+Agent+RAG银行业务智能体

7.2结果展示与反馈

授课老师

周红伟 前阿里人工智能算法专家

常驻地:重庆
邀请老师授课:13439064501 陈助理

主讲课程:《大模型的应用、微调和部署案例实践》《大模型微调、部署、行业应用和接口开发》《算力网络:算力网络技术原理及落地实践》《ChatGPT与AIGC生成式人工智能操作实战》 《大模型赋能企业办公降本提效案例应用实操》 《人工智能下一个时代:ChatGPT的技术实现原理、行业实践以及商业变现途径》 7、《大模型在金融行业的应用案例实践》《大模型在通信行业的应用实践》《下一代人工智能:隐私计算和可信人工智能》《互联网(消费金融)企业的AI大数据应用》《AI世界模拟器:Sora视频生成模型的技术实现原理、行业实践以及商业变现途径》 《大模型技术体系架构和算法案例实操》《互联网金融的大数据风控》

周红伟老师的课程大纲

微信小程序

微信扫一扫体验

扫一扫加微信

返回
顶部