授课老师: 杨凯捷
常驻地: 北京

课程背景:

人工智能技术飞速发展的今天,企业研发和产品团队掌握AI技术的前沿应用已成为保持竞争力的关键。本次为期2天的强化培训旨在为企业的研发工程师和产品经理提供全面、深入的AI技术体系培训,覆盖从大模型基础原理到高级应用实践的完整知识栈

课程目标:通过系统性的理论讲解、案例分析和实践操作,使学员掌握大模型技术选型方法论、高级提示词框架设计、智能体系统开发、RAG知识库构建、模型微调技术等核心技能,并能够将这些技术应用于实际产品开发和研发工作中

授课形式:本课程采用“理论深度+实践强度”的双重教学模式,由浅入深,兼顾技术原理的深入解析和实际应用的操作指导。特别针对研发和产品经理的不同需求,设计了差异化的学习路径和实践案例。

第一天培训内容 

上午模块一:大模型技术选型与基础原理

1.1 大模型技术发展现状与趋势分析 

当前大模型技术已从通用聊天机器人向复杂推理代理、创新者和组织级应用演进。根据OpenAI对AGI的五层分类——Chatbot、Reasoner、Agent、Innovator、Organization,企业需要明确自身需求在技术光谱中的定位

技术选型核心原则:“如无必要,勿增实体”。在产品设计初期,应避免过度追求技术复杂度,而是根据实际场景平衡成本、效率和体验

。选型决策需综合考虑以下因素:

· 任务类型匹配:创造性内容生成、事实性问答、复杂推理或自动化工作流等不同场景需要不同的技术方案

· 计算资源约束:GPU内存、推理延迟、吞吐量等硬件限制条件

· 数据隐私与安全:公有云API与本地化部署的权衡考量

· 技术债务控制:长期维护成本与团队技术栈的兼容性

1.2 主流大模型架构对比与性能评估

深入解析Transformer架构的核心突破与演进路径,包括自注意力机制、位置编码、多层感知机等关键组件的设计原理

。对比分析国内外主流大模型的技术特点:

· 国际模型:GPT-4系列、Claude、Gemini的技术架构差异与应用场景适配性

· 国产模型:DeepSeek、通义、文心一言、智谱AI、Manus的垂直领域优势分析

· 开源模型:LLaMA、ChatGLM、Qwen、Baichuan的商业化应用可行性

模型评估方法论:建立多维度评估体系,包括常识推理、专业知识、数学能力、代码生成、安全性等基准测试,以及特定领域的评估指标设计

1.3 企业级大模型选型实战框架

构建系统化的选型决策框架,涵盖技术评估、成本分析和风险管控三个维度:

· 技术评估矩阵:包括模型性能、推理速度、上下文长度、多语言支持、微调灵活性等指标

· 成本效益分析:API调用成本、自建集群的固定投资与运营开销、人力成本等因素的综合评估

· 风险管控策略:模型备案要求、数据出境合规性、供应商锁定风险应对措施

实战案例研究:分析某央企运营商如何通过Proof of Concept(POC)测试,在多个候选模型中选定最适合其客服场景的大模型解决方案

下午模块二:高级提示词工程与思维链技术

2.1 提示词工程基础与核心框架

提示词是与大模型沟通的唯一渠道,优质提示词能显著提升模型输出质量

。掌握结构化提示词设计框架的六要素:

· 角色定义:明确模型在对话中扮演的专业角色

· 任务描述:清晰界定需要完成的具体任务

· 背景上下文:提供任务相关的背景信息

· 约束条件:设定输出格式、风格、长度等限制

· 示例示范:提供少量示例引导模型输出模式

· 目标风格:明确期望的输出风格和品质标准

进阶提示技巧:包括分步思维、自我验证、外部信息整合、迭代优化等高级方法,显著提升复杂问题解决能力

2.2 参数调优与输出控制技术

深入解析温度参数和top-p参数对生成质量的影晌机制:

· Temperature原理:控制输出随机性的数学基础,低温度(0.1-0.5)适用于事实性任务,高温度(0.8-1.5)适用于创意任务

· Top-p核采样:基于概率累积的动态词表选择机制,平衡生成多样性与质量

· 参数组合策略:根据不同应用场景配置最优参数组合的方案论

实战演示:展示同一提示词在不同参数配置下的输出差异,包括文本纠错、技术文档生成、创意内容创作等场景的参数优化策略

2.3 复杂推理与思维链框架设计

思维链技术通过引导模型展示推理过程,显著提升复杂问题解决的准确性。深入解析以下高级技术:

· 逐步推理技术:将复杂问题分解为多个推理步骤的方法论

· 自我批判与修正:引导模型对自身输出进行批判性评估的提示技巧

· 多视角思考:促进模型从不同角度分析问题的提示框架设计

案例研究:分析如何通过思维链提示词解决复杂数学问题、逻辑推理任务和多步骤规划问题

模块三:RAG知识库构建与LlamaIndex深度实践

3.1 RAG核心原理与系统架构

检索增强生成通过将外部知识库与大模型能力结合,解决专业领域知识不足和幻觉问题。深入解析RAG系统的核心组件:

· 检索器:基于语义相似度的向量检索与基于关键词的混合检索策略

· 生成器:如何将检索结果有效融入生成过程的机制设计

· 重排序:优化检索结果相关性的进阶技术

RAG适用场景分析:明确RAG在内部知识库问答、技术文档查询、合规检索等场景的优势与局限性

3.2 LlamaIndex核心架构与数据处理流程

LlamaIndex作为领先的RAG框架,提供了完整的数据连接、索引构建和查询处理能力。深入解析其核心架构:

· 文档加载与解析:支持PDF、Word、HTML等多格式文档的解析策略

· 文本分块优化:基于语义、令牌、固定大小等不同分块方法的对比分析

· 向量索引构建:高效向量数据库的选择与优化策略

高级特性解析:包括自动检索增强、多模态RAG、递归检索等进阶功能的实现原理与应用场景。

第二天培训内容

上午模块四:智能体原理与主流框架深度解析
4.1 智能体基础理论与架构设计

智能体系统通过工具使用、环境交互和自主决策,将大模型转化为主动的问题解决者。深入解析智能体的核心组件:

· 规划模块:将复杂任务分解为可执行子任务的规划能力

· 工具调用:扩展模型能力边界的外部工具集成机制

· 记忆系统:短期记忆与长期记忆的协同工作原理解析

智能体分类体系:基于反应型、模型反思型、顺序反思型的分类别解析,阐明各类智能体的适用场景与设计要点

4.2 LangChain核心组件与高级应用

LangChain作为最流行的智能体开发框架,提供了模块化的组件和丰富的集成工具。深入解析其核心架构:

· 链式结构:顺序链、条件链、转换链等不同链类型的应用场景

· 工具抽象层:标准化工具接口设计与复杂工具的组合策略

· 记忆管理:对话记忆、实体记忆等不同记忆类型的实现机制

实战案例:演示如何基于LangChain构建技术文档问答系统,涵盖文档加载、向量存储、检索链搭建等完整流程

4.3 LangGraph与AutoGen多智能体系统

多智能体系统通过智能体间的协作与竞争,解决超单智能体能力的复杂问题。深入解析以下高级主题:

· LangGraph有状态图:基于图结构的智能体工作流设计原理

· AutoGen多智能体框架:智能体间通信协议与协作机制的设计方法

· 智能体分工策略:基于专业领域、能力特长、资源约束的智能体角色划分方案

复杂系统设计:分析如何设计多智能体系统来解决软件设计、产品需求分析等复杂业务场景

下午模块五:大模型微调技术与LlamaFactory实践

5.1 大模型微调基础与算法原理

微调技术使基座模型适应特定领域和任务,是AI应用落地的关键环节。系统解析微调技术的算法演进:

· 全参数微调:理论基础、适用场景与资源需求分析

· 参数高效微调:LoRA、Adapter、Prefix-tuning等主流PEFT方法的对比研究

· 进阶微调技术:QLoRA量化微调、多任务学习、持续学习等高级技术解析

微调策略选择:基于数据量、任务复杂度、计算资源等因素的微调方案决策框架。

5.2 LlamaFactory微调框架深度实践

LlamaFactory作为高效微调框架,大幅降低了模型定制化的技术门槛。深入解析其核心特性:

· 统一配置接口:支持多种微调算法的标准化配置体系

· 训练优化技术:梯度累积、混合精度训练、模型并行等加速策略

· 评估与调试:训练过程监控、模型评估指标、常见问题调试方法

实战演示:展示从数据准备、配置设定、训练执行到模型导出的完整微调流程,涵盖代码生成、技术文档理解等具体场景

5.3 领域自适应与指令微调实战

针对企业特定场景的模型定制化需要专业的领域自适应技术。深入解析以下高级主题:

· 指令微调技术:提升模型指令遵循能力的训练方法论

· 领域知识注入:专业术语、领域逻辑、业务规则的有效注入策略

· 评估体系构建:建立领域特定的模型评估基准与测试体系

下午模块六:VIBE-CODING工具链与AI编程实践
6.1 AI辅助编程范式与工作流重构

VIBE-CODING通过深度集成AI能力,重塑软件研发工作流。解析其核心设计理念:

· 意图驱动编程:从代码实现到意图表达的程序设计范式转变

· 自然语言编译:将需求描述转化为可执行代码的技术原理

· 人机协同设计:开发者与AI工具的职责边界与协作模式优化

生产力提升评估:基于实际项目数据,分析AI编程工具在不同场景下的效率提升效果

6.2 企业级AI编程环境搭建与最佳实践

构建企业级AI辅助编程环境需要综合考虑安全、效率与合规性。深入解析以下主题:

· 工具链集成:IDE插件、代码仓库、CI/CD流程的AI工具集成策略

· 代码质量管控:AI生成代码的审查、测试与质量保证体系构建

· 安全合规考量:代码版权、漏洞预防、信息泄露防护等安全措施

实战工作坊:指导学员配置个人AI编程环境,并完成从需求分析到代码生成的全流程实践。

模块七:大模型工程化与MLOps实践

7.1 大模型系统架构设计与工程化挑战

企业级大模型应用需要应对高并发、低延迟、高可用的工程化挑战。解析核心架构组件:

· 推理服务优化:模型量化、动态批处理、持续批处理等推理加速技术

· 缓存策略设计:请求级缓存、结果缓存、中间结果复用的多级缓存体系

· 负载均衡机制:基于流量预测、资源利用率的智能调度算法

性能优化指标:响应延迟、吞吐量、成本效能等关键指标的定义与监控体系构建。

7.2 MLOps for LLM全生命周期管理

LLM Ops通过扩展传统MLOps,满足大模型特有的管理需求。深入解析以下主题:

· 数据管理:训练数据版本控制、质量检测、偏见消减的数据治理体系

· 实验管理:模型实验跟踪、比较分析、可复现性保证的标准化流程

· 部署运维:蓝绿部署、金丝雀发布、影子模式等安全部署策略

监控与迭代:模型性能监控、质量衰减检测、自动重训练等持续运维机制设计。

培训特色与教学方式

分层教学体系设计

本培训针对不同背景学员设计差异化学习路径

· 产品经理路径:侧重技术原理理解、应用场景识别、产品设计方法论

· 研发工程师路径:深入技术实现细节、架构设计原则、性能优化技巧

差异化实践案例:针对不同角色设计专属实践案例,确保学员能够将所学知识直接应用于实际工作场景

实战导向的教学方法

采用“理论-案例-实践”三重循环教学法,确保知识有效转化:

· 互动讲座:深入的技术原理讲解配以丰富的可视化展示

· 案例剖析:分析行业领先企业的AI应用实践与经验教训

· 动手实验:提供配置完善的实验环境,完成从0到1的技术实践

· 项目工作坊:小组协作解决模拟真实业务场景的综合性问题

授课老师

杨凯捷 AI应用实践专家

常驻地:北京
邀请老师授课:13439064501 陈助理

主讲课程:《AI赋能:DeepSeek助力办公效能提升实战课》 《生成式AI重构办公场景》 《AI自动化流程设计》 《AI大预言模型与多模态图片、视频生成》 《国内人工智能平台在工作中的实操应用》 《生成式人工智能图像处理平台的实操应用》 《GPT生成式人工智能的发展趋势展望》《华为企业业务渠道管理的方式与经验》 《互联网云业务生态战略与数字化变革》 《腾讯产业云计算解决方案的落地经验分享》

杨凯捷老师的课程大纲

微信小程序

微信扫一扫体验

扫一扫加微信

返回
顶部