课程简介
课程内容涵盖大模型与软件研发结合的全景架构,各个研发阶段 AI提效的具体实践案例、实际落地经验、避坑指南及持续优化策略,各大标杆企业实际的能够达到的提升效果与当前探索方向,以及AI应用的前沿趋势与软件研发范式变革相关内容。课程的内容全部来源于老师多年来在数万人研发规模企业深耕所积累的第一手实践经验,课程中将深入浅出地对AI时代研发效能提升的方方面面进行详细讲授与研讨,结合对客户实际问题的深度答疑,相信可以对参训企业带来实际的巨大帮助。
目标收益
1、AI大模型对研发效能的赋能价值
2、AI大模型与软件研发结合的全景架构
3、聚焦实战与案例解析,标杆企业的第一手资料
4、技术深度与效果并重,重点讲解如何取得成果
5、通过1000页精华内容,全面认知 AI 研效提升
6、给出企业面临实际困难的应对与解决之道
培训对象
1、软件开发、测试、质量、运维工程师、架构师
2、项目经理、产品经理、敏捷教练、DevOps工程师
3、研发基层/中层/高层管理者
4、研发效能实践者、DevOps转型推动者和实施者、研发效能度量设计和效能平台建设者
课程大纲
| 第一部分:AI 大模型辅助软件研发效能提升(AI4SE 企业真实落地最佳实践) |
(一)AI大模型对软件研发效能提升的帮助和效果 (1)AI 大模型在软件研发领域应用的主要场景及落地成熟度 (2)AI 大模型助力研发效能提升的实际效果,对结果指标的贡献 (3)AI 大模型辅助软件研发的能力模型:提升效果的七项关键能力 (二)AI大模型与软件研发结合点全景图 (1)AI大模型在研发各个阶段的结合点 (2)AI Agent 推动的研发范式变革 (三)AI大模型在开发阶段的结合点 (1)AI Coding(代码智能化)的主要产品形态及业界工具 (2)AI Coding(代码智能化)的技术变革演进路线及成熟度 (3)AI代码补全实践案例 ①AI代码补全的关键场景:代码续写(FIM)、代码改写(NES) ②AI代码补全的主流工具:GitHub Copilot、Cursor、国内各云厂商工具 ③AI代码补全的基础实现:技术原理、补全专用高精度大模型的落地实现 ④AI代码补全的关键技术:模型训练、模型推理、上下文管理、场景识别 ⑤AI代码补全的效果评估:度量指标与基准(采纳率、生成率、CPO等) ⑥AI代码补全技术框架的持续演进 ⑦AI代码补全的效果提升:公司内效果提升方法、业务定制私有化模型 ⑧AI代码补全的效果提升:落地应用的技巧 a.上下文优化策略、注释引导技巧 b.命名规范与模式识别、项目结构优化 c.高效编码工作流、特定场景的最佳实践 d.补全性能优化建议、常见问题解决办法 (4)AI代码生成实践案例 ①AI代码生成的关键场景:Ask、Agent、Background 模式及适用场景 ②AI代码生成的主流工具:Cursor、Claude Code、国内各云厂商工具等 ③AI代码生成的演进路线:从 Chat 到 Edit,再到 Agent ④AI代码生成的关键技术:上下文工程、Codebase、知识库、DeepWiki ⑤AI代码生成技术框架的持续演进 ⑥AI代码生成的效果评估:度量指标与基准(点踩率、行业各大评测集) ⑦AI代码生成的技术发展趋势:Vibe Coding 与 Spec Coding a.氛围编程与规约编程的多维度对比、适用场景、推荐工具 b.从氛围编程走向可行代码的四个关键实践 c.GitHub Spec Kit 的五阶段工作流及案例(实操演示) d.氛围编程如何确保代码质量及规范合规 ⑧AI代码生成的效果提升:落地应用技巧 a.Ask 模式 - 即时对话助手 b.Agent 模式 - 自主编程代理 c.Background 模式 - 后台异步代理 d.核心提示词结构框架及技巧:目标 + 约束 + 上下文 + 输出要求 e.Rules 使用技巧:文件结构、最佳实践、各语言常见 Rules 范例 f.Memory 使用技巧:主动告知、渐进完善、分类管理、定期维护 g.Indexing使用技巧:索引排除策略、团队协作、索引性能优化 h.Docs 使用技巧:配置文档源、精准提问、文档管理与优化 i.业界常用的 MCP 工具集合 j.常见模型选择策略:Claude、Gemini、GPT、DeepSeek… (5)AI代码评审实践案例 ①AI代码评审的关键场景:代码审查 & 修复闭环 ②AI代码评审嵌入研发流程:代码编写、代码提交与合流阶段 ③AI代码评审的数据构造与模型训练 ④AI代码评审技术框架的持续演进 ⑤AI代码评审与公司规范的深度集成 ⑥AI代码评审的效果评估:度量指标与基准(好评率、AI评审占比等) ⑦AI代码评审的效果提升:业务定制化规范与自迭代优化 (6)AI单元测试实践案例 ①AI单元测试的难点:如何达到高生成率与高准确率 ②AI单元测试的主流工具及相关案例 ③AI单元测试技术框架:多阶段、多Agent协同的自动化流水线 ④AI单元测试的效果评估:度量指标与基准(编译通过率、覆盖率) (四)AI大模型在测试阶段的应用与案例 (1)AI在软件测试阶段应用全景 (2)AI辅助测试用例治理的实践及案例 (3)AI辅助测试用例编写的实践及案例 ①基于思维导图形式的人机协同,实现测试用例智能生成 ②测试案例智能生成的核心要素:知识库的建设及导入 ③基于模型训练及RAG的测试用例生成实践 (4)AI辅助接口自动化测试生成的实践及案例 ①API 接口测试的智能生成工具 ②智能测试用例生成、智能测试数据生成、智能断言生成 (5)AI辅助GUI自动化测试生成的实践及案例 ①基于Browser-use + Playwright + Pytest + Allure 的实现方案 ②基于Midscene.js 的开源实现方案 (五)AI大模型在CI/CD阶段的应用与案例 (1)CI/CD错误智能定位及问题解决的实践及案例 (2)关键技术点:检索增强生成(RAG)、日志选取及压缩、提示工程 (3)CI/CD流水线的智能编排 (六)AI大模型在运维/运营阶段的应用与案例 (1)AI辅助监控告警配置的实践及案例 (2)AI辅助监控查询及告警摘要实践及案例 (3)AI辅助故障分析及故障定位实践及案例 (七)AI大模型在需求/迭代管理领域的应用与案例 (1)AI辅助需求归集与梳理 (2)AI辅助需求拆分与细化 (3)AI辅助需求评审与质量控制 (八)AI大模型在软件研发领域未来的形态探索 (1)数字员工的多角色引入与实践案例 (2)研发范式变革的具体化落地案例 |
| 第二部分:软件研发效能提升的行业案例与趋势洞察 |
(一)研发效能的系统性方法(行业效能基线数据与系统化模型) (二)研发效能黄金三角 V2.0(自创知识体系) (三)头部企业研发效能体系案例(独家内部资料) (1)案例企业 ①字节跳动 ②腾讯集团 ③阿里巴巴、蚂蚁集团 ④百度 ⑤华为 ⑥国外标杆公司(Google、Microsoft、Amazon等) (2)案例解析维度 ①研发效能组织结构(组织定位及团队划分) ②研发效能发展历程(研发效能演进路线) ③研发效能平台建设(工具平台建设及现状) ④研发效能实践体系(效能实践体系及特色) ⑤研发效能度量指标(度量指标体系及特色) ⑥研发效能的智能化探索(AI大模型最新落地进展) (四)研发效能度量基准报告及要点分析 (1)国内企业研发效能度量基准值(2024 & 2025 对比分析) (2)研发流程、工具平台、数据度量对研发效能的影响分析 (五)人工智能辅助软件研发的最新行业报告精华解读(2025) |
| 第三部分:课程整体总结及答疑 |
1、课程内容深化:结合学员问题,给出针对性指导建议(深度研讨) 2、开放性问题研讨:AI 时代对个人的转型要求及行业机遇(深度研讨) |
|
第一部分:AI 大模型辅助软件研发效能提升(AI4SE 企业真实落地最佳实践) (一)AI大模型对软件研发效能提升的帮助和效果 (1)AI 大模型在软件研发领域应用的主要场景及落地成熟度 (2)AI 大模型助力研发效能提升的实际效果,对结果指标的贡献 (3)AI 大模型辅助软件研发的能力模型:提升效果的七项关键能力 (二)AI大模型与软件研发结合点全景图 (1)AI大模型在研发各个阶段的结合点 (2)AI Agent 推动的研发范式变革 (三)AI大模型在开发阶段的结合点 (1)AI Coding(代码智能化)的主要产品形态及业界工具 (2)AI Coding(代码智能化)的技术变革演进路线及成熟度 (3)AI代码补全实践案例 ①AI代码补全的关键场景:代码续写(FIM)、代码改写(NES) ②AI代码补全的主流工具:GitHub Copilot、Cursor、国内各云厂商工具 ③AI代码补全的基础实现:技术原理、补全专用高精度大模型的落地实现 ④AI代码补全的关键技术:模型训练、模型推理、上下文管理、场景识别 ⑤AI代码补全的效果评估:度量指标与基准(采纳率、生成率、CPO等) ⑥AI代码补全技术框架的持续演进 ⑦AI代码补全的效果提升:公司内效果提升方法、业务定制私有化模型 ⑧AI代码补全的效果提升:落地应用的技巧 a.上下文优化策略、注释引导技巧 b.命名规范与模式识别、项目结构优化 c.高效编码工作流、特定场景的最佳实践 d.补全性能优化建议、常见问题解决办法 (4)AI代码生成实践案例 ①AI代码生成的关键场景:Ask、Agent、Background 模式及适用场景 ②AI代码生成的主流工具:Cursor、Claude Code、国内各云厂商工具等 ③AI代码生成的演进路线:从 Chat 到 Edit,再到 Agent ④AI代码生成的关键技术:上下文工程、Codebase、知识库、DeepWiki ⑤AI代码生成技术框架的持续演进 ⑥AI代码生成的效果评估:度量指标与基准(点踩率、行业各大评测集) ⑦AI代码生成的技术发展趋势:Vibe Coding 与 Spec Coding a.氛围编程与规约编程的多维度对比、适用场景、推荐工具 b.从氛围编程走向可行代码的四个关键实践 c.GitHub Spec Kit 的五阶段工作流及案例(实操演示) d.氛围编程如何确保代码质量及规范合规 ⑧AI代码生成的效果提升:落地应用技巧 a.Ask 模式 - 即时对话助手 b.Agent 模式 - 自主编程代理 c.Background 模式 - 后台异步代理 d.核心提示词结构框架及技巧:目标 + 约束 + 上下文 + 输出要求 e.Rules 使用技巧:文件结构、最佳实践、各语言常见 Rules 范例 f.Memory 使用技巧:主动告知、渐进完善、分类管理、定期维护 g.Indexing使用技巧:索引排除策略、团队协作、索引性能优化 h.Docs 使用技巧:配置文档源、精准提问、文档管理与优化 i.业界常用的 MCP 工具集合 j.常见模型选择策略:Claude、Gemini、GPT、DeepSeek… (5)AI代码评审实践案例 ①AI代码评审的关键场景:代码审查 & 修复闭环 ②AI代码评审嵌入研发流程:代码编写、代码提交与合流阶段 ③AI代码评审的数据构造与模型训练 ④AI代码评审技术框架的持续演进 ⑤AI代码评审与公司规范的深度集成 ⑥AI代码评审的效果评估:度量指标与基准(好评率、AI评审占比等) ⑦AI代码评审的效果提升:业务定制化规范与自迭代优化 (6)AI单元测试实践案例 ①AI单元测试的难点:如何达到高生成率与高准确率 ②AI单元测试的主流工具及相关案例 ③AI单元测试技术框架:多阶段、多Agent协同的自动化流水线 ④AI单元测试的效果评估:度量指标与基准(编译通过率、覆盖率) (四)AI大模型在测试阶段的应用与案例 (1)AI在软件测试阶段应用全景 (2)AI辅助测试用例治理的实践及案例 (3)AI辅助测试用例编写的实践及案例 ①基于思维导图形式的人机协同,实现测试用例智能生成 ②测试案例智能生成的核心要素:知识库的建设及导入 ③基于模型训练及RAG的测试用例生成实践 (4)AI辅助接口自动化测试生成的实践及案例 ①API 接口测试的智能生成工具 ②智能测试用例生成、智能测试数据生成、智能断言生成 (5)AI辅助GUI自动化测试生成的实践及案例 ①基于Browser-use + Playwright + Pytest + Allure 的实现方案 ②基于Midscene.js 的开源实现方案 (五)AI大模型在CI/CD阶段的应用与案例 (1)CI/CD错误智能定位及问题解决的实践及案例 (2)关键技术点:检索增强生成(RAG)、日志选取及压缩、提示工程 (3)CI/CD流水线的智能编排 (六)AI大模型在运维/运营阶段的应用与案例 (1)AI辅助监控告警配置的实践及案例 (2)AI辅助监控查询及告警摘要实践及案例 (3)AI辅助故障分析及故障定位实践及案例 (七)AI大模型在需求/迭代管理领域的应用与案例 (1)AI辅助需求归集与梳理 (2)AI辅助需求拆分与细化 (3)AI辅助需求评审与质量控制 (八)AI大模型在软件研发领域未来的形态探索 (1)数字员工的多角色引入与实践案例 (2)研发范式变革的具体化落地案例 |
|
第二部分:软件研发效能提升的行业案例与趋势洞察 (一)研发效能的系统性方法(行业效能基线数据与系统化模型) (二)研发效能黄金三角 V2.0(自创知识体系) (三)头部企业研发效能体系案例(独家内部资料) (1)案例企业 ①字节跳动 ②腾讯集团 ③阿里巴巴、蚂蚁集团 ④百度 ⑤华为 ⑥国外标杆公司(Google、Microsoft、Amazon等) (2)案例解析维度 ①研发效能组织结构(组织定位及团队划分) ②研发效能发展历程(研发效能演进路线) ③研发效能平台建设(工具平台建设及现状) ④研发效能实践体系(效能实践体系及特色) ⑤研发效能度量指标(度量指标体系及特色) ⑥研发效能的智能化探索(AI大模型最新落地进展) (四)研发效能度量基准报告及要点分析 (1)国内企业研发效能度量基准值(2024 & 2025 对比分析) (2)研发流程、工具平台、数据度量对研发效能的影响分析 (五)人工智能辅助软件研发的最新行业报告精华解读(2025) |
|
第三部分:课程整体总结及答疑 1、课程内容深化:结合学员问题,给出针对性指导建议(深度研讨) 2、开放性问题研讨:AI 时代对个人的转型要求及行业机遇(深度研讨) |
近期公开课推荐