跳到主要内容

课程库

更新时间:2025-08-17 10:50:25
课程名称课程简介
1从零开始玩转LLaMA Factory 大模型微调在人工智能蓬勃发展的今天,大模型已成为推动创新的核心引擎。然而,如何让通用大模型精准适配您的专属业务场景或垂直领域知识,解锁其真正的商业与研究价值?微调(Fine-tuning)是关键! 《从零开始玩转LLaMA Factory 大模型微调》课程,正是为您量身打造的高效入门与精通路径。本课程聚焦于当下最受欢迎的LLaMA Factory框架,带您从理论到实践,一站式掌握大模型定制化
2Deepseek部署和微调本课程系统讲解如何本地部署与高效微调DeepSeek系列大模型(如DeepSeek-7B/67B),涵盖环境搭建、模型加载、推理优化、数据预处理、LoRA微调、模型量化与Web服务部署等全流程,助你零基础掌握大模型实战技能
3从零开始玩转 LangGraph 与 Langfuse:AI Agent 全栈开发、部署与高效评估本课程专为有志于开发高级Agent的开发者设计,深度解析基于LangGraph和Langfuse的全栈开发流程。我们从Agent的基础概念入手,通过代码驱动的教学方式,带领您逐步掌握Agent的记忆系统、人机交互、并行化处理等核心技术,最终实现生产级应用的部署和监控。
4Qwen3-"VL"——超小中文多模态模型的“拼接微调”之路实践课程本课程是一门面向人工智能、计算机视觉和自然语言处理领域的进阶课程。课程聚焦于视觉-语言(Vision-Language,VL)模型的核心技术,通过深度解构和重新组合视觉编码器与大语言模型(LLM)的创新方式,系统性地探讨VLM的构建原理和实现方法。
5《Attention Is All You Need》论文精读2017年,一篇名为 "Attention Is All You Need" 的论文横空出世,彻底改变了自然语言处理(NLP)乃至整个深度学习领域的格局。该论文提出了一个革命性的神经网络架构——Transformer,它完全摒弃了此前主导序列建模的循环神经网络(RNN)和卷积神经网络(CNN),仅依靠自注意力机制(Self-Attention)来捕捉输入和输出之间的全局依赖关系。
6端到端与VLA自动驾驶小班课1)直击痛点,快速入门
本课程基于Just-in-Time Learning理念,通过通俗易懂的语言和案例,帮助学员短时间内掌握核心技术栈。理解关键概念后,拓展特定领域知识将变得更加轻松。
2)构建领域框架,提升研究能力
帮助学员梳理端到端自动驾驶的研究发展脉络,掌握领域核心框架。学会将论文分类、提取创新点,形成自己的研究体系和工作经验。
3)理论结合实践,学以致用
课程配有实战环节,完成从理论到实践的完整闭环。

更多AI课程持续更新...