附录知识库
扩展知识和工具指南,帮助你深入了解AI辅助开发生态系统的各个组成部分。
📚 内容概览
本附录提供AI辅助开发相关的扩展知识,包括模型部署、编排框架、工具使用等实用指南。
🚀 模型与部署
深入了解如何部署和管理大语言模型:
- Claude Code 安装配置 - Claude Code 完整安装指南与多模型调用配置
- 模型部署指南 - Ollama、vLLM、LocalAI等本地部署方案
- 模型编排框架 - LangChain、LlamaIndex等编排工具对比
- 本地LLM托管 - 自托管大模型的完整方案
🔧 工具与平台
实用工具的部署和使用指南:
- OpenClaw部署使用 - 开源AI助手框架的部署与配置
- Docker全场景开发 - 基于容器的AI开发环境搭建
🗄️ 数据与知识
构建智能应用的数据基础设施:
🎯 使用建议
适合人群
- 需要本地部署模型的开发者
- 构建AI应用的架构师
- 探索自托管方案的团队
- 深入研究AI技术栈的工程师
学习路径
与主文档的关系
- 01-basics: 理论基础 → 了解"是什么"
- 02-advanced: 方法论 → 掌握"怎么做"
- 03-practices: 实战场景 → 应用到"具体场景"
- 07-appendix: 扩展知识 → 深入"技术细节"
📖 文档状态
| 文档 | 状态 |
|---|---|
| Claude Code 安装配置 | ✅ 已完成 |
| 模型部署指南 | 📝 编写中 |
| 模型编排框架 | 📝 编写中 |
| OpenClaw部署使用 | 📝 编写中 |
| Docker全场景开发 | 📝 编写中 |
| 向量数据库指南 | 📝 编写中 |
| RAG系统构建 | 📝 编写中 |
| 本地LLM托管 | 📝 编写中 |
🔗 相关资源
💡 贡献指南
这些文档基于最新的技术实践编写。如果你发现内容过时或有更好的实践,欢迎贡献:
- 提供最新的技术资料
- 分享实际部署经验
- 补充常见问题解答
- 优化示例代码
提示: 附录内容相对独立,可以根据需要选择性阅读。建议先完成主文档的学习,再深入附录内容。