深入学习各类技术知识
LLM Wiki:用结构化编译替代 RAG 检索的个人知识库实践
受 Karpathy "LLM OS" 理念启发,本文记录了使用 llm-wiki Skill 将《西游记》全文编译为结构化知识库的完整实验,并与传统 RAG(Dify 默认设置)进行对比,探讨两种知识管理范式的本质差异与适用边界。
Karpathy LLM Wiki:用 AI 编译知识,彻底告别 RAG 重复推导
本文带你从零理解 Karpathy LLM Wiki 的核心思想、三层架构与实现方式,看清它与 RAG 的本质差异,掌握构建个人 AI 知识库的最佳实践。
Claude Code 源码解析:10 个值得借鉴的算法与设计模式
基于 2026 年 3 月泄露的 Claude Code 512,000 行 TypeScript 源码,深入解析权限级联、流式工具执行、双缓冲渲染等 10 个生产级 AI Agent 设计模式,帮助开发者构建更可靠的 Agentic 系统。
Spring Boot 3 集成 LangChain4j 实现 RAG 知识库问答
手把手带你用 Spring Boot 3 + LangChain4j-spring-boot-starter 1.x 搭建一个可运行的 RAG 知识库问答 Demo,包含完整 pom.xml、配置、核心代码与踩坑指南,30 分钟跑通本地示例。
Claude Code 上下文管理算法深度解析:7 层递进式防御体系
深入解析 Claude Code 源码中的 7 层递进式上下文防御体系,从 Tool Result Budget 到 Reactive Compact,揭示其在 Prompt Cache 稳定性、CQRS 双视图、熔断器模式等方面的工程智慧,帮你构建更健壮的 AI Agent 系统。
Claude Code 记忆系统深度分析:基于源码泄露的三层架构解密
2026年3月31日 Claude Code 源码意外泄露,暴露了其完整的三层记忆架构。本文基于 512K 行 TypeScript 源码,深入解析持久记忆、会话记忆与团队记忆的实现机制、安全设计与 KAIROS 未来方向。
Kimi Attention Residuals:彻底重写 Transformer 残差连接的新底层框架
Kimi 团队于 2026 年 3 月发布 Attention Residuals(AttnRes),用深度方向的 Softmax 注意力替代固定等权累加残差连接,等效于 1.25× 计算量,GPQA-Diamond 提升 7.5 分。本文从原理到代码,带你全面理解这项 LLM 底层架构突破。
Harness Engineering:重塑Al Agent时代的软件工程
2026年最热工程范式!本文带你彻底理解 Harness Engineering 的核心原理、三大支柱与实战方法——从 OpenAI 百万行代码实验到 LangChain 排名从第30跃升第5,看清是什么决定了 AI Agent 的真实战斗力。
数字人完全指南:技术原理、主流模型与选型实战
数字人技术全栈入门指南。涵盖2D与3D实现原理、SadTalker/MuseTalk/Wav2Lip等主流模型深度对比、2026最新模型动态、产业链全景与保姆级选型决策树,适合AI初学者、短视频创作者与产品经理阅读。
AgenticRAG:智能体驱动的检索增强生成
深入解析 Agentic RAG 的核心原理与工作机制,从传统 RAG 的局限出发,揭示 AI Agent 如何驱动动态检索决策,覆盖单智能体、多智能体架构,以及 LangChain、LlamaIndex 等主流实现方案。
氛围编程实践指南:如何减少AI幻觉并构建模块化代码
深入探讨氛围编程(Vibe Coding)的最佳实践,从需求文档到模块化开发,系统性地减少AI生成代码中的幻觉问题,提升开发效率与代码质量。
DeepSeek mHC深度解析:流形约束超连接如何重塑大模型训练
深入解析DeepSeek最新发布的mHC论文,揭示流形约束超连接如何通过双随机矩阵约束解决大规模模型训练的稳定性难题,探讨其技术原理与行业影响。