跳过正文

LLM

writing-helper 深度解析:Next.js 15 流式多提供商写作助手(SSE + 统一代理)
·5 分钟
这篇文章基于源码实读,对 writing-helper 的架构与实现做“工程级”解析:如何在 Next.js 15 下,用统一代理层把 OpenAI / Grok / DeepSeek / Ollama 等提供商整合进一套流式(SSE)写作体验,并兼顾 CORS、安全与可用性。 本项目地址: writing-helper
uml-generate 深度解析:用多厂商流式 LLM 一键生成 PlantUML(前端纯实现)
本文基于源码实读,拆解 uml-generate 的工程实现:如何在“纯前端”环境下,串起多家 LLM 的流式输出,并将结果即时转译为可编辑、可导出的 PlantUML 图表。 项目地址: https://github.com/GeekyWizKid/uml-generate
GJavaDoc 深度解析:在 IDEA 内把遗留 Java 代码“清理出”可用接口文档
项目地址:GJavaDoc 本文基于源码逐行阅读的结果,对 GJavaDoc 的设计与实现做一份“工程级”的深度解析:为什么这样设计、关键权衡是什么、哪里容易踩坑,以及如何把它用在你自己的遗留项目里。 核心策略一句话概括——“事实交给程序,表达交给模型”。把能确定的事实(入口、签名、相关类型、代码片段、模块归属、历史产物)用静态分析和 PSI 拿稳,再让 LLM 按强约束的提示把事实“讲清楚”。这样文档才稳定、可复现、可增量、可并发生成。