Tag: LLM
All the articles with the tag "LLM".
-
Qwen3.6-Plus的启示——中国大模型在特定领域能打了
阿里千问Qwen3.6-Plus发布仅一天登顶OpenRouter全球日榜,中国AI调用量连续五周超越美国。这背后意味着什么?本文从技术、数据和生态三个维度深入分析。
-
Flash-MoE:在 MacBook 上跑 397B 参数大模型,4.4 token/s
一个开发者用 24 小时写出了 Flash-MoE,在 48GB MacBook Pro 上以 4.4 token/s 运行 397B 参数的 Qwen3.5 模型。只用约 6GB 内存,不需要云端 GPU。拆解它的技术原理:SSD 流式加载、Metal 着色器优化、MoE 稀疏激活。
-
MCP 2026 路线图解读:从本地工具到生产级 Agent 基础设施
MCP(Model Context Protocol)发布 2026 路线图,四大优先方向:传输层演进、Agent 通信、治理成熟化、企业就绪。从技术角度解读每个方向的具体问题和解决思路。
-
2026 AI 大模型全景对比:国内外 12 款主流模型实测
实测 12 款 AI 大模型(GPT-4o、Claude 3.5、Gemini 2.0、Qwen 2.5、GLM-4、Kimi 等),覆盖代码生成、中文写作、推理 6 大场景。附性能跑分、月费对比和选型决策树,帮你选出最适合的模型。
-
构建具有长期记忆的 AI Agent:从设计模式到生产实践
深入探讨如何为 AI Agent 构建情景记忆、语义记忆、过程记忆三种长期记忆系统,包含完整技术架构设计、代码实现和生产优化方案。
-
AI Agent 记忆系统实战:OpenClaw Memory 最佳实践
深入解析 OpenClaw 的记忆系统架构,从文件结构到检索优化,提供可落地的 AI Agent 记忆管理最佳实践