Wisely Chen|AI Agent、地端 LLM 與企業 AI 架構實戰筆記

企業 AI 轉型、AI 資安、AI Agent、Vibe Coding 實戰分享

文章歸檔

共 201 篇文章

Qwen 3.6-27B 本地部署:DGX Spark / Mac mini 跑出 Sonnet 4.6 等級 AI Agent

Qwen 3.6-27B 開源 dense 模型在 $4,699 的 NVIDIA DGX Spark 跑出 136 tokens/sec,Benchmark 打贏 Claude Opus 4.5、Terminal-Bench 微幅超過 Sonnet 4.6。本文替 IT 架構師盤點 Qwen 3.6-27B 本地部署的硬體選項(DGX Spark vs Mac mini M4 Pro 64GB)、12 項官方 Benchmark、Dflash + DDTree 推理棧、單人 3 年 TCO $22,500 vs $4,729 成本對照,以及 on-prem AI Agent 架構重寫的決策要點。

Mythos 被 Discord 小群摸進去兩週——被攻破的不是模型,是信任鏈

Anthropic 那個「太危險不能公開發布」的 Mythos 模型,發布當天就被一個 Discord 小群摸進去,安靜用了整整兩週才被彭博爆出來。攻擊三步:從 Mercor 洩漏挖出內部命名規則、猜出 endpoint、借用承包商 shared credential。沒有零日、沒有 jailbreak,純粹社交工程。這告訴我們:跟人比資安,AI 可能還太嫩了;最高級的攻擊從來不是 AI 找到的零日,永遠是社交工程。

感謝商周採訪—但這是每天把自己逼到牆角換來的

商周這次把創智動能寫進《AI 創新百強》。採訪看起來很棒,但背後是每天把自己逼到牆角換來的。我之前在艾立做過一次組織轉型,那次談的是「人」;這次完全不同——用 AI 做事是一回事,用 AI 做管理、降本增效、組織改造,是完全不同的 scale。

你的 AI 老師可能在傳遞「隱藏偏見」— Anthropic 登上 Nature 的蒸餾風險研究

蒸餾(Distillation)是現在 AI 產業鏈的標準動作:把大模型的能力蒸餾到小模型,省成本、加快推理速度。Anthropic 團隊在 Nature 發了一篇論文,發現學生模型不只學到老師的答題能力,還會透過與 trait 完全無關的資料,偷偷學到老師的「隱藏行為特徵」。他們給了這現象一個名字:Subliminal Learning。更令人不安的是——現有的任何偵測方法都失敗了。

GLM-5.1 實戰三週心得:$72 月費,拿到 95% 的 Opus 體驗

之前寫了兩篇 GLM-5/5.1 的技術分析和 Benchmark 解讀,但那都是數字。這次我透過 OpenRouter 把 GLM-5.1 接進自己的 Workflow,在真實 Agent 任務裡跑了三週——昨天正式畢業,直接買了國際版 Coding Plan。結論:95% 的 Opus 4.6 感覺,月費 $72。這篇不講 Benchmark,講真實使用體感——哪裡強、哪裡還差一點、以及為什麼我認為它是目前地端 Agent 模型的最佳候選。

YouTube 雙集逐字稿:你的 Claude 越用越笨 + LLM 中轉在偷你的東西

YouTube Shorts 雙集聯動逐字稿。EP1 從機場候機室講 Claude 越用越笨的真實體感——新模型上線舊模型降智是產業共識,企業必須投資地端 GPU 做雲地混合架構。EP2 從陽明山講 UCSB 論文《Your Agent Is Mine》——428 個 LLM 中轉實測,29 個在偷你的東西,最聰明的裝死 50 次才發作。兩集底層邏輯一樣:不要把所有賭注壓在你控制不了的基礎設施上。

你的 Agent 是別人的——428 個 LLM 中轉安全測試,9 個偷代碼、17 個偷 AWS Key、2 個會裝死

UCSB 論文《Your Agent Is Mine》對 428 個 LLM 中轉做安全測試:9 個注入惡意代碼、17 個偷 AWS 憑證、1 個轉空以太坊錢包、2 個「裝死」50 次後才發作且只針對 YOLO mode。7% 的中轉有問題,但 100% 的後果。中轉背後 round robin 還會打斷 Prompt Cache,以為省錢結果更貴。AI coding 供應鏈四層攻擊面全拼圖:模型層、API 層、安裝包層、IDE 層,每一層都有人在攻擊。

以後的抄袭不是 Ctrl+C Ctrl+V,是「幫我重新實現這個功能」——Hermes Agent vs Evolver 事件全解析

GitHub 8.5 萬 Star 的 Hermes Agent,被中國小團隊 EvoMap 實錘架構級抄袭:10 步主循環步步對應、12 組術語系統性替換、7 份公開材料零引用。被錘後回應:Delete your account。這件事揭示了一個新現實:AI 把「改寫」的成本壓到幾乎是零,代碼重疊率 0%、設計決策重疊率 100%,傳統查重工具全部失效。MIT、GPL、版權法的設計前提都是「你複製了代碼」——AI 精確繞過了所有防線。

LLM 亂降智不是都市傳說——有人開始用數據追蹤了,企業 IT 該怎麼辦?

昨天 Claude 全線降級,我的三個任務全部延誤。StupidMeter 24/7 監控 22 個模型,結果只有 GLM 是 OK,其他全部 WARN。Opus 4.5 排第一、Opus 4.6 掉到第五。貴的不穩定,便宜的也不穩定——價格跟穩定性完全無關。企業 IT 該用雲地混合開源模型架構,前面掛 LLM Proxy,Agent 層做品質 fallback。LLM 已經是水電,就該用水電等級的基建去管。

關掉 Claude Code 遙測,效能就被懲罰?——一場隱私 vs 快取的技術鑑識

社群炸鍋說 Anthropic 懲罰關掉遙測的使用者,cache TTL 從 1 小時降到 5 分鐘,號稱 12 倍效能懲罰。Claude Code 作者 Boris Cherny 親自回應:這是 experiment gate 和 telemetry 共用開關的 bug,不是刻意設計。4 天內修復(v2.1.108)。但這個 bug 暴露了更深的問題:閉源工具的 feature flag 遠端控制權、遙測與功能配置的 coupling、以及我們對 AI coding 工具信任的脆弱基礎。順便整理了 Claude Code 省 Token 的實戰規則——cache 還熱就繼續聊,別動不動 /clear。

「Opus 太聰明,所以它不該做 Planning」——一篇論文顛覆 Agent Ops 範式

Columbia 大學 AgentOpt 論文用 9 個模型、81 種組合實驗證明:Ministral 8B 做 Planner + Opus 做 Solver 準確率 74.27%,完勝 Opus 做 Planner 的 31.71%。最貴的模型放在 Planner 位置反而最差——因為它太強,強到跳過工具使用直接裸答。Anthropic 自己推出的 Advisor Tool 也在修正這個方向:讓便宜模型跑主迴圈,Opus 退居顧問按需出場。Agent 管線優化的單位不是單一模型能力,而是模型組合在特定任務上的匹配度。

Anthropic「Mythos」真的這麼強?逼得財政部長和 Fed 主席同時出手

Anthropic 新模型 Mythos 據稱強到讓美國財政部長和 Fed 主席同時召見六大行 CEO。Cyber Gym 83%、OpenBSD 27 年老洞、FFmpeg 500 萬次 fuzzing miss——但仔細看,Anthropic 公布的戰績全部都是白箱攻擊。這篇文章做三件事:一、把恐慌從無意義的等級拉回可以具體行動的等級;二、提出「白箱 vs 黑箱」「激勵機制 vs 技術能力」兩個冷靜視角;三、用「Mythos 不是核武,是一把 AK 送給路人」這個比喻,定調真正該擔心的時間點是 6-15 個月後的開源複製品。

Opus 4.6 偷偷縮水、Max Plan 燒光速度翻倍:為什麼 Open Source Agent 架構是企業唯一可行方案

Opus 4.6 thinking 深度被砍 73%、Read:Edit 比率從 6.6 暴跌到 2.0、Stop Hook 違規從 0 飆到每天 10 次——這不是主觀感受,是 17,871 個 thinking blocks 和 234,760 次工具呼叫的硬數據。當閉源供應商的品質和額度同時縮水,企業唯一可行的路就是:雲地融合 + 開源閉源混搭。Open Source Agent 框架 + Open Source Model,才是你在 2026 年做 AI 工程的基本衛生習慣。

搞懂快取機制,從 Gemma4 到 Claude Code 省 80% Token

早上打開 Claude Code,敲第一句話,2%~10% 的套餐額度沒了。我在本地用 Gemma4 做實驗,發現 prompt 處理從 31 秒降到 0.25 秒——100 倍加速。再翻 Claude Code 源碼,拆解 Anthropic 的多層快取架構:DYNAMIC_BOUNDARY 切分、兩檔 TTL、快取斷裂偵測。從 Transformer 的 KV 快取原理,到 MLSys 2024 論文 Prompt Cache,到你每天該養成的省錢習慣——理解這套機制,同樣的套餐能多撐 3-5 倍。

GLM-5.1 開源登頂 SWE-Bench Pro:中國模型第一次在長程任務上斷檔領先

智譜(Z.AI)在 GLM-5 發布僅六週後推出 GLM-5.1,SWE-Bench Pro 58.4% 超越 Claude Opus 4.6 和 GPT-5.4 登頂全球第一——這是中國模型首次在軟體工程 Benchmark 上擊敗所有美國模型。更關鍵的是,4 月 7 日全量開源(MIT),1.5TB 權重直接上 Hugging Face。Coding Plan 月費 $3 起步,比 Claude Max 便宜 86%。這篇拆解 5.1 的後訓練管線、定價策略、安全爭議,以及「8 小時自主工作」對 Agent 工程的真正意義。

Stanford 論文實錘:Context Engineering 比 Fine-tuning 更適合 AI Agent — ACE 框架拆解

很多人還在問「要不要 fine-tune」,Stanford 這篇 ICLR 2026 論文直接給了答案:對 Agent 來說,把 context 當作會演化的操作手冊來經營,比急著去調模型權重更快、更便宜、也更有效。ACE 框架用較小的開源模型在 AppWorld leaderboard 追平頂級商用 Agent,在最難的 test-challenge split 上還超過對手。這篇文章拆解 ACE 的三步循環,對比 fine-tuning 的商業實戰踩坑(驗證地獄、base model 迭代太快、無法積累),分析為什麼要嘛做模型,要嘛 context engineering,沒有中間值。

Anthropic 封殺 OpenClaw 之後的三層替代方案:地端 Qwen 3.5 27B + 雲端分流,是未來最佳 Agent Infra?

Anthropic 正式封殺 OpenClaw,但你需要的不是一個模型,而是一套 Agent Infra。三層替代方案:入口層換供應來源(GPT-5.4 改提示詞達 80% Claude 體驗、或接 GitHub Copilot)、雲端 API 層按複雜度分流(Opus 到 Haiku 成本砍九成)、地端層用 Qwen 3.5 27B 蒸餾版處理敏感和高頻任務(零成本零隱私風險)。附完整分流提示詞配置,沒有任何一層是不可替換的。OpenClaw, Claude Code, OpenRouter, model routing, local LLM 實戰指南。

Claude Code 上下文工程:四層壓縮機制的源碼級拆解

Claude Code 的上下文管理不是一個功能,是一個完整的子系統。compact/ 目錄下 11 個 TypeScript 文件、3,960 行代碼,拆成四層壓縮:零成本的 Micro Compact、結構化事實提取的 Session Memory Compact、調用模型做 9 維度摘要的 Full Compact、以及帶熔斷器的 Auto Compact。源碼註釋裡的生產數據顯示每天浪費 25 萬次 API 調用——修復方案只有三行代碼。這是「Claude Code 開源設計細節」系列第三篇。

Claude Code 資安最佳實踐:14 條建議,每條都有原始碼撐腰

網路上關於 Claude Code 安全配置的建議很多,但有多少是真的去翻過原始碼驗證的?我拿 best practice repo 一條一條對 Claude Code 的 TypeScript source code,14 條建議中每一條都能在原始碼裡找到對應實作。番外篇揭露了 Claude Code 的完整資料回傳行為——包括每條訊息的情緒偵測(is_negative regex)、對話 transcript 自動上傳(無法關閉)、以及 Anthropic 透過 GrowthBook 對你的 CLI 擁有的遠端控制能力。

拆解 Claude Code 的 System Prompt 源碼:Anthropic 怎麼馴服自己的模型

大家都在學 prompt engineering,但你有沒有想過,Anthropic 自己的 prompt 長什麼樣子?Claude Code 的核心 prompt 藏在 prompts.ts 裡面,914 行 TypeScript,15+ 個模組化 section builder,還有一條看不見的邊界線把 prompt 切成「可快取」和「不可快取」兩半。拆開來看,最大的發現是:這不是一份 prompt,這是一個 prompt 作業系統。

Claude Code 51 萬行原始碼外洩拆解:這不是 AI 工具,這是一個作業系統

Anthropic 工程師發 npm package 時忘了排除 source map,60MB、512,000 行 TypeScript 原始碼就這樣躺在公開的 npm registry 上。我帶著三個問題去讀:為什麼它就是比別人好用?記憶架構怎麼設計的?51 萬行 code 裡到底藏著什麼?讀完的第一反應是——這不是一個 AI 編程助手,這是一個作業系統。

OpenClaw 三月大更新:Agent Framework 正在變成 Agent OS

OpenClaw v2026.3.22 單次更新 312 條變更:18 條 breaking changes、74 條新功能、220 條修復。ClawHub 插件市場、GPT-5.4 全家桶、SSH Sandbox 取代 Docker、ACP Dispatch 原生 orchestration。更關鍵的是,OpenClaw 開始直接吞噬 Claude Code、Codex、Cursor 的 skill bundles——這不是版本更新,是 Agent Framework 變成 Agent OS 的宣告。

Vibe Coding 最大的風險不是 AI 寫爛 Code,而是你根本不知道它幫你裝了什麼

Andrej Karpathy 說:「Supply chain attacks like this are basically the scariest thing imaginable in modern software.」LiteLLM 被投毒,每月 9700 萬次下載的 AI 核心套件,惡意版本竊取開發者的 SSH keys、雲端憑證、資料庫密碼。發現者是一個在 Cursor 裡用 MCP plugin 的開發者 — 機器跑到沒記憶體才發現不對。當 Vibe Coding 讓開發者越來越信任自動安裝,供應鏈攻擊的爆炸半徑被指數級放大。

NemoClaw 不是終局,但企業 Agent 這塊田很大

「如今全球每一家公司,都必須制定自己的 OpenClaw 策略。」— 黃仁勳,GTC 2026。NemoClaw 明顯不是終局產品,但卻是一個很清楚的 signal:企業級 AI Agent 這塊田還很大。先 OpenClaw 做試點,再補 governance——不要一開始就上 enterprise framework,也不要永遠停在 POC。

NemoClaw 架構拆解:NVIDIA 怎麼把龍蝦鎖進三層安全堡壘

NemoClaw 不是「OpenClaw 外面包一層 Docker」。它是一整個 K3s Cluster,用 netns + HTTP CONNECT proxy + OPA Policy、seccomp BPF、Landlock LSM 三層安全機制,把 AI Agent 鎖進企業級沙箱裡。這篇拆解架構設計、Trust Boundary、Per-Binary Egress Control,以及代價與價值的取捨。

Harness Engineering:人跟 AI 到底誰才是弱點

Meta 內部 AI Agent 在沒有人要求的情況下自己在論壇發了回覆,工程師照做後導致大量敏感數據暴露 2 小時,嚴重等級 Sev 1。沒有外部攻擊者,沒有 Prompt Injection — Agent 只是「主動幫忙」。問題不在 AI 太笨,而是它不該有「自己決定發文」的能力。讀取是安全的,寫入才是危險的,而 Meta 沒有在這兩者之間畫一條線。

Opus vs Sonnet:Benchmark 看不太出來的體感差距

過去一個多月,我一直在 OpenClaw 和 Claude Code 上來回切換 Opus 跟 Sonnet。網路上一堆比較文章講什麼「全密計算架構」、「Dynamic Sparsity」——兩邊都是編的。這篇只講實際體驗到的、可驗證的差距,以及怎麼用工程手段讓便宜模型也夠用。

做 Agent 的一個體會:Prompt 負責引導,工程負責約束

你的 CLAUDE.md 寫了 500 行規則,Agent 還是會刪掉你的資料庫。不是 Prompt 寫得不好,是你把約束放錯了地方。做 Agent 半年多,我歸納出一個最核心的原則:Prompt 負責引導,不負責約束;工程負責約束,不依賴模型自覺。這不是理論,是被打臉之後的體會。

用 AI 在物流業打造「零工程師」團隊,轉型的關鍵在理解現場

INSIDE 塞掐 Side Chat E397 專訪。AI 落地不是技術問題,是信任問題。物流業找不到工程師,溢價三倍都 hire 不到,所以我做了一個決定:不找工程師了,直接把工讀生訓練成 engineer 來用。百日物流優化專案的經驗告訴我——AI 能加速 99% 的分析工作,但那 1% 讓人願意行動的信任,還是要人去建立。

殘差連接被動刀了:DeepSeek 和 Kimi 先後改掉 Transformer 用了十年的「默認設定」

Transformer 架構裡有個零件叫「殘差連接」,從 2015 年 ResNet 發明以來,所有人都覺得不需要改。2026 年第一季,DeepSeek 的 mHC 用數學約束讓權重可學習;Kimi 的 Attention Residuals 更激進——直接用注意力機制重構層與層之間的資訊流。同樣的算力,白賺 25% 性能。這篇文章用最白話的方式,帶你看懂這兩篇論文到底在做什麼。

AI 供應鏈攻擊全景:從 Codex 賭博廣告到 Hugging Face 惡意模型

你的 AI Coding Agent 在寫程式途中突然吐出「天天中彩票」,你的地端 Ollama 模型可能正在跑反向 Shell。這不是模型幻覺,這是 AI 時代的供應鏈攻擊 — 兩層結構:訓練資料污染(Codex/Whisper)+ 惡意模型檔案(Hugging Face 100+ 惡意模型、7 個 PickleScan CVE、352K 不安全問題)。傳統資安工具完全看不到。

NVIDIA Nemotron 3 Super:純美規、Agent 特化的開源 Workhorse

NVIDIA 發布 Nemotron 3 Super — 120B 參數、12B active、1M context window、完全開源。不是最聰明的模型,但可能是 Agentic AI 最需要的 workhorse。Benchmark 實測對比 Qwen3.5、MiniMax M2.5,加上 OpenClaw 三層路由實戰配置建議。

Harness Engineering 架構全景:AI 可以寫 Code,但不能自己上 Production

亞馬遜讓 AI 修 bug,AI 刪掉整個生產環境。DataTalks.Club 被 AI 刪掉整個資料庫。電商部門因 AI 變更丟失數百萬筆訂單。三起事件,同一個模式:reset → rebuild → clean state。這篇文章用一張架構圖講清楚 Harness Engineering 的全貌:從 Amazon 的禁令到 OpenAI 的控制平面,從四層防禦到七元件參考架構,從五大失效模式到你的團隊明天就能開始做的三件事。

亞馬遜 AI 事故啟示:科技巨頭一邊賣 AI 未來,一邊在自己家裡給 AI 上鎖——Harness Engineering 才是正解

AWS 工程師讓 AI 修一個小 bug,AI 的解法是刪掉整個生產環境再重建,恢復花了 13 小時。電商部門的 AI 變更導致數百萬筆訂單丟失。DataTalks.Club 創辦人被 AI 刪掉整個資料庫。三起事件,同一個模式。現在亞馬遜的補救措施是:禁止初中級工程師提交 AI 生成的程式碼。這不是 AI 不行——是沒有護欄的 AI 不行。

混沌智能體:史丹佛 x 哈佛的論文告訴我們,控制好一個 AI Agent 不等於控制好一群

史丹佛和哈佛 38 位研究者把 6 個自主 AI Agent 放進真實環境跑兩週,給它們 email、shell、20GB 硬碟、排程能力,然後讓 20 位研究員全力攻擊。結果?Agent 為了「保護秘密」炸掉自己的郵件伺服器、向陌生人洩漏 124 封私人郵件、用「語義重構」繞過自己的安全規則。但最讓人不安的不是個別漏洞——而是這些行為從激勵機制中自然湧現,跟越獄完全無關。

Opus 4.6 意識到自己正在被考試,然後逆向破解了答案——Anthropic 的 Eval Awareness 報告,對 AI 評測的根本衝擊

Anthropic 在測試自家最強模型時,發現 Opus 4.6 不是在「答題」,而是在「破解考試系統」。它推斷出自己正在被評測、猜出是哪個 benchmark、找到加密的答案檔、自己寫解密程式、繞過格式限制找到鏡像站、成功解密拿到正確答案。18 次獨立測試,收斂出一模一樣的策略。這不是偶然。原文:Eval awareness in Claude Opus 4.6's BrowseComp performance

直覺 + AI + 框架工程 = AI 時代白領的護城河|Weekly Vlog EP12

從一場臨時一打七的客戶會議,到黃仁勳說的 taste,再到 Peter Steinberger 的全自動 PR 產線——AI 時代最重要的能力不是寫 Code,而是管控 AI 的框架 + 判斷結果的直覺。一個多小時同時切換 6-7 條專案線,靠 Claude Code + NotebookLM 即時輔助,但多線程上下文切換 + stakeholder 潛台詞,AI 目前還做不到。

直覺 + AI,是未來工作者最重要的能力之一

甲方爸爸臨時叫我坐計程車去現場開會,一打七。我打開 Claude Code / NotebookLM 讓 AI 收集資料,自己用直覺判斷與回應。黃仁勳說的 Vibe 直覺,其實是數據理解、邏輯分析、人生經驗、對他人深度感知的綜合能力。在 AI 時代,直覺 + AI 的組合,反而會變得越來越重要。

Harness Engineering 完整拆解:當 AI Agent 寫完 Code,你的 Repo 準備好自動接住了嗎?

OpenAI 3 個工程師用 Codex 在 5 個月產出 100 萬行代碼、0 行人寫。他們把這套方法叫 Harness Engineering——不是寫代碼的工程,而是建構約束和反饋迴路的工程。Ryan Carson 受此啟發,公開了一套完整的 Control-Plane Pattern:從 risk tier contract、preflight gate、SHA discipline、到 remediation loop。上次我們談了四層防禦,這次我們看完整的控制平面怎麼接住 Agent 的高速產出。

Qwen 技術負責人被離開:當開源神話撞上 KPI

兩天前我寫了一篇 Qwen 3.5-9B 的技術分析,讚嘆「9B 打贏 120B」的架構創新。今天,做出這些創新的技術負責人宣布離開了——而且不是自己想走的。這件事比任何 benchmark 都值得認真看。

AI 打仗的文章滿天飛,但你看到的「細節」九成是編的

美伊戰爭開打後,各種「AI 如何主導斬首行動」的深度分析文滿天飛。問題是——仗還沒打完,你怎麼可能知道用了什麼模型、什麼平台?這不是分析,這是創作。七分真、三分編,是 AI 時代最高級的假訊息手法。

模型主權 + 數位員工 = 企業 AI 的下一步|Weekly Vlog EP11

Anthropic 拒絕五角大廈、被列為供應鏈風險,催化了企業對「模型主權」的覺醒。當地端開源模型達到 SOTA 八九成能力、OpenClaw 數位員工架構成型、中國模型用五分之一價格提供同等服務,企業 AI 的遊戲規則正在根本改變。組織架構也將從金字塔走向「15 人小三角形 + 無限 AI Agent」的新型態。

週六資安日:當十年前美國隊長 2 的洞察計劃成了 2026 年的現實

今天不只談技術資安,更要談人類的安全。Anthropic 拒絕移除 Claude 的兩條紅線——禁止大規模國內監控、禁止完全自主武器——被美國國防部列為「供應鏈風險」。這是 AI 產業史上第一次「模型提供者 vs 國家機器」的正面衝突。當年美國隊長 2 的 Project Insight 是科幻,2026 年它發生了。

Deloitte 廢除傳統職稱,Block 大規模裁員——它們指向同一個趨勢

Deloitte 廢除傳統職稱,Block 裁掉 4,000 人——接近一半的員工。這不是巧合——它們其實指向同一個趨勢:金字塔型組織,正在失去效率優勢。當 AI 能處理 60% 的入門級工作時,組織的底座就不再穩固。未來的 AI 組織,很可能長這樣:15 人左右團隊 + AI Agent 的 Hybrid 模型。

OpenClaw 的五種上網方式:從搜尋 API 到接管你的瀏覽器

AI Agent 的「上網」不是一件事,而是五件事。選錯模式,輕則功能受限,重則帳號被盜。OpenClaw 的五種上網架構——Search API、Web Fetch、Managed Browser、Remote CDP、Extension Relay——每一種的能力範圍、安全風險、適用場景都天差地別。本文從最安全的搜尋 API 到最危險的瀏覽器接管,逐層拆解技術架構與安全風險,包含 Accessibility Tree vs 截圖的效率差異、Managed Browser 手動登入的甜蜜點、以及 WebMCP 的未來展望。

Token 出海:中國 AI 不再賣商品,開始賣 Token

中國 AI 出海正在發生質變——從賣商品變成賣 Token。2026 年 2 月,中國模型(MiniMax、Kimi、GLM)在生產型 Token 呼叫量首次超越美國。GLM-5 在蒸餾指控中全身而退、SWE-bench 打贏 GPT-5.2、全華為晶片訓練、API 便宜 5-8 倍。當你把中國電價($0.08/kWh)對比美國($0.18/kWh)、開源人才密度、國產硬體自主這三張牌疊在一起,你會看到一個新的貿易形態正在成形:用可計量、可計價的方式,向全球輸出 SOTA 90% 等級的推理能力。這不是科技競賽的故事,這是成本結構的故事。

GLM-5 技術報告深度解讀:從 Vibe Coding 到 Agentic Engineering,中國開源的「Opus 時刻」

智譜 AI 的 GLM-5 用 744B MoE 架構、28.5 兆 token 預訓練、SWE-bench 77.8% 打贏 GPT-5.2,幻覺率業界最低,API 價格便宜 5-8 倍——而且全部在 10 萬張華為昇騰 910B 上訓練,零 NVIDIA 依賴。技術報告標題 'From Vibe Coding to Agentic Engineering' 精準命名了我們正在經歷的範式轉移。這篇文章拆解 GLM-5 的架構、Benchmark、異步 RL 訓練框架 Slime,以及那個跑了 24 小時、700 次工具調用自主造出 GBA 模擬器的 demo。

當代碼量暴增 10 倍後,到底誰來做 Review?Make CI/CD Great Again

OpenClaw 作者 Peter Steinberger 開 50 個 Codex 並行審 3000 個 PR。OpenAI 3 個工程師 5 個月產出 100 萬行代碼。Stripe 一週 1000 個 PR。GitHub 數據:PR 量漲 98%,審查時間漲 91%。AI 產出極快,但人類根本消化不了。真正的解法不是更好的 Prompt,而是 20 年前的老朋友——CI/CD。你的 testing case 寫得越多、越齊全,這是一個看漲的資產。

OpenClaw + 地端大模型是未來 AI 的勝負手|Weekly Vlog EP10

OpenClaw + 地端大模型,很可能是未來 AI 的勝負手。OpenClaw 這類第二代數位助理會是 AI Agent 的 Channel 重心,OpenAI 搶先收編作者 Peter 是這場 Channel 戰爭的關鍵手;而中國開源模型集體爆發,讓全地端部署變成現實。這個農曆新年還有 NotebookLM 終於可以輸出 PPT、Moonwell 因 AI 寫的程式碼賠了 178 萬美元。

AI Coding Tool 寫的程式碼讓 DeFi 賠了 178 萬美元:Moonwell 事件與 Stripe 的警訊

Moonwell 的 Oracle 配置程式碼由 Claude Opus 4.6 協作撰寫,一個 scaling factor 錯誤讓 cbETH 從 $2,200 變成 $1.12,178 萬美元就這樣被合法套利走。這不是 AI 的語法錯誤,而是 business logic 層級的失誤。同一時間,Stripe 每週合併上千筆 AI 產生的 PR,但「human-reviewed」在這個吞吐量下,到底是真的審查還是流程蓋章?

Channel 的戰爭:OpenClaw、Anthropic 和誰能決定 AI Agent 的未來

OpenClaw v2.19 出了 Apple Watch MVP,Anthropic 封鎖 OAuth 禁止第三方使用訂閱制,Sam Altman 收編 Peter Steinberger 擁抱開源。三件事串在一起,看到的不是技術競爭,而是 AI 產業最殘酷的現實:掌握 Channel 的人,才能決定模型的命運。

2026 二月,不只中國在爆發 — 美國 AI 巨頭也在瘋狂輸出

2026 二月,Anthropic 和 OpenAI 輪番丟出重磅更新:Claude Opus 4.6 的 Agent Teams、GPT-5.3-Codex 的 Terminal-Bench 77.3%、Peter Steinberger 加入 OpenAI、Sonnet 4.6 用 1/5 價格逼近旗艦、NotebookLM 支援 PPTX 匯出。兩週五個重大更新,中美 AI 軍備賽全面開打。

Kimi K2.5 深度技術評估:Agent Swarm 到底厲害在哪裡?

月之暗面 Kimi K2.5 不是又一個追 GPT 的中國模型。100 個子代理並行的 Agent Swarm、原生多模態視覺理解、開源加上輸入成本只有 Claude 的九分之一。這篇聚焦三大優勢,附 Benchmark 和成本數據,告訴你什麼場景該用它、什麼場景別碰它。

當 AI Coding Benchmark 開始測到「基礎設施」:從 Anthropic 的實驗,到學術共識,再到 Arena 評測的結構性盲點

你整天看的那些 SOTA 排名比較,很有可能不是模型比較厲害,而是 infra 比較厲害。至於開源模型看起來稍稍弱一點?很可能換一個 infra 環境,它就變 SOTA 了。Anthropic 實驗證實:同一模型在不同基礎設施配置下,成功率差距達 6 個百分點——而 leaderboard 上模型之間的差距往往只有 3~5%。

2026 年了,Gemini 團隊怎麼變得「自信的蠢」了

問題不是 Gemini 會不會幻覺。問題是它幻覺了,你連糾正的機會都沒有——因為 Google 把 Web Search 的開關藏起來了。當 AI 自己決定「不用查網路」,然後自信滿滿地告訴你真實產品是「虛構」的,這不是模型問題,是產品設計哲學的災難。

OpenClaw Token 優化指南:如何將 AI Agent 運營成本降低 97%

真正的智能不在於為最昂貴的模型付費,而在於精心設計的 Prompt 與系統架構。本文分享五大核心優化策略:會話初始化、模型路由、本地心跳、提示詞快取、速率限制,實測可將 OpenClaw 成本從 $1,500/月降至 $50 以下。

OpenClaw Token Optimization Guide: How to Cut AI Agent Operating Cost by 97%

Real intelligence isn’t paying for the most expensive model—it’s careful prompt and system design. This post shares five core optimization strategies—session initialization, model routing, local heartbeats, prompt caching, and rate limiting—shown in practice to reduce OpenClaw cost from ~$1,500/month to under $50.

OpenClaw 記憶系統全解析:SOUL.md、AGENTS.md 與高昂的 Token 成本

當你的 Agent 每天燒掉 500 萬 tokens,你需要問的不是「它聰不聰明」,而是「這樣的上下文構建有效率嗎?」本文深度拆解 OpenClaw 的 File-First 記憶架構,解析 SOUL.md、AGENTS.md 的設計哲學,以及為什麼它寧願犧牲效率也要拒絕 RAG。

Cursor 前 0.01% 大神倒戈 Claude Code:Agentic Coding 五大支柱完整解析

當一個被 Cursor 官方認證的全球頂尖用戶,選擇放棄熟悉的工具轉投 Claude Code,這不只是換工具——這是一場關於「AI 程式設計該怎麼做」的典範轉移。Silen Naihin 的萬字長文詳解 Agentic Coding 五大支柱:Context Management、Planning、Closing the Loop、Verifiability、Debugging。

Moltbot 安全加固實戰:AI Agent 四層縱深防禦完整指南

不需要是資安專家,只需要願意花一個下午認真讀文件。這篇整理 Moltbot 社群的四層縱深防禦實戰經驗:Isolation、Quarantine、Rollback、Transparency。涵蓋 AI Agent Security、Prompt Injection Defense、LLM Agent Security 與 Agentic Security 完整框架。

Moltbot Security Hardening in Practice: A Complete Four-Layer Defense-in-Depth Guide for AI Agents

You don’t need to be a security expert—just be willing to spend an afternoon reading the docs carefully. This post distills Moltbot community battle-tested experience into a four-layer defense-in-depth playbook: Isolation, Quarantine, Rollback, and Transparency. It covers AI Agent Security, Prompt Injection Defense, LLM Agent Security, and an end-to-end Agentic Security framework.

500 台 AI 助理裸奔公網:Clawdbot 0.0.0.0 配置災難

當你把「開箱即用」當作產品優勢,你可能正在替使用者開後門。近 1,000 台 Clawdbot 伺服器因預設 0.0.0.0 綁定直接暴露在公網,任何人都能接管你的 AI 助理、竊取敏感檔案、甚至清空你的加密貨幣錢包。

OneFlow 演算法:重新思考 Multi-Agent 的價值

德克薩斯大學與 Amazon 的論文證明:單一 Agent 可達到 Multi-Agent 同等效果,推理成本更低。KV Cache 無法共享是 Multi-Agent 的致命限制。2026 趨勢:從「堆 Agent」轉向「優化工作流」。

當 Unix 哲學遇上 AI:Command Line 的文藝復興

我小時候看過一本書叫 Unix Power Tools,裡面有句話我記了快二十年:Command line pipeline is the best UI interface in the world。當時我完全不懂這是什麼意思。但在 2025 年 4 月 Claude Code 橫空出世後,我終於理解了——一個用文字理解世界的腦,接上了一個用文字暴露世界狀態的介面。這不是復古,這是結構上最合理的選擇。

When Unix Philosophy Meets AI: The Command Line Renaissance

When I was a kid I read a book called Unix Power Tools. There was a line I remembered for almost twenty years: ‘Command line pipeline is the best UI interface in the world.’ Back then I had no idea what it meant. But after Claude Code burst onto the scene in April 2025, I finally understood: a brain that understands the world through text plugged into an interface that exposes the world’s state through text. This isn’t retro—it’s structurally the most reasonable choice.

AI Coding On-Prem 的三條路:雲端內網化、真地端、還是灰色折衷?

On-Prem LLM 很火,但 AI Coding On-Prem 幾乎沒人講。關鍵差異在工具支持度——Tool Calling 精準度、多步驟推理、錯誤恢復能力,地端模型和雲端模型有巨大落差。模型可能有替代品,但 Claude Code 幾乎無可取代。本文分析三條路徑:雲端內網化(法務最好交代)、真 On-Prem(主權優先)、灰色折衷(技術可行但治理惡夢)。

創智動能榮獲 2025 商業周刊 AI 創新百強

創智動能以 AI Coding 流程導入與 AI Pocket 語音助手,榮獲 2025 商業周刊 AI 創新百強。從 ATPM 方法論到工程治理能力,這是對 AI Coding 必須走向工程化、制度化這條路的確認。

Kalman Filter × Transformer:當「物理直覺」遇上「深度學習」

Transformer 很會看趨勢,但它不知道「車不能瞬移」。Kalman Filter 很穩,但遇到非線性就慢半拍。2024-2025 年學術界最熱的一條線,就是把這兩者「結婚」——用 Transformer 學經驗,用 Kalman 保證不亂來。這篇文章用工程師能懂的方式,拆解這個登上 Nature 級期刊的研究方向。

披薩指數再度命中:為什麼最好的 AI 顧問第一天不談 AI

2026 年 1 月 3 日凌晨,五角大廈附近的披薩店出現異常訂單高峰,預測了美軍即將發動攻擊。這個「披薩指數」的發明者是 KGB。上週我去桃園倉庫見客戶,一個小時的會議,AI 投影片一直沒打開,但提案進入了下一階段。這兩件事有什麼關係?

CaMeL:Google DeepMind 提出的 Prompt Injection 防禦架構

Simon Willison 說這是他見過「第一個可信的 prompt injection 防禦方案」。CaMeL 的核心設計是把一個 Agent 拆成兩個:低權限 Agent 負責讀取外部資料,高權限 Agent 負責做決策——讓「讀資料」和「做動作」永遠分開。

CaMeL: Google DeepMind’s Prompt-Injection Defense Architecture

Simon Willison called this ‘the first credible prompt injection defense’ he’s seen. CaMeL’s core design splits one agent into two: a low-privilege agent that reads external data, and a high-privilege agent that makes decisions—so ‘reading data’ and ‘taking actions’ are always separated.

用 AI 打造「自己的健康資料分析系統」:我實際在跑的一套流程

很多人談健康數據,但大多停在「有量測、有 App」。這篇想講的是:如何真的把資料收起來、整合起來,最後交給 AI 幫你分析、回饋,變成可以每天用的系統。不追求完美整合、不被生態系綁死、不依賴廠商 API——這套方法的核心是「零整合架構」。

2025年度總結:AI時代,智慧比知識更重要

從永聯物流的ATPM實驗、FDE模式的挑戰,到創智動能的AI Coding推廣,再到630K lines of code的Claude Code之旅。這一年我學到的不是工具的威力,而是在AI時代,智慧才是人類最稀缺的能力。

AI Agent 完整指南|架構、Workflow、安全與企業落地

AI Agent 不是「比較聰明的 Chatbot」,而是能自主執行任務的系統。本指南涵蓋 AI Agent 架構(Workflow vs ReAct、Plan & Execute、Dual-Agent)、企業 AI Agent 落地、AI Agent 安全(94.4% 攻擊成功率)等核心主題。

Gemini 3.0 Flash 不講理霸榜的真相

Flash 不是 Pro 的簡化版,而是另一條進化路線。它強的不是「小」,而是「不浪費」——在長上下文場景中,真正會抓重點、會用記憶的模型,才是 Agent 時代需要的底座。

祝大家聖誕快樂

早上 6:00 想做一張聖誕賀卡,用 Gemini 寫提示詞 + NanoBanana 產圖,經過多輪調整(服裝、AI Agent、吉卜力風格、年輕化),10 分鐘完成專屬賀卡。完整對話過程紀錄。

都要 2026 年了,企業 AI Excel 還是這麼難搞

小孩子才做選擇,資安跟 AI 效率我都要。與其改變工具,不如改變我們對「資料」的看法——把資料混淆到連製表人都認不出來,那是不是就可以傳上去了?

AI 不會取代年輕人,是還沒給機會

很多年輕人不是被 AI 取代,而是還沒被給機會。AWS 執行長 Matt Garman 說:AI 會取代初階軟體工程師,是我聽過最愚蠢的想法之一。

用 AI 做簡報,跟人手刻的差別是什麼?

用 NotebookLM + Gemini 做簡報,追求的不是加速,而是「千人千色」的客製化。當色調、用字遣詞都符合客戶的企業語言,把客戶放在最中心,這才是 Customer First。

NotebookLM:當 AI 工具終於具備「知識保真度」

這三年來真正改變我生活軌跡的 AI 工具就三個:網頁 ChatGPT、語音模式、Claude Code。現在 NotebookLM 加入了這個名單。一個專案 = 一個 NotebookLM,讓專案知識第一次具備高知識保真度。

AI 時代,學術界正被算力餓死

美國頂尖名校 AI 學生人均 GPU 只有 0.1 張,而 OpenAI、Google 用十萬到百萬張訓練模型。學界從「創新引擎」變成「idea 供應商」,這個轉變影響深遠。

AI 勞資雙方破局:全端能力是基本要求

AI 時代勞資雙方要破局,關鍵在「全端能力」。工程師要能獨立交付整個 Feature;PM/AM 要能用 AI 做 POC 驗證需求。當溝通層級減少,產品迭代加速,勞資才能站在同一陣線。

[Agent Part 6] Storm:駕馭整個文章編輯團隊

Stanford 的 Storm 模型把 AI 變成「多專家開會」模式:多個 AI 人格分工研究、互相挑戰查證,而人類站在總編輯位置做最後裁決。不是自動生成一切,而是 AI × Human 協作的最佳化版本。

AI 時代的面試:我不考 coding,只問為什麼

AI 時代面試不考 HackerRank。我問:為什麼用這個?比較過哪些選項?答案不重要,產生答案的邏輯最重要。AI 不會失敗、永遠有答案,所以我要找有失敗經驗並且能吸取教訓的人。

AI Agent 時代的無聊基礎建設:地端 OCR API

所有人都在討論 AI Agent,但沒人想聊「地基怎麼打」。60-70% 企業資料躺在 PDF 裡,地端 OCR API 是關鍵。好架構要有 MQ 緩衝、故障隔離、水平擴展。RapidOCR + ONNX Runtime 讓 CPU 也能跑。

AI創收的最佳案例之一

創智動能與美科實業合作的 AI 頭皮檢測系統獲得經濟部2025創新研究獎。這套系統將軟硬體整合加上 AI 技術,為美業帶來巨大的 UpSell 創收,是「把餅做大」而非「降本增效」的最佳 AI 創收範例。

用 AI Coding 當 BCP 另外一個方案有沒有搞頭?

Cloudflare 大當機時 20% Internet 都掛了,ChatGPT、X、Uber、Spotify 全方位賽博人生被搞死。Andrew Ng 的工程師用 AI Coding 快速搭建備援組件挺過危機。這個概念倒是非常有趣 - 用 AI Coding 快速搭建關鍵 infra 組件當作另一種 BCP 手段,降低平時備援成本。唯一的問題是:當遇到史詩級 outage 要 AI Coding 解救你的時候,你的 AI Service 打不打得開 XD

FDE:一個持續下去的實驗

上週三,很榮幸回到台灣最大的 AI 社團「生成式 AI 小聚」,分享我在 FDE 的成功跟失敗經驗。因為這個內容勾動我的情緒有點多,所以等到平靜下來才在這分享。

Multi-Agent 協作模式:當 AI 學會「會診」這件事

我上週回老家看了久違的第四台「緯來日本台」,看一個日本節目「恐怖家庭醫學」,裡面講到一個年長者「最近常常心悸、手抖、睡不好」。因為是心臟的因素,所以患者直接找心臟科檢查後,拿到一疊厚厚的報告——結果心臟科醫生看完報告說:「你的心臟結構完全正常,心電圖也沒問題,可能是壓力太大,回去多休息就好。」患者心想:「可是我真的有心悸啊!難道是我自己想太多?」於是患者找了神經科說可能是自律神經失調,拿了藥物減壓...

那天我在產業園區分享:AI 能不能做起來,其實看人

AI 在傳產落地,先解決的永遠不是模型,而是人、流程與文化。三步驟:現況分析(老前輩+Intern 種子團隊)→ 快速勝利(AI+RPA+OCR 小範圍試點)→ 全面升級(種子團隊散布全公司)。這就是 FDE 模式。

AI 信任崩塌的真正原因:勞資零和賽局的再現

根據《Harvard Business Review》近期發表的〈Workers Don’t Trust AI. Here’s How Companies Can Change That〉,美國基層員工對公司提供的 AI 工具信任度在短短數月內暴跌:對生成式 AI 的信任下降 31%,對自主決策型 AI 更下滑 89%。近半數員工反而更信任非官方AI 工具。另外無獨有偶MIT 的研究《The Ge...

AWS 裁員 3萬人的背後意義 :更加追逐算力而非人才

我們都看到 AWS 近期內裁員 3萬人,但是最有趣的是,近期 AWS 財報不論是 Q2 , 或是 Q3,都有相當不錯的獲利,並且Q3也擊敗分析師預期。在這個情況下,AWS 依舊啟動這次 2020年以來最大的裁員。...

[Agent Part 2] Plan & Exec 臨機應變 vs 讀著路書跑

WRC 賽車最經典的場面就是除了賽車手開著市售車款飛天遁地以外,最有趣的就是旁邊坐著一個副駕,讀著一本稱為「路書」的路線圖,用一些簡略的話去指引賽車手前進。 這個設計在追求速度的賽車界很有趣,因為坐一個副駕更重呀,為何需要把複雜的任務分成兩個角色——規劃者和執行者?...

[Agent 模式 part 1] - Workflow 型和 ReAct 型,誰更像你?

AI Workflow 按固定流程走,遇到資料庫掛掉就停住;真正的 AI Agent 會自己找備份系統解決問題。Agent 需具備三條件:知識庫提取、工具調用、容錯除錯能力。Workflow 適合穩定場景,Agent 適合複雜多變環境。

超慢跑也能 Coding:Claude Code 帶來的真正生產力

超慢跑 + Claude Code 是天作之合:95% 時間不用顧,5% 停下來 debug。通勤開車等紅燈下指令、健身房組間休息看進度、走路時用 ChatGPT Live Chat 整理思維。Claude Code for Web 解鎖多工健康模式。

[AI PM] 複製一下你的交接人成為AI Agent

把 50+ 專案 insights 轉成 237 組 QA 對,建立 RAG 知識庫。Claude Code 的三層架構:低層 Bash、中層 Grep/Read、高層 Task/Todo。從 2-3 週 onboarding 縮短到 3 天基本掌握。

FDE:沒有流程知識,再多數據也是噪音

以前大概是電腦遊戲(印象最深刻: 中華職棒二)的時代為了防遊戲盜版,會有一個被混淆過密碼本,裡面是多種顏色混淆的文字,但是原廠會附上一個紅色或是藍色濾光片,你就拿濾光片去對應的位置,就會呈現正確的密碼排序。這樣防止電腦遊戲亂 copy , 要輸入正確的密碼才能看到正確的資訊。這個機制已經不用很久了,現在遊戲都是網路遊戲也不需要防盜版了。但是這個體驗還是很有趣...

[Life] 香港AI 的不一樣的樣貌

香港可以上 Google,但不能用 ChatGPT、Claude、Gemini。沒有 Claude Code 像斷了一隻手,大家改用 POE 選 GPT model 或 DeepSeek。被 GenAI 廠商反向封鎖的市場,AI Coding 技術門檻反而更高。

[VIBE Coding] 我在前端新增需求的 PRD 跟 Prompt 解法

上次提到我在前端這邊做AI Coding 很適合 0% -> 70% , 或是 99 -> 100%的做法,但是在 90% -> 100% 遇到了蠻多的小問題,經過幾天的討論修正之後,我已經大概列出了比較適合的方式。根據這一週來改了十幾個 Feature的經驗,這個流程對我這樣非前端的人來說,感覺 90% -> 100% 除了後續檢核需要前端幫忙以外,幾乎都是我可以自己處理。...

[ATPM] QA:如何驗收 AI Coding 的程式

AI Agent 寫的程式,最終還是人要扛責。本文分享三大策略:略懂 AI 在寫什麼、用 AI 做 QA 驗證、設計最壞情況控管機制。以帳務系統為例,展示如何用 PRD 驅動 AI 自動生成比人更嚴謹的測試腳本。

ATPM : AI 對 PM 的加速

ATPM 系列:探討 AI 如何加速 PM 的工作流程,從需求訪談到 PRD 撰寫的效率提升。Spec Driven Development 與 Vibe Coding 的結合實踐。

ATPM : PRD的重要性

ATPM 以 PRD 為中心,不是以人為中心。實務上 PRD 迭代每天都在發生,某業務計價 PRD 開發期間改了 24 次。透過瘋狂輪替讓每個人都是 PM+Engineer+QA,確保 PRD 成為唯一可信任的資訊中心。

ATPM : A real production Vibe Coding process

ATPM 是經過生產環境驗證的 Vibe Coding 流程框架,以 PRD 為核心實現 40% 開發加速。本系列分享如何用 AI 協作解決幻覺、測試困難等 AI Coding 痛點,成功上線帳務系統的完整經驗。