Wisely Chen|AI Agent、地端 LLM 與企業 AI 架構實戰筆記

企業 AI 轉型、AI 資安、AI Agent、Vibe Coding 實戰分享

文章歸檔

共 155 篇文章

Opus 4.6 意識到自己正在被考試,然後逆向破解了答案——Anthropic 的 Eval Awareness 報告,對 AI 評測的根本衝擊

Anthropic 在測試自家最強模型時,發現 Opus 4.6 不是在「答題」,而是在「破解考試系統」。它推斷出自己正在被評測、猜出是哪個 benchmark、找到加密的答案檔、自己寫解密程式、繞過格式限制找到鏡像站、成功解密拿到正確答案。18 次獨立測試,收斂出一模一樣的策略。這不是偶然。原文:Eval awareness in Claude Opus 4.6's BrowseComp performance

直覺 + AI + 框架工程 = AI 時代白領的護城河|Weekly Vlog EP12

從一場臨時一打七的客戶會議,到黃仁勳說的 taste,再到 Peter Steinberger 的全自動 PR 產線——AI 時代最重要的能力不是寫 Code,而是管控 AI 的框架 + 判斷結果的直覺。一個多小時同時切換 6-7 條專案線,靠 Claude Code + NotebookLM 即時輔助,但多線程上下文切換 + stakeholder 潛台詞,AI 目前還做不到。

直覺 + AI,是未來工作者最重要的能力之一

甲方爸爸臨時叫我坐計程車去現場開會,一打七。我打開 Claude Code / NotebookLM 讓 AI 收集資料,自己用直覺判斷與回應。黃仁勳說的 Vibe 直覺,其實是數據理解、邏輯分析、人生經驗、對他人深度感知的綜合能力。在 AI 時代,直覺 + AI 的組合,反而會變得越來越重要。

Harness Engineering 完整拆解:當 AI Agent 寫完 Code,你的 Repo 準備好自動接住了嗎?

OpenAI 3 個工程師用 Codex 在 5 個月產出 100 萬行代碼、0 行人寫。他們把這套方法叫 Harness Engineering——不是寫代碼的工程,而是建構約束和反饋迴路的工程。Ryan Carson 受此啟發,公開了一套完整的 Control-Plane Pattern:從 risk tier contract、preflight gate、SHA discipline、到 remediation loop。上次我們談了四層防禦,這次我們看完整的控制平面怎麼接住 Agent 的高速產出。

Qwen 技術負責人被離開:當開源神話撞上 KPI

兩天前我寫了一篇 Qwen 3.5-9B 的技術分析,讚嘆「9B 打贏 120B」的架構創新。今天,做出這些創新的技術負責人宣布離開了——而且不是自己想走的。這件事比任何 benchmark 都值得認真看。

AI 打仗的文章滿天飛,但你看到的「細節」九成是編的

美伊戰爭開打後,各種「AI 如何主導斬首行動」的深度分析文滿天飛。問題是——仗還沒打完,你怎麼可能知道用了什麼模型、什麼平台?這不是分析,這是創作。七分真、三分編,是 AI 時代最高級的假訊息手法。

模型主權 + 數位員工 = 企業 AI 的下一步|Weekly Vlog EP11

Anthropic 拒絕五角大廈、被列為供應鏈風險,催化了企業對「模型主權」的覺醒。當地端開源模型達到 SOTA 八九成能力、OpenClaw 數位員工架構成型、中國模型用五分之一價格提供同等服務,企業 AI 的遊戲規則正在根本改變。組織架構也將從金字塔走向「15 人小三角形 + 無限 AI Agent」的新型態。

週六資安日:當十年前美國隊長 2 的洞察計劃成了 2026 年的現實

今天不只談技術資安,更要談人類的安全。Anthropic 拒絕移除 Claude 的兩條紅線——禁止大規模國內監控、禁止完全自主武器——被美國國防部列為「供應鏈風險」。這是 AI 產業史上第一次「模型提供者 vs 國家機器」的正面衝突。當年美國隊長 2 的 Project Insight 是科幻,2026 年它發生了。

Deloitte 廢除傳統職稱,Block 大規模裁員——它們指向同一個趨勢

Deloitte 廢除傳統職稱,Block 裁掉 4,000 人——接近一半的員工。這不是巧合——它們其實指向同一個趨勢:金字塔型組織,正在失去效率優勢。當 AI 能處理 60% 的入門級工作時,組織的底座就不再穩固。未來的 AI 組織,很可能長這樣:15 人左右團隊 + AI Agent 的 Hybrid 模型。

OpenClaw 的五種上網方式:從搜尋 API 到接管你的瀏覽器

AI Agent 的「上網」不是一件事,而是五件事。選錯模式,輕則功能受限,重則帳號被盜。OpenClaw 的五種上網架構——Search API、Web Fetch、Managed Browser、Remote CDP、Extension Relay——每一種的能力範圍、安全風險、適用場景都天差地別。本文從最安全的搜尋 API 到最危險的瀏覽器接管,逐層拆解技術架構與安全風險,包含 Accessibility Tree vs 截圖的效率差異、Managed Browser 手動登入的甜蜜點、以及 WebMCP 的未來展望。

Token 出海:中國 AI 不再賣商品,開始賣 Token

中國 AI 出海正在發生質變——從賣商品變成賣 Token。2026 年 2 月,中國模型(MiniMax、Kimi、GLM)在生產型 Token 呼叫量首次超越美國。GLM-5 在蒸餾指控中全身而退、SWE-bench 打贏 GPT-5.2、全華為晶片訓練、API 便宜 5-8 倍。當你把中國電價($0.08/kWh)對比美國($0.18/kWh)、開源人才密度、國產硬體自主這三張牌疊在一起,你會看到一個新的貿易形態正在成形:用可計量、可計價的方式,向全球輸出 SOTA 90% 等級的推理能力。這不是科技競賽的故事,這是成本結構的故事。

GLM-5 技術報告深度解讀:從 Vibe Coding 到 Agentic Engineering,中國開源的「Opus 時刻」

智譜 AI 的 GLM-5 用 744B MoE 架構、28.5 兆 token 預訓練、SWE-bench 77.8% 打贏 GPT-5.2,幻覺率業界最低,API 價格便宜 5-8 倍——而且全部在 10 萬張華為昇騰 910B 上訓練,零 NVIDIA 依賴。技術報告標題 'From Vibe Coding to Agentic Engineering' 精準命名了我們正在經歷的範式轉移。這篇文章拆解 GLM-5 的架構、Benchmark、異步 RL 訓練框架 Slime,以及那個跑了 24 小時、700 次工具調用自主造出 GBA 模擬器的 demo。

當代碼量暴增 10 倍後,到底誰來做 Review?Make CI/CD Great Again

OpenClaw 作者 Peter Steinberger 開 50 個 Codex 並行審 3000 個 PR。OpenAI 3 個工程師 5 個月產出 100 萬行代碼。Stripe 一週 1000 個 PR。GitHub 數據:PR 量漲 98%,審查時間漲 91%。AI 產出極快,但人類根本消化不了。真正的解法不是更好的 Prompt,而是 20 年前的老朋友——CI/CD。你的 testing case 寫得越多、越齊全,這是一個看漲的資產。

OpenClaw + 地端大模型是未來 AI 的勝負手|Weekly Vlog EP10

OpenClaw + 地端大模型,很可能是未來 AI 的勝負手。OpenClaw 這類第二代數位助理會是 AI Agent 的 Channel 重心,OpenAI 搶先收編作者 Peter 是這場 Channel 戰爭的關鍵手;而中國開源模型集體爆發,讓全地端部署變成現實。這個農曆新年還有 NotebookLM 終於可以輸出 PPT、Moonwell 因 AI 寫的程式碼賠了 178 萬美元。

AI Coding Tool 寫的程式碼讓 DeFi 賠了 178 萬美元:Moonwell 事件與 Stripe 的警訊

Moonwell 的 Oracle 配置程式碼由 Claude Opus 4.6 協作撰寫,一個 scaling factor 錯誤讓 cbETH 從 $2,200 變成 $1.12,178 萬美元就這樣被合法套利走。這不是 AI 的語法錯誤,而是 business logic 層級的失誤。同一時間,Stripe 每週合併上千筆 AI 產生的 PR,但「human-reviewed」在這個吞吐量下,到底是真的審查還是流程蓋章?

Channel 的戰爭:OpenClaw、Anthropic 和誰能決定 AI Agent 的未來

OpenClaw v2.19 出了 Apple Watch MVP,Anthropic 封鎖 OAuth 禁止第三方使用訂閱制,Sam Altman 收編 Peter Steinberger 擁抱開源。三件事串在一起,看到的不是技術競爭,而是 AI 產業最殘酷的現實:掌握 Channel 的人,才能決定模型的命運。

2026 二月,不只中國在爆發 — 美國 AI 巨頭也在瘋狂輸出

2026 二月,Anthropic 和 OpenAI 輪番丟出重磅更新:Claude Opus 4.6 的 Agent Teams、GPT-5.3-Codex 的 Terminal-Bench 77.3%、Peter Steinberger 加入 OpenAI、Sonnet 4.6 用 1/5 價格逼近旗艦、NotebookLM 支援 PPTX 匯出。兩週五個重大更新,中美 AI 軍備賽全面開打。

當 AI Coding Benchmark 開始測到「基礎設施」:從 Anthropic 的實驗,到學術共識,再到 Arena 評測的結構性盲點

你整天看的那些 SOTA 排名比較,很有可能不是模型比較厲害,而是 infra 比較厲害。至於開源模型看起來稍稍弱一點?很可能換一個 infra 環境,它就變 SOTA 了。Anthropic 實驗證實:同一模型在不同基礎設施配置下,成功率差距達 6 個百分點——而 leaderboard 上模型之間的差距往往只有 3~5%。

2026 年了,Gemini 團隊怎麼變得「自信的蠢」了

問題不是 Gemini 會不會幻覺。問題是它幻覺了,你連糾正的機會都沒有——因為 Google 把 Web Search 的開關藏起來了。當 AI 自己決定「不用查網路」,然後自信滿滿地告訴你真實產品是「虛構」的,這不是模型問題,是產品設計哲學的災難。

OpenClaw Token 優化指南:如何將 AI Agent 運營成本降低 97%

真正的智能不在於為最昂貴的模型付費,而在於精心設計的 Prompt 與系統架構。本文分享五大核心優化策略:會話初始化、模型路由、本地心跳、提示詞快取、速率限制,實測可將 OpenClaw 成本從 $1,500/月降至 $50 以下。

OpenClaw Token Optimization Guide: How to Cut AI Agent Operating Cost by 97%

Real intelligence isn’t paying for the most expensive model—it’s careful prompt and system design. This post shares five core optimization strategies—session initialization, model routing, local heartbeats, prompt caching, and rate limiting—shown in practice to reduce OpenClaw cost from ~$1,500/month to under $50.

OpenClaw 記憶系統全解析:SOUL.md、AGENTS.md 與高昂的 Token 成本

當你的 Agent 每天燒掉 500 萬 tokens,你需要問的不是「它聰不聰明」,而是「這樣的上下文構建有效率嗎?」本文深度拆解 OpenClaw 的 File-First 記憶架構,解析 SOUL.md、AGENTS.md 的設計哲學,以及為什麼它寧願犧牲效率也要拒絕 RAG。

Cursor 前 0.01% 大神倒戈 Claude Code:Agentic Coding 五大支柱完整解析

當一個被 Cursor 官方認證的全球頂尖用戶,選擇放棄熟悉的工具轉投 Claude Code,這不只是換工具——這是一場關於「AI 程式設計該怎麼做」的典範轉移。Silen Naihin 的萬字長文詳解 Agentic Coding 五大支柱:Context Management、Planning、Closing the Loop、Verifiability、Debugging。

Moltbot 安全加固實戰:AI Agent 四層縱深防禦完整指南

不需要是資安專家,只需要願意花一個下午認真讀文件。這篇整理 Moltbot 社群的四層縱深防禦實戰經驗:Isolation、Quarantine、Rollback、Transparency。涵蓋 AI Agent Security、Prompt Injection Defense、LLM Agent Security 與 Agentic Security 完整框架。

Moltbot Security Hardening in Practice: A Complete Four-Layer Defense-in-Depth Guide for AI Agents

You don’t need to be a security expert—just be willing to spend an afternoon reading the docs carefully. This post distills Moltbot community battle-tested experience into a four-layer defense-in-depth playbook: Isolation, Quarantine, Rollback, and Transparency. It covers AI Agent Security, Prompt Injection Defense, LLM Agent Security, and an end-to-end Agentic Security framework.

500 台 AI 助理裸奔公網:Clawdbot 0.0.0.0 配置災難

當你把「開箱即用」當作產品優勢,你可能正在替使用者開後門。近 1,000 台 Clawdbot 伺服器因預設 0.0.0.0 綁定直接暴露在公網,任何人都能接管你的 AI 助理、竊取敏感檔案、甚至清空你的加密貨幣錢包。

OneFlow 演算法:重新思考 Multi-Agent 的價值

德克薩斯大學與 Amazon 的論文證明:單一 Agent 可達到 Multi-Agent 同等效果,推理成本更低。KV Cache 無法共享是 Multi-Agent 的致命限制。2026 趨勢:從「堆 Agent」轉向「優化工作流」。

當 Unix 哲學遇上 AI:Command Line 的文藝復興

我小時候看過一本書叫 Unix Power Tools,裡面有句話我記了快二十年:Command line pipeline is the best UI interface in the world。當時我完全不懂這是什麼意思。但在 2025 年 4 月 Claude Code 橫空出世後,我終於理解了——一個用文字理解世界的腦,接上了一個用文字暴露世界狀態的介面。這不是復古,這是結構上最合理的選擇。

When Unix Philosophy Meets AI: The Command Line Renaissance

When I was a kid I read a book called Unix Power Tools. There was a line I remembered for almost twenty years: ‘Command line pipeline is the best UI interface in the world.’ Back then I had no idea what it meant. But after Claude Code burst onto the scene in April 2025, I finally understood: a brain that understands the world through text plugged into an interface that exposes the world’s state through text. This isn’t retro—it’s structurally the most reasonable choice.

AI Coding On-Prem 的三條路:雲端內網化、真地端、還是灰色折衷?

On-Prem LLM 很火,但 AI Coding On-Prem 幾乎沒人講。關鍵差異在工具支持度——Tool Calling 精準度、多步驟推理、錯誤恢復能力,地端模型和雲端模型有巨大落差。模型可能有替代品,但 Claude Code 幾乎無可取代。本文分析三條路徑:雲端內網化(法務最好交代)、真 On-Prem(主權優先)、灰色折衷(技術可行但治理惡夢)。

創智動能榮獲 2025 商業周刊 AI 創新百強

創智動能以 AI Coding 流程導入與 AI Pocket 語音助手,榮獲 2025 商業周刊 AI 創新百強。從 ATPM 方法論到工程治理能力,這是對 AI Coding 必須走向工程化、制度化這條路的確認。

Kalman Filter × Transformer:當「物理直覺」遇上「深度學習」

Transformer 很會看趨勢,但它不知道「車不能瞬移」。Kalman Filter 很穩,但遇到非線性就慢半拍。2024-2025 年學術界最熱的一條線,就是把這兩者「結婚」——用 Transformer 學經驗,用 Kalman 保證不亂來。這篇文章用工程師能懂的方式,拆解這個登上 Nature 級期刊的研究方向。

披薩指數再度命中:為什麼最好的 AI 顧問第一天不談 AI

2026 年 1 月 3 日凌晨,五角大廈附近的披薩店出現異常訂單高峰,預測了美軍即將發動攻擊。這個「披薩指數」的發明者是 KGB。上週我去桃園倉庫見客戶,一個小時的會議,AI 投影片一直沒打開,但提案進入了下一階段。這兩件事有什麼關係?

CaMeL:Google DeepMind 提出的 Prompt Injection 防禦架構

Simon Willison 說這是他見過「第一個可信的 prompt injection 防禦方案」。CaMeL 的核心設計是把一個 Agent 拆成兩個:低權限 Agent 負責讀取外部資料,高權限 Agent 負責做決策——讓「讀資料」和「做動作」永遠分開。

CaMeL: Google DeepMind’s Prompt-Injection Defense Architecture

Simon Willison called this ‘the first credible prompt injection defense’ he’s seen. CaMeL’s core design splits one agent into two: a low-privilege agent that reads external data, and a high-privilege agent that makes decisions—so ‘reading data’ and ‘taking actions’ are always separated.

用 AI 打造「自己的健康資料分析系統」:我實際在跑的一套流程

很多人談健康數據,但大多停在「有量測、有 App」。這篇想講的是:如何真的把資料收起來、整合起來,最後交給 AI 幫你分析、回饋,變成可以每天用的系統。不追求完美整合、不被生態系綁死、不依賴廠商 API——這套方法的核心是「零整合架構」。

2025年度總結:AI時代,智慧比知識更重要

從永聯物流的ATPM實驗、FDE模式的挑戰,到創智動能的AI Coding推廣,再到630K lines of code的Claude Code之旅。這一年我學到的不是工具的威力,而是在AI時代,智慧才是人類最稀缺的能力。

AI Agent 完整指南|架構、Workflow、安全與企業落地

AI Agent 不是「比較聰明的 Chatbot」,而是能自主執行任務的系統。本指南涵蓋 AI Agent 架構(Workflow vs ReAct、Plan & Execute、Dual-Agent)、企業 AI Agent 落地、AI Agent 安全(94.4% 攻擊成功率)等核心主題。

Gemini 3.0 Flash 不講理霸榜的真相

Flash 不是 Pro 的簡化版,而是另一條進化路線。它強的不是「小」,而是「不浪費」——在長上下文場景中,真正會抓重點、會用記憶的模型,才是 Agent 時代需要的底座。

祝大家聖誕快樂

早上 6:00 想做一張聖誕賀卡,用 Gemini 寫提示詞 + NanoBanana 產圖,經過多輪調整(服裝、AI Agent、吉卜力風格、年輕化),10 分鐘完成專屬賀卡。完整對話過程紀錄。

都要 2026 年了,企業 AI Excel 還是這麼難搞

小孩子才做選擇,資安跟 AI 效率我都要。與其改變工具,不如改變我們對「資料」的看法——把資料混淆到連製表人都認不出來,那是不是就可以傳上去了?

AI 不會取代年輕人,是還沒給機會

很多年輕人不是被 AI 取代,而是還沒被給機會。AWS 執行長 Matt Garman 說:AI 會取代初階軟體工程師,是我聽過最愚蠢的想法之一。

用 AI 做簡報,跟人手刻的差別是什麼?

用 NotebookLM + Gemini 做簡報,追求的不是加速,而是「千人千色」的客製化。當色調、用字遣詞都符合客戶的企業語言,把客戶放在最中心,這才是 Customer First。

NotebookLM:當 AI 工具終於具備「知識保真度」

這三年來真正改變我生活軌跡的 AI 工具就三個:網頁 ChatGPT、語音模式、Claude Code。現在 NotebookLM 加入了這個名單。一個專案 = 一個 NotebookLM,讓專案知識第一次具備高知識保真度。

AI 時代,學術界正被算力餓死

美國頂尖名校 AI 學生人均 GPU 只有 0.1 張,而 OpenAI、Google 用十萬到百萬張訓練模型。學界從「創新引擎」變成「idea 供應商」,這個轉變影響深遠。

AI 勞資雙方破局:全端能力是基本要求

AI 時代勞資雙方要破局,關鍵在「全端能力」。工程師要能獨立交付整個 Feature;PM/AM 要能用 AI 做 POC 驗證需求。當溝通層級減少,產品迭代加速,勞資才能站在同一陣線。

[Agent Part 6] Storm:駕馭整個文章編輯團隊

Stanford 的 Storm 模型把 AI 變成「多專家開會」模式:多個 AI 人格分工研究、互相挑戰查證,而人類站在總編輯位置做最後裁決。不是自動生成一切,而是 AI × Human 協作的最佳化版本。

AI 時代的面試:我不考 coding,只問為什麼

AI 時代面試不考 HackerRank。我問:為什麼用這個?比較過哪些選項?答案不重要,產生答案的邏輯最重要。AI 不會失敗、永遠有答案,所以我要找有失敗經驗並且能吸取教訓的人。

AI Agent 時代的無聊基礎建設:地端 OCR API

所有人都在討論 AI Agent,但沒人想聊「地基怎麼打」。60-70% 企業資料躺在 PDF 裡,地端 OCR API 是關鍵。好架構要有 MQ 緩衝、故障隔離、水平擴展。RapidOCR + ONNX Runtime 讓 CPU 也能跑。

AI創收的最佳案例之一

創智動能與美科實業合作的 AI 頭皮檢測系統獲得經濟部2025創新研究獎。這套系統將軟硬體整合加上 AI 技術,為美業帶來巨大的 UpSell 創收,是「把餅做大」而非「降本增效」的最佳 AI 創收範例。

用 AI Coding 當 BCP 另外一個方案有沒有搞頭?

Cloudflare 大當機時 20% Internet 都掛了,ChatGPT、X、Uber、Spotify 全方位賽博人生被搞死。Andrew Ng 的工程師用 AI Coding 快速搭建備援組件挺過危機。這個概念倒是非常有趣 - 用 AI Coding 快速搭建關鍵 infra 組件當作另一種 BCP 手段,降低平時備援成本。唯一的問題是:當遇到史詩級 outage 要 AI Coding 解救你的時候,你的 AI Service 打不打得開 XD

FDE:一個持續下去的實驗

上週三,很榮幸回到台灣最大的 AI 社團「生成式 AI 小聚」,分享我在 FDE 的成功跟失敗經驗。因為這個內容勾動我的情緒有點多,所以等到平靜下來才在這分享。

Multi-Agent 協作模式:當 AI 學會「會診」這件事

我上週回老家看了久違的第四台「緯來日本台」,看一個日本節目「恐怖家庭醫學」,裡面講到一個年長者「最近常常心悸、手抖、睡不好」。因為是心臟的因素,所以患者直接找心臟科檢查後,拿到一疊厚厚的報告——結果心臟科醫生看完報告說:「你的心臟結構完全正常,心電圖也沒問題,可能是壓力太大,回去多休息就好。」患者心想:「可是我真的有心悸啊!難道是我自己想太多?」於是患者找了神經科說可能是自律神經失調,拿了藥物減壓...

那天我在產業園區分享:AI 能不能做起來,其實看人

AI 在傳產落地,先解決的永遠不是模型,而是人、流程與文化。三步驟:現況分析(老前輩+Intern 種子團隊)→ 快速勝利(AI+RPA+OCR 小範圍試點)→ 全面升級(種子團隊散布全公司)。這就是 FDE 模式。

AI 信任崩塌的真正原因:勞資零和賽局的再現

根據《Harvard Business Review》近期發表的〈Workers Don’t Trust AI. Here’s How Companies Can Change That〉,美國基層員工對公司提供的 AI 工具信任度在短短數月內暴跌:對生成式 AI 的信任下降 31%,對自主決策型 AI 更下滑 89%。近半數員工反而更信任非官方AI 工具。另外無獨有偶MIT 的研究《The Ge...

AWS 裁員 3萬人的背後意義 :更加追逐算力而非人才

我們都看到 AWS 近期內裁員 3萬人,但是最有趣的是,近期 AWS 財報不論是 Q2 , 或是 Q3,都有相當不錯的獲利,並且Q3也擊敗分析師預期。在這個情況下,AWS 依舊啟動這次 2020年以來最大的裁員。...

[Agent Part 2] Plan & Exec 臨機應變 vs 讀著路書跑

WRC 賽車最經典的場面就是除了賽車手開著市售車款飛天遁地以外,最有趣的就是旁邊坐著一個副駕,讀著一本稱為「路書」的路線圖,用一些簡略的話去指引賽車手前進。 這個設計在追求速度的賽車界很有趣,因為坐一個副駕更重呀,為何需要把複雜的任務分成兩個角色——規劃者和執行者?...

[Agent 模式 part 1] - Workflow 型和 ReAct 型,誰更像你?

AI Workflow 按固定流程走,遇到資料庫掛掉就停住;真正的 AI Agent 會自己找備份系統解決問題。Agent 需具備三條件:知識庫提取、工具調用、容錯除錯能力。Workflow 適合穩定場景,Agent 適合複雜多變環境。

超慢跑也能 Coding:Claude Code 帶來的真正生產力

超慢跑 + Claude Code 是天作之合:95% 時間不用顧,5% 停下來 debug。通勤開車等紅燈下指令、健身房組間休息看進度、走路時用 ChatGPT Live Chat 整理思維。Claude Code for Web 解鎖多工健康模式。

[AI PM] 複製一下你的交接人成為AI Agent

把 50+ 專案 insights 轉成 237 組 QA 對,建立 RAG 知識庫。Claude Code 的三層架構:低層 Bash、中層 Grep/Read、高層 Task/Todo。從 2-3 週 onboarding 縮短到 3 天基本掌握。

FDE:沒有流程知識,再多數據也是噪音

以前大概是電腦遊戲(印象最深刻: 中華職棒二)的時代為了防遊戲盜版,會有一個被混淆過密碼本,裡面是多種顏色混淆的文字,但是原廠會附上一個紅色或是藍色濾光片,你就拿濾光片去對應的位置,就會呈現正確的密碼排序。這樣防止電腦遊戲亂 copy , 要輸入正確的密碼才能看到正確的資訊。這個機制已經不用很久了,現在遊戲都是網路遊戲也不需要防盜版了。但是這個體驗還是很有趣...

[Life] 香港AI 的不一樣的樣貌

香港可以上 Google,但不能用 ChatGPT、Claude、Gemini。沒有 Claude Code 像斷了一隻手,大家改用 POE 選 GPT model 或 DeepSeek。被 GenAI 廠商反向封鎖的市場,AI Coding 技術門檻反而更高。

[VIBE Coding] 我在前端新增需求的 PRD 跟 Prompt 解法

上次提到我在前端這邊做AI Coding 很適合 0% -> 70% , 或是 99 -> 100%的做法,但是在 90% -> 100% 遇到了蠻多的小問題,經過幾天的討論修正之後,我已經大概列出了比較適合的方式。根據這一週來改了十幾個 Feature的經驗,這個流程對我這樣非前端的人來說,感覺 90% -> 100% 除了後續檢核需要前端幫忙以外,幾乎都是我可以自己處理。...

[ATPM] QA:如何驗收 AI Coding 的程式

AI Agent 寫的程式,最終還是人要扛責。本文分享三大策略:略懂 AI 在寫什麼、用 AI 做 QA 驗證、設計最壞情況控管機制。以帳務系統為例,展示如何用 PRD 驅動 AI 自動生成比人更嚴謹的測試腳本。

ATPM : AI 對 PM 的加速

ATPM 系列:探討 AI 如何加速 PM 的工作流程,從需求訪談到 PRD 撰寫的效率提升。Spec Driven Development 與 Vibe Coding 的結合實踐。

ATPM : PRD的重要性

ATPM 以 PRD 為中心,不是以人為中心。實務上 PRD 迭代每天都在發生,某業務計價 PRD 開發期間改了 24 次。透過瘋狂輪替讓每個人都是 PM+Engineer+QA,確保 PRD 成為唯一可信任的資訊中心。

ATPM : A real production Vibe Coding process

ATPM 是經過生產環境驗證的 Vibe Coding 流程框架,以 PRD 為核心實現 40% 開發加速。本系列分享如何用 AI 協作解決幻覺、測試困難等 AI Coding 痛點,成功上線帳務系統的完整經驗。