| 本期觀點| 你如果還把「數位助理」想成 Siri 那種語音問答,或把 ChatGPT 當成更會寫字的搜尋框,那麼最近在矽谷受到熱議的 Moltbot,會讓你這個想像開始鬆動。它最吸引人的地方,不是 AI 「答得多像人」,而是「開始真的去做事」。 你設定一個目標,它會嘗試把所有的步驟拆開、找到合適的工具、自行安裝、排錯,直到事情能產出一個為你能用的結果;而且它只有在不得不由你出手時,才會回頭問你,例如付款或輸入密碼。 這個產品爆紅所帶來的訊號是:AI Agent 正在從少數人的實驗,走向貼近一般人日常生活與工作節奏運作的「指揮層」。你不一定要換一套新工具,你可能只是在 WhatsApp 或 Telegram 的對話框裡交辦一句話,它就能接手後面原本需要你切換使用好幾個 App 才能完成的操作。這種變化一旦常態化,就會促使我們要面對與思考三件事:AI 產品到底是什麼、工具調用與資料使用權限掌握在誰手上,以及資安邊界要如何重新劃定。 繼續閱讀⋯⋯ |
| Moltbot—what happens when AI stops chatting and starts doing 文章把 Moltbot 描述成「不只會聊天、而是會動手做事」的本機 AI 代理,能安裝軟體、操作檔案、把工作拆成步驟並自行排除障礙,也能接到 WhatsApp、Telegram 讓你用訊息指揮。 | Silicon Valley’s latest AI fixation poses early security test 文章把 Moltbot 的爆紅視為一場「早到的資安壓力測試」。因為它擁有完整權限、可讀寫檔案並接觸瀏覽器與帳號憑證,研究者已觀察到部分控制界面曝露在公網、以及提示詞注入等風險。 |
| The Clawdbot (Moltbot) Enterprise AI Risk: One in Five Have it Installed 文章從企業角度盤點 Moltbot 的「影子 AI」風險:員工私下安裝後,可能把 Slack、Teams 等內部資料面向擴大,還伴隨暴露管理界面、憑證以明文存放、缺乏預設沙箱與集中稽核紀錄等問題。 | Viral Moltbot AI assistant raises concerns over data security 此文內容聚焦「部署方式」帶來的外洩:研究者發現不少人把管理介面錯誤曝露到公網,或因反向代理設定讓未授權者可進入控制面板,進而看到金鑰、對話紀錄甚至執行指令。 |
本文依 CC 創用姓名標示 - 非商業性 - 相同方式分享 4.0 國際釋出