| 本期觀點| 2025 年的冬天,對於許多企業管理者來說,是一個充滿矛盾的季節。一方面,公司要求同仁盡快導入 AI 以提升效率,縮減開支;另一方面,資安長與法務部門卻頻頻發出警告,擔憂企業機密正在透過一個個對話框,悄無聲息地流向外部的雲端伺服器。 隨著 Agentic AI 技術的成熟,企業員工已經不再只是用 ChatGPT 寫信,而是開始讓 AI 幫忙寫核心程式碼、分析財務報表,甚至直接處理客戶資料。但我們必須面對一個不爭的事實:「影子 AI(Shadow AI)」已經不再是影子,它已經成為了企業運作的實體,只是管理階層往往選擇視而不見。這期我們來談談這個隱藏在企業導入 AI 時,很容易忽略的重點。 繼續閱讀⋯⋯ |
| Shadow AI Risks: Why Your Employees Are Putting Your Company at Risk 這篇報導說明“Shadow AI” 是指企業員工在 未經 IT 同意下自行使用 AI 工具 以提高效率,但這可能帶來資料外洩、敏感資料暴露、合規問題等風險。文章建議建立 AI 治理政策來降低此類風險。 | Shadow AI is widespread — and executives use it the most 文章指出在多個產業中 Shadow AI 使用非常普遍,尤其是中階主管與高階執行長。他們經常在未經允許的情況下使用 AI 工具處理工作任務,導致企業無法掌控員工實際使用的 AI 工具與資料風險。 |
| The Dangers of Shadow AI and Need for an Enterprise AI Plan 這篇文章深入探討 Shadow AI 帶來的資料外洩、品質低落和合規性風險。報導也舉例企業如何採取措施,建立內部 AI 使用準則,並發展自有 AI 工具以取代未經授權的工具。 | What Is Shadow AI? Risks, Tools, and Best Practices for 2025 這篇文章從 Shadow AI 的定義、風險與企業應對策略進行全面分析。文章指出 Shadow AI 與 Shadow IT 類似,但涉及 AI 特有風險,例如模型存取敏感資料與外部服務提供者的資料使用政策不透明。 |
本文依 CC 創用姓名標示 - 非商業性 - 相同方式分享 4.0 國際釋出