在審視員工私下使用能夠提升工作效率的先進工具時,不難發現組織內部對生成式人工智能(GenAI)的采納率遠超人們的想象。隨著員工廣泛接納和使用這些數字內容創作工具,影子AI已成為IT部門必須面對的挑戰與負擔。
微軟與領英聯合進行的一項研究表明,高達78%的員工在工作中采用了“自帶人工智能”(BYOAI)技術。盡管這項研究強調了BYOAI對企業數據安全的潛在威脅,但卻未能充分揭示組織所面臨的數據安全風險的全面性。
不論是稱其為BYOAI還是影子AI,采用這種工具帶來的風險可能比未經批準使用云計算和移動應用程序要高得多。
IT行業的領導者可能還記得15年前消費者智能手機發展初期的“自帶設備”(BYOD)趨勢。他們當時驚訝地發現,員工們紛紛放棄了曾經鐘愛的黑莓手機,轉而選擇使用iPhone和Android智能手機。而伴隨著從應用商店下載的未經批準應用程序數量的激增,安全風險也隨之加劇。
事實上,消費者通常比組織更快地接納新技術。然而,這種堅持使用個人偏好設備和軟件的消費者行為,往往忽視了與企業服務的集成,也忽視了風險或合性要求。
與影子IT同樣危險的是,影子AI可能帶來的后果更為嚴重——它們的使用變得隨心所欲。盡管期望員工具備足夠的安全常識,不會將戰略文件隨意投入如OpenAI這樣的公共GPT模型中,但即使是像會議轉錄這樣看似無害的行為,也可能對業務產生嚴重后果。
當然,IT領導者也知道,不能對對員工采用的GenAI服務視而不見。如果被忽視,影子人工智能可能會給企業帶來災難性的后果,從知識產權泄露到向競爭對手泄露關鍵戰略。
盡管存在風險,但大多數組織并沒有足夠快地采取措施來確保安全使用GenAI,畢馬威公司調查的69%的公司處于初始階段或尚未開始評估GenAI風險和風險緩解策略。
安全大規模地部署人工智能
幸運的是,組織可以采取有效措施大規模實施人工智能,以幫助提高員工的技能,同時確保必要的治理措施得以實施,以下是IT領導者應該采取的措施:
• 制定治理政策:在組織內部確立一套明確的人工智能使用指導方針。清晰界定哪些人工智能系統是被批準使用的,對這些應用程序進行審查,并明確告知員工使用未經批準的人工智能的潛在風險與后果。
• 教育和培訓:為員工提供經過批準的人工智能應用程序,以幫助他們高效完成工作,從而降低他們使用未授權工具的動機。同時,還需向員工普及與輸入敏感內容相關風險的知識,并明確哪些內容屬于敏感類別。如果決定允許員工嘗試使用未經授權的工具或BYOAI,務必提供必要的指導和防護措施,確保安全使用。
• 明確用例和角色:在教育員工的過程中需要提供具體的用例,展示人工智能如何幫助他們更好地完成工作。同時,根據用戶“角色”或基于角色的采用路徑,為他們提供相應的支持和指導,以促進人工智能的合理使用。
• 審計和監視使用:實施定期的審計和合規性監視機制,包括利用軟件來檢測異常網絡活動,這有助于及時發現并應對未經授權的人工智能系統或應用程序的使用。
• 鼓勵透明度和報告:培養一種鼓勵員工積極報告使用未經授權的人工智能工具或系統的文化。這種透明度將促進快速響應和補救措施,以最大限度地減少潛在風險或事件升級帶來的后果。
• 保持持續溝通:鑒于GenAI工具的快速發展,需要定期更新人工智能政策和指導方針,并與員工保持溝通,確保他們了解最新的變化。通常情況下,大多數員工都愿意遵循指導,并希望為企業做出貢獻。
提供解決方案
GenAI模型和服務每天都在發展,但有一些核心原則:
• 如果需要大規模部署人工智能,組織必須考慮從選擇合適的基礎設施到為業務選擇適合GenAI模型,再到嚴格把控安全性和治理風險等一系列因素。
• 組織的人工智能戰略將對業務轉型至關重要,需要在控制GenAI的部署和允許員工自由探索之間找到平衡,并充分理解可能帶來的潛在風險。
• 如果允許員工自由選擇BYOAI、影子AI或任何工具,組織是否有適當的保障措施來保護業務?
值得信賴的合作伙伴可以幫助引導組織完成學習曲線。一些科技公司提供了一系列人工智能就緒的解決方案和專業服務,以指導企業在GenAI旅程中穩步前行。