為迎接大模型應用的安全風險挑戰,Cloudflare發布了一項“人工智能防火墻”服務,該服務專門為云和安全服務商的高級企業客戶提供應用安全服務??蛻粼趯砟軌颉皠摻ㄗ约旱亩ㄖ浦讣y”,并且可以根據自身的需求自由選擇是否公開模型可以或者不可以提供的信息。
該服務基于其Web應用防火墻(WAF),客戶可以在Cloudflare儀表板的WAF部分找到兩個功能高級速率限制和敏感數據檢測功能設置,為使用大型語言模型的應用程序增加了保護功能。
第一個功能是高級速率限制允許客戶制定一種策略,該策略規定了在特定會話期間,基于單個IP地址或API密鑰的執行請求限制其最大速率。這樣做是為了防止分布式拒絕服務(DDoS)攻擊等可能影響大語言模型的處理性能,從而破壞其處理合法請求的能力。
第二個功能是敏感數據檢測,它可以防止大語言模型在響應查詢時泄露機密數據。它還允許客戶設置WAF規則,以掃描信用卡號等金融信息和API密鑰等機密信息,以確保這些敏感細節不會出現在大語言模型的響應中。
遺憾的是,目前還沒有一個防火墻規則來阻止語言模型發布不良或虛假信息。
特色功能
1、在接下來的幾個月中,Cloudflare計劃測試一個名為“提示詞驗證”的測試版功能。該功能將有助于防止“提示注入攻擊”,用戶可以設計提示詞來防止大語言模型創建不適當或者非法的內容。
2、這項功能正在開發中,它會分析每一個提示詞,并對它們進行評分,以確定它們是否可能對大語言模型構成攻擊。此外,它也會根據預設的類別來標記提示詞。評分范圍從1到99,數字越高表示提示詞注入攻擊的可能性越大,反之則越小。
3、客戶可以根據評分創建WAF規則來阻止或允許請求,并且可以將此評分與其他指標(例如機器人或攻擊分數)相結合,以確定提示詞是否發送到大語言模型。
4、允許客戶在遇到被視為冒犯性、涉及宗教、性或政治等敏感話題的提示詞時,阻止特定主題的內容生成。
部署方式:防火墻可以部署在任何大語言模型之前。這包括眾所周知的公共大語言模型工具,例如OpenAI的GPT和Anthropic的Claude,以及專為內部使用而設計的私有大語言模型。作為產品或服務的一部分銷售給客戶的模型也在保護范圍之內。
Cloudflare的產品經理Daniele Molteni 表示,人工智能防火墻可以部署在各種大語言模型前面,無論這些模型是托管在 Cloudflare Workers AI 平臺上,或者是其他平臺或主機提供商。唯一的要求是,所有的請求和響應都必須通過 Cloudflare 的代理。
Cloudflare對AI安全的關注是對一系列大語言模型錯誤和安全問題的回應。隨著科技巨頭推動將大語言模型嵌入其許多產品和服務中,結果往往包括錯誤和捏造,有時甚至可能涉及潛在漏洞的代碼。
為了解決這些新興的安全問題,一些開發者采取了一種針對人工智能的安全方法(Cloudflare將其稱為防御型人工智能框架),而谷歌和其他公司則擴展了其漏洞賞金計劃,將人工智能產品和大語言模型攻擊納入其中。
考慮到這項技術本身以及保護其免受攻擊的策略都還處于初級階段,可以預見在大型廠商的旗艦會議(大型知名品牌會議)即將到來之季,人工智能和大語言模型安全領域將會出現更多的話題和炒作。因此,預計RSA和黑帽大會上將會圍繞這個話題展開大量討論。
* 本文為陳發明編譯,原文地址:https://www.theregister.com/2024/03/05/cloudflare_firewall_ai/
圖片均來源于網絡,無法聯系到版權持有者。如有侵權,請與后臺聯系,做刪除處理。
來源:數世咨詢
版權所有:鄭州三中網安科技有限公司 豫ICP備2020036495號-1 ?? | 豫公網安備 41019702002241號 | 站點地圖 | 人才招聘 | 聯系我們 |