您的位置: 首頁 >科技 >

網絡中的AI需要復雜的成本與收益分析

2022-06-23 06:17:01 編輯:湛紅桂 來源:
導讀 可能表示攻擊或由于攻擊而丟失的數據量要求監(jiān)控水平超出人類網絡安全專家團隊所能達到的水平。威脅和異常檢測(TAD)的確切定義是自動化

可能表示攻擊或由于攻擊而丟失的數據量要求監(jiān)控水平超出人類網絡安全專家團隊所能達到的水平。威脅和異常檢測(TAD)的確切定義是自動化的秘訣:在數據集中查找異常值,這是識別模式的重復性任務。

使用AI自動化某些網絡安全任務有明顯的優(yōu)勢。這些模式的識別可以有助于建立預測模型,以在攻擊發(fā)生之前進行識別,或者在攻擊進行時提供決策支持。

這些AI應用程序通??梢詮臒o監(jiān)督學習中收集他們的見解,以進行模型開發(fā)或神經網絡,從而產生非常有希望的結果。但是,他們缺乏為單個決策提供透明解釋的能力。

網絡安全中的AI有兩個主要缺點

自動化給網絡安全帶來了爭議。我們證明自動化合理性的方法固有地需要信任。如果目標是將寶貴的人員能力從重復的,費時的任務中解放出來,則我們從根本上希望將人員從這些任務中解脫出來,這意味著我們必須信任該系統(tǒng),以產生比團隊負責的結果更好或更好的結果。

有一個基線假設,那就是當我們實現(xiàn)自動化時,這是因為我們相信系統(tǒng)能夠令人滿意地完成任務。網絡安全中自動化的許多好處來自AI應用程序,這些應用程序長期以來無法調用信任。

將AI應用程序用于預測性和自動化的網絡安全態(tài)勢,對贏得公司和受保護利益相關者的信任帶來了兩個主要挑戰(zhàn)。

首先,這些預測性網絡安全實施中的許多實施都依賴于無監(jiān)督的學習技術或神經網絡,而這些技術或神經網絡目前無法提供人類可讀的本地化解釋。

其次,這些應用程序還展示了黑客可能利用的新漏洞,從而增加了公司的攻擊向量。對AI應用程序的攻擊采用與傳統(tǒng)攻擊不同的形式。對AI應用程序的攻擊不是竊取有效載荷,而是試圖改變或影響AI應用程序的行為,從而對黑客有利。盡管在開發(fā)追溯應用的解釋模型方面做出了努力并取得了一些成功,但在將AI用于自動網絡安全策略時,目前尚無法建立高度信任。

網絡安全中的AI付出了代價

這兩個方面-AI非常適合許多網絡安全任務,以及當前無法在不熟悉的環(huán)境中信任不熟悉的技術-意味著當信任仍然存在時,我們將無法管理AI。我們需要針對AI的不同管理策略,尤其是對于網絡安全。我們需要不斷監(jiān)控,基準測試,評估和改進這些系統(tǒng),而不是信任它們。

由于我們尚無法可靠地信任我們的AI網絡安全工具來提供解釋或不受后門攻擊或數據中毒的影響,因此我們必須對用來訓練包括輸入數據的模型的框架保持懷疑,產生的結果以及我們對成功的衡量。


免責聲明:本文由用戶上傳,如有侵權請聯(lián)系刪除!

2016-2022 All Rights Reserved.平安財經網.復制必究 聯(lián)系QQ280 715 8082   備案號:閩ICP備19027007號-6

本站除標明“本站原創(chuàng)”外所有信息均轉載自互聯(lián)網 版權歸原作者所有。