微軟推出AI對(duì)話工具Security Copilot,旨在幫助網(wǎng)絡(luò)安全團(tuán)隊(duì)防止黑客攻擊
3月29日消息,近日,微軟發(fā)布了一款名為Security?Copilot(安全副駕)的人工智能對(duì)話工具,旨在幫助網(wǎng)絡(luò)安全專業(yè)人士了解關(guān)鍵問題,并找到解決問題的方法。
自2022年11月OpenAI的ChatGPT機(jī)器人首次亮相后,該公司一直在忙著用初創(chuàng)公司OpenAI的人工智能模型來支持自己的軟件。
正如微軟本月早些時(shí)候在談?wù)揥ord和其他生產(chǎn)力應(yīng)用程序的新功能時(shí)所說的那樣,由此產(chǎn)生的生成式人工智能軟件有時(shí)可能是有用的錯(cuò)誤。但微軟仍在繼續(xù)前進(jìn),因?yàn)樵摴緦で蟊3志W(wǎng)絡(luò)安全業(yè)務(wù)的增長,該業(yè)務(wù)在2022年的收入超過200億美元。
微軟安全副駕駛采用了OpenAI最新的大型語言模型GPT-4,微軟在OpenAI上投資了數(shù)十億美元,以及微軟使用其收集的日?;顒?dòng)數(shù)據(jù)構(gòu)建的特定安全模型。該系統(tǒng)還知道給定客戶的安全環(huán)境,但這些數(shù)據(jù)不會(huì)用于訓(xùn)練模型。
該聊天機(jī)器人可以根據(jù)用戶輸入的文本提示,制作總結(jié)安全事件的PowerPoint幻燈片,描述暴露在一個(gè)活躍漏洞中的情況,或指定涉及利用漏洞的帳戶。
用戶可以點(diǎn)擊一個(gè)按鈕確認(rèn)答案是否正確,或者選擇一個(gè)“偏離目標(biāo)”按鈕表示錯(cuò)誤。微軟負(fù)責(zé)安全、合規(guī)、身份、管理和隱私的公司副總裁Vasu?Jakkal在接受采訪時(shí)表示,這種輸入將幫助該服務(wù)學(xué)習(xí)。
微軟內(nèi)部的工程師一直在使用安全副駕駛來完成他們的工作。“它可以處理1000個(gè)警報(bào),并在幾秒鐘內(nèi)告訴你兩個(gè)重要事件,”Jakkal表示,“該工具還為一名不知道如何做的分析師逆向設(shè)計(jì)了一段惡意代碼。”
對(duì)于那些在招聘專家時(shí)遇到麻煩,最終只能雇傭在某些領(lǐng)域缺乏經(jīng)驗(yàn)的員工的公司來說,這種幫助可能會(huì)產(chǎn)生不同的效果。“這是一個(gè)學(xué)習(xí)曲線,需要時(shí)間?,F(xiàn)在,擁有內(nèi)置技能的安全副駕駛可以增強(qiáng)你的能力。所以它將幫助你用更少的錢做更多的事?!盝akkal說。
微軟并沒有透露當(dāng)安全副駕駛被廣泛使用時(shí)將投入多少。
Jakkal表示,希望公司內(nèi)部的許多員工都會(huì)使用它,而不僅僅是少數(shù)高管。這意味著隨著時(shí)間的推移,微軟希望使這個(gè)工具能夠在更廣泛的領(lǐng)域進(jìn)行討論。