隨著人工智慧(AI)技術的迅速發展,企業面臨的安全挑戰也日益增加。根據 AI 安全研究員桑德·舒霍夫(Sander Schulhoff)的說法,傳統的網路安全團隊並未做好應對 AI 系統失效的準備。在最近播出的《Lenny’s Podcast》中,舒霍夫指出,許多組織缺乏理解和修復 AI 安全風險所需的人才。
傳統的網路安全專業人員通常專注於修補漏洞和解決已知的安全問題,但AI系統的運作方式卻截然不同。舒霍夫形容道:「你可以修補一個漏洞,但你無法修補一個大腦。」這種思維上的不匹配使得安全專業人員在評估AI系統時,往往忽略了關鍵問題:如果有人設法欺騙AI,讓它做不該做的事情,會發生什麼?
這個盲點在實際部署中表現得尤為明顯。網路安全專業人員可能會對AI系統進行技術缺陷的審查,卻未必考慮到AI系統可能受到語言和間接指令的操控。舒霍夫強調,具備AI安全和傳統網路安全雙重經驗的人才,能有效應對AI模型被欺騙生成惡意代碼的情況,並採取適當的隔離措施以保護系統。
此外,許多AI安全新創公司推出的防護措施並未提供實質性的保護。舒霍夫指出,這些工具聲稱能夠「捕捉一切」,但實際上這些說法是誤導性的,因為AI系統可以被以無數種方式操控。他預測,這些無效解決方案的市場將會出現修正,相關公司的收入將會大幅下降。
舒霍夫認為,未來的安全工作將集中在AI安全和傳統網路安全的交集上。企業需要那些同時理解這兩個領域的專業人才,這樣才能設計出能夠安全處理AI生成輸出的系統,並在評估AI部署時具備攻擊者的思維。
- AI is creating a security problem most companies aren’t staffed to handle, says an AI researcher
- The coming AI security crisis (and what to do about it) | Sander Schulhoff
- 5 Critical Cybersecurity Mistakes Putting Your Business at Risk in 2025
(首圖來源:pixabay)






