在最新的報告中,Google 揭示了五種使用生成式人工智慧(AI)開發的惡意軟體樣本,這些樣本的效果遠低於專業的惡意軟體開發標準,顯示出這些新興技術在惡意軟體開發上的應用仍然存在顯著的局限性。
這些樣本包括PromptLock、FruitShell、PromptFlux、PromptSteal和QuietVault,雖然它們在實驗階段,但報告指出這些樣本利用AI動態生成腳本和自我修改以規避偵測,這使得它們的檢測難度有所增加。
其中,PromptLock是一項學術研究的一部分,旨在分析大型語言模型在自動規劃、適應和執行勒索病毒攻擊生命週期中的有效性。儘管如此,研究人員指出,這種惡意軟體存在明顯的限制,缺乏持久性、橫向行動和高級逃避策略,僅僅是展示了AI在此類用途上的可行性。安全公司ESET在報告發表前已經發現了這一樣本,並稱其為AI驅動的概念驗證勒索病毒。
研究人員表示,這些結果顯示,儘管生成式AI的熱潮已經持續了三年,但威脅開發的進展卻非常緩慢。如果這些惡意軟體開發者收取報酬,客戶肯定會要求退款,因為這些樣本並未顯示出可信的威脅或向可信威脅的發展。
另一位不願透露姓名的惡意軟體專家,同意Google的報告並未顯示生成式AI使惡意軟體開發者在技術上優於傳統開發者。並指出,AI並未創造出比正常情況下更可怕的惡意軟體,它只是幫助惡意軟體作者完成工作,並沒有什麼新穎之處。
這些評估為那些誇大AI生成的惡意軟體威脅的敘述提供了有力的反駁,許多AI公司正在尋求新的風險投資。Google的報告還指出,某些威脅行為者利用其Gemini AI模型,透過社會工程假裝成白帽駭客來繞過防護措施,這些防護措施旨在防止AI被惡意使用。
總體而言,迄今為止出現的AI生成惡意軟體大多數是實驗性的,且結果並不令人印象深刻。雖然未來可能會出現新的能力,但目前最大的威脅仍然主要依賴於傳統的攻擊策略。
- 5 AI-developed malware families analyzed by Google fail to work and are easily detected
- Google warns that a new era of self-evolving, AI-driven malware has begun
- AI-based malware makes attacks stealthier and more adaptive
- Google uncovers malware using LLMs to operate and evade detection
- GTIG AI Threat Tracker: Advances in Threat Actor Usage of AI Tools
- Google security flags AI mutants in VMs, cloud & networks
- Malware Now Uses AI During Execution to Mutate and Collect Data, Google Warns
- M-Trends 2025 Report is now available
(首圖來源:shutterstock)






