在人工智慧(AI)時代,網路安全面臨新挑戰。根據網路安全公司 Irregular 於今年 2 月的最新研究,許多大型語言模型(LLMs)如 Claude、ChatGPT 和 Gemini 所生成的密碼,雖然看似強大,實際上卻極其脆弱,容易被破解。
研究人員對這些AI模型進行測試,要求它們生成包含特殊字元、數字和字母的16位安全密碼。結果顯示,這些模型生成的密碼雖然在網上檢查工具中得分良好,但實際上卻是基於可預測的模式。例如,Claude生成的50個密碼中,幾乎所有的密碼都以大寫字母「G」開頭,第二個字元幾乎都是數字「7」,這種模式的重複性使得密碼的安全性大打折扣。
同樣,ChatGPT和Gemini也顯示出類似問題,生成的密碼多數以特定字元開頭,且使用的字元範圍非常狹窄。這些模型的生成方式使得密碼看起來隨機,實際上卻缺乏真正的隨機性。






