在最新研究中, 美國公共利益研究組織(U.S. PIRG)針對四款針對 3 至 12 歲兒童的 AI 玩具進行調查,發現這些玩具存在嚴重的安全問題。這些玩具使用的生成式大型語言模型(Generative Large Language Models,LLMs)、如 GPT 系列,原本是為成人設計的,卻被嵌入到兒童玩具中,並且缺乏足夠的安全防護措施。報告指出,這些玩具不僅可能提供不當的性內容,還可能給出危險的建議,讓家長感到擔憂。
隨著玩具的進化,現今的玩具不再僅是簡單的塑膠模型,而是能聆聽、回應、儲存數據並進行即時互動。這樣的變化帶來許多潛在風險。當AI玩具給孩子提供錯誤建議、或在缺乏保護的情況下錄製他們的聲音和臉部時,遊玩時間就變成了隱私、心理健康和安全的問題。
此外,這些玩具所使用的技術與成人聊天機器人相同,這些技術已知存在偏見、不準確性和不可預測的行為。儘管玩具公司可能會添加「適合兒童」的過濾器,但報告顯示這些安全措施可能會失效。家長和監管機構現在面臨著新挑戰:不僅是窒息危險或鉛漆問題,還有可能引導孩子尋找危險物品或質疑他們停止遊玩的決定。這意味著玩具市場變得更複雜和危險。
對於家長、照顧者或贈禮者來說,這不僅是另一個「壞玩具召回」的故事,而是關於在忙碌時信任與孩子互動的事物。AI玩具承諾提供教育價值和新奇感,但這些發現表明,在讓玩具進入遊戲室之前,我們需要提出更嚴格的問題。
接下來的步驟是玩具製造商、監管機構和家長如何應對。美國公共利益研究小組呼籲加強監管,對AI對話模組進行更好的測試、要求對聲音和臉部捕捉進行家長同意,以及對「適合兒童」的AI玩具制定更清晰的標準。玩具行業本身可能會轉向更嚴格的認證程序,否則將面臨投資者和消費者的反彈。
家長們則應密切關注新產品的推出,留意標籤上是否有「包含AI聊天機器人」的字樣,並直接詢問零售商有關過濾器、隱私保護和家長控制的內建措施。因為如果一個玩具能建議孩子尋找危險物品或延遲停止遊玩,這項技術雖然有趣,但需要妥善管理。
- Your kid’s AI toy might need supervision more than your kid does
- AI toys found making disturbing comments to kids, report warns
(首圖為示意圖,來源:Unsplash)






