
Google 公司近日宣布,將於下週推出名為 Gemini 的 AI 聊天機器人,專為 13 歲以下的兒童設計。根據《紐約時報》的報導,谷歌已向使用其家庭連結(Family Link)服務的家長發送電子郵件,告知他們這項新功能即將上線。這一服務僅限於參與家庭連結的兒童,並且家長可以設定監控措施,確保孩子在使用過程中的安全。
然而,這一決定引發了廣泛的關注和爭議。非營利組織 Common Sense Media 最近發表報告,指出 AI 助手對 18 歲以下的人群構成「不可接受的風險」。該報告由史丹佛醫學院的研究人員協作撰寫,強調了未成年人接觸某些 AI 工具的潛在危害,例如 Character.ai,這是一個允許用戶創建和互動AI「角色」的平台。這些 AI「朋友」可能參與不當的對話,對青少年造成負面影響。
儘管 Gemini 和其他 AI 聊天機器人設有防護措施以保護年輕用戶,但最近的報導顯示,這些防護措施並不總是有效。近期有媒體報導指出,某些 AI 模型出現漏洞,讓未成年人能夠生成不當內容,這引發了對 AI 安全性的質疑。
在這樣的背景下,Google 在電子郵件中提醒家長,鼓勵他們在孩子使用 Gemini 時進行批判性思考。隨著美國總統特朗普最近簽署的行政命令要求在學校推廣AI教育,家長們面臨著更大的挑戰,如何在引導孩子使用 AI 的同時,確保他們的安全與健康。
Google 表示,將不會使用這些 13 歲以下用戶的數據來訓練其AI系統,這一承諾旨在緩解家長的顧慮。然而,隨著 AI 技術的快速發展,如何在促進孩子學習與保護他們的安全之間取得平衡,仍然是一個亟待解決的問題。
- Report: Google will put Gemini AI in the hands of kids under 13
- One of Google’s recent Gemini AI models scores worse on safety
(首圖來源:科技新報)