人工智慧基本法將成形,學者建言盼符合台灣 AI 現況

作者 | 發布日期 2023 年 07 月 11 日 17:49 | 分類 AI 人工智慧 , 數位內容 , 科技政策 line share follow us in feedly line share
人工智慧基本法將成形,學者建言盼符合台灣 AI 現況


政府正在研擬人工智慧基本法,預計 9 月初提出草案,將包含 AI 相關法制、倫理規範、產業促進原則等。行政院召集了國科會、通傳會、文化部、數位部等相關部會,研議立法規範加以納管。

歐洲議會(European Parliament)在 6 月 14 日通過採納「歐盟人工智慧法案」(EU AI Act),使 AI 系統可受人的監督,確保 AI 是安全、透明、可追溯、不會有歧視。新法更提及應禁止 AI 應用在生物辨識、情緒辨識的監控技術,應禁止預測性警察活動的技術,應量身定制如 ChatGPT 等生成式 AI 相關規範。

歐盟人工智慧法案成為全球第一個監管 AI 的法案。台灣的人工智慧基本法草案正在研擬階段,台灣科技媒體中心邀請多位研究 AI 的專家,提出專業建言。

哪些性質的 AI 需要優先監管

AI 其實有不同的研究方向和技術應用,需要優先監管的類型,例如有自主學習和決策能力的系統,以及會記錄和偵測個人隱私、生理、社會生活資料的系統。其中,目前熱門的 AI 生成模型能產生以假亂真的文字、圖片、語音等,影響程度最為明顯,優先監管有其必要性。比方說常見的 Deepfake 深偽技術,可能導致網路上許多資訊不易受到信任,嚴重的話甚至影響經濟和社會和諧。

「不能忽略的是當 AI 模型介入日常生活,便需要受到適當監管」,成大數據科學研究所助理教授許志仲舉例,有些公司開始採用 AI 分析面試者甚至在職員工的未來表現,以利經營團隊做出資遣或不聘任的決定,這些 AI 方法在訓練過程是否存在偏頗、分析過程是否合理,必須有相關規範。

監管 AI 是否代表無法發展特定領域

政府立法監管是為確保 AI 的安全、公平以及負責任的應用,減少潛在風險,以保護人民利益和社會福祉,並非完全限制研究方向。

「監管法規某個角度應讓研究者顧及研究對象的安全,並在研究成果透明下,可以放膽去開拓研究,激發更有創意的應用」,台大語言學研究所副教授謝舒凱認為,適當監管能鼓勵創新和學術自由。

如何制定符合台灣現況的 AI 規範

台灣有優秀科技人才和研發環境,可致力於 AI 技術開發和應用,研究更能與產業緊密結合,尤其如智慧製造、物聯網、機器人等領域有突破機會。

「制定適用台灣的 AI 監管規範,包括隱私保護、倫理標準、透明度和責任等,並納入台灣的法律體系和政府政策,通過立法或行政命令等程序具體執行」,台中科大資訊工程系教授林春宏指出,還能成立專責機構監管 AI,促進國際交流與合作。

值得關注的是,台灣有急迫的政治生存壓力,又處在國際政經角力下,應思考監管 AI 不能只當成立法的問題,還涉及國防外交、國際政治和經濟等不同層面的規範。

「語言其實是最可怕的武器,摧毀和煽動人心可以不需要尖端國防科技,AIGC(生成式 AI 內容)已被極權國家當成武器進行研發,這一點,在我們的社會似乎沒有高度警覺」 ,謝舒凱特別指出,虛假消息會跳脫原本的模式潛入社會各地,台灣需要有防堵與反制生成式 AI 的準備與能力。

監管與規範幫助 AI 在發展技術的過程,能最大化對社會每個個體的效益並最小化風險,這使得正在研擬的人工智慧法草案更顯重要,需要廣納多方意見、謹慎制定。

(首圖來源:pixabay

延伸閱讀: