2025年AI風險與AI倫理審驗國際論壇由台灣師範大學主辦,6日登場,邀請學界、業界專家與會分享,聚焦人工智慧風險治理、倫理審查制度與政策布局。圖/台師大提供(中央社)
台灣師範大學今天舉辦AI風險治理國際論壇,美國、韓國等國專家一同參與。學者提醒AI易用於偽造聲音、影片,對弱勢族群的威脅更大,而偵測合成聲音的技術,也已用於防範詐騙中。
2025年AI風險與AI倫理審驗國際論壇今天在台師大舉辦,邀請學界、業界專家分享最新趨勢,來自FanoLabs的林潤生,演示語音詐騙偵測技術,成為論壇的焦點。
林潤生指出,AI偽造聲音已成金融詐欺主要手法之一。目前已有技術可辨識聲紋異常、偵測AI合成聲音及背景指令提示資訊,可幫助銀行提前阻斷風險。相關技術已在多家金融與保險機構試行,成為AI防詐的重要工具。
美國麻省理工學院(MIT)AI風險資料庫研究方法專家麥可・諾特爾(Michael Noetel)指出,各國都面臨立法速度落後科技發展的問題,MIT團隊近來建置的AI風險資料庫,可蒐集偏見、不平等影響、模型錯誤與弱勢族群脆弱性等資訊,建立可追溯、可分析的風險框架,協助政府、企業與研究者面對AI風險。
韓國淑明女子大學教授徐範錫指出,AI模型若缺乏透明度,可能在犯罪預測、臉部辨識與醫療等領域導致嚴重偏誤。目前學界正推動可解釋人工智慧(XAI)架構,揭露模型推論邏輯、辨識偏見來源,並以線性模型與神經網路整合方式提升複雜資料分析能力。
台師大AI倫理與治理中心計畫主持人王維菁建議企業,將AI風險評估與倫理審查納入內控流程,建立自律標準,並透過專業培訓與學程發展,共同培養具AI素養及治理能力的人才。
2025/12/06 20:51
轉載自聯合新聞網: https://udn.com/news/story/7240/9186665?from=udn-ch1_breaknews-1-99-news






