從ChatGPT談如何建構Trusted AI生態系

AIGC問世以來,相關技術演進愈加快速,變動速度之快讓人眼花撩亂,卻也帶來社會隱憂,例如利用AI繪製羅馬教皇方濟各身穿潮流羽絨服、美國前總統川普被逮補的照片,或是利用ChatGPT生成假募款網站以騙取捐款。從技術與法律層面來看,又有哪些方法能解決這些問題呢?

政治大學資訊科學系副教授蔡銘峰提到,ChatGPT是屬於大型語言模型(LLM),但在其訓練過程中,最值得注意的地方在於從人類反饋中強化學習 (RLHF,Reinforcement learning from human feedback),也已經有媒體報導OpenAI 在肯亞,以時薪2美元聘請一堆人訓練ChatGPT,使其表現得更符合人類期待的正確行為。除了這些人因為每天必須觀看色情、暴力的影片與圖片所造成的身心創傷外,更少人注意的是,如何統一訓練標準,且因為ChatGPT的參數量很大,關鍵的技術重點就在於如何將所有人的反饋都可以記錄下來。

他認為,更讓人擔心的是下個世代GPT的出現 ,例如AlphaGo一開始也是找棋士對弈練習,但後來DeepMind發展出的AlphaZero,甚至是由模型自己與自己對弈。而一旦發展出人類無法影響的ChatGPT Zero時,才是最恐怖的時候,也就會牽涉到可解釋性的問題。

目前許多國際大廠都已經開始進行Trust AI等議題的研究,而他認為,這一波AI可能會由微軟來帶領風潮,因此,從微軟研究院所提出的Trust AI規範來看,有兩大重要的指引觀點,分別是符合道德且可解釋的;並且提出未來AI技術應該要符合的六大準則:權責、包容性、可靠性和安全性、公平性、透明度,以及隱私權與安全性。

他認為,可值得信賴的AI中很重要的一環,就是得到的訊息必須正確,且是從資料庫裡面即時取得的訊息。

國安、選舉、色情三大影響

政治大學法律系暨創新國際學院助理教授陳柏良則認為,面對假消息或假新聞時,全球政府可分為三種思路,一是完全信任政府,由政府幫人民判斷真偽;第二種是完全不信任政府,最好政府什麼事情都不要做;第三種則是強調社群平台的責任,而政府的功用就是監督社群平台。

他也提到,美國政府在面對Deepfake議題時,主要從三個方向著手,一是塑造國安危機,例如販賣恐懼,渲染國際緊張情勢,假造戰爭資訊;二則是干擾選舉,例如在選前發布對候選人不利的假造影片;三就是色情影片製造。因此,以加州與德州政府為例,立法的重點方向就在於必須在影片中清楚標示,或是在聲音訊息的前四秒聲明。另一方面,在處理色情影片時,所著重的部分在於當事人是否同意。而台灣,雖然在小玉事件後,花了舉國之力卻找不到法源可辦的情況下,推行了一系列草案,卻僅處理了色情影片,而忽略了國家安全與選舉安全的問題。

陳柏良認為,目前ChatGPT最大的問題在於訓練資料來源並不清楚,且有許多人嘗試教壞這個語言模型,一旦被有心人士利用,產生錯的資訊,再利用這些資訊進行訓練,就會產生更多錯誤。

蔡銘峰建議,面對ChatGPT或是任何AI工具及技術,應該抱持著「永遠都不要百分之百相信」態度。陳柏良也提到,歐盟的AI法草案在建立所謂的可信度、透明性與問責上是以風險的概念進行層級分類,但有另一個問題是,這些風險目前由企業自己認定,是否值得信任?

至於,台灣是否需要一座屬於自己的大型語言模型?陳柏良認為,需要之後要面對的問題就是「Database夠不夠大?」如果Database不夠大,緊接著要擔心做出自己的版本後,觸及率低且在市場上被邊緣化,那麼,很可能投入大量資源後卻沒辦法達到預期效益。

人工智慧科技基金會執行長溫怡玲也認同,所有新技術導入時,要思考的是人們的需求,以及成本效益評估與目的是否符合。特別是,目前AI已成為科技大廠與世界各國的軍備競賽,未來會產生什麼影響仍無法明確預期,如果只是「為了AI而AI」,而缺乏整體發展策略與配套方案,恐怕未受其利反蒙其害。