「AI 從不會自我失控,關鍵是人類如何去使用這個技術。」長期與美國Mozilla基金會互動的Mozilla台灣社群聯絡人 Irvin Chen 認為, AI 當然需要不斷的調整,才能避免偏誤的狀況發生;而要讓 AI 一直朝向正向發展,除了產業的自律外,民間團體「監管」角色也格外重要。像是美國的 Mozilla 基金會,針對商業公司的 AI 進行研究、提出報告,給予外部壓力,迫使商業對不負責任的 AI 做出改變。
Mozilla Taiwan 社群聯絡人 Irvin Chen。(圖/Irvin Chen提供)
Irvin 以台灣的中央流行疫情指揮中心每天召開的線上記者會為例,我們每次收看直播,可以同步看到影片底下的 AI 逐字稿,若是沒有這項技術,某些族群就無法即時接收到訊息,儘管有手語老師,但有了 AI 的輔助,訊息一定會傳遞的更完整。
Irvin 說,這只是 AI 應用的其中一個例子,實際上 AI 已經充斥在我們的生活當中,AI 絕對是一個必要的技術,為人類生活帶來更多的便利。
「AI 不會自我失控,我們離強 AI 還有很長的距離。」Irvin 說,所謂的強 AI 就是會自己思考、成長的 AI,但目前為止,所有的 AI 都是按照規則生成的產物,不會超越人類賦予它的目的。
Mozilla 基金會曾經針對 Youtube 演算法進行研究,發現過去的演算法是以增加用戶觀看時數為基準來訓練 AI,當時因沒有外部監控體系,全是由 Youtube 內的工程師處理,在這樣的演算法長期運作下發現了很多問題。舉例而言,有人搜尋「falling」,一開始只是一些葉片掉落的畫面,但後來 Youtube 推薦他越來越重口味的影片,就是為了讓使用者能留在 Youtube 上更久。
還有人發現長輩的 Youtube 頁面上全部都是陰謀論相關影片,這也是因為 AI 不會去判斷影片內容是好的或壞的、真的或假的資訊,最高原則就是要拉長使用者的觀看時間。
Mozilla 於今 (2021) 年 7 月釋出一份 Youtube 推薦影片的調查報告,其中有 71%"反感影片"是來自演算法推薦。(圖/擷自於 Mozilla 基金會)
從這些案例可見,如果只是給了 AI 一個基本的訓練方向,卻沒有持續改善、監管,就會發生問題、出現偏誤,就算目前的演算法的條件符合現狀,未來也可能不再適合。
正因為有 Mozilla 基金會的倡議,Youtube 後來改善了演算法條件,這就是人類的事後監管,除了上傳影片時可以選擇該影片是否適合小朋友觀看之外,也減少推薦陰謀論相關影片,要讓正面的影片傳遞的更久,假訊息相關的影片傳遞的更少。
Irvin 說,若是沒有外部壓力,很多的商業公司可能都不會調整 AI 演算法,因此,比起政府監管,由民間團體監管 AI 可能是比較好的選項,像是 Mozilla 基金會就會針對各種不同的 AI 服務進行研究、提出報告、要求個別公司改善等。
「人臉辨識進校園,師生隱私誰來顧」記者會。(圖/廖昱涵攝影)
Irvin 指出,歐盟 2020 年提出人工智慧白皮書,成為未來各國立法的標竿,歐盟的監管體系完善,各個國家都有個資保護官、個資保護專責機構,因為有完整的法規跟行政基礎,歐盟實施AI監管體系,就比較有能力去驗證廠商的 AI 是否有達到該有的標準。
但如果今天是台灣的政府機關要監管 AI,他會質疑,要由哪一個機關負責?畢竟台灣連專責隱私的單位都沒有,是否有足夠的研究基礎、人力去因應,都是一大問題。
除了民間團體監管外,另一個選項是由公司自治,譬如說台灣的區塊鏈產業自治組織去做相關監管工作,台灣人工智慧實驗室也成立自治組織,一起訂定規則跟監管。
Irvin 認為,政府可以扮演的角色,應該是支持這樣的民間機構、第三方組織監管 AI,效果會比政府自己成立一個機關來做更好。因為在前瞻性產業方面,政府介入往往可能變成限制,而不是幫助產業往正向發展。
想要構築負責任 AI 的世界,需要產業自律、外部民間團體的壓力、政府支持第三方監控並修正不合時宜法規,三方都需要一起努力。