科技部今天發布「人工智慧科研發展指引」,從3個核心價值而延伸出8大準則,這也是全球第一個針對科研團隊所做的AI指引;科技部長陳良基表示,希望藉此讓人工智慧成為善的工具,發揮更多善的力量。
科技部今天與人工智慧技術暨全幅健康照護聯合研究中心、人工智慧製造系統研究中心、人工智慧普適研究中心、人工智慧生技醫療創新研究中心共同發布「人工智慧科研發展指引」。
▲科技部23日宣布訂定人工智慧科研發展指引,完善台灣AI科研發展環境。(圖/中央社)
陳良基表示,今年初開始,科技部邀集各領域學者專家召開數場會議討論後,決定以「以人為本」、「永續發展」及「多元包容」為核心價值,從而衍伸出8大準則:共榮共利、公平性與非歧視性、自主權與控制權、安全性、個人隱私與數據治理、透明性與可追溯性、可解釋性、問責與溝通。
陳良基比喻,人類歷史上有石器時代、鐵器時代,如今隨著科技進步,已經邁入人工智慧(AI)時代;AI作為人類使用的工具之一,如同刀子、火種,利用上有善有惡,這次端出AI科研發展指引,就是為了讓善的力量被加大,惡的部分可以被控制。
8大準則方面,陳良基以「自主權及控制權」為例,他解釋,AI跟軟體有很大不同,程式設計師寫好程式後,軟體就定下來,不會突變,但AI工程師把軟體寫好後,會一直演化,最後AI演化什麼模樣,不是工程師能了解。
也因此,陳良基強調,在科研發展時,必須注意到「自主權及控制權」的準則,要保證AI演化不會變成人類無法操控;當研發初期有注意到,後續就比較不會造成問題。
另個準則「公平性與非歧視性」,陳良基解釋,AI程式寫好之後,演化就是來自於科研人員給他的資料,如果科研人員給的資料含有歧視內容,AI就會歧視,如果給AI的資料是往某個方向偏差,AI就會跟著偏差,因此,科研人員必須意識到,在AI系統、軟體、演算法等技術及進行決策時,應落實以人為本,避免產生偏差與歧視等風險。
陳良基補充,AI現在還在演化過程中,現在法令並不清楚科技會把界線推到哪去,這也是為何全球各國多選擇先訂定指引,而非法律的原因;值得一提的是,先進國家及組織紛紛研擬相關基本準則,但都較廣泛,台灣則領先全球,率先聚焦科研團隊,提出AI科研發展指引。