文/鏡週刊
▲面對Microsoft等業者來勢洶洶,搜尋引擎龍頭Google勢必全力反擊,列強相爭可望加速生成式AI普及的速度。(圖/鏡週刊)
過去慣用於影像辨識、預測模型的人工智慧(AI),何以化身為ChatGPT後竟可以對話還能創作?工研院專家指出,這或許從最後三個英文字母「GPT」可一窺究竟!
工研院電光所技術長謝明得拆解GPT全名,告訴本刊這是「Generative Pre-trained Transformer」,翻成中文就是「生成預訓練變換模型。」是一種類神經系統的數學演算法,可讓機器進行深度學習,長出像人腦般的智力。
工研院資通所總監張森嘉回顧,深度學習早已發展多年,第一次引爆點是2016年Google後來收購的DeepMind所開發AlphGo電腦打敗韓國棋王李世乭,當時AlphGo透過兩台電腦互相對弈就讓棋藝大躍進,業界莫不以金庸小說「周伯通的左右互搏」形容此一震撼。
然而,謝明得表示,Transformer模型,更是AI朝向深度學習發展上的重大突破!因為它打破了以往只能依序輸入資料再輸出結果的處理方式,運用注意力(Attention)機制,大幅提升平行處理的能力,不管模型的複雜度多高,只要運算能力足夠,「要處理多少資料就處理多少,還能處理得很快。」
謝明得進一步指出,Transformer模型透過海量資料的訓練,加上藉由人類回饋的增強式學習機制,使得模型參數逐漸接近人腦突觸數量,隨著ChatGPT能力越來越強、也越來越接近人類的互動行為,這也是為何才一歲多的ChatGPT竟能像大學生一樣通過考試。」
令人訝異的是,Transformer並非 OpenAI所創,台大電機副教授李宏毅向本刊透露,Transformer的開發,其實是Google在2017年率先提出,Google隔年更依此推出名為BERT的模型,因為預讀取資料量大、回應快而受市場好評,即使 OpenAI後來也推出GPT第一代、第二代,依舊未受太大影響。
不過,李宏毅分析,BERT多提供給企業、學校等2B市場,由客戶據自身需求打造平台,未直接成為產品,也讓如此創新的AI架構,仍有如一層神祕面紗難以聯想;反觀ChatGPT以易用介面(API)直接面對全世界,明明不算新的技術後發先至,令他相當佩服。
李宏毅並分析,OpenAI正藉由大家不斷在玩ChatGPT的過程,直接理解了使用者的需求,知道使用者能會問什麼問題,而這是Google一開始先把BERT這個模型出來提供給專業人士使用所沒有掌控到的部分。
不過,面對OpenAI的彎道超車,Google趕緊推出Bard對話機器人,沒想到日前卻因答錯問題,造成股價大跌,但在台智雲技術長陳忠誠的看法卻給予正面解讀,他認為過去偏向保守、被動的Google遇上勁敵不得不接球。
已在AI領域卅多年的陳忠誠指出,一個顛覆創新的新技術要普及,一定要大家共襄舉,Google過去在資料、搜尋所累積的資源,大家仍不能輕忽其反攻力道。
無論如何,兩強競逐也讓其臉書母公司Meta、亞馬遜(Amazon)等其他高科技巨頭紛紛加入生成式AI戰局,百花齊放對全世界、業界都很好,也更確立,生成式AI是下一波人工智慧技術主流。