專門給AI的精神時光屋 | 奎景運算

一般在AI專案的開發流程中,從資料收集到建立模型接著訓練AI模型,直到系統上線使用,這個過程大約需要耗費1年左右的時間。而這群從NVIDIA和學研單位出來的工程師們,看見市場上的這個需求,決定自己獨立出來,要用他們的技術來協助AI加速落地。

「一般企業大部分都不知道要怎麼導入AI,所以之前AIA(台灣人工智慧學校)就是在做這件事情,他們教這些想導入AI的企業如何去做深度學習、機器學習,把AI部署到企業裡面。但對企業來說,他們不知道AI從資料收集、模型建立到專案上路需要花這麼多時間和人力成本,而大部分人其實都希望資源投入後,可以很快得到成果,但AI加速這件事情,卻沒有什麼人在做」執行長陳俊傑解釋。

7倍的運算速度

過去,AI模型從訓練完成到AI模型驗證,大約要4個月,而從模型驗證到建置出符合客戶需求的AI系統也要4個月左右的時間,後續在檢驗AI系統的完整性則還需要大約3個月的時間,除了時間上的成本,人力上也是一項龐大的支出,因為在運算過程當中,工程師幾乎是沒有任何產值。

奎景運算是如何加速這個過程?他們在GPU之間建立加速平行對話的模組,讓各GPU之間去做交互運算並改良演算法的運算方法,藉以提升資料運算的效率。根據估計,客戶在他們的協助下,模型運算速度可達到以往的7倍,原本1年以上的開發流程,大幅縮短至1年左右,並至少降低40%以上的人力及研發成本。

不只加速 也要快速部署

結合了AWS的雲端服務,在高速運算的同時,也大大降低了預算,「我們的產品需要用到大量的GPU運算資源,而AWS在穩定性以及安全性的保證上其實為我們的產品加分不少,我們不需擔心主機穩定性的問題,在安全機制上也有許多保障,加上是以使用量做彈性計價的方式,使用AWS後,在硬體及人事成本一同計算後,每位客戶專案的整體預算至少下降了60%」,陳俊傑說明。

身為一個工具型的服務,在應用領域上其實相當廣泛,目前他們將業務重點放在工業製造及醫療方面上,因為對於醫療產業的開發者來說,比起加速AI開發,能夠簡單快速部署AI環境可能比較會是他們的優先考量,而奎景不只是協助客戶做AI開發的加速,也協助客戶快速的部署AI環境。 今年11月,奎景運算也參與了今年由馬來西亞主辦的世界資訊科技大會(簡稱WCIT)的展出,而現階段他們將持續與聿信醫療合作,除加強系統速度、提升穩定性外,並開始與Onework進行東南亞的工程安全AI合作案。目前則希望先在台灣完成系統壓力測試後,逐步往海外推進;未來目標將會以美國、日本為優先,接著再逐漸往歐陸接洽。

官方網站:https://www.avalanc.com/tw

You Might Also Like