懶人包重點:
・myVoca ASR 模型發表:台灣大哥大與長問科技合力打造,號稱性能實測優於 OpenAI Whisper,精通中、台、英、客語,特定條件下精準率達 97 %,更懂台灣在地語言。
台灣大哥大今天與眾多台灣品牌,舉辦了一場號稱在 AI 語音辨識模型技術方面帶來黑科技突破的發表會。
宣稱與長問科技共同研發的 myVoca ASR(Automatic Speech Recognition)模型,不僅「實測在算力效能、精準度與辨識速度皆超車國際 OpenAI Whisper-large-v3 模型」更是最懂台灣語的多語混合辨識模型。
精通中、台、英、客語混合辨識
相對於過去十分泛用的 OpenAI Whisper 開源方案,對於大眾最有感的地方,是在於它可以精通中、台、英、客語混合辨識的能耐。
沒錯,是「混合辨識」!雖然不至於到傳說中(!?)的晶晶體那樣的誇張。但就這次現場與 OpenAI Whisper 的實戰 PK,看起來 myVoca 不僅反應更快,而且也相當精準 - 根據官方的數據,特定條件下的精準率達 97%,並且遠遠超車 OpenAI Whisper 的表現。
AI 語音辨識精準度與速度提升的「黑科技」關鍵
台灣大哥大透露,myVoca 的技術關鍵在於以電信天賦來將通用語料擴增。藉此更有效提升辨識準度,再加上在「AI 聽寫大哥」等服務裡,還可以透過微調的方式進行專有名詞的語料蒐集與建置。
因此無論是所謂的晶晶體,又或者是應用在醫療企業場域的艱澀用語,台灣大哥大的 myVoca 模型都能更精準的對應辨識甚至是語音輸出的需求。並由長問科技所提供可更高效進行「邊講邊辨識」及架構設計、訓練流程與演算法調整,在兼顧準確度與高速度的前提下,還可大幅降低算力與建置成本。
因此 myVoca 號稱可以在企業客服的使用情境中,提供實用性超高、同時可支援 60 線客服且延遲可小於 1 秒的強大支援彈性。
如有高機密的會議或是 AI 資料庫等需求,台灣大哥大也與群聯合作,提供以專利的 aiDAPTIVCache SSD 技術為核心,解決 GPU 記憶體瓶頸大幅降低本地端 AI 引擎建置成本的解決方案。
所以,在哪可以玩到 myVoca?
以上看起來,myVoca 感覺是專為企業所打造的服務,總覺得可能距離我們還有點遙遠,甚至搞不好還是只是個技術發表而已?想不到,我這個想法是大錯特錯。
因為這次發表會上台灣大哥大倒是很霸氣的宣布,myVoca 已經可以提供現場企業用戶 2 個月的免費串接、不限分鐘數試用,完全展現了 myVoca 對於自己技術的「即戰力」的自信。
除此之外,也與包括凌羣電腦智慧機器人、啟耀光電與太能系統的透明雙向翻譯機示範 myVoca 的落地應用。
簡單地說,橫跨包括政府、醫療、金融、交通、零售、製造等領域目前有逾 30 家夥伴,今年都將會開始採用 myVoca 這種「更快、更準、更省」多方兼顧的語音模型應用。
所以,下次如果你突然發現到這些單位透過語音與機器人或是翻譯機互動時,感覺「它們」似乎變聰明了很多且反應速度驚人的話。也許可以試試看用晶晶體來考驗他們(?),如果這些 AI 還是可以對答如流的話。搞不好它的背後用的就是這次發表的 myVoca 喔!
--
延伸閱讀:
iPhone 17e 開箱體驗:我的平價版 Air
![晶晶體也難不倒?台灣大哥大「myVoca」語音辨識模型來了3890]()
--
台灣大哥大,myVoca, AI 聽寫大哥, 群聯 aiDAPTIV
|