OpenAI 昨日(3 月 20 日)發布博文,宣布推出語音轉文本(speech-to-text)和文本轉語音(text-to-speech)模型,提升語音處理能力,支持開發者構建更精準、可定制的語音交互系統,進一步推動人工智能語音技術的商業化應用。

在語音轉文本模型上,OpenAI 主要推出了 gpt-4o-transcribe 和 gpt-4o-mini-transcribe 兩個模型,官方表示在單詞錯誤率(WER)、語言識別和準確性上超越現有 Whisper 系列。

這兩個模型支持超 100 種語言,主要通過強化學習和多樣化高質量音頻數據集訓練,能捕捉細微語音特征,減少誤識別,尤其在嘈雜環境、口音及不同語速下表現更穩定。
在文本轉語音上,OpenAI 最新推出了 gpt-4o-mini-tts 模型,開發者通過“模擬耐心客服”或“生動故事敘述”等指令,控制語音風格,可以應用于客服(合成更具同理心的語音,提升用戶體驗)和創意內容(為有聲書或游戲角色設計個性化聲音)方面。


IT之家援引博文介紹,附上三款模型費用如下:
gpt-4o-transcribe:音頻輸入每 100 萬 tokens 費用 6 美元、文本輸入每 100 萬 tokens 費用 2.5 美元,輸出每 100 萬 tokens 費用 10 美元,每分鐘成本 0.6 美分。
gpt-4o-mini-transcribe:音頻輸入每 100 萬 tokens 費用 3 美元、文本輸入每 100 萬 tokens 費用 1.25 美元,輸出每 100 萬 tokens 費用 5 美元,每分鐘成本 0.3 美分。
gpt-4o-mini-tts:每 100 萬 tokens 輸入費用為 0.60 美元,每 100 萬 tokens 輸出費用為 12 美元,每分鐘成本 1.5 美分。