劃重點
01OpenAI的AI語音轉寫工具Whisper被曝存在嚴重幻覺問題,約一半轉錄內容不實。
02美聯(lián)社報道,明尼蘇達州的曼卡托診所和洛杉磯兒童醫(yī)院等超過30000名臨床醫(yī)生和40個衛(wèi)生系統(tǒng)已使用Nabla基于Whisper打造的工具。
03然而,OpenAI此前已警告不要在“高風險領域”中使用Whisper,如決策情境。
04由于數據安全原因,Nabla工具無法將生成的AI文本與原始錄音進行比較。
05OpenAI發(fā)言人表示,公司將持續(xù)研究減少幻覺現象,并在模型更新中加入相應反饋機制。
以上內容由騰訊混元大模型生成,僅供參考
西風 發(fā)自 凹非寺
量子位 | 公眾號 QbitAI
OpenAI的AI語音轉寫工具,那個號稱近乎“人類水平”的Whisper,被曝幻覺嚴重
100多小時轉錄,被工程師發(fā)現約一半都在瞎扯。
更嚴重的是,美聯(lián)社還爆料有醫(yī)療機構利用Whisper來轉錄醫(yī)生與患者的會診,瞬間引發(fā)大量網友關注。
據悉,明尼蘇達州的曼卡托診所和洛杉磯兒童醫(yī)院在內的超過30000名臨床醫(yī)生和40個衛(wèi)生系統(tǒng)已開始使用法國AI診療公司Nabla基于Whisper打造的工具。
而且他們已經轉錄了大概700萬次醫(yī)療就診。
網友紛紛表示這就有點嚇人了。
值得一提的是,OpenAI之前早就警告過,該工具不應在“高風險領域”中使用。
針對最新爆料,有OpenAI發(fā)言人回應,OpenAI會在模型更新中加入相應的反饋機制。
OpenAI被督促趕緊解決此問題Whisper是OpenAI老早前推出的開源自動語音識別(ASR)系統(tǒng),于2022年9月發(fā)布。
img class="qnt-img-img qnr-img-lazy-load-img qnr-img-lazy-load-img-placeholder" style="border-radius:6px;display:inline-block;height:100%;max-width:100%;width:1080px;cursor:zoom-in" src="https://inews.gtimg.com/news_bt/OPEHtxMRkLRFBHdsWSUoCkHDALnVLCSQ8OCQe0HvJRHx0AA/641" data-src="https://inews.gtimg.com/news_bt/OPEHtxMRkLRFBHdsWSUoCkHDALnVLCSQ8OCQe0HvJRHx0AA/641" alt="圖片"/>
它采用簡單的端到端方式,基于編碼器-解碼器Transformer架構。輸入音頻將被分成30秒的塊,轉化為梅爾倒譜(音頻特征提取方式之一,log-Mel spectrogram),然后傳入編碼器。
經過68萬小時的多語言和多任務監(jiān)督網絡數據的訓練,Whisper可以進行多語言轉錄。
Whisper推出后得到廣泛應用,如今GitHub已攬獲70.2k標星:
據悉,它還被集成在ChatGPT的一些版本中,同時也是Oracle和微軟云計算平臺的一項內置服務,而這些平臺為全球數千家公司提供服務。
此外,僅在上個月,HuggingFace上的一個最新版本Whisper就被下載了超420萬次。HuggingFace社區(qū)的機器學習工程師Sanchit Gandhi表示,Whisper是最受歡迎的開源語音識別模型。
而現在,據美聯(lián)社報道,很多研究人員和工程師反映,在工作中他們經常遇到Whisper產生的幻覺。
例如,密歇根大學的一位研究員在嘗試改進模型之前,發(fā)現其檢查的每10份音頻轉錄中有8份出現了幻覺。
一位機器學習工程師指出,在他分析的超過100小時Whisper轉錄中,大約一半出現了幻覺。
還有一位開發(fā)者表示,在他使用Whisper創(chuàng)建的26,000份轉錄中,幾乎每一份都發(fā)現了幻覺。
……
這種問題甚至存在于錄制良好的短音頻樣本中。
在最近的一項研究中,計算機科學家們在審查的超過13000個清晰音頻片段中發(fā)現了187個幻覺。
工程師和研究人員表示,他們從未見過其它任何AI驅動的轉錄工具像Whisper這樣頻繁地產生幻覺。
Whisper幻覺嚴重的原因目前尚未可知,但有軟件開發(fā)者表示,這些虛構內容往往發(fā)生在停頓、有背景聲音或音樂播放時。
之前,OpenAI就有提醒:
不要在決策情境中使用Whisper,準確性上的缺陷可能導致結果出現明顯偏差。
然鵝,美聯(lián)社表示,這一警告并未阻止一些醫(yī)院或醫(yī)療中心使用Whisper等語音轉文字模型
包括明尼蘇達州的曼卡托診所和洛杉磯兒童醫(yī)院在內,已經有超30000名臨床醫(yī)生和40個醫(yī)療系統(tǒng)已經開始使用由Nabla公司基于Whisper開發(fā)的工具。
Nabla CTO Martin Raison稱,該工具針對醫(yī)療語言對模型進行了微調,用于轉錄和總結患者的交流。
目前,該工具已被用于轉錄約700萬次醫(yī)療就診。
在得知Whisper可能會產生幻覺后,Nabla表示正在解決此問題,不過:
由于“數據安全原因”,Nabla的工具會刪除原始音頻,無法將Nabla生成的AI文本與原始錄音進行比較。
此外,據了解,Whisper還被用來為聾人和聽力障礙者創(chuàng)建字幕。
Whisper幻覺嚴重問題被發(fā)現后,有人敦促OpenAI趕緊解決此問題。
今年2月離開OpenAI的研究員William Saunders也開麥了:
如果公司愿意優(yōu)先考慮,這似乎是可以解決的。如果你把它放出去,人們過于自信于它的功能,并將其集成到所有這些其他系統(tǒng)中,那就成了問題。
有OpenAI發(fā)言人回應稱,公司持續(xù)研究如何減少幻覺現象,并感謝研究人員的發(fā)現,同時補充道OpenAI會在模型更新中融入相應反饋機制。
參考鏈接:[1]https://apnews.com/article/ai-artificial-intelligence-health-business-90020cdf5fa16c79ca2e5b6c4c9bbb14[2]https://x.com/AP/status/1850150400424345858