展會信息港展會大全

OpenAI語音轉錄工具被曝嚴重幻覺:轉錄100小時,一半兒在瞎扯
來源:互聯(lián)網   發(fā)布日期:2024-10-28 13:52:17   瀏覽:1227次  

導讀:劃重點 01OpenAI的AI語音轉寫工具Whisper被曝存在嚴重幻覺問題,約一半轉錄內容不實。 02美聯(lián)社報道,明尼蘇達州的曼卡托診所和洛杉磯兒童醫(yī)院等超過30000名臨床醫(yī)生和40個衛(wèi)生系統(tǒng)已使用Nabla基于Whisper打造的工具。 03然而,OpenAI此前已警告不要在高風險...

劃重點

01OpenAI的AI語音轉寫工具Whisper被曝存在嚴重幻覺問題,約一半轉錄內容不實。

02美聯(lián)社報道,明尼蘇達州的曼卡托診所和洛杉磯兒童醫(yī)院等超過30000名臨床醫(yī)生和40個衛(wèi)生系統(tǒng)已使用Nabla基于Whisper打造的工具。

03然而,OpenAI此前已警告不要在“高風險領域”中使用Whisper,如決策情境。

04由于數據安全原因,Nabla工具無法將生成的AI文本與原始錄音進行比較。

05OpenAI發(fā)言人表示,公司將持續(xù)研究減少幻覺現象,并在模型更新中加入相應反饋機制。

以上內容由騰訊混元大模型生成,僅供參考

西風 發(fā)自 凹非寺

量子位 | 公眾號 QbitAI

OpenAI的AI語音轉寫工具,那個號稱近乎“人類水平”的Whisper,被曝幻覺嚴重

100多小時轉錄,被工程師發(fā)現約一半都在瞎扯。

更嚴重的是,美聯(lián)社還爆料有醫(yī)療機構利用Whisper來轉錄醫(yī)生與患者的會診,瞬間引發(fā)大量網友關注。

OpenAI語音轉錄工具被曝嚴重幻覺:轉錄100小時,一半兒在瞎扯

據悉,明尼蘇達州的曼卡托診所和洛杉磯兒童醫(yī)院在內的超過30000名臨床醫(yī)生和40個衛(wèi)生系統(tǒng)已開始使用法國AI診療公司Nabla基于Whisper打造的工具。

而且他們已經轉錄了大概700萬次醫(yī)療就診。

網友紛紛表示這就有點嚇人了。

OpenAI語音轉錄工具被曝嚴重幻覺:轉錄100小時,一半兒在瞎扯

OpenAI語音轉錄工具被曝嚴重幻覺:轉錄100小時,一半兒在瞎扯

值得一提的是,OpenAI之前早就警告過,該工具不應在“高風險領域”中使用。

OpenAI語音轉錄工具被曝嚴重幻覺:轉錄100小時,一半兒在瞎扯

針對最新爆料,有OpenAI發(fā)言人回應,OpenAI會在模型更新中加入相應的反饋機制。

OpenAI被督促趕緊解決此問題Whisper是OpenAI老早前推出的開源自動語音識別(ASR)系統(tǒng),于2022年9月發(fā)布。

img class="qnt-img-img qnr-img-lazy-load-img qnr-img-lazy-load-img-placeholder" style="border-radius:6px;display:inline-block;height:100%;max-width:100%;width:1080px;cursor:zoom-in" src="https://inews.gtimg.com/news_bt/OPEHtxMRkLRFBHdsWSUoCkHDALnVLCSQ8OCQe0HvJRHx0AA/641" data-src="https://inews.gtimg.com/news_bt/OPEHtxMRkLRFBHdsWSUoCkHDALnVLCSQ8OCQe0HvJRHx0AA/641" alt="圖片"/>

它采用簡單的端到端方式,基于編碼器-解碼器Transformer架構。輸入音頻將被分成30秒的塊,轉化為梅爾倒譜(音頻特征提取方式之一,log-Mel spectrogram),然后傳入編碼器。

經過68萬小時的多語言和多任務監(jiān)督網絡數據的訓練,Whisper可以進行多語言轉錄。

Whisper推出后得到廣泛應用,如今GitHub已攬獲70.2k標星:

OpenAI語音轉錄工具被曝嚴重幻覺:轉錄100小時,一半兒在瞎扯

據悉,它還被集成在ChatGPT的一些版本中,同時也是Oracle和微軟云計算平臺的一項內置服務,而這些平臺為全球數千家公司提供服務。

此外,僅在上個月,HuggingFace上的一個最新版本Whisper就被下載了超420萬次。HuggingFace社區(qū)的機器學習工程師Sanchit Gandhi表示,Whisper是最受歡迎的開源語音識別模型。

而現在,據美聯(lián)社報道,很多研究人員和工程師反映,在工作中他們經常遇到Whisper產生的幻覺。

例如,密歇根大學的一位研究員在嘗試改進模型之前,發(fā)現其檢查的每10份音頻轉錄中有8份出現了幻覺。

一位機器學習工程師指出,在他分析的超過100小時Whisper轉錄中,大約一半出現了幻覺。

還有一位開發(fā)者表示,在他使用Whisper創(chuàng)建的26,000份轉錄中,幾乎每一份都發(fā)現了幻覺。

……

這種問題甚至存在于錄制良好的短音頻樣本中。

在最近的一項研究中,計算機科學家們在審查的超過13000個清晰音頻片段中發(fā)現了187個幻覺。

工程師和研究人員表示,他們從未見過其它任何AI驅動的轉錄工具像Whisper這樣頻繁地產生幻覺。

Whisper幻覺嚴重的原因目前尚未可知,但有軟件開發(fā)者表示,這些虛構內容往往發(fā)生在停頓、有背景聲音或音樂播放時。

OpenAI語音轉錄工具被曝嚴重幻覺:轉錄100小時,一半兒在瞎扯

之前,OpenAI就有提醒:

不要在決策情境中使用Whisper,準確性上的缺陷可能導致結果出現明顯偏差。

然鵝,美聯(lián)社表示,這一警告并未阻止一些醫(yī)院或醫(yī)療中心使用Whisper等語音轉文字模型

包括明尼蘇達州的曼卡托診所和洛杉磯兒童醫(yī)院在內,已經有超30000名臨床醫(yī)生和40個醫(yī)療系統(tǒng)已經開始使用由Nabla公司基于Whisper開發(fā)的工具。

Nabla CTO Martin Raison稱,該工具針對醫(yī)療語言對模型進行了微調,用于轉錄和總結患者的交流。

目前,該工具已被用于轉錄約700萬次醫(yī)療就診。

在得知Whisper可能會產生幻覺后,Nabla表示正在解決此問題,不過:

由于“數據安全原因”,Nabla的工具會刪除原始音頻,無法將Nabla生成的AI文本與原始錄音進行比較。

此外,據了解,Whisper還被用來為聾人和聽力障礙者創(chuàng)建字幕。

OpenAI語音轉錄工具被曝嚴重幻覺:轉錄100小時,一半兒在瞎扯

Whisper幻覺嚴重問題被發(fā)現后,有人敦促OpenAI趕緊解決此問題。

今年2月離開OpenAI的研究員William Saunders也開麥了:

如果公司愿意優(yōu)先考慮,這似乎是可以解決的。如果你把它放出去,人們過于自信于它的功能,并將其集成到所有這些其他系統(tǒng)中,那就成了問題。

有OpenAI發(fā)言人回應稱,公司持續(xù)研究如何減少幻覺現象,并感謝研究人員的發(fā)現,同時補充道OpenAI會在模型更新中融入相應反饋機制。

參考鏈接:[1]https://apnews.com/article/ai-artificial-intelligence-health-business-90020cdf5fa16c79ca2e5b6c4c9bbb14[2]https://x.com/AP/status/1850150400424345858

贊助本站

相關內容
AiLab云推薦
推薦內容
展開

熱門欄目HotCates

Copyright © 2010-2025 AiLab Team. 人工智能實驗室 版權所有    關于我們 | 聯(lián)系我們 | 廣告服務 | 公司動態(tài) | 免責聲明 | 隱私條款 | 工作機會 | 展會港