• <legend id="cg602"><object id="cg602"></object></legend>
  •  
    全站搜索
    當前日期時間
    新聞搜索
    新聞詳情
    計算機語言翻譯技術發展迅速,可以說翻譯領域是電腦最容易替代人的領域
    作者:    發布于:2013-12-08 22:36:45    文字:【】【】【

    計算機語言翻譯技術發展迅速,可以說翻譯領域是電腦最容易替代人的領域,翻譯行業的從業人員可能是最先因電腦替代而被迫失業的一批人。翻譯公司也可能是最先因計算機語言技術發展而倒閉的公司。各國的翻譯人員和各國的翻譯公司做好準備了嗎,趕緊改行吧。哈哈!

     

      10月25日,微軟首席研究官、微軟研究院院長里克雷斯特博士在天津舉辦的“21世紀計算大會”中展示的微軟最新的研究成果――同聲傳譯器,向世人描繪了一幅“跨越語言,溝通無礙”的美好藍圖。

      ■速度只比原聲慢半秒

      在美國熱播了40年的科幻電視劇《星際迷航》中,有一個非?!按蜓邸钡墓ぞ擗D―宇宙翻譯器。星際艦隊成員把它別在胸前徽章里,整個星際聯邦都廣泛使用它將所有的已知語言翻譯為聽者所懂的語言,對其余的未知語言也可通過對簡短幾句話的分析而進行轉換。按照劇中設定,宇宙翻譯器要到22世紀才能發明。

      不過,在雷斯特的設想中,這種翻譯器的出現可能不用等那么久,他日前展示的“同聲傳譯”就是通往宇宙翻譯器的重要一環。

      在這個10分鐘左右的演示中,雷斯特一直中速講英文,他背后有兩個大屏幕?,F場觀眾都看到其中一個屏幕把他講的話以英文文本的形式展示出來,速度大概只比他的聲音慢小半秒。

      在另一個屏幕上,上半部把英文文本中的單詞提取出來,并對應中文單詞,而下半部按照中文語序已經排列成中文句子。

      隨后,最令人激動的時刻到來了,翻譯完的中文句子以普通話的形式“說”了出來,聲音聽起來與雷斯特本人很像,速度基本上是他一說完英語,機器就“說”出仿真聲音的中文翻譯,聽起來就像雷斯特在給自己做同聲傳譯。

      他表示,微軟的同聲傳譯不僅能英譯漢,還能翻譯西班牙語等26種語言。雖然目前還沒有走出實驗室,未來卻可能做成同聲傳譯器,以至有人驚呼學同聲傳譯的人豈不是要失業么?

      ■語言識別并未完美

      這個吸引眼球的演示第一步就是用計算機識別雷斯特的英文發言,但是這可能也是最難的一步。

      雷斯特介紹,最開始的語言識別采用簡單的模式匹配,計算機檢查語音產生的波形,并盡量與已知相關的特定單詞相匹配。不過這一方法失效率太高了。

      直到七八十年代,隱式馬爾科夫模型(HMM)被廣泛應用,它利用來自多個人的培訓數據建立更為穩健的統計語音模型,成為語言識別的主流。不過,直到今日,即使是最佳的語音系統,在任意語音上的單詞出錯率還高達20%-25%。

      “兩年前,我們和多倫多大學的研究人員使用一項名為深度神經網絡的技術,仿照人腦行為,語音的錯誤率比之前的方法降低30%。這意味著之前四五個單詞中就會出現一個錯誤,而現在七八個單詞中才會出現一個錯誤?!?/p>

      雖然微軟同聲傳譯的技術細節仍未透露,不過聲學專家解釋,這一技術還是建立在HMM的框架上,改為用神經網絡模擬語音特征分布,從八九十年代就有應用。只是現在計算能力提高,能把模型做得更細,也就更“深度”。

      這種方法的準確率與數據積累有很大關系。計算機越來越多地學習、掌握更多數據,就會更聰明,這就是“機器學習”,不過機器學習依然有限度。如果是針對專人的優化“學習”,語言識別的性能會提高得多一些。

      ■機器翻譯能代替人工翻譯?

      說話人的語言被識別了,如何英譯漢也是個大問題。數據顯示,近幾十年來,因機器翻譯質量存在問題,一直無法成為翻譯的主流。我們經常會使用軟件翻譯頁面,所得文本之凌亂不言而喻。

      雷斯特表示,他的演示中英譯漢需要兩個步驟:“第一步是提取我說的單詞,然后找到相應的中文,雖然這并不簡單,但確實是比較簡單的一步。第二步是重新調整單詞的順序,使之符合中文習慣,這是語音正確翻譯的重要一步?!?/p>

      雷斯特所說的步驟與目前機器翻譯的方法是一致的。難點就在于譯文選擇和調序,不同語言語序不同,一個詞翻譯成另一種語言也可能有多個候選譯文,所以機器翻譯結果有時漏洞百出?,F有提高正確率的方法需要依靠統計學。

      雷斯特也承認,微軟的同聲傳譯在文本方面還有很多錯誤,而且翻譯結果可能很搞笑。不過,統計技術和大數據的引入將使文本翻譯有翻天覆地的變化。

      然而,有專家認為,機器翻譯只能在某個特定領域達到較高的準確率,比如法律或經濟領域能達到80%到90%的準確率,這是因為在特定領域詞義有了明確界定。而在通用領域,機譯準確率不會很高,還是要依賴人工翻譯的經驗。

      ■模仿的聲音有多像?

      “數年后我希望打破人與人之間的語言障礙?!碑斃姿固赜糜⒄Z說出這句話一秒鐘后,微軟同聲翻譯機模仿他的聲音用中文說出。臺下的觀眾報以熱烈的掌聲。

      確實,如果能在翻譯中保留說話人的語調,交流將會更順暢。雷斯特說:“我這個不會說中文的人以自己的聲音‘說’出中文實在令人興奮?!倍_到這一效果,需要一個文本到語音的系統,包含數小時中國人說話的語音。此外,他還要預先錄制1小時的英文語音數據用來提取自己的聲音屬性,最后得到仿佛自己在說中文的效果。

      這是一個個性化語音合成技術。一般情況下,機器通常只需模仿固定的男女兩種聲音,而要得到針對專人的仿聲,則需要獲得他/她的語音數據,提取發聲相關的特征參數,比如節奏、頻率、語氣,也就是專業術語說的基頻等等。當合成系統適應后,就可以輸出仿真聲音了。

      不過,模仿聲音無法做到以假亂真,應該只能做到七分像,因為模仿只能把一個人的習慣在單調水平上重現。比如,可以通過一個人走路的習慣、步長、左右搖晃等準確模仿他的行走。但是人講話的信息量太大,雖然理論上可以分析節奏、頻率,但是要完全量化技術上還是做不到。

    上一篇:

    下一篇:
    腳注信息
    地址:馬鞍山市格林春天(花園)31棟-702室 | 郵編:243000 | 電話/傳真:0555-2379946 |
    Copyright 2018 Ma’anshan college translation Co., Ltd. All rights reserved
    網站建設、網頁設計制作業務咨詢:www.0555bd.com
    亚洲欧美熟妇另类久久久久久
  • <legend id="cg602"><object id="cg602"></object></legend>