國際最新研究稱,一人工智能模型能翻譯200種不同語言
中新網(wǎng)北京6月8日電 (記者 孫自法)國際著名學(xué)術(shù)期刊《自然》最新一篇人工智能(AI)研究論文稱,研究人員開發(fā)出一個Meta人工智能模型的底層技術(shù),該模型能翻譯200種不同語言,增加了能用機(jī)器翻譯的語言數(shù)量。
該論文介紹,神經(jīng)機(jī)器翻譯模型利用人工神經(jīng)網(wǎng)絡(luò)翻譯各種語言,這些模型通常需要大量可在線獲取的數(shù)據(jù)加以訓(xùn)練,但并非所有語言數(shù)據(jù)都公開、低成本或是普遍可及,此類語言被稱為“低資源語言”。而增加模型在翻譯語言數(shù)量上的語言輸出可能會影響模型的翻譯質(zhì)量。
為此,本篇論文作者、“不落下任何語言”(No Language Left Behind,NLLB)團(tuán)隊開發(fā)出一種跨語言技術(shù),能讓神經(jīng)機(jī)器翻譯模型學(xué)習(xí)如何利用翻譯高資源語言的預(yù)存能力來翻譯低資源語言。作為成果,NLLB團(tuán)隊開發(fā)了一個在線多語言翻譯工具,名為NLLB-200,該工具能容納200種語言,其低資源語言數(shù)量是高資源語言的三倍,翻譯表現(xiàn)比已有系統(tǒng)高了44%。
由于NLLB團(tuán)隊在許多低資源語言上只能獲取1000-2000例樣本,為擴(kuò)大NLLB-200的訓(xùn)練數(shù)據(jù)量,他們用一個語言識別系統(tǒng)發(fā)現(xiàn)了這些特定語言的更多實例。該團(tuán)隊還從互聯(lián)網(wǎng)存檔中挖掘雙語文本數(shù)據(jù),幫助提升了NLLB-200的翻譯質(zhì)量。
《自然》同期發(fā)表同行專家“新聞與觀點”文章指出,NLLB團(tuán)隊研發(fā)的這個工具,可以幫助很少被翻譯的那些語言的使用者,讓他們能使用互聯(lián)網(wǎng)和其他技術(shù)。
此外,NLLB團(tuán)隊還強(qiáng)調(diào)教育是一個非常重要的應(yīng)用,因為這個模型可以幫助低資源語言使用者獲取更多圖書和研究文章。不過,該團(tuán)隊也提醒說,誤譯的情況仍有可能出現(xiàn)。(完)
社會新聞精選:
- 2025年01月10日 21:09:20
- 2025年01月10日 20:52:04
- 2025年01月10日 20:34:31
- 2025年01月10日 15:58:11
- 2025年01月10日 10:40:25
- 2025年01月10日 10:28:25
- 2025年01月10日 09:32:41
- 2025年01月10日 09:28:29
- 2025年01月10日 09:07:14
- 2025年01月10日 08:14:41