前言
語言模型的興起在翻譯界掀起了軒然大波,
不少人在討論口譯員究竟還能生存多久、
會不會被 AI 取代。
不久前,
我寫了一篇文章討論一篇臺大的相關研究,
結果顯示,
目前人類和 AI 各有優缺點,
不過目前人類仍更勝一籌,
因此口譯員「還不會被取代」!
該研究討論了很多面向,
有興趣的讀者可以直接閱讀論文原文(全英文),
或是閱讀我的中文重點整理:
寫完那篇文章還不到兩個月,
我受聘擔任一場論壇的同步口譯員,
有趣的是,
主辦單位同時提供自己開發的 AI 即時字幕翻譯軟體,
我馬上就有機會和 AI 正面對決,
實地觀察現在實體會議使用 AI 翻譯的情形。
過程中,
我觀察到口譯員及 AI 各自的三個優點,
因此想藉由本文分享我的觀察,
並綜合臺大研究的發現進一步討論 AI 與人類翻譯的議題。
希望這篇文章能協助有口譯需求的主辦單位和聽眾
在需要即時翻譯時提供選擇的依據。
AI 與人類在即時翻譯的優點
分享 AI 與人類各自的優點前,
我想先說,
我的目的是以口譯從業人員的視角做客觀比較,
至於到底誰比較厲害、該請口譯還是用 AI,
則要請讀者看完後依據自己的喜好與需求去選擇。
我並沒有要替哪一邊說話喔!
AI 翻譯的優點
- 可以處理飛快的語速
這場論壇的講者有個共通的特質,
就是「講話非常快」!
依據我的體感判斷,
他們的語速至少有每分鐘 150 個英文字。
這對同步口譯員來說負擔非常大,
因為從聽原文到組織翻譯再到開口說話的時間更短,
也必須花更多力氣記得快速進到腦袋的資訊。
這種時候,
口譯員通常會策略性地簡化語句,
用言簡意賅的方式翻譯,
一方面不用冒著舌頭打結的風險跟著 Rap,
一方面讓自己有更多餘力去處理新資訊。
不過 AI 沒有這個問題,
系統接收到的資訊就會留在那裡,
可以一字不刪地翻出原文,
小缺點就是字幕的生成會 lag。
(台大論文提到,字幕的 lag 會影響聽眾的閱讀體驗。)
- AI 不用事前準備就能處理高資訊密度的語句
所謂高資訊密度的語句,
就是一句話裡含有大量重要資訊,
像是專有名詞、名字、數字、日期時間等,
如「我去年 8 月 26 號去 XX 有限公司談了一筆 1200 萬的 YY 案子」。
這類語句有太多精確的資訊,
非常考驗大腦運轉的速度。
為能有效應付這種語句,
口譯員事前都會跟主辦單位索取演講簡報,
先大概知道講者想說什麼、查資料、作筆記,
比較不會被突如其來的高資訊密度殺個措手不及。
然而,這場論壇的多數講者沒有準備任何演講資料,
口譯員只能完全靠著現場聆聽去翻譯。
不過,他們都是上台分享自身經驗,
像是上個月去了東南亞某某公司跟幾個人開會、
公司的某產品銷售額成長幾百萬等等。
那些公司和產品名稱甚至聽都沒聽過,
加上前一點提到的飛快語速,
簡直是口譯員的噩夢。
可是,
AI 有辦法在不提供事前資料的情況下翻出這些,
處理起高資訊密度的語句能比人類更從容。
- AI 對音質要求較低
口譯員通常會在一個小隔間進行同步口譯,
並透過耳機直接收講者麥克風的音,
因為同步口譯需要極度專注聆聽,
需要隔絕外面的雜音以確保聲音清晰。
這次論壇因為事前與主辦單位溝通時有誤會,
所以沒有隔間讓口譯員工作。
翻譯時容易受到場內回音、機器或人的雜音等干擾,
有時講者咬字比較含糊就容易聽不清楚。
加上前述的語速和資訊密度問題,
翻譯簡直變成五星難度。
不過,AI 對音質的要求沒有這麼高,
不需要額外設備隔絕雜音便能翻譯。
口譯員的優點
- 口譯員的語音辨識能力較好
我觀察到,
當兩位以上講者互相插話時,
機器會顯示「句子不完整」等訊息。
也許是因為機器誤將插話的兩人當成同一人,
使兩句話聽起來前文不對後文,
導致無法翻譯。
講者口音較重時機器也會無法辨識,
並在螢幕上顯示「無法翻譯」。
相較之下,
口譯員在這方面的問題較小,
因為口譯員能夠清楚辨識說話者,
不會將不同人講的話混在一起。
口音方面,
專業的口譯員會去熟悉不同口音,
在工作前也會收集講者背景資訊,
事前去練習聽懂講者的口音。
因此大多時候,
口譯員不至於因為口音而無法翻譯。
- 口譯員的翻譯較符合聽眾的語言使用習慣
口譯員深諳聽眾的語言使用習慣,
翻譯時會根據聽眾的習慣調整翻譯的句法與用詞。
比如說,
發電功率單位 Gigawatt(GW)在台灣業界常直接講英文,
口譯員就不會特別去翻譯,
有時翻了還會讓聽眾更困惑。
「Sustainability」在台灣常翻成「永續」,
而非其他華語地區所說的「可持續」,
口譯員會根據聽眾的組成選擇適合的翻譯。
然而,如果沒有特別給機器指令,
它就很難自動觀察聽眾的需求並調整翻譯,
有時就會翻出讓聽眾不好理解的句子。
這就像是我們用 ChatGPT 時,
若沒有先指示它用台灣中文,
常常給出的回應都是簡體中文,
而且不是台灣用語。
句構也有同樣的問題,
機器常常照著英文的語序翻譯成中文,
導致句子讀起來不通順,
口譯員則會根據聽眾習慣調整語序,
讓翻譯聽起來更通順。
- 口譯員會幫聽眾整理資訊
除了翻譯以外,
口譯員的一大功能就是「資訊整理」。
為什麼要整理資訊?
因為一般人說話不會毫無缺點,
一定會有一些語助詞(呃、那個、然後...)
或改口(除非他在唸稿),
有時還會臨時在不對的地方補充資訊。
這時候,
口譯員會整理這些雜亂的資訊,
刪掉語助詞和改口的部分,
在補充的資訊前加上適合的轉承詞,
讓翻譯聽起來乾淨又通順。
然而我目前觀察到的 AI 翻譯還沒辦法做到這點,
前述的雜亂資訊同樣會一五一十地翻出來,
這樣當然沒錯,
只是聽眾就得自己過濾這些無意義的資訊,
造成負擔。
結語
這次工作觀察到 AI 在「硬實力」方面較占優勢,
可以輕易處理高語速、高資訊密度、低音質的演講;
口譯員則強在「軟實力」,
能更彈性地運用策略為聽眾提供高品質的翻譯服務。
綜合以上,
我的看法仍與臺大論文的結論一致,
現階段最好的方法依然是用 AI 輔助口譯員,
幫助口譯員更從容應付語速、資訊密度、音質等問題,
再由口譯員翻出適合聽眾的翻譯。
當然,我必須再次強調,
這次的觀察和臺大論文一樣,
都是依照當下的科技去測試比較,
因此結論不見得適用在未來的科技。
但是,不管科技之後如何進步,
讀者都可以利用本文和臺大論文的評斷方法
去檢視機器和口譯員的能力,
做出適合自己選擇。
本文結尾也想提醒讀者,
現階段的 AI 仍存在資安風險與「幻覺」(Hallucination),
輸入進 AI 系統的資訊不見得有適當的保護措施,
翻譯出來的內容也不見得完全正確。
使用 AI 翻譯前切記審慎評估風險,
才能自在享受科技的便利喔!