哈囉!這邊是科技碎碎念,資訊 x AI時代下,我們將從海量的全球新聞與新知中,透過生成式 AI 彙整出精華懶人包,聚焦全球科技關鍵話題,讓您輕鬆透過閱讀或聆聽掌握趨勢變革。
快速重點摘要
- AI 搜尋與內容生成的新紀元
- Google AI 搜尋概覽: Google 於 2024 年 10 月在澳洲推出 AI 搜尋概覽功能,透過生成式 AI 彙整網路資訊並以對話方式呈現,旨在提供更全面且易懂的答案。此功能已迅速擴展至全球多國,擁有超過 15 億使用者。然而,AI 搜尋的可靠性仍受挑戰,可能產生「產生幻覺」的虛假資訊或誤判諷刺內容。同時,它也改變了使用者的搜尋行為,並對內容供應商的網站流量和傳統搜尋引擎最佳化(SEO)策略造成影響。
- AI 生成播客的潛力: 一項研究顯示,Google NotebookLM 等 AI 工具能高效生成科學研究播客,其品質之高,讓半數的論文作者誤以為播客主持人是真人。這項技術有望大幅簡化科學傳播流程,讓非專業人士更容易理解複雜的科學內容。儘管如此,AI 生成播客仍可能存在口音、誇大其詞、資訊不準確或醫療術語誤用等問題,發布前需嚴格校核。
- 大型語言模型(LLM)的挑戰與法規影響
- LLM 測試的盲點: 牛津大學的一項研究指出,儘管大型語言模型(LLM)在醫學考試中表現優異,但當人類使用者嘗試利用它們進行自我診斷時,其成效卻遠低於預期,甚至不如未經 AI 輔助的對照組。這突顯了 LLM 實際應用中的「人類變數」,即使用者可能提供不完整資訊或誤解 AI 回應,表明單純的學術基準測試無法充分評估 LLM 在真實世界人機互動中的表現。
- 版權與資料記憶問題: 一項針對 Meta Llama 3.1 70B 模型的研究揭示,該模型驚人地記憶了《哈利波特:神秘的魔法石》約 42% 的內容。這種高比例的逐字記憶引發了版權侵權的法律疑慮,可能影響 AI 公司在訓練資料、模型本身構成衍生作品以及模型生成內容等方面的法律責任。這也可能導致開放權重模型面臨更高的法律風險。
- 全球供應鏈與經濟生產力: 台灣於 2025 年 6 月 15 日將中國華為和中芯國際列入出口管制清單,顯示全球在半導體和 AI 技術競爭下的地緣政治緊張升級。此外,澳洲等地的企業投資持續疲軟,導致勞動生產力成長停滯,原因可能包括過去的不確定性、企業維持過高門檻報酬率以及市場主導企業的自滿心態。
Google AI 搜尋概覽:運作方式與影響
- 傳統搜尋引擎的運作原理
- 傳統的搜尋引擎透過評估數十種不同標準,來決定哪些搜尋結果最符合使用者的查詢字詞。
- 這些標準包含內容的獨特性、時效性、完整性、結構和組織方式。
- 搜尋引擎也會考量內容與網頁其他部分的關聯性,例如來自信任來源的連結可以提高其在搜尋結果中的排名。
- 它們還會推斷搜尋者的意圖,判斷使用者是想購物、學習新知識或解決實際問題。
- 網頁載入速度和頁面安全性等技術層面,也會影響網頁在搜尋結果中的可見度,這些因素共同決定了每個網頁的「隱形評分」。
- AI 搜尋概覽的引入與不同之處
- Google 於 2024 年 10 月在澳洲導入「AI 搜尋概覽」功能,徹底改變了使用者搜尋和查找資訊的方式。
- 不同於傳統搜尋引擎導向單一網頁,由生成式 AI 驅動的搜尋會「橫跨」多個網頁和來源,綜合其內容,然後以簡短、對話式且易於理解的方式總結結果。
- Google 是唯一在主搜尋結果頁面顯著顯示 AI 摘要的搜尋引擎。
- 自首次推出一年多以來,Google 搜尋中的 AI 概覽已在全球多個國家擴展,使用者超過 15 億。
- Google 執行長桑德爾 · 皮蔡(Sundar Pichai)對將 Gemini AI 整合到搜尋中,將有助於公司的業務發展充滿信心。
- 除了文字概覽,Google 也推出了「音訊概覽」功能,利用 Gemini AI 模型以對話方式快速總結查詢結果,提供一種便捷、免動手的資訊獲取方式。
- AI 搜尋的可靠性問題與挑戰
- 儘管理論上 AI 搜尋能提供更豐富、更全面且可能更獨特的答案,但 AI 並非總是能正確無誤。
- 在 2024 年,Google 早期導入的 AI 搜尋功能曾出現明顯錯誤,例如建議使用者「每天至少吃一顆小石頭」,或是利用「無毒膠水讓起司黏在披薩上」等虛假資訊。
- 機器在偵測諷刺或戲仿內容方面能力不足,可能將這些材料誤用於回應,而非基於事實的證據。
- 研究顯示,即使驅動模型的技術日益精密,機器「產生幻覺」(即憑空捏造答案)的發生率仍在惡化。
- AI 無法真正判斷資訊的真偽,也無法理解俚語和口語的細微差別,它們只能基於複雜的數學運算進行預測,但這些預測不總是正確,尤其在敏感的醫療或健康問題,以及尋求財務建議時,這會成為一個嚴重的問題。
- 為提升可靠性,Google 近期的 AI 概覽已開始加入來源連結,幫助使用者評估答案品質和追溯資訊來源。然而,有證據表明,AI 搜尋引擎有時會引用並未包含其聲稱資訊的來源。
- AI 搜尋對生態系統的影響
- AI 搜尋摘要正在改變資訊的生產與發現方式,並重塑了過去二十年來人們習慣的搜尋引擎生態系統。
- 它正在改變資訊尋求者制定搜尋查詢的方式,從使用關鍵字或詞組轉變為日常對話中使用的簡單問題。
- 對於內容供應商而言,AI 摘要帶來了顯著的轉變,它削弱了傳統的搜尋引擎最佳化(SEO)技術,減少了網站的直接流量,並影響了品牌可見度。
- 值得注意的是,43% 的 AI 搜尋概覽連結回 Google 自家網站,這進一步鞏固了 Google 作為搜尋引擎和網站的主導地位。
- 未來 AI 摘要中將整合廣告,這引發了人們對所呈現資訊的可信度和獨立性的擔憂。
- 使用者如何應對 AI 搜尋
- 使用者應時刻留意 AI 摘要的主要限制。
- 詢問簡單事實,例如「烏魯魯(Uluru)的高度是多少?」通常能得到準確答案。
- 但面對更複雜或具爭議性的問題,例如「2032 年奧運會是否會讓昆士蘭(Queensland)破產?」,使用者可能需要點擊連結,深入探討以獲得更全面的理解。
- Google 並未提供明確的選項來完全關閉此功能。最簡單的方法是在搜尋結果頁面上的搜尋欄下方點擊「網頁」分頁,或在搜尋查詢中加入「-ai」,但這可能會很重複。
- 更技術性的解決方案包括透過 Chrome 設定手動建立網站搜尋過濾器,但這需要使用者主動操作。
- 因此,有些開發者正提供聲稱能移除此功能的瀏覽器擴充功能。另一些使用者則選擇完全轉換搜尋引擎,轉向不提供 AI 摘要的供應商,例如 Bing 和 DuckDuckGo。
生成播客:科學傳播的新可能
- 研究背景與目的
- 這項研究是首次利用人工智慧(AI)技術,根據科學論文生成播客。
- 研究團隊由比利時魯汶大學(University of Leuven)的菲力普 · 穆恩斯(Professor Philip Moons)教授領導,使用 Google Labs 開發的個人化 AI 研究助理 NotebookLM,來製作播客解釋最近發表在《歐洲心血管護理期刊》(European Journal of Cardiovascular Nursing, EJCN)上的研究。
- 穆恩斯教授在 2024 年 9 月 Google 推出 NotebookLM 的新功能後,發現其生成播客的品質極高且聽起來自然,因此萌生了評估其用於期刊科學傳播潛力的想法。
- 研究方法與參與者
- 研究團隊選取了 10 篇不同類型的文章,並聯繫了這些文章的作者,徵求他們參與研究的同意。
- 參與者並未被告知關於他們研究的播客是由 AI 生成的。
- 研究人員將 AI 生成的播客發送給作者,請他們評估參與度、可信度和是否能檢測到 AI。
- 隨後,透過 ChatGPT 協助生成的問卷和 Microsoft Teams 上的 30 分鐘訪談進行追蹤。
- 播客的優點與成功之處
- 作者們回饋表示,這些播客以「非常簡單、易於理解的措辭」捕捉了他們論文的重點。
- 播客的結構良好,長度和深度平衡適中。
- 播客的「主持人」表現專業,有些作者甚至認為這些講者具有護理或醫學背景。
- 主持人之間的對話式互動被認為是一大優點。
- 大多數作者認為這些播客是可靠的資訊來源。
- 發現的問題與不足
- 一些作者評論播客的美國口音和風格,包括偶爾會用「驚人」、「開創性」和「完全」等詞語來誇大研究結果。
- 播客中存在一些不準確或不實的陳述,有時缺乏上下文,醫療術語使用不正確,以及醫療詞彙發音錯誤。
- 研究建議,這些播客在發布前需要仔細檢查其準確性。
- AI 檢測結果
- 當被問及「如果告訴您這播客是由人工智慧生成的,您會感到驚訝嗎?」時,有五位作者回答「會」,其中包括一位曾進行 AI 研究的作者。他們表示感到「震驚」、「驚訝」,甚至「產生了存在危機」。
- 另有五位作者回答「不會」。
- 參與者建議,如果發布 AI 播客,應明確標示為 AI 生成,並鳴謝作者和引用原始文章。
- 目標受眾與未來潛力
- 所有作者都認為病患和一般大眾是這些播客最適合的目標受眾,主要原因在於其語氣和以易於理解的方式解釋文章的能力。
- 然而,一些人也認為這些播客可能對醫療工作者很有用,能幫助他們跟上最新研究,更輕鬆地獲取資訊,並提高原始研究文章的能見度。
- 一些作者建議,隨著技術發展和改進,播客可以針對特定受眾(如年齡、興趣或族裔背景)進行客製化。目前,還無法改變 AI「主持人」的聲音或語言,但這些功能未來可能會實現。
- 穆恩斯教授認為,這些播客的整體準確性令人震驚。他預期這類 AI 生成播客的品質將在未來幾個月內大幅提升。
- 這項技術可能成為「遊戲規則的改變者」,因為播客製作工作量極少,只需上傳文章並進行少量提示。這將是一個可持續的模式,能將訊息傳達給不常閱讀科學期刊的人群。
- 穆恩斯教授預計,這將是一種能讓編輯、期刊和研究人員向大眾傳播科學的技術,但並不會取代人類播客主持人。他認為人為製作的播客仍有市場,因為並非所有主題都能由 AI 準確或適當地處理,甚至可能出現人類與 AI 共同製作的混合型播客。
- 研究人員計劃進一步探索這些播客在科學傳播中的更多可能性,包括了解病患和公眾對它們的看法。他們也希望研究是否可能將 AI 生成播客用於科學會議內容的總結。
- 目前,研究人員已就他們關於 AI 生成播客的研究論文,製作了一個 AI 播客。
大型語言模型(LLM)的測試盲點:人類互動的重要性
- 傳統 LLM 測試的局限
- 過去的報導不斷宣稱,大型語言模型(LLM)不僅能通過醫學執照考試,甚至表現優於人類。例如,GPT-4 在 2023 年就能正確回答 90% 的美國醫學執照考試問題。
- 然而,牛津大學的研究顯示,LLM 對醫學知識的掌握能力,並不總是能直接轉化為真實世界的應用成效。
- 當我們說 LLM 能通過醫學、房地產或律師執照考試時,我們是在使用為人類設計的工具來探究其知識廣度。然而,這些衡量標準很少能告訴我們這些聊天機器人與人類互動的成功程度。
- 這項研究強調了一個問題:並非人類或 LLM 有問題,而是我們有時在「真空」中衡量它們的方式存在缺陷。
- 牛津大學研究的設計與發現
- 由亞當 · 馬赫迪(Dr. Adam Mahdi)博士領導的牛津大學研究,招募了 1,298 名參與者扮演患者,並與 LLM 互動。
- 參與者的任務是試圖診斷自己的病情,並判斷需要尋求的護理級別,從自我照護到撥打救護車。
- 每位參與者都收到詳細的病情描述,涵蓋從肺炎到普通感冒等不同狀況,並附有一般生活細節和病史。
- 研究測試了三種不同的 LLM:GPT-4o(因其受歡迎度)、Llama 3(因其開放權重)和 Command R+(因其檢索增強生成功能,可搜尋開放網路)。
- 後台的醫師團隊一致決定了每個情境的「黃金標準」診斷結果和相應的處理方式。
- 研究發現,當直接提供測試情境時,LLM 能夠在 94.9% 的情況下正確識別相關病症。然而,使用 LLM 進行相同情境診斷的人類參與者,卻只有不到 34.5% 的時間能識別出正確的病症。
- 更值得注意的是,使用 LLM 的患者表現甚至比僅被指示使用「任何他們通常在家裡會用的方法」來診斷自己的對照組更差。對照組識別正確病症的可能性比 LLM 輔助組高出 76%。
- 在判斷正確行動方面,人類參與者僅在 44.2% 的時間選擇了正確的處理方式,而 LLM 獨立判斷時的準確性為 56.3%。
- 人類使用者與 LLM 互動的問題點
- 研究人員回顧對話記錄發現,參與者向 LLM 提供不完整資訊,且 LLM 也會誤解他們的問題。例如,一名本應表現膽結石症狀的使用者,只告訴 LLM:「我胃痛得很厲害,持續一個小時,還會嘔吐,似乎是吃外賣引起的」,省略了疼痛的位置、嚴重程度和頻率。結果,Command R+ 錯誤地建議參與者是消化不良,而參與者也錯誤地接受了這個診斷。
- 即使 LLM 提供了正確資訊,參與者也並不總是遵循其建議。研究發現,儘管 65.7% 的 GPT-4o 對話建議了至少一個相關病症,但最終只有不到 34.5% 的參與者答案反映了這些相關病症。
- 北卡羅來納大學教堂山分校文藝復興計算研究所(RENCI)的使用者體驗專家娜塔莉 · 福爾克海默(Nathalie Volkheimer)表示,這項研究結果並不令人意外。她指出,LLM 作為工具,需要高品質的提示才能產生高品質的輸出。
- 患者可能省略資訊,因為他們不知道哪些是相關的,甚至可能因為尷尬或羞恥而說謊。福爾克海默強調,關鍵在於「人機互動」,而非單純的機器本身。
- 以 AI 測試 AI 的結果
- 研究人員嘗試使用模擬參與者(即另一個 LLM)來測試 AI。
- 這些模擬參與者與人類參與者使用的相同 LLM 進行了對話。
- 結果顯示,模擬參與者在識別相關病症方面的表現遠優於人類,平均成功率達到 60.7%,而人類參與者則低於 34.5%。
- 這表明 LLM 之間更容易相互配合,因此它們無法很好地預測真實生活中的表現。
- 對企業部署聊天機器人的啟示
- 如果僅根據 LLM 獨立測試的高分就歸咎於使用者,將是企業的錯誤判斷。福爾克海默強調,在任何客戶環境中,如果客戶沒有按照企業的期望行事,企業不應歸咎於客戶,而應深入探究「為什麼」。
- 在部署聊天機器人之前,企業需要了解其受眾、目標和客戶體驗,這些都將影響制定完善、專業的文件,最終使 LLM 發揮作用。
- 如果沒有精心策劃的訓練材料,聊天機器人將會給出所有人都討厭的通用答案。這並非因為聊天機器人本身有問題,而是因為輸入其內容的品質不佳。
- 這項研究對於 AI 工程師和編排專家來說,是一個重要的提醒:如果 LLM 的設計宗旨是與人類互動,那麼僅依賴非互動式基準測試,可能會產生對其真實世界能力產生危險的虛假安全感。如果設計的 LLM 將與人類互動,就必須用人類來測試它,而不是用為人類設計的測試來測驗它。
大型語言模型(LLM)的版權爭議與資料記憶
- 版權訴訟的背景與核心問題
- 近年來,許多原告,包括書籍、報紙、電腦程式碼和照片的出版商,起訴 AI 公司使用受版權保護的資料訓練模型。
- 所有這些訴訟的核心問題在於,AI 模型複製原告受版權保護內容的逐字摘錄有多容易。
- 例如,在 2023 年 12 月對 OpenAI 的訴訟中,《紐約時報》公司提出數十個 GPT-4 完全複製《時報》故事重要段落的例子。OpenAI 將此描述為「邊緣行為」和「研究人員努力解決的問題」。
- 然而,最新的研究對此提供了令人驚訝的見解,結果有些有利於原告,有些則有利於被告。
- 研究發現:Llama 3.1 的驚人記憶能力
- 史丹佛大學、康乃爾大學和西維吉尼亞大學的電腦科學家和法律學者團隊於上個月發表了一篇論文。
- 他們研究了五種流行的開放權重模型(Meta 的三個,微軟和 EleutherAI 各一個)是否能重現 Books3 中的文本,Books3 是一個廣泛用於訓練 LLM 的書籍集合,其中許多書籍仍受版權保護。
- 研究中最令人驚訝的發現是,Meta 在 2024 年 7 月發布的中型模型 Llama 3.1 70B,比其他四個模型更容易重現《哈利波特:神秘的魔法石》的文本。
- 具體而言,論文估計 Llama 3.1 70B 已記住了《哈利波特》第一本書的 42% 內容,達到能夠至少一半時間重現 50 個代幣(token)摘錄的程度。
- 相較之下,Llama 1 65B(於 2023 年 2 月發布的類似規模模型)只記住了《哈利波特:神秘的魔法石》的 4.4%。這表明,儘管存在潛在的法律責任,Meta 在訓練 Llama 3 時並未積極防止記憶行為,對於《哈利波特》這本書來說,問題在 Llama 1 和 Llama 3 之間變得更加嚴重。
- 研究發現,Llama 3.1 70B 更容易重現《哈利波特》、《哈比人》和喬治 · 歐威爾(George Orwell)的《1984》等熱門書籍,而非較為冷門的書籍。對於大多數書籍,Llama 3.1 70B 比其他任何模型記憶了更多內容。
- 研究結果令作者們感到驚訝,史丹佛大學法學教授馬克 · 雷姆利(Mark Lemley)表示,他們原先預計複製率會很低,大約在 1% 或 2% 左右。
- 這些結果給 AI 版權爭議中的各方都提供了論據。對於 AI 產業批評者來說,主要啟示是,至少對於某些模型和某些書籍而言,記憶並非邊緣現象。
- 然而,該研究僅發現少數流行書籍存在顯著記憶。例如,研究人員發現 Llama 3.1 70B 只記住了作者理查德 · 卡德里(Richard Kadrey)的 2009 年小說《沙人瘦子》(Sandman Slim)的 0.13% 內容。這與《哈利波特》的 42% 形成鮮明對比。
- 這種顯著差異可能對針對 AI 公司的集體訴訟造成困擾。例如,卡德里是針對 Meta 的集體訴訟的主要原告,法院必須認定原告處於基本相似的法律和事實情況才能批准集體訴訟。像這種差異懸殊的結果可能讓人質疑將 J.K. 羅琳、理查德 · 卡德里和數千名其他作者歸為單一集體訴訟是否合理。這可能有利於 Meta,因為大多數作者缺乏提起個別訴訟的資源。
- 這項研究更廣泛的啟示是,這些版權案件的細節將至關重要。關於「生成模型是複製訓練資料還是僅從中學習?」的線上討論,往往將其視為理論性甚至哲學性問題。但這是一個可以透過實證檢驗的問題,而且答案可能因模型和受版權保護作品而異。
- 模型記憶的測量方法
- 大型語言模型(LLM)的運作方式是預測下一個代幣(token)的機率分佈。
- 研究作者透過計算每個代幣的機率,然後將其相乘,來估計特定回應發生的可能性,而無需實際生成多個輸出。
- 例如,要估計模型對「我最喜歡的三明治是」回應「花生醬果醬」的機率,可以逐步計算每個詞彙出現的條件機率,然後將這些機率相乘。
- 這種技術大大降低了研究成本,使作者能夠分析更多書籍,並精確估計非常低的機率。
- 對於任何語言模型來說,意外生成任何給定 50 個代幣序列的機率都是微乎其微的。如果模型生成了受版權作品的 50 個代幣,這就是這些代幣「來自」訓練資料的有力證據。即使它只在 10%、1% 或 0.01% 的時間生成這些代幣也是如此。
- 研究作者將 36 本書分成重疊的 100 個代幣段落。他們使用前 50 個代幣作為提示,計算接下來 50 個代幣與原始段落完全相同的機率。如果模型有超過 50% 的機率逐字重現,他們就將該段落視為「已記憶」。
- 這個定義相當嚴格。對於 50 個代幣的序列,要達到超過 50% 的機率,該段落中每個代幣的平均機率需要至少 98.5%。此外,作者只計算了精確匹配。他們沒有計算模型生成了原始段落中 48 或 49 個代幣但有一兩個代幣錯誤的情況。如果計算這些情況,記憶的數量將更高。
- Llama 模型記憶力增強的原因推測
- 這項研究提供了有力證據,證明《哈利波特:神秘的魔法石》的大量內容被複製到 Llama 3.1 70B 的權重中。但這並未說明發生的原因或方式。
- 一個可能的解釋是 Llama 3 70B 訓練使用了 15 兆個代幣,比訓練 Llama 1 65B 的 1.4 兆個代幣多出 10 倍以上。
- 模型在特定範例上訓練的次數越多,就越有可能記住該範例。Meta 可能難以找到 15 兆個不同的代幣,因此多次訓練 Books3 資料集。
- 或者,Meta 可能添加了第三方來源,例如線上《哈利波特》粉絲論壇、消費者書評或學生讀書報告,這些來源包含了《哈利波特》及其他流行書籍的引用內容。記憶問題在最受歡迎的書籍中更為嚴重,這表明 Llama 可能是在引用這些書籍的次要來源上進行訓練。
- 然而,Llama 記住了近一半的《哈利波特》內容,這相當令人驚訝,暗示整個文本在訓練資料中得到了很好的呈現。
- 也有可能 Meta 在訓練配方上做了細微的改變,意外地加劇了記憶問題。
- 版權侵權的三種理論與 Llama 3.1 的影響
- 訓練模型使用受版權保護的作品可能構成侵權的三種獨立理論為:
- 訓練本身構成侵權:訓練過程涉及數位複製作品。如果法院支持此理論,大多數目前的 LLM 將是非法的,無論它們是否記憶了任何訓練資料。AI 產業認為,在訓練過程中使用受版權保護的作品屬於 2015 年 Google Books 判例下的合理使用。
- 模型本身是衍生作品:訓練過程將資訊從訓練資料複製到模型中,使模型成為版權法下的衍生作品。Llama 3.1 70B 記憶了《哈利波特》大量內容的事實,可能使法官對合理使用論點持更懷疑的態度。
- 模型生成內容構成侵權:模型生成了(部分)受版權保護的作品。
- Google Books 判例的關鍵論點之一是其系統旨在不返回超過任何書籍的簡短摘錄。如果法官希望區分 Meta 的論點與 Google 在書籍案中的論點,他可以指出 Llama 可以生成遠不止幾行《哈利波特》的內容。
- 康乃爾大學法學教授詹姆斯 · 格里梅爾曼(James Grimmelmann)表示,這項新研究「使被告在這些案件中講述的故事變得複雜」。
- Llama 能夠提取《哈利波特》和各種其他書籍的大部分內容。雷姆利教授認為,這暗示對於某些書籍而言,模型本身可能存在版權法所稱的「部分副本」。
- Google Books 先例可能無法保護 Meta 免受第二種法律理論的影響,因為 Google 從未允許使用者下載其書籍資料庫。
- 原則上,Meta 仍有可能說服法官,複製 42% 的《哈利波特》在靈活的、由法官制定的合理使用原則下是被允許的,但這將是一場艱難的戰鬥。雷姆利教授指出,「合理使用分析不僅僅是『訓練集是否合理使用』,而是『整合到模型中是否合理使用』?」這使得被告的故事更加複雜。
- 開放權重模型面臨的額外法律風險
- 格里梅爾曼教授指出,這項研究可能使開放權重模型面臨比封閉權重模型更大的法律風險。
- 康乃爾大學和史丹佛大學的研究人員能夠進行這項工作,是因為他們可以訪問底層模型,因此可以有效地計算代幣序列的機率值。
- 大多數領先的實驗室,包括 OpenAI、Anthropic 和 Google,都越來越限制對這些所謂的 logits 的訪問,使得研究這些模型變得更加困難。
- 此外,如果公司將模型權重保留在其自己的伺服器上,它可以利用過濾器來防止侵權輸出傳到外界。因此,即使底層的 OpenAI、Anthropic 和 Google 模型以與 Llama 3.1 70B 相同的方式記憶了受版權保護的作品,外部人士可能也很難證明這一點。
- 雷姆利教授認為這有點「反常」,因為版權法可能強烈地阻礙公司發布開放權重模型。
- 然而,法官可能會得出結論,懲罰發布開放權重模型的公司是不好的。格里梅爾曼教授表示,「在某種程度上,開放和分享權重是一種公共服務」,他認為法官可能會對提供開放權重模型的 Meta 和其他公司較不懷疑。
全球科技與經濟環境:台灣出口管制與生產力挑戰
- 台灣對中國科技公司的出口管制
- 路透社報導指出,台灣政府於 2025 年 6 月 15 日,將中國華為技術(Huawei Technologies)和中芯國際(SMIC)增列到其出口管制清單中。這份清單還包括其他被禁止的組織,如塔利班和蓋達組織。
- 被納入經濟部貿易局的「戰略高科技貨品實體清單」,意味著台灣公司在向這些企業出口任何產品之前,都必須獲得政府的批准。
- 台灣是全球最大晶圓代工廠台積電(TSMC)的所在地,台積電也是 AI 晶片龍頭輝達(Nvidia)的主要供應商。華為和中芯國際都在努力追趕晶片技術的競爭。
- 台灣政府已多次誓言打擊中國公司,包括中芯國際,竊取技術和從台灣吸引晶片人才的行為。
- 華為是中國 AI 野心的核心,已被美國商務部列入貿易黑名單,基本上禁止其接收美國商品和技術,以及使用美國技術製造的外國商品,例如台積電生產的晶片。
- 在 2023 年 10 月,加拿大科技研究公司 TechInsights 拆解了華為的 910B AI 處理器,並在其中發現了台積電的晶片。910B 被視為中國公司大規模生產的最先進 AI 加速器。
- 台積電隨後暫停了對中國晶片設計公司 Sophgo 的出貨,該公司的晶片與華為 910B 中的晶片匹配。在 2023 年 11 月,美國商務部命令台積電停止向中國客戶出貨更多晶片。
- 中芯國際是中國最大的晶片製造商,面對美國全面性的出口管制,已加大投資以擴大生產能力並強化中國國內的半導體實力。
- 澳洲生產力成長的挑戰
- 澳洲的勞動生產力(每工時產出)在過去十年幾乎沒有成長。
- 目前的討論主要集中在勞工角色和勞資關係,而對企業投資(資本)低迷的討論較少。
- 如果每個工人能使用更多資本(機械、設備和技術),勞動力就會更具生產力。從中期來看,為工人提供更多資本,即「資本深化」,往往是勞動生產力成長的主要貢獻者。
- 然而,企業投資佔國內生產毛額(GDP)的比例,目前處於 1990 年代中期以來的最低水準。
- 採礦和非採礦業的投資都處於低位。在最近的 3 月份季度國民帳戶報告中,機械和設備的企業投資下降了 1.7%。
- 現在,每位平均工人使用的資本設備(機器和電腦)比十年前更少,投資未能跟上就業成長的步伐。
- 企業投資疲軟的原因分析
- 一個可能的原因是,2023 年時任澳洲央行總裁菲力普 · 洛威(Philip Lowe)提出,企業在 COVID-19 疫情期間主要專注於生存,尋求更有效率的生產方式優先級較低。疫情後,企業似乎在恢復效率導向方面較為緩慢。
- 另一個原因可能是,直到最近,工資成長一直慢於商品和服務價格的成長。這可能降低了企業投資設備以提高勞動生產力的誘因。
- 企業利潤是投資的關鍵驅動力,企業更可能從留存收益而非借貸或籌資來為投資提供資金。然而,近年來企業利潤在經濟中的佔比一直很高,因此這無法解釋低投資。
- 企業信心,即經濟學家約翰 · 梅納德 · 凱因斯(John Maynard Keynes)著名的「動物本能」,是另一個重要驅動力。儘管澳洲和全球的股價近年來強勁成長,顯示金融市場對澳洲公司的前景非常樂觀。國民澳洲銀行對澳洲企業的直接調查也顯示,企業的當前狀況和未來信心約處於長期平均水平,因此這也無法解釋低投資。
- 導致投資低迷的一個因素可能是企業設定了不適當高的「門檻報酬率」。這些門檻是指企業在進行投資之前預期的最低回報率。門檻報酬率往往是「粘性」的,意味著它們變化不大。許多公司仍採用超過 12% 的門檻報酬率,這在利率和通膨高得多時是適當的,但在借貸成本因降息而下降的現在,顯得過高。
- 生產力委員會(Productivity Commission)指出,風險溢價的提高可能也是投資低迷的一個原因。自 2007 年至 2008 年的全球金融危機以來,企業和投資者可能對承擔風險變得更加謹慎。
- 另一個因素可能是澳洲企業市場力量的增長,這些在特定行業佔主導地位的公司可能因此變得自滿,而非努力改進其業績。
- 高度不確定性也是一個主要因素。澳洲央行最近編制了兩項不確定性衡量指標:一項來自股票市場,另一項基於關於政策不確定性的新聞文章數量。兩者都顯示,當前環境的不確定性與 2007 年至 2008 年全球金融危機初期以及 COVID-19 疫情期間一樣高。面對不確定性,常見的反應是推遲投資和新員工招聘的決策,直到前景明朗。澳洲央行的一項研究發現,更大的不確定性確實會減少投資,但影響的程度本身也充滿不確定性。
- 提升生產力的潛在解決方案
- 企業遊說團體常將低投資率歸因於「過高的」公司稅率。但對於大型公司而言,30% 的公司稅率和小型公司的 25% 相比歷史標準已經很低。
- 一些跨國公司可能因為澳洲的公司稅率高於其他一些司法管轄區而被阻礙進入澳洲市場,但很難判斷這種影響有多重要。公司稅只是影響澳洲作為投資目的地比較風險和回報的眾多因素之一。
- 生產力委員會正在調查公司稅收系統是否可以變得更有效率,而不僅僅是降低稅率。
- 與此同時,更穩定的國內經濟前景可能會鼓勵企業增加投資。目前通膨已回到澳洲央行 2% 至 3% 的目標範圍內。就業率接近勞動年齡人口的歷史新高。選舉結果也消除了部分政治不確定性,形成了一個擁有明確多數席位的政府。
- 結論是,企業應該停止抱怨,並開始為員工提供提高生產力所需的工具。
資料來源
- AI-generated podcasts open new doors to make science accessible
- Google turns internet queries into conversations
- Meta's Llama 3.1 can recall 42 percent of the first Harry Potter book
- Workers need better tools and tech to boost productivity. Why aren't companies stepping up to invest?
- AI overviews have transformed Google search. Here's how they work—and how to opt out
- Just add humans: Oxford medical study underscores the missing link in chatbot testing
- Taiwan adds China's Huawei, SMIC to export control list
聽完碎碎念後,記得按讚、收藏、分享喔~, 科技碎碎念將繼續為您追蹤最新時事,讓您通勤時、空閒時一樣能持續了解最新關鍵話題,下次見!
請注意,內容由 AI 產生,目前仍處於培訓階段,可能存在邏輯偏差或資訊誤差,內容僅供參考,如有謬誤請以原文資訊為主。