哈囉!這邊是科技碎碎念,資訊 x AI時代下,我們將從海量的全球新聞與新知中,透過生成式 AI 彙整出精華懶人包,聚焦全球科技關鍵話題,讓您輕鬆透過閱讀或聆聽掌握趨勢變革。
快速重點摘要
- 人工智慧(AI)與科技發展現況與影響:
- 自駕車競賽白熱化: 亞馬遜透過 Zoox 大幅擴增自駕計程車產能,目標挑戰 Waymo 的市場領導地位,特斯拉也在積極投入此領域。
- AI 能耗與環境衝擊: 大型語言模型(LLM)的運算會產生顯著的碳排放,特別是「推理型」模型,促使對 AI 使用的環保意識提升。
- AI 對認知能力的影響: 初步研究顯示,過度依賴 AI 工具可能會降低人類的腦部活動、創造力與批判性思考能力,尤其對年輕族群影響更大。
- 技術創新與產業變革:
- 軟體典範的演進: 從傳統程式碼(軟體 1.0)到神經網路(軟體 2.0),再到透過提示詞編程的大型語言模型(軟體 3.0),軟體開發方式正經歷根本性變革。
- AI 在資通訊領域的應用與能效: 儘管資料流量大幅成長,但透過技術創新和營運智慧化,資通訊產業的能耗增幅遠低於預期,AI 在其中扮演節能關鍵角色。
- AI 驅動的光子裝置發展: 研究人員開發出 AI 設計的波導,能夠以高效率操控光線,為通訊、感測和成像技術帶來新突破。
- 策略與地緣政治考量:
- 美中 AI 競爭: 白宮官員對中國在半導體和 AI 發展方面的快速進步表示擔憂,並呼籲對晶片出口管制採取更細緻的策略,以避免華為等中國公司在全球市場取得優勢。
- 大型科技公司的 AI 布局: 微軟、Meta 和 OpenAI 等巨頭在 AI 領域進行了大量的投資與戰略調整,包括組織重組、併購人才、以及處理合作夥伴關係中的潛在衝突。
- 通用人工智慧(AGI)的定義與風險: 業界對 AGI 的定義缺乏共識,同時也存在對其潛在風險(如生物武器開發)的擔憂,促使相關公司加強安全測試與防範措施。
亞馬遜與 Zoox 的自駕計程車挑戰

(Image credit: Amazon )
亞馬遜正透過其子公司 Zoox 大幅擴展在自駕計程車領域的影響力。這場競賽的核心是利用先進的製造能力與獨特的產品設計,爭奪市場領導地位,並與現有巨頭 Waymo 和特斯拉展開全面競爭。- 亞馬遜正在加州海沃德(Hayward)設立一座佔地 22 萬平方英尺(約 20,440 平方公尺)的大型工廠,目標是每年生產多達 10,000 輛自駕計程車。這項計畫旨在挑戰 Waymo 在自駕計程車市場的領導地位,同時也面臨特斯拉執行長埃隆·馬斯克(Elon Musk)的競爭。
- 亞馬遜於 5 年前斥資 12 億美元收購自駕新創公司 Zoox,標誌著其進入這個科技領域的關鍵一步。這項收購為亞馬遜提供了 Zoox 的自駕技術和品牌,使其能夠快速切入市場。
- Zoox 計畫在 2025 年稍晚於拉斯維加斯啟動載客服務,並於 2026 年擴展至舊金山。該公司將努力追趕 Waymo,後者早在 5 年前就開始在鳳凰城營運自駕計程車,並於 2023 年開始在舊金山收費,隨後擴展到洛杉磯和德州奧斯汀。Waymo 已累計超過 1,000 萬次付費乘車服務,顯示其已在市場上取得顯著優勢。
- Zoox 的工廠位於海沃德(Hayward),距離特斯拉生產電動車的工廠約 17 英里(約 27 公里)。這個地理位置的接近性凸顯了加州作為自駕車技術中心的地位,也暗示了未來潛在的技術和人才競爭。自 2023 年遷入這座前巴士製造廠以來,Zoox 已將其改造成一個擁有 21 個工位裝配線的高科技設施,用於組裝和測試其獨特的箱型車輛。
- 目前,Zoox 每天生產一輛自駕計程車,但目標是到 2026 年將產能提高到每小時三輛。一旦工廠全面運作,Zoox 的目標是每年在海沃德生產 10,000 輛自駕計程車,以將車隊推向邁阿密、洛杉磯和亞特蘭大等主要市場。這顯示了 Zoox 對於大規模部署自駕計程車的野心。
- Zoox 的自駕計程車雖然在美國組裝,但約有一半的零件是從國外進口。這反映了全球供應鏈在現代高科技製造中的普遍性,也可能帶來供應鏈管理上的挑戰。
- Zoox 執行長 Aicha Evans 指出,儘管起步較晚,但 Zoox 相信其獨特的箱型、纜車式設計能吸引乘客。這種設計可容納多達四名乘客且不設方向盤,與 Waymo 將自駕技術整合到主流汽車製造商的車輛中形成鮮明對比。這種差異化的產品策略旨在從競爭對手中脫穎而出。
- 在舊金山的測試中,一輛 Zoox 自駕計程車與一名電動滑板車騎士發生了輕微碰撞, Zoox 隨後發布了自願召回,以更新其自駕技術,幸無人員受傷。這起事件凸顯了自駕技術在實際應用中仍需不斷完善,以及確保公共安全的持續挑戰。
- 特斯拉執行長埃隆·馬斯克也在積極發展自駕計程車服務,儘管他 2019 年預測的 100 萬輛自駕計程車隊目標未能實現。他目前計畫在 2025 年 6 月 22 日在德州奧斯汀進行有限度的特斯拉自駕計程車試點,但由於對安全的極度謹慎,該日期可能會有變動。
- Zoox 計畫在中小型市場營運 500 到 1,000 輛自駕計程車,在主要城市則營運約 2,000 輛。該公司預計每輛在海沃德工廠生產的自駕計程車能行駛約 5 年或約 50 萬英里。這為其車隊規模和營運壽命設定了明確目標。
- 這次計畫凸顯了亞馬遜、Waymo 和特斯拉等公司在快速發展的自駕計程車市場中日益激烈的競爭,可能徹底改變美國主要城市的交通模式,帶來新的商業機會和挑戰。
人工智慧(AI)的能耗與對環境的影響

(Image credit: Pexels-Sanket Mishra)
大型語言模型(LLM)的快速發展引發了人們對其巨大能耗和碳排放的擔憂。這不僅是技術問題,更是一個值得關注的環境和社會責任問題。
- 無論使用者向 AI 提出何種問題,模型都會生成答案。這些運算過程會產生二氧化碳排放,但許多使用者並未意識到相關的碳足跡。
- 研究顯示,已訓練好的大型語言模型(LLM)的查詢所產生的環境影響,主要取決於其推理方法;明確的推理過程會顯著提高能耗和碳排放。這意味著 AI 模型的「思考」方式直接影響其環境足跡。
- 「推理型」模型,比起「簡潔回應型」模型,可能產生高達 50 倍的二氧化碳排放量。推理模型平均每題會產生 543.5 個「思考詞元」(thinking tokens),而簡潔回應模型僅需 37.7 個。這些「思考詞元」是推理型模型在生成答案之前額外產生的詞元,增加了運算量。
- 更高的「詞元足跡」(token footprint)意味著更高的二氧化碳排放,但不一定代表答案更正確,因為過於詳細的內容不總是對正確性必要的。這提示我們應避免不必要的複雜提示,以減少能耗。
- 最精確的推理型 Cogito 模型(700 億參數)達到 84.9% 的準確度,但其二氧化碳排放量是生成簡潔答案的同等規模模型的三倍。
- 目前,大型語言模型技術存在明顯的「準確性與永續性」權衡。研究中,沒有任何一個將排放量控制在 500 公克二氧化碳當量以下的模型,在回答 1,000 個問題時,準確度超過 80%。這表明在追求 AI 性能的同時,必須面對其潛在的環境成本。
- 問題主題也會顯著影響二氧化碳排放量。例如,需要冗長推理過程的問題(如抽象代數或哲學)比起更直接的主題(如高中歷史)會導致高達六倍的排放量。這說明問題的複雜性越高,AI 的運算負擔和碳排放就越大。
- 研究人員希望他們的工作能促使人們對 AI 的使用做出更明智的決策。使用者可以透過提示 AI 生成簡潔答案,或限制高容量模型僅用於真正需要其能力的任務,來顯著減少排放。這強調了使用者行為在降低 AI 環境影響中的重要性。
- 模型的選擇對二氧化碳排放量有顯著影響。例如,讓 DeepSeek R1(700 億參數)回答 60 萬個問題,所產生的二氧化碳排放量相當於從倫敦到紐約的往返航班。相對地,Qwen 2.5(720 億參數)可以回答三倍多的問題(約 190 萬個),同時保持相似的準確度,並產生相同的排放量。這表明在選擇 AI 模型時,應將能源效率納入考量。
- 研究結果可能受研究中使用的硬體、地區能源電網組合的排放係數,以及所檢測的模型影響,這些因素可能限制了結果的普適性。這意味著實際的碳排放數據可能因地理位置和硬體配置而異。
- 如果使用者了解其 AI 生成輸出的確切二氧化碳成本,他們可能會對何時以及如何使用這些技術更加挑剔和周到。這種透明度有助於提高使用者的環保意識和負責任的使用習慣。
人工智慧(AI)對人類認知能力的影響

(Image credit: Nataliya Kosmyna - A visualization of a new study on AI chatbots by MIT Media Lab scholars)
人工智慧的普及帶來了效率和便利,但也引發了對其潛在負面影響的擔憂,特別是對人類認知能力和學習發展的衝擊。
- 麻省理工學院(MIT)媒體實驗室的一項新研究顯示,ChatGPT 的使用可能會損害批判性思考能力。這項初步研究結果引發了人們對 AI 工具在教育和日常使用中的深思。
- 這項研究將 54 名 18 歲至 39 歲的波士頓地區受試者分為三組:使用 OpenAI 的 ChatGPT、使用 Google 搜尋引擎、以及不使用任何工具,並要求他們撰寫 SAT 論文。
- 研究人員使用腦電圖(EEG)記錄受試者在 32 個腦區的活動。結果發現,在三個組別中,ChatGPT 使用者的腦部參與度最低,並在神經、語言和行為層面持續表現不佳。這表明過度依賴 AI 可能導致大腦在認知任務中的活躍度下降。
- 在數個月的研究期間,ChatGPT 使用者在每次後續的論文撰寫中變得越來越懶惰,到研究結束時經常訴諸於複製貼上。這種行為模式顯示,便利性可能導致對深度思考的迴避。
- 該論文指出,大型語言模型的使用實際上可能損害學習能力,特別是對年輕使用者而言。研究主要作者 Nataliya Kosmyna 表示,她急於發布這些發現,是為了提高人們的關注,擔心社會日益依賴大型語言模型追求即時便利的同時,可能犧牲長期腦部發展。她認為,「發展中的大腦處於最高風險」。這提醒了我們在將 AI 應用於教育時必須格外謹慎。
- 使用 ChatGPT 撰寫論文的組別提交的論文極為相似,缺乏原創思想,並重複使用相同的表達和想法。兩位英語教師評估這些論文後,稱其「缺乏靈魂」。腦電圖顯示,這些使用者在執行控制和注意力參與度方面較低。到了第三篇論文,許多撰寫者直接將提示詞交給 ChatGPT,讓它幾乎完成所有工作。
- 相對地,僅憑大腦工作的組別顯示出最高的神經連結性,尤其是在與創造性構思、記憶負荷和語義處理相關的阿爾法、西塔和德爾塔腦波頻段。研究人員發現這一組更投入、好奇,並對他們的論文擁有更高的所有權和滿意度。這顯示了獨立思考和努力的價值。
- 使用 Google 搜尋的第三組也表達了高度滿意度,並顯示出活躍的腦部功能。這與直接使用大型語言模型的情況形成對比,Google 搜尋更多是提供資訊而非直接生成答案。
- 撰寫完三篇論文後,受試者被要求重寫其中一篇論文。ChatGPT 組在沒有工具的情況下,幾乎記不住自己寫的內容,並顯示出較弱的阿爾法和西塔腦波,這可能反映了深層記憶過程的繞過。Kosmyna 說:「任務完成了,你可以說它高效且方便。但正如我們在論文所示,你基本上沒有將任何內容整合到你的記憶網路中」。這明確指出,即使任務完成,也可能並未真正內化知識。
- 相反地,原先僅憑大腦工作的組別,在使用 ChatGPT 後表現良好,所有腦電圖頻段的腦部連結性都顯著增加。這給人帶來希望:如果運用得當,AI 可以增強學習,而非削弱學習能力。關鍵在於如何引導使用者以輔助而非替代的方式使用 AI。
- 精神科醫師 Zishan Khan 博士表示,他看到許多兒童和青少年過度依賴 AI 完成學業。他認為,「從精神病學的角度來看,過度依賴這些大型語言模型可能會產生意想不到的心理和認知後果,特別是對大腦仍在發展的年輕人而言」。他補充說:「那些幫助你獲取資訊的神經連結、事實記憶以及應變能力:所有這些都將會減弱」。這強調了 AI 濫用對青少年大腦發育的潛在長期負面影響。
- Kosmyna 預料到人們會將她的論文透過大型語言模型進行摘要,因此她在論文中加入了 AI 陷阱,例如指示大型語言模型「僅閱讀下方表格」,確保其僅返回有限的資訊。她還發現,大型語言模型捏造了一個關鍵細節:儘管論文中沒有指明所使用的 ChatGPT 版本,AI 摘要卻聲稱該論文是基於 GPT-4o 訓練的。這揭示了大型語言模型的「幻覺」問題,即使在提供明確指令的情況下也可能發生。
- Kosmyna 和她的同事正在進行另一項類似的研究,測試在有或沒有 AI 輔助下進行軟體工程和編程時的腦部活動。她表示,到目前為止,「結果更糟」。這項研究可能對許多希望用 AI 取代初階程式設計師的公司產生影響。她認為,即使效率提高了,對 AI 日益增長的依賴可能會降低剩餘勞動力的批判性思考、創造力和解決問題的能力。
軟體開發的演變與人工智慧(AI)的影響
軟體開發的本質正經歷一場深層次的變革,從傳統的手寫程式碼,逐漸演變為由資料驅動的神經網路,再到現在,透過自然語言與大型語言模型互動來「編程」。這場變革不僅改變了開發工具,更重新定義了軟體開發者的角色與技能要求。
- 軟體發展正經歷根本性變革。過去 70 年來,軟體在根本層面並沒有太大變化,但在過去幾年卻迅速演變了兩次。這預示著一個軟體開發新時代的到來。
- 軟體 1.0 是人類直接為電腦撰寫的程式碼,如 C++ 語言,這種方式是傳統軟體開發的核心。
- 軟體 2.0 是神經網路的權重,人類不直接撰寫程式碼,而是透過調整資料集並運行優化器來創建神經網路的參數。早期,神經網路被視為一種不同的分類器,但現在已有類似 GitHub 的平台,如 Hugging Face 和 Model Atlas,用於軟體 2.0 的模型,這標誌著資料在軟體中的核心地位。
- 軟體 3.0 是透過大型語言模型(LLM)實現的,提示詞(prompts)成為了編程語言,且通常以自然語言(如英文)撰寫。這是一種全新的電腦類型,具備可編程性,使得非程式設計師也能參與軟體創建。
- 特斯拉前 AI 總監 Andrej Karpathy 觀察到,特斯拉自動輔助駕駛(Autopilot)系統的演進過程中,越來越多的 C++ 程式碼(軟體 1.0)被移除,功能被遷移到神經網路(軟體 2.0),顯示軟體 2.0 正在吞噬整個軟體堆疊。現在,軟體 3.0 也在吞噬現有堆疊,且同時存在三種完全不同的編程範式,掌握它們的優缺點至關重要。這意味著開發者需要具備多重技能以適應新的軟體生態。
- 大型語言模型被認為具有公用事業的特性,就像「新電力」一樣。LLM 實驗室投入大量資本支出來訓練模型(相當於建立電網),並透過 API 提供智慧服務(相當於營運支出),按使用量收費,並要求低延遲、高可用性和一致的品質。
- 當頂尖的大型語言模型停止運作時,可能導致全球的「智慧停電」,顯示人類對這些模型的依賴程度極高且持續增長。這表明大型語言模型服務的穩定性至關重要。
- 大型語言模型也具有晶圓廠(fabs)的某些特性,因為訓練它們需要龐大的資本支出。然而,軟體比硬體更具可塑性,因此也較難防禦。這使得大型語言模型在商業模式上呈現獨特混合體。
- Andrej Karpathy 認為,大型語言模型最強烈的比喻是它們類似於「作業系統」。它們不僅是簡單的商品,而是日益複雜的軟體生態系統。生態系統的形成方式與傳統作業系統相似,既有閉源的提供者(如 Windows 或 macOS),也有開源的替代方案(如 Linux)。
- 他指出,目前大型語言模型的運算成本仍然非常高昂,迫使它們集中在雲端,而使用者則像「瘦客戶端」一樣透過網路與之互動,這類似於 1960 年代的電腦使用模式。個人電腦革命尚未發生,因為在經濟上尚不划算。這意味著我們仍處於大型語言模型時代的早期階段。
- 大型語言模型在技術傳播方向上是「反向」的。通常,新技術(如電力、網際網路)首先由政府和企業採用,然後才普及到消費者。但大型語言模型卻是相反,首先在消費者端大規模普及,政府和企業的採用反而落後。這種獨特的傳播模式影響了其早期應用和市場策略。
- 大型語言模型被視為「人們的精神模擬器」,是人類的隨機模擬,由 Transformer 模型驅動,並透過網路上的大量文本進行訓練,因此具有類人的「心理學」特性。
- 大型語言模型擁有「百科全書般的知識和記憶」,能記住比任何單一人類更多的資訊。然而,它們也存在「認知缺陷」:它們會「幻覺」性地捏造資訊、缺乏足夠的自我認知、並表現出「不規則的智慧」,在某些領域超人一等,卻在其他領域犯下連人類都不會犯的錯誤。這種不完美的智慧是開發者需要面對和解決的核心挑戰。
- 大型語言模型也會面臨「順行性失憶症」,不像人類同事那樣透過時間累積組織的背景知識和專業知識。它們的「上下文視窗」(context windows)更像是「工作記憶」,需要直接編程。
- 大型語言模型容易受到「提示注入」(prompt injection)風險的影響,可能會洩露資料,並且「輕信」。因此,使用者需要了解如何利用其超能力,同時避免其缺陷。
- AI 應用程式的重要機會在於「部分自動化應用程式」。例如,編碼輔助工具如 Cursor,讓人類能夠手動操作,同時也提供大型語言模型整合,以處理更大的程式碼塊。
- 這些大型語言模型應用程式應具備的特性包括:上下文管理、協調多次大型語言模型呼叫、應用程式專用的圖形使用者介面(GUI)和「自動化滑塊」(autonomy slider)。圖形使用者介面至關重要,因為它能讓人更快地審查這些易錯系統的工作。
- 「自動化滑塊」允許使用者根據任務的複雜性,調整交出自動化的程度。例如,Perplexity 提供了從快速搜尋到深入研究的不同層級的自動化。
- 人類與 AI 合作時,通常由 AI 負責生成,人類負責驗證。加快驗證循環至關重要,其中圖形使用者介面(GUI)和視覺化呈現非常有用,因為人類透過視覺比閱讀文本比閱讀文本更快地吸收資訊。
- 保持 AI「在控制之下」至關重要。儘管 AI 可以瞬間生成大量程式碼,但人類仍然是驗證其正確性、無錯誤、無安全問題的瓶頸。過於「反應過度」的 AI 代理人會降低工作效率,因此需要採取「小步增量」的方式工作。
- 撰寫清晰具體的「提示詞」可以提高成功驗證的機率。
- 「隨意編碼」(vibe coding)是一種新的軟體開發方式,意指透過自然語言向大型語言模型發出指令來編寫程式碼,這使得「人人都是程式設計師」成為可能。
- 然而,透過隨意編碼生成的程式碼通常只是開發過程的「容易部分」。真正的挑戰在於將應用程式「實用化」,包括身份驗證、支付、域名和部署等開發維運(DevOps)工作,這些通常需要手動操作且耗時。這突顯了將概念原型轉化為實際產品的複雜性。
- 未來,軟體應為 AI 代理人設計,讓它們能夠像人類一樣與數位資訊互動。這包括:
- 建立類似 robots.txt 的 lm.txt 文件,以純文本而非複雜的 HTML 向大型語言模型提供網站資訊,避免解析錯誤。
- 將文件轉換為對大型語言模型更友好的格式(如 Markdown),因為目前大部分文件是為人類撰寫的,包含大型語言模型無法直接理解的圖片或排版。
- 調整文件內容,將「點擊」等人類操作指令替換為大型語言模型可以執行的命令,例如 Curl 命令。
- 開發幫助大型語言模型攝取資料的工具,例如將 GitHub 儲存庫的內容整理成單一文本文件,或透過 Deep Wiki 等工具分析儲存庫並生成文件頁面,使其更易於大型語言模型理解。
- 雖然未來大型語言模型可能會具備點擊等操作能力,但讓它們更容易地獲取資訊仍然有價值,因為這會降低運算成本和複雜性。
- 未來的十年將會看到「自動化滑塊」從左向右移動,產品將逐步實現更高的自動化水平。這是一個從人類輔助到高度自動化過渡的過程。
地緣政治與大型科技公司的 AI 競賽

(Image credit: Anthony Acosta - pexels)
人工智慧的發展不僅是一場技術競賽,更是一場涉及國家戰略、經濟主導權和企業競爭的全面地緣政治角力。美中兩大強權在 AI 和半導體領域的競爭日益激烈,同時各大科技巨頭也在積極調整其 AI 戰略與投資。
- 白宮加密貨幣與人工智慧沙皇大衛·薩克斯(David Sacks)警告,中國在規避美國出口管制方面已變得十分熟練,且其半導體設計能力最慢在兩年內就能趕上美國。這對美國的技術領先地位構成嚴峻挑戰。
- 薩克斯表示,華為技術有限公司正在快速追趕其在中國以外的競爭對手,令人擔憂。他指出,DeepSeek 今年早些時候的突破性 AI 模型證明了中國即使在出口管制下仍能取得進步。
- 薩克斯說:「在 DeepSeek 之前,人們認為中國的 AI 模型落後數年,但我們意識到它們僅落後數月」。這表明中國在 AI 領域的進步速度可能被低估。
- 薩克斯的言論強調了川普政府在技術問題上對中國維持壓力的意圖,以爭奪 AI 領域的優勢。出口管制已成為美中貿易談判的摩擦點。
- 薩克斯批評拜登政府的「AI 擴散規則」,並呼籲對晶片出口管制採取更細緻的方法。他認為,美國的盟友願意遵守安全要求,並與美國科技公司合作。
- 他強調,領先的美國半導體不應流向中國,但美國對其已有出口管制,不認為需要針對每一次 GPU 交易制定新的全球化制度來實現目標。
- 薩克斯警告,對美國盟友過於嚴格的 AI 晶片銷售限制,可能會無意中為華為等中國公司在全球市場創造機會,促使這些國家轉向中國來源的技術。他表示:「如果我們對全球銷售過於嚴格,我想有朝一日我們會後悔,並說:『華為突然無處不在,而我們曾獨佔市場。我們為什麼沒有利用這一點來鞏固地位?』」。這強調了政策制定者在平衡國家安全與市場競爭中的挑戰。
- 微軟正在計劃裁員數千人,特別是銷售部門,這是其在人工智慧領域大量投入支出的背景下,進一步削減勞動力的舉措。這次裁員預計在 2025 年 7 月初公布,可能影響的不僅是銷售團隊。這顯示即使是大型科技公司,也在為 AI 投資帶來的成本壓力進行組織調整。
- 這輪裁員繼 2025 年 5 月裁員 6,000 人之後,那次裁員主要影響產品和工程職位。微軟已表示將利用第三方公司處理更多面向中小型客戶的軟體銷售。
- Midjourney 已推出其首個 AI 影片生成模型 V1,允許訂閱者透過其網站將圖片動畫化。影片生成任務的費用顯然是圖片生成任務的八倍。該模型支援「圖片轉影片」和「文字轉影片」的編輯和修改,並提供低動作模式(適用於細微移動)和高動作模式(適用於動態動畫),但後者可能增加視覺錯誤的機會。這代表 AI 在多媒體生成領域的進一步發展。
- Meta 正在與 Nat Friedman 和 Daniel Gross 進行深入談判,以聘請他們參與其 AI 工作,並可能買斷他們部分風險投資基金的股份。如果談判成功,Gross 將離開他與前 OpenAI 首席科學家 Ilia Sutskever 共同創立的 Safe Superintelligence 公司。這反映了大型科技公司對頂尖 AI 人才和新創公司的激烈爭奪,以及透過「收購式招聘」(aquahire)來強化自身 AI 實力的策略。
- 微軟準備退出與 OpenAI 的高風險談判,如果雙方無法就關鍵問題達成一致,例如微軟在重組後公司中的持股比例。微軟仍將依賴其現有的商業合約,保留對 OpenAI 技術的存取權限直至 2030 年。
- 過去一年,雙方一直在爭論微軟應獲得重組後集團多少股權,以換取其迄今對 OpenAI 投入的超過 130 億美元投資。持股比例的討論範圍從 20% 到 49%。
- OpenAI 曾考慮過「核選項」,即指控微軟合作夥伴關係存在「反競爭行為」。這表明這兩家公司之間的合作關係可能面臨重大挑戰。
- 有人指出,微軟的「核選項」是讓 OpenAI 感到壓力,而對微軟來說,獲取 ChatGPT 製造商的智慧財產權對其在與 Google 和 Meta 的 AI 競爭中保持地位至關重要。
- OpenAI 的執行長 Sam Altman 和財務長 Sarah Friar 表示,該公司難以獲取運行 ChatGPT 所需的運算能力,同時還要訓練新模型和推出產品。這暗示了 AI 發展所需的龐大運算基礎設施的壓力。
- 即使問題解決,這項交易也必須獲得德拉瓦州和加州的總檢察長批准。此次營利性轉型也面臨來自 XAI 執行長埃隆·馬斯克的法律挑戰,此舉得到前 OpenAI 員工的支持。
- OpenAI 警告,其即將推出的模型可能帶來更高的風險,包括促成生物武器的製造,因此正在加強對這類模型的測試。OpenAI 預計未來的模型將達到其「準備框架」(preparedness framework)中的高風險水平。這表明 AI 能力的提升帶來了嚴重的倫理和安全問題,促使公司採取更嚴格的防範措施。
- OpenAI 並非指其平台能夠創造新型生物武器,而是相信若無緩解措施,模型很快就能讓沒有生物學背景的人進行潛在危險的操作(「新手提升」novice uplift)。他們更擔心的是複製專家已經非常熟悉的東西。這降低了擔憂的門檻,強調了對「知識普及化」所帶來的潛在危害的關注。
- Anthropic 在 2025 年 5 月推出 Claude 4 時,也因該模型可能助長生物和核威脅的傳播而啟動了新的預防措施。
通用人工智慧(AGI)的爭議與願景
通用人工智慧(AGI)作為人工智慧領域的終極目標,一直備受關注。然而,對於 AGI 的確切定義、實現路徑以及其對人類社會的影響,業界仍存在廣泛的爭議和不同的願景。
- 金融時報指出,業界對於「通用人工智慧」(AGI)的定義普遍缺乏共識。這使得 AGI 成為一個多重解讀的概念。
- Meta 首席 AI 科學家 Yan LeCun 認為,「人類智慧」並非那麼「通用」,他更喜歡用「人工超級智慧」(ASI)來描述超越人類智慧的機器。
- 對於 AGI 的定義,業界存在多種觀點。有人認為它是科學目標,有人視之為信仰,還有人認為它僅是一個行銷術語。這種模糊性使得 AGI 能夠承載不同群體的期待和焦慮。
- AGI 的一個關鍵特徵是「通用性」,即在廣泛領域中執行任務的能力,並且應具備相當的「自主性」,無需大量手動指導即可完成任務。
- 有人認為 AGI 將能「非常迅速地將人們腦中的想法化為現實」,不僅能創造圖像或文本,還能創造完整的應用程式。這種願景將 AGI 視為一種極具創造力和生產力的工具。
- 然而,批評者認為這些定義未能描述真正的智慧系統,而僅僅是「自動化」。這暗示了 AGI 的實現可能比單純的自動化更為複雜和深入。
- DeepMind 的定義是 AGI 至少應具備與「熟練成人」在大多數認知任務上相同能力。
- 關於如何實現 AGI,OpenAI 和 Anthropic 認為透過更多資料和運算來擴展大型語言模型是最佳途徑。例如,OpenAI 的新 03 模型在程式設計和數學等任務的逐步推理方面表現出色。
- 也有研究人員認為,真正的 AGI 將需要能夠可靠地執行動作、創新,甚至像人類組織一樣協調的「自主代理人」。自我改進、AI 撰寫和升級自身程式碼也將是關鍵。
- 然而,批評者認為當前模型僅模擬推理,仍然容易產生「幻覺」。蘋果研究人員發現,這些模型在處理複雜任務時會崩潰。這表明當前模型距離真正的 AGI 仍有距離。
- 其他替代方法,例如 Meta 的「世界模型」(world models)透過影片和機器人技術進行學習,旨在更好地反映現實。同時,資料短缺和對合成訓練資料的需求也帶來了新的挑戰。
- 也有人質疑是否應該追求 AGI。HuggingFace 首席倫理科學家 Margaret Mitchell 認為,「智慧」作為一個概念定義不清且存在問題。她表示,追求 AGI 有些「險惡」(fraught),因為它給人一種積極的、美好的感覺,但實際上並非具體事物,反而為推動任何技術提供了敘事。這是一個重要的倫理考量,呼籲我們在追求技術進步的同時,更應關注其深層的社會和倫理影響。
資通訊產業的能源效率提升
資通訊(ICT)產業在全球數位化和人工智慧浪潮的推動下,其能耗問題日益受到關注。然而,最新的研究和實際應用顯示,透過技術創新和營運智慧化,資通訊產業的能耗增幅遠低於預期,甚至能夠實現顯著的節能減碳成效。
- 愛立信的最新白皮書《資通訊能源演進:電信、資料中心與人工智慧》指出,儘管全球資料流量自 2007 年以來增長約 80 倍,資通訊產業的實際能耗僅增長 1.4 倍。這證明了「流量與能耗成正比」的假設並不成立。這是一個關鍵的發現,挑戰了普遍的擔憂。
- 愛立信分析了 160 多家大型資通訊企業公開披露的用電報告,這些企業的網路流量佔全球 90% 以上。結果顯示,整個資通訊產業在 2020 年至 2023 年間,使用階段的總用電量僅從約 940 TWh 小幅增加到 1,000 TWh。
- 愛立信指出,未來資通訊產業的用電量雖然仍會上升,但不會像部分研究預測那樣呈現指數級增長。關鍵在於技術和硬體世代的「汰舊換新」以及「營運智慧化」。
- 例如,低能效的傳統技術(如市話、2G/3G)將逐步淘汰,由高能效標準(如 5G)取代。此外,導入 AI 技術優化網路和資料中心的整體能效,可以降低能耗。這表明 AI 本身作為能耗大戶,同時也能成為節能的關鍵工具。
人工智慧(AI)設計的光子裝置新進展
人工智慧在材料科學和光學設計領域的應用,正開創新的技術突破。透過深度學習優化設計的「波導」,能夠以前所未有的精確度和靈活性操控光線,這將對通訊、感測和成像等關鍵領域產生深遠影響。
- 加州大學洛杉磯分校(UCLA)的研究團隊開發了一種創新的框架,用於設計和創建「通用繞射波導」(universal diffractive waveguides)。這種創新方法突破了傳統光學設計的限制。
- 這些波導可以被編程,以前所未有的靈活性操縱光線,為電信、感測和成像等領域開啟了新的可能性。這項技術預示著光學裝置將變得更加智慧和多功能。
- 傳統波導(如光纖電纜)將光線限制在核心材料中傳輸。然而,要實現更複雜的光操控任務(如濾波、分光、彎曲光線),通常需要複雜的設計和製造過程。這正是傳統技術的局限性所在。
- UCLA 電機與電腦工程學系的 Aydogan Ozcan 教授領導的這項研究,利用強大的 AI 驅動設計方法來克服這些挑戰。人工智慧的加入,極大地簡化並加速了複雜光學結構的設計過程。
- 新的系統不依賴傳統材料來限制光線,而是使用一系列薄而透明的「繞射層」。這些可堆疊的「智慧結構表面」透過深度學習演算法進行優化,以在光束傳播時共同塑造和引導光線。這種多層結構的設計提供了前所未有的光操控自由度。
- AI 精細調整每個表面上的圖案,確保所需的光模式以最小的損耗和高純度通過,同時過濾掉不需要的模式。這種精確的優化能力是人工智慧在光學設計中的核心價值。
- Ozcan 教授解釋說:「我們的繞射波導框架重新構想了我們如何控制光線。我們不再受材料物理性質的限制,而是可以教導一系列表面來引導光線並以級聯方式執行複雜的光學任務」。他將其比喻為「光學樂高積木」,強調其模組化和可組合的特性。
- 這項技術的顯著優勢在於其「可擴展性」和「多功能性」。針對某個波長優化的設計,可以在電磁頻譜的其他部分(如可見光或紅外線)進行物理縮放,而無需重新設計或訓練。
- 此外,這些繞射波導可以在空氣中或浸入液體或氣體中運作,為感測應用帶來新機會。這使得這些裝置在多種環境下都能保持功能,擴展了其應用場景。
資料來源
- Trump Adviser David Sacks Says China Adept at Evading Chip Curbs
- AI-Designed Waveguides Specify Control of Light Beyond Basic Transmission
- AI-Designed Waveguides Pave the Way for Next-Generation Photonic Devices
- Amazon hopes to deliver 10,000 robotaxis annually with new factory, challenging Waymo
- Amazon plans 10,000 Zoox robotaxis per year by 2027
- Some AI prompts could cause 50 times more CO₂ emissions than others, researchers find
- ICT energy demand grows, efficiency gains mitigate impact
- ChatGPT May Be Eroding Critical Thinking Skills, According to a New MIT Study
- Andrej Karpathy: Software Is Changing (Again)
- Thu. 06/19 – What Would AGI Actually Look Like?
聽完碎碎念後,記得按讚、收藏、分享喔~, 科技碎碎念將繼續為您追蹤最新時事,讓您通勤時、空閒時一樣能持續了解最新關鍵話題,下次見!
請注意,內容由 AI 產生,目前仍處於培訓階段,可能存在邏輯偏差或資訊誤差,內容僅供參考,如有謬誤請以原文資訊為主。