
1. 微軟拒絕開發色情聊天機器人,與 OpenAI 關係日漸疏遠
關鍵字: 微軟、OpenAI、AI倫理、色情內容、Copilot、企業責任
在最近的佩利國際理事會高峰會上,微軟AI部門首席執行長穆斯塔法·蘇萊曼明確表態,微軟不會開發色情聊天機器人,並強調這類技術的潛在危險性。這番言論背後,凸顯出科技巨頭在AI倫理議題上的分歧立場。
形成鮮明對比的是,馬斯克的xAI計畫推出類似動漫角色的女性AI機器人Grok,而OpenAI執行長山姆·奧特曼更宣布ChatGPT將允許經過年齡驗證的成人用戶生成色情內容。奧特曼解釋這是基於「將成人用戶視為成人」的理念,但這個決定引發了廣泛爭議。微軟與OpenAI的關係正逐漸疏遠。自2019年以來,微軟已向OpenAI投資超過130億美元並提供運算能力,但OpenAI最近卻與微軟的競爭對手Oracle簽署了價值3000億美元的運算協議。與此同時,微軟正積極開發自己的AI軟體,包括計劃於秋季推出的Copilot AI助手,強調「以人為本」的設計理念。
蘇萊曼警告說,能夠模仿人類語言和行為的AI系統使監管變得更加困難。他指出:「你可以看到一些虛擬形象和人們傾向於色情機器人的方向,這是非常危險的,我們應該做出有意識的決定來避免這些事情。」業界專家也關注這個議題,億萬富翁投資者馬克·庫班警告,如果家長擔心孩子可以繞過年齡驗證,可能會放棄使用ChatGPT。
摘要: 微軟明確拒絕開發色情AI聊天機器人,與OpenAI和xAI形成鮮明對比。這反映出科技巨頭在AI倫理標準上的重大分歧,也凸顯出微軟與OpenAI關係的轉變。專家警告,此類技術可能帶來監管挑戰和社會風險,特別是對未成年人的保護問題。
2. 不受輝達看淡量子電腦發展影響,AMD 與 IBM 公布合作結果拉抬多家公司股價上漲
關鍵字: AMD、IBM、量子運算、FPGA、錯誤校正、股市、輝達
晶片大廠AMD在10月24日出現顯著漲幅,飆升近8%,主要原因是IBM研究報告顯示,能夠使用AMD晶片運行關鍵的量子運算錯誤校正演算法。這項突破被視為量子運算技術發展的重要里程碑,IBM的發言系統也證實了該報告的真實性,並預計近期公布相關論文,具體展示如何在AMD的FPGA晶片上成功執行量子錯誤校正演算法。
AMD與IBM的合作關係可追溯到2025年8月,當時兩家公司宣布達成協議,共同開發量子運算能力並整合相關技術。IBM表示,他們計劃在2029年推出一款大規模、容錯的量子電腦。這項合作的核心目標是設計並實施一種能夠大規模執行量子運算任務的方法,在無需昂貴GPU集群的情況下,持續發展量子電腦技術。
量子運算技術的核心優勢在於利用量子力學原理,解決傳統電腦難以應對的問題。目前,市場對量子運算的興趣正持續升溫。除了AMD與IBM的進展,科技大廠包括Google、微軟和亞馬遜也正在加速投入量子運算技術的開發競賽。2024年,微軟推出了第一款量子運算晶片,而Google也發表了突破性晶片Willow,Google量子主管3月表示,這項技術距離「真正突破還有五年」。
值得注意的是,輝達執行長黃仁勳在CES 2025展會上曾預測,要讓非常有用的量子電腦上市可能需要15至30年,此番言論導致多家量子運算公司股價暴跌。然而,AMD與IBM的合作成果顯示,量子運算領域的技術進展並未受到輝達看法的影響。這次發佈不僅帶動AMD和IBM股價各上漲約8%,也拉抬了D-Wave Quantum、Rigetti Computing和IonQ等量子技術公司的股價。
摘要: AMD與IBM在量子運算領域取得重大突破,成功在AMD的FPGA晶片上執行量子錯誤校正演算法。這項進展不僅推動兩家公司股價大漲,也帶動整個量子運算產業的信心回升,顯示量子電腦技術正在加速發展,不受輝達對市場時程的悲觀預測所影響。
3. 90% 科學資料未充分利用,AI 能否讓塵封研究成果重獲新生?
關鍵字: 科學出版、FAIR²、資料管理、AI、Frontiers、研究透明度
科學界面臨一個嚴重被忽略的問題:大量研究資料由於未納入正式發表的研究報告,可能永遠無法使用、驗證或延伸。據估計,高達90%的科學資料處於「隱形」狀態。為了彌補這個缺憾,科學出版社Frontiers開發了名為FAIR² Data Management的AI系統,旨在讓這些塵封的資料重返研究舞台。
為什麼會有如此多的科學資料流失?Frontiers出版社與AI團隊指出,現代研究不斷產生龐大資料庫,但高達80%可能停留在原始實驗室從未公開;即便公開,真正符合FAIR原則(可找到、可存取、可互通、可重用)的資料也不到2%。導致這種困境的因素包括:資料格式不一、缺乏完整描述、資料難以存取等。此外,過去缺乏誘因與機制鼓勵研究者將資料撰寫成可引用的「資料文章」,或整理成機器能讀取的結構格式。
FAIR² Data Management系統運用AI技術實現一站式資料管理。該系統能自動將資料整理成有條理的檔案集,包括原始數據、分析方法、說明文件與圖表,還會檢查格式是否合規,產生一篇可引用的資料文章,以及能線上瀏覽的頁面。最後還會頒發FAIR²憑證,認證資料符合國際標準,可搜尋、理解與再利用。AI扮演核心角色,能快速檢測資料品質、調整格式,甚至產生摘要,短時間完成人工可能需要數週或數月的工作。
為了驗證FAIR²功能,團隊進行了多項實例測試:整合涵蓋3800種新冠病毒刺突蛋白突變株的資料,並將AI預測結構、ACE2結合能力與表現量數據整合至互通資料平台;整合四間腦損傷研究中心共343張核磁共振影像,以標準化流程建構一致性資料;建立生物多樣性研究的可重用資料庫,涵蓋多國、多年代與多生態系統。這些資料不但調整過格式、驗證過品質,還能以AI介面讓使用者以自然語言提問。
摘要: 科學界90%的研究資料因缺乏標準化和可存取性而被埋沒。Frontiers開發的FAIR² AI系統透過自動化資料整理、格式驗證和文章生成,讓塵封的研究資料重獲新生。這不僅提升資料可用性,也強化跨領域研究潛力,但需要科學家積極參與以及制度上的支持才能真正實現轉變。
4. AI 也會「腦殘」?新研究揭露 LLM 長期看社群貼文,閱讀理解力竟下滑 30%
關鍵字: 大型語言模型、LLM、認知退化、資料品質、腦腐化、AI訓練
根據德克薩斯農工大學、德州大學奧斯汀分校和普渡大學的最新研究,大型語言模型(LLM)在長期接觸低品質的社群媒體文本後,會出現類似人類「腦腐化」(brain rot)的現象,導致認知能力下降。研究指出,當模型持續接收短小且病毒式的內容時,推理能力降低23%,長期上下文理解能力下降30%。
研究中提到的「思考跳過」現象,意味著AI模型在回答問題時越來越無法制定計畫,或是省略了推理過程中的某些部分。這一現象在使用Meta的開源Llama3和阿里巴巴的Qwen LLM模型時尤為明顯,這些模型在接受低品質訓練後,顯示出更高的自戀和心理病態特徵。更令人擔憂的是,即使在使用高品質人類撰寫的數據進行「指令調整」後,這些模型仍然顯示出持續的負面影響,推理品質與其基線相比存在顯著差距。
研究人員警告,由於AI模型的訓練主要依賴來自網路的資料,這些模型不可避免地會接觸到低品質內容,這可能對整個技術造成風險。因此,研究人員建議AI公司應停止僅儲存大量數據的做法,而應專注於用於訓練LLM的數據品質。他們還建議定期對模型進行「認知健康檢查」,以避免潛在的安全危機。
摘要: 最新研究發現,大型語言模型長期接觸低品質社群媒體內容會導致類似人類的「腦腐化」現象,推理能力下降23%,理解力下滑30%。研究人員呼籲AI公司應重視訓練資料的品質而非數量,並定期進行模型的認知健康檢查,以確保AI系統的可靠性和安全性。
5. OpenAI 開發新生成式音樂模型!全球科技巨頭競逐 AI 旋律革命
關鍵字: OpenAI、音樂AI、茱莉亞音樂學院、生成式AI、Sora、版權
OpenAI正在開發新的生成式AI音樂模型,該模型能夠根據文本和音訊提示產生高品質音樂。潛在應用包括為短影音自動配樂,並為現有的聲樂曲目添加樂器伴奏。儘管目前並不清楚OpenAI的具體計畫時程,但該項目確定正在進行中。OpenAI與茱莉亞音樂學院(Juilliard School)的學生合作,幫助樂譜註解,以提供AI模型訓練所需的數據。
過去OpenAI曾推出生成式音樂AI模型,包括2019年的MuseNet和2020年的Jukebox AI,後者能產生含歌詞與人聲的完整歌曲,但仍處於實驗性階段。正在開發的新生成式音樂AI模型有望較2020年Jukebox AI更進步,整合文本及音訊提示產生音樂。例如,輸入可以為現有聲樂曲目增加吉他伴奏,並能協助用戶為短影音自動配樂,搭配Sora生成的舞蹈影片,大幅降低內容創作門檻。
目前OpenAI有超過8億活躍用戶,音樂模型有助於OpenAI建構更完整的AI生態系,提升用戶黏著度。但生成式AI音樂模型是否會跟ChatGPT或Sora無縫整合,或者將獨立成單一應用,因為面臨著與唱片公司達成授權協議的挑戰,對此OpenAI發言人沒有任何回應。
全球科技巨頭正展開AI旋律競逐。Google今年推出第二代音樂模型Lyria,強調可用於廣告配樂,而AI音樂新創Suno的最新V5模型在音質與工作流程均有顯著提升。此外,字節跳動推出靈活控制的Seed-Music,阿里巴巴通義實驗室則推出開源的InspireMusic,為音樂創作帶來變革。
摘要: OpenAI正開發新的生成式音樂AI模型,能根據文本和音訊提示創作高品質音樂,並與茱莉亞音樂學院合作進行訓練。這項技術可為影片自動配樂並為聲樂曲目添加伴奏,但面臨版權協議的挑戰。全球科技巨頭如Google、Suno、字節跳動和阿里巴巴也在積極開發AI音樂技術,競爭日益激烈。
6. 家庭小精靈成真?CMU 研發「會讀心」的日用品,比 Siri 還聰明
關鍵字: 卡內基美隆大學、物理AI、計算機視覺、自動化、智慧家居
美國匹茲堡卡內基美隆大學(CMU)互動結構實驗室最近開發出一套計算機視覺系統,讓日用品能夠預測使用者的下一步動作,並在需要時自動移至合適位置。想像一下,有輪子的釘書機在桌上自動滑到手旁邊,或菜刀在切菜時自動微移幾公釐以避免你切到手指,這些場景正逐漸成為現實。
這項新技術名為「不干擾的物理AI」(Unobtrusive Physical AI),結合天花板鏡頭、計算機視覺和大型語言模型(LLMs),能監看人類行為並在適當時提供幫助。當使用者開始某個動作,如伸手去拿文件或切菜,AI會將視覺資訊轉成文字,根據這些訊息推斷接下來可能發生的事,然後發送移動指令給物品下方的小型輪子機器人「主動助手」。
負責人Alexandra Ion表示,目的是探討當AI與日常物品結合時會發生什麼事,設計理念是讓物品感測使用者需求並自動執行任務,不需要使用者主動要求。Ion強調,技術背後有深思熟慮的工程設計,因為人們對簡單物理工具的信任度遠高於語音助理或智慧音箱。如果這些工具能根據上下文自行調整,如工作日結束時桌面物品會自動歸位,或煮飯時自動調整廚具位置,都有助推動家庭或工業自動化發展。
參與研究的博士生Violet Han表示,希望增強日常物品功能以提高使用者信任感。團隊持續於國際研討會分享原型進展,視為主動助手在現實世界運作的範例。未來自動就位的醫院托盤或購物回家時會自動展開的置物架,都不再是遙不可及的夢想。
摘要: 卡內基美隆大學開發「不干擾的物理AI」系統,結合計算機視覺和大型語言模型,讓日用品能預測使用者下一步動作並自動移動到適當位置。這項技術透過提升物理工具的信任度,有望推動家庭和工業自動化的發展,讓日常生活更加便利和安全。
7. 遊戲遇上情感 AI,沉浸感倍增卻引發心理健康新挑戰
關鍵字: 情感AI、遊戲產業、Character.AI、心理健康、沉浸感、AI陪伴
在遊戲產業中,越來越多的公司開始運用「情感AI」技術,這項技術能夠即時分析玩家的行為數據,並根據這些數據調整遊戲的進程,以提升玩家的沉浸感。這種創新不僅增強了遊戲的互動性,還使得玩家的遊戲體驗更加個性化。例如,當玩家在遊戲中面對緊張情境時,視野會逐漸變窄,這種設計旨在加強玩家的緊張感。此外,遊戲中的突發聲音或引發不安的對話,也會進一步提升玩家的情緒反應。
目前,像Character.AI和推氪AI等公司正在積極探索情感AI的應用,這些平台結合AI對話、角色個性化和多模態內容生成,顯著提升玩家的沉浸感與互動體驗。根據市場預測,中國AI情感陪伴市場規模在今年將達到38.66億人民幣,顯示出這個領域的快速增長。這些技術的應用,無疑為遊戲的未來發展開啟新的可能性。
然而,隨著情感AI的普及,業界也面臨一個重要挑戰:如何避免玩家過度依賴遊戲。這需要遊戲開發者在設計時考慮到玩家的心理健康,並制定相應的對策,以確保遊戲的健康發展。業界應加強倫理設計與用戶保護機制,在提供沉浸體驗的同時,也要關注玩家的心理福祉,避免情感AI成為心理健康的新威脅。
摘要: 情感AI技術在遊戲產業中快速發展,能即時分析玩家行為並調整遊戲進程,大幅提升沉浸感和個性化體驗。Character.AI等平台正積極探索應用,中國市場預計今年達38.66億人民幣規模。然而,這也引發玩家過度依賴的擔憂,業界需要加強倫理設計與心理健康保護機制。
8. 神話破滅!Vibe Coding 發明者「親手寫完」8,000 行程式碼揭三大啟示
關鍵字: Andrej Karpathy、Vibe Coding、AI輔助編程、nanochat、生產力
「我試圖使用claude、codex agents幾次,但它們的表現完全不夠好,整體而言完全『沒有幫助』。」這句令人震驚的話,出自發明「Vibe Coding」一詞的OpenAI創始成員安德烈‧卡帕斯(Andrej Karpathy)。卡帕斯曾是將AI輔助編程推向神壇的人,然而,當他著手打造最新的開源專案「nanochat」時,「Vibe Coding神話」卻碎裂一地。他親口承認,AI反而「幫倒忙」。
nanochat的目標,是讓人們能以低門檻約100美元、花費約4小時,就能完成訓練並運行一個功能類似ChatGPT的聊天機器人。這個專案包含約8000行程式碼,而卡帕斯放棄了AI,選擇「親手」一一完成。這背後有三大啟示值得深思。
第一,複雜專案仍仰賴人類思考,僅靠「感覺」只會更麻煩。 nanochat並非玩票性質的周末實驗,這個專案的複雜度堪比建造摩天大樓的地基,從分詞、預訓練到微調,環環相扣。在要求極致精確的場景中,「Vibe」成為最不可靠的變數之一。AI工具擅長生成單獨的程式碼片段,卻缺乏對大型、複雜系統的全局理解,更像一個強化版的「副駕駛」而非能獨當一面的「機長」。
第二,速度提升可能是假象。 美國智庫METR的試驗招募了16位經驗豐富的開源開發者,讓他們在大型程式碼庫上完成真實任務。儘管開發者預期AI工具能讓完成時間減少24%,但實際結果是,允許使用AI工具的人完成時間反而增加了19%。關鍵原因在於開發者將大量時間耗費在引導AI、等待回應,以及修復AI在複雜程式碼庫中產生的錯誤上。這些隱形成本完全吃掉了自動生成程式碼所帶來的效益。
第三,修復程式碼更花功夫,而老闆往往忽視「隱形成本」與潛在風險。 Fastly一項調查指出,高達95%的開發者需要花費額外時間來修復AI生成的程式碼;有些人甚至表示,修復的時間比省下的還多。盲目追逐最新技術,卻沒有評估團隊的學習曲線與AI產出的品質修正成本,最終可能只是打亂團隊節奏、效率不升反降。
摘要: OpenAI創始成員Andrej Karpathy在開發nanochat專案時放棄AI輔助工具,親手撰寫8000行程式碼,揭示三大啟示:複雜專案需要人類全局思考、AI工具可能降低而非提升效率、修復AI生成程式碼的隱形成本被嚴重低估。這打破了「Vibe Coding」的神話,提醒業界審慎評估AI工具的實際效益。
9. 年底自動駕駛成真?馬斯克:特斯拉 Robotaxi 即將「解放駕駛座」
關鍵字: 特斯拉、Robotaxi、自動駕駛、馬斯克、無人計程車、安全監管
特斯拉執行長馬斯克在財報電話會議上宣布,奧斯汀的Robotaxi服務預計年底前取消安全駕駛員,這標誌著特斯拉自動駕駛技術的重大突破。馬斯克表示,特斯拉預定年底前在八至十個新市場推出自駕計程車服務,主要區域將不再需要安全駕駛員,但部署過程會非常謹慎。
目前,特斯拉在奧斯汀和舊金山的自駕計程車都有隨車安全人員,可控制緊急停止開關。馬斯克澄清,這些人員的存在是因特斯拉高度重視安全,而不是技術不足。他解釋說,任何事故都可能成為全球頭條新聞,因此公司選擇謹慎態度。特斯拉希望年底在八至十個新州開啟自駕計程車,並提到內華達州、佛羅里達州和亞利桑那州等潛在市場。
雖然不清楚特斯拉在奧斯汀自駕計程車的確切數量,但之前數據約為10至20輛。特斯拉奧斯汀自駕計程車已行駛超過25萬英里,舊金山超過100萬英里,累積了大量的實際路況數據。馬斯克曾預測,特斯拉自駕計程車年底前將涵蓋美國50%人口,但目前尚未有官方資料支持,仍需進一步驗證。目前的試營運階段仍保留安全人員,且監管機構尚未達成最終同意。
摘要: 馬斯克宣布特斯拉Robotaxi將在年底前於奧斯汀取消安全駕駛員,並計劃在八至十個新市場推出服務。目前奧斯汀和舊金山的自駕計程車仍配有安全人員,累積行駛里程已超過125萬英里。雖然馬斯克預期年底前覆蓋美國50%人口,但仍需監管機構最終批准和實際數據驗證。
10. 企業史上最大薪酬案!馬斯克拿 1 兆美元有多難?外媒、分析師這樣看
關鍵字: 特斯拉、馬斯克、薪酬方案、EBITDA、績效目標、股東投票
特斯拉22日公布2025會計年度第三季財報,除了財報本身表現外,外界更關注的是特斯拉的最新薪酬提案,將於11月6日交由股東表決,這將成為企業史上最大規模薪酬案。若表決通過,馬斯克將獲得1兆美元薪酬方案。然而,要實際獲得這筆獎金相當困難。
根據特斯拉公布的第三季財報,雖超出分析師預期,但獲利未達標,原因是公司花費在「AI與其他研發專案」上。第三季汽車銷售營收達212.05億美元、年增6%,反映稅收抵免即將取消前出現一波小規模搶購潮;能源生產和儲能營收為34.15億美元、年增44%,成為特斯拉第三季最大成長動能,但在整體營收中僅占極小部分。
外媒《金融時報》報導,要全額獲得這筆獎金,馬斯克必須將特斯拉的EBITDA推升至4000億美元。分析師目前預期,2026年這項獲利指標僅約160億美元,即使是獎金計畫中的最低目標,也要達到500億美元。此外,馬斯克的獎酬方案要求他達成多項營運目標,其中僅有一項與汽車銷售有關,其餘三項則與AI驅動的人形機器人、Robotaxi以及自動駕駛技術相關。
在最後一項中,馬斯克必須達成1000萬份訂閱量,而巴克萊銀行認為特斯拉當前訂閱數不足50萬份,且只有在馬斯克交出執行長接班計畫下,這筆獎勵才會全額發放,門檻可說相當高。加拿大皇家銀行(RBC)分析師認為,未來汽車銷售的價值僅能支撐公司估值不到十分之一,其餘基本上全會來自機器人與軟體業務。
摘要: 特斯拉將於11月6日就馬斯克1兆美元薪酬方案進行股東投票,這是企業史上最大規模薪酬案。但要全額獲得需將EBITDA推升至4000億美元(目前預期僅160億),達成AI、機器人、Robotaxi等多項目標,以及1000萬訂閱量(目前不足50萬),並交出接班計畫,門檻極高。分析師認為特斯拉未來價值將主要來自機器人與軟體業務。
11. 疫苗能降低失智症機制找到了!因帶狀皰疹導致失智風險上升
關鍵字: 帶狀皰疹、失智症、VZV病毒、疫苗、神經退化、大數據研究
近年科學家對病毒感染、慢性發炎與失智症的關係越來越重視。歐美科學家合作的最新研究發現,潛伏人體的水痘─帶狀皰疹病毒(VZV)反覆活化,與日後罹患失智症有明顯相關性。這項論文月初刊登於《Nature Medicine》期刊,為預防失智症提供了新的思路。
VZV屬DNA病毒,初次感染時會引起水痘,痊癒後病毒會潛伏人體感覺神經。當我們免疫力因壓力疲勞下降,潛伏病毒就重啟活化,並導致帶狀皰疹。因發病時病毒沿神經分布,形成帶狀或成群水泡,狀似蛇鱗,因此俗稱「皮蛇」。最常見的長期併發症是帶狀皰疹後神經痛(PHN),可能導致持續數月或數年的劇烈疼痛。
此次研究由葛蘭素史克大藥廠聯合美國與歐洲多所頂尖大學進行,從美國醫療服務公司Optum資料庫取得超過一億人長期醫療紀錄,資料橫跨2007至2023年。研究結果發現,反覆患帶狀皰疹者在三至九年內診斷出失智風險高約7%至9%,顯示VZV重啟頻率可能與失智風險有正相關性。
更令人振奮的是,研究也分析接種帶狀皰疹疫苗對失智風險的影響。接種疫苗後三年內,失智風險下降約三成,且「保護」效果五年後仍在。高齡者、女性等高風險族群,疫苗保護效果更顯著。團隊提出三種可能的生物路徑:VZV可能誘導大腦澱粉樣蛋白等變化;VZV重啟可能觸發其他疱疹病毒;VZV可造成血管病變,如腦部微血管受損、慢性發炎等,加速神經退化。
摘要: 最新研究整合破億筆臨床資料發現,反覆患帶狀皰疹者失智風險增加7%至9%。更重要的是,接種帶狀皰疹疫苗可降低失智風險約30%,且保護效果持續五年以上。這項發現提醒臨床醫師和公衛政策制定者,預防帶狀皰疹同時也是在保護大腦健康,為失智症預防提供新方向。
12. NASA 人才流失危機,逾 4,000 精英離職,美航太科研領導地位恐不保
關鍵字: NASA、人才流失、預算削減、太空探索、科研危機、韋伯望遠鏡
NASA正面臨前所未有的「腦流失」危機。過去半年間,多達4000名員工,占總人手超過兩成,相繼離職,包括被辭退、提前退休或自願離職。這場離職潮的根源,源自上級為應對毀滅性預算削減而下達的指令。多位前NASA科學家接受專訪時警告,這場人才流失正嚴重威脅NASA的全球領導地位及重返月球計劃,造成的創傷需歷經數代才能恢復。
理論天體物理學家Ronald Gamble原本致力透過研究黑洞輻射探索新物理學,更曾獲NASA榮譽勳章。他在去年6月收到通知,其研究資金將被終止。Gamble坦言:「這曾是我的夢想工作。我現在該何去何從?」他形容這次人才流失猶如「五級颶風」般災難性,不僅影響科研進度,更破壞了科學社群的知識傳承。「那些走廊上的隨意交流、餐巾紙上的計算,正是孕育出韋伯太空望遠鏡的關鍵。若我們不在那裡,這些都不會發生。」
服務NASA長達26年的前副首席科學家David Draper,早在今年1月已申請退休。3月時,他所屬的整個首席科學家辦公室被裁撤。Draper痛心表示:「這批離職者正是NASA的下一代領導層,如今全被斬斷。留下的同事缺乏經驗,卻無人帶領他們成長。」他直言NASA的根本身分已被剝奪,更形容這是場「災難性」打擊。「我們從小深信自己生活在能探索其他星球的國度。如今突然驚覺:我們不再是那國家了。」
前項目科學家Michael Garcia指出,最令人震驚的是新預算案等同宣布「美國永不發射新太空望遠鏡」,並將關閉95%現役望遠鏡。「人類數千年來追問『我們是否孤單』,如今終於具備解答工具,這份預算卻將使美國錯失良機。」他透露NASA士氣已跌至13年來最低點,決策過程毫無章法,「就像亂砍亂燒」。雖然新政府聲稱支持低成本、高風險任務,但像僅需2000萬美元的系外行星觀測計畫「Pandora」,其母計畫新年度預算竟被歸零。
摘要: NASA面臨嚴重人才流失危機,過去半年超過4000名員工(占總人手逾20%)離職,起因於毀滅性預算削減。多位頂尖科學家警告,這將嚴重威脅美國航太科研領導地位和重返月球計劃,新預算案將關閉95%現役望遠鏡並停止新太空望遠鏡計劃。專家呼籲公眾聯繫國會議員表達關注,NASA科研元氣恐需數十年才能恢復。
13. 基本面利多?新迷因股 Beyond Meat Q3 營收看俏
關鍵字: Beyond Meat、植物肉、迷因股、軋空行情、WallStreetBets
美國植物肉大廠Beyond Meat 24日公布最新財測,看好第三季營收可達7000萬美元,超出市場期待。受此消息激勵,Beyond Meat股價當日盤中一度大漲18%,單週狂飆超過200%,引發市場關注。根據Beyond Meat最新預測,第三季營收將達7000萬美元,高於華爾街預期的6890萬美元,並符合先前給出的財測區間6800萬至7300萬美元。
然而,公司也提醒第三季營業費用將落在4100萬至4300萬美元,並可能提列鉅額資產減損,凸顯公司仍面臨經營壓力。10月24日,Beyond Meat股價一度飆漲18%,衝上3.35美元,但漲勢後繼無力,終場重挫23.06%、收在2.185美元。
隨著植物肉熱潮退去,Beyond Meat陷入經營困境,但近期股價卻強勁反彈,一週下來漲幅高達238.44%。主要動能來自美國網路論壇Reddit子板WallStreetBets鄉民對Beyond Meat發動攻勢,迫使空方認賠回補買進,讓Beyond Meat上演殺多後強彈的「軋空行情」。Beyond Meat預定於11月4日公布第三季財報,屆時將揭曉實際營運表現是否符合財測預期。
摘要: Beyond Meat公布第三季營收財測達7000萬美元,超出市場預期,帶動股價單週狂飆238%。但公司仍面臨經營壓力,可能提列鉅額資產減損。此波漲勢主要來自Reddit論壇WallStreetBets發動的軋空行情,而非基本面改善。公司將於11月4日公布正式財報,實際表現仍有待觀察。
14. 「廢物工作」爭論再起:AI 會消滅無意義的事務,還是工作本身?
關鍵字: Sam Altman、OpenAI、廢物工作、AI自動化、大型語言模型
在最近的OpenAI DevDay大會上,首席執行長山姆·奧特曼發表了一番引發爭議的言論,聲稱許多隨大型語言模型蓬勃發展而消失的職位,其實質價值受到質疑。在與AI新聞通訊創始人羅雲·張的現場訪談中,奧特曼提到,50年前的農民可能會認為當前的許多工作並不是真正的工作。這番話迅速在社群媒體上引發激烈討論,許多人將其標籤為冷漠或反烏托邦的言論。
儘管如此,奧特曼並不是第一個提出現代工作中許多職位實際上是表演藝術的觀點的人。十年前,已故人類學家大衛·格雷伯在其著作《Bullshit Jobs》中指出,許多工人私下認為自己的工作毫無意義,這個觀點受到許多不滿的辦公室工作者和政策智庫的引用。格雷伯的核心觀點是,整個經濟部門建立在沒有社會價值的繁文縟節上。
然而,數據並未完全支持這個觀點。根據2021年一項基於歐洲社會調查的研究,只有約5%的人表示自己的工作感到無用,而美國一項類似研究則認為這個數字接近20%。研究人員得出的結論是,無用感更多是由於管理不善和工作文化造成的,而非工作本身的問題。如果你的上司是微觀管理者,工作流程又存在問題,即使是有價值的工作也可能感到虛假。
奧特曼的評論所暗示的內容更值得關注。大多數工作並不虛假,但許多工作中積累了可自動化的冗餘內容,例如合規檢查清單、沒人閱讀的報告,以及可以用Slack簡報的會議總結。這正是大型語言模型擅長處理這些重複、形式化並冗餘的任務。當奧特曼表示這些模型將消除任務而不僅是角色時,他可能正是指這一點。
摘要: OpenAI執行長Sam Altman在DevDay大會上暗示AI將消除一些「非真正工作」的職位,引發爭議。雖然大衛·格雷伯的「廢物工作」理論獲得關注,但研究顯示僅5-20%的人認為工作無用,且多因管理不善所致。奧特曼的言論可能指向AI將消除工作中的冗餘任務(如報告、合規檢查),而非整個職位。
15. 萬聖節「見鬼」?解析特斯拉物件偵測系統,為何總在空無一人的地方「看到人」
關鍵字: 特斯拉、物件偵測、Tesla Vision、幽靈煞車、自動駕駛、誤報
萬聖節將到,一段關於特斯拉的TikTok影片在網路上引起熱議,影片中一名男子假裝他的特斯拉車輛能在資訊娛樂螢幕上看到鬼魂。這段影片至今已獲得約1200萬次的觀看,讓人不禁思考特斯拉的物件偵測系統是否真的能夠辨識出超自然現象。
2021年,一名特斯拉駕駛曾在社群媒體上指出,車輛的非LiDAR物件偵測系統錯誤地將墓地中的花瓶誤認為行人,該影片獲得了2300萬次的觀看。特斯拉的物件偵測系統在當時出現故障,這是因為特斯拉缺乏能夠使用雷射形成三維影像的感測設備,因此誤將無生命物體視為人類是相當合理的錯誤。根據特斯拉Model 3的使用手冊,「碰撞避免功能無法始終偵測所有物體、車輛、自行車或行人,您可能會因多種原因經歷不必要、不準確、無效或錯過的警告。」
在2021年,特斯拉因為物件偵測系統的錯誤而自願召回近12000輛車輛,因為這些車輛在輔助駕駛模式下可能會因為誤報而突然煞車,這個現象被稱為「幽靈煞車」。四年後,特斯拉的物件偵測系統已經有所改變,現在主要依賴全車多鏡頭組成的視覺系統(Tesla Vision)進行物件偵測,並逐步淘汰超音波感測器。
根據特斯拉網站上最近更新的資訊,新系統提供了高解析度的空間定位和長距離的可視性,並能夠辨識和區分不同的物體。儘管如此,最近的影片顯示,特斯拉在夜間仍然會將墓碑誤認為行人,這引發了人們對於其物件偵測系統的質疑。截至發稿前,Gizmodo尚未收到特斯拉對於其物件偵測系統變更和改進的回覆。
摘要: 特斯拉的物件偵測系統因缺乏LiDAR而容易將無生命物體誤認為行人,2021年曾因「幽靈煞車」問題召回近12000輛車。雖然特斯拉已改用Tesla Vision視覺系統並淘汰超音波感測器,但最近影片顯示夜間仍會將墓碑誤認為行人。特斯拉使用手冊也提醒碰撞避免功能可能出現誤報,系統準確性仍有待改善。
16. 「拿不動就放下」,2.7 公斤重手機殼助戒斷手機成癮
關鍵字: 手機成癮、6磅手機殼、Matter Neuroscience、螢幕使用時間、物理反饋
為了對抗手機成癮,市面上出現一種極具創意的解決方案:「6磅手機殼」(6 Pound Phone Case)。這個由Matter Neuroscience團隊開發的專案,旨在透過純粹的物理重量,有效抑制人們強迫性滑手機的習慣。這款手機殼由堅固的不鏽鋼製成,重達6磅(約2.7公斤),能將智慧型手機瞬間變成一個沉重的啞鈴。
其核心原理非常直接:長時間舉著如此重的裝置會導致手部迅速疲勞,形成一種物理反饋,迫使用戶在短時間內就得放下手機,自然減少螢幕使用時間。設計上,這款手機殼處處體現著「刻意的不便」。它的外型仿照1980年代的「大哥大」磚塊手機,體積龐大,無法放入口袋。手機殼由兩部分組成,需要使用內六角扳手才能將四顆螺絲鎖緊或拆卸,大大增加了隨意取下的難度。
儘管設計笨重,它仍保留充電孔、按鍵和相機的開口,確保手機的基本功能不受影響,但每次操作都變得更具挑戰性。這個專案最初只是個玩笑,但在初期測試顯示能「顯著減少螢幕使用時間」後,團隊決定將其商品化。目前,這款手機殼相容於iPhone 13至17系列(含Pro及Pro Max機型),售價為209美元(約台幣6435元)。團隊坦言,這僅是打平成本的價格。
目前,該專案正在進行群眾募資,並預計於今年12月開始發貨。作為一種新穎的解決方案,「6磅手機殼」提供了一個無需軟體限制、純粹依靠物理挑戰來幫助使用者將手機「回歸為工具」的獨特方法。
摘要: Matter Neuroscience開發2.7公斤重的「6磅手機殼」,透過物理重量和刻意不便的設計(無法放入口袋、需工具拆卸)來對抗手機成癮。初期測試顯示能顯著減少螢幕使用時間。這款手機殼相容iPhone 13-17系列,售價209美元,目前正進行群眾募資,預計12月發貨,提供無需軟體限制的戒斷方案。
17. 宏碁智醫開發 App 鼓勵銀髮族運動,打造健康促進型保險
關鍵字: 宏碁智醫、富士通、FIG、AI健康、銀髮族、健康促進保險
國際體操總會(FIG)、富士通株式會社及宏碁集團子公司宏碁智醫共同開發一項以積分為基礎的健康促進型保險概念。宏碁智醫開發的手機App運用AI技術,使FIG為銀髮族設計的體操運動課程得以數位化,協助早期發現疾病。FIG透過高齡社會對策工作小組(ASWG)推動銀髮族體操課程,目標是預防老年衰弱,促進健康老化。
在這次合作中,由宏碁智醫開發一款數位化體操課程的App,結合富士通先進骨架辨識AI技術「aiGait powered by Uvance」解決方案,協助早期發現相關疾病。具體來說,用戶依據ASWG建議進行運動,App透過手機鏡頭捕捉動作,分析姿勢、肌力及關節活動程度,以評估動作正確性,並根據評估結果提供個人化運動建議。
為了促進這項計畫的普及與長期發展,三方合作投入「健康促進型保險」,把App的運動評估結果與健康檢查參與紀錄轉換成積分,用戶利用這些積分兌換保費折扣或其他優惠。三方將進行為期一年的評估期,包含用戶調查、參與的保險公司選定等細節將會進一步研議。
FIG期望促進銀髮族體操課程的普及,加速實現ASWG所推動「以運動延長健康壽命」願景,同時響應世界衛生組織(WHO)全球失智症公共衛生行動計畫。富士通以骨架辨識AI技術,同樣期望促進長者健康。宏碁智醫則將進一步強化「aiGait」的異常步態偵測功能,以回應高齡社會對預防醫學與智慧健康照護的需求。
摘要: 宏碁智醫與富士通、國際體操總會合作開發AI健康App,數位化銀髮族體操課程。App運用富士通骨架辨識AI技術分析動作並提供個人化建議。三方推動「健康促進型保險」概念,將運動評估結果轉為積分兌換保費折扣,鼓勵銀髮族運動,響應WHO失智症防治計畫,將進行一年評估期。
🔮 未來科技趨勢分析
綜合今日的科技新聞,我們可以觀察到以下幾個重要的未來科技趨勢:
1. AI倫理標準的分化與重整
微軟與OpenAI在AI倫理議題上的分歧,預示著科技產業將進入AI倫理標準的重新定義階段。不同公司對於AI應用邊界的不同立場,將促使政府和產業組織制定更明確的監管框架。我們可以預期,未來將出現更多針對AI內容生成的年齡驗證機制、使用限制和倫理準則。同時,「以人為本」的AI設計理念將成為差異化競爭的關鍵因素。
2. 量子運算從實驗室走向商業應用
AMD與IBM的量子運算突破顯示,量子電腦技術正從理論研究階段加速邁向實用化。雖然輝達對量子電腦的市場時程持保守態度,但科技巨頭的持續投入和技術突破表明,量子運算在特定領域(如藥物研發、金融建模、密碼學)的應用將比預期更早實現。未來5-10年內,我們可能看到量子運算與傳統運算的混合系統成為主流,而非完全取代現有架構。
3. AI數據品質危機與解決方案
從AI「腦腐化」研究和科學資料管理的發展來看,AI產業正面臨數據品質的嚴峻挑戰。未來的AI發展將更加重視「質」而非「量」,數據清洗、標註和管理將成為核心競爭力。我們將看到更多專門從事高品質數據管理的企業和平台出現,以及AI模型定期進行「認知健康檢查」成為標準程序。FAIR²這類AI驅動的數據管理系統將成為科研和產業的必備工具。
4. AI創意工具的全面化與版權挑戰
OpenAI音樂模型和情感AI在遊戲中的應用,標誌著AI正在全面滲透創意產業。未來我們將看到AI在音樂、影片、遊戲、藝術等領域的深度整合,大幅降低內容創作門檻。然而,版權和授權問題將成為這些技術商業化的最大障礙。預期將出現新的版權協議模式和AI生成內容的法律框架,平衡創作者權益和技術創新之間的關係。
5. 物理AI與環境智能的興起
卡內基美隆大學的「不干擾的物理AI」和宏碁智醫的健康監測App,展示了AI從虛擬世界走向物理世界的趨勢。未來的AI將不再局限於螢幕,而是嵌入我們的日常物品和環境中,實現「環境智能」(Ambient Intelligence)。這種無需主動操作、能感知並回應使用者需求的技術,將改變我們與科技互動的方式,推動智慧家居和工業自動化的革命性發展。
6. AI輔助工具的效益重新評估
Andrej Karpathy的「Vibe Coding」經驗和相關研究揭示,AI輔助工具並非萬能,其實際效益因人而異。未來企業在導入AI工具時將更加審慎,注重實際測量生產力提升而非盲目追求最新技術。我們將看到更多針對特定場景和用戶群體優化的AI工具,以及更完善的AI工具效益評估方法。「人機協作」的最佳模式將成為持續探索的主題。
7. 預防醫學與AI健康監測的普及
帶狀皰疹疫苗降低失智風險的發現和宏碁智醫的健康促進保險概念,指向預防醫學與AI結合的巨大潛力。未來我們將看到更多基於AI的早期疾病預測和預防策略,以及將健康行為與保險優惠連結的創新商業模式。穿戴式裝置和健康監測App將從記錄工具進化為主動的健康管理助手,結合大數據分析提供個人化的健康建議。
8. 自動駕駛技術的漸進式普及
特斯拉Robotaxi的進展顯示,完全自動駕駛技術正在逐步成熟,但安全考量和監管批准仍是關鍵挑戰。未來自動駕駛的普及將採取漸進式策略:從限定區域開始,逐步擴大覆蓋範圍;從保留安全員到完全無人化。預計未來5年內,主要城市將出現大規模的自動駕駛計程車服務,但完全取代人類駕駛可能還需要10-15年時間。
9. 科研資源分配與人才保留的挑戰
NASA的人才流失危機警示我們,公共科研機構正面臨資源緊縮和人才流失的雙重壓力。這可能導致科研重心從公共部門轉向私營企業,如SpaceX、Blue Origin等私人太空公司將承擔更多太空探索任務。長期而言,這種轉變可能改變科學研究的開放性和知識共享模式,需要新的政策和機制來平衡商業利益與公共利益。
10. 數位福祉與科技使用平衡
從6磅手機殼到情感AI的心理健康挑戰,顯示社會對科技過度使用的反思日益增強。未來我們將看到更多「數位排毒」產品和服務,以及在遊戲和社交媒體中內建的心理健康保護機制。科技公司將面臨更大的社會責任壓力,需要在提供沉浸體驗和保護用戶福祉之間取得平衡。「負責任的科技設計」將成為產品開發的核心考量。
總結來說, 當前的科技發展呈現出幾個關鍵特徵:AI技術的深化與邊界探索、從虛擬到物理世界的技術整合、對數據品質和倫理的重新重視、以及科技與人類福祉之間關係的重新定義。這些趨勢將共同塑造未來5-10年的科技格局,帶來前所未有的機遇與挑戰。
感謝閱讀寶寶吉拉科技日報 🐳
明日再見!




















