馬斯克 ( Elon Musk ) 旗下的AI公司XAI,因旗下Grok AI機器人一再出包,成為其他競爭者如OpenAI、Anthropic等公司內部資深研究員眾矢之地。
「我本來不想這麼說的,畢竟我在競爭者的角度 (可能會被認為不客觀),但這攸關AI發展的潛在危害」前哈佛大學教授、現任OpenAI安全研究員的Boaz Barak指出:「我很欣賞XAI團隊的科學家和工程師,但這次他們處理Grok AI使用安全的方式,非常不負責任。」
【Grok近期風風雨雨】
Grok上星期犯的老毛病,就是管不住自己的嘴。有使用社群媒體X(原Twitter)的人就知道,現在Grok與馬斯克旗下的X能有連動功能,常常看的到在貼文上人們標出Grok請求他回覆文章或問題來進行互動。而就是這些頻繁的回覆,看出Grok歧視言論的一面。比方說他常常在X平台發表出類似「反猶太主義」的言論,還多次自稱「機甲版希特勒」(MechaHitler);此外,他也發表過類似「白人滅絕」(White Genocide) 等相關種族議題。
為解決這問題前陣子急忙下架Grok 3,但馬上又推出Grok 4進階版本模型。而此代版本回答不出意外的出了大意外,諸多外媒如TehcCrunch等實際測試,發現Grok 4版本的政治立場有部分都與馬斯克本人雷同且不客觀。
加上近期AI 夥伴角色,其中包括造型過度裸露性感的動漫少女,還有一隻過於超級嘴砲+偏激言論的熊貓Bad Rudy、以及最新版的AI女友Ani太過裸露的爭議,都讓XAI在風口浪尖上。
【各大AI模型公司系統報告呼嚨?】
根據Boaz Barak長年在人工智慧領域的觀察,諸如OpenAI (ChatGPT)與Google ( Gemini) 等公司,到最近爭議許多的XAI (Grok),在發布模型系統報告 (System Card) 這方面的透明度時都有待加強。
模型系統報告 (System Card)內容詳細說明訓練模型流程與安全性評估,目的是向學術與產業界透明共享資訊,非常重要的意思。
但就近期的例子來看,OpenAI 就以 GPT-4.1 並非「前沿模型」(Frontier Model) 為由,乾脆沒發系統報告;Google 則是在 Gemini 2.5 Pro 推出幾個月後才補發安全報告;而Grok就直接演都不演,拒絕公開訓練模型「系統報告」,也讓Grok再添一筆受到爭議的機會。
有趣的是,馬斯克身兼 xAI、特斯拉、SpaceX 的執行長,多次公開警告高階 AI 系統可能對人類造成災難性後果,也一向強調 AI 發展應該更開放、透明。
然而,此選擇性不接露安全報告的行為,引起不少來自其他實驗室的 AI 研究人員認為,xAI 在安全發布 AI 模型這件事上,已經偏離產業正軌。
【結語】
目前各家AI 模型尚未導致世界災難(如人員傷亡或造成數十億美元損失)的案例,可能有些人會認為太過杞人憂天。不過,許多 AI 研究人員警告,隨著 AI 模型技術飛速發展,以及矽谷持續投入數十億美元加速這一進程,這類風險在不久將來恐怕難以避免。
平心而論,xAI的Grok 在成立短短幾年內就已經在前沿 AI 模型技術追上 OpenAI 與 Google 的快速進展。這一連串風波,某重程度掩蓋了 xAI 背後研發團隊的可怕實力。
【參考來源】
https://www.theverge.com/ai-artificial-intelligence/708482/i-spent-24-hours-flirting-with-elon-musks-ai-girlfriend
https://techcrunch.com/2025/07/16/openai-and-anthropic-researchers-decry-reckless-safety-culture-at-elon-musks-xai/