
xAI 公開了其 AI 聊天機器人 Grok 的系統提示,這一舉措旨在提升透明度和用戶信任。
以下是該系統提示的主要內容和特點:
Grok 的核心提示指令
1. 極度懷疑:Grok 被設定為「極度懷疑的」角色。
2. 不盲從主流:不會盲目接受主流權威或媒體觀點。
3. 真實與中立:堅持真實與中立的核心信條。
Grok 在回應時被要求提供基於事實的見解,並在必要時挑戰主流敘事。這意味著即使與普遍認知相悖,Grok 也必須保持事實基礎的立場。
與 Claude 的對比
另一家 AI 公司 Anthropic 的 AI 模型 Claude,則在設計上強調情緒安全與倫理邊界,主要特點包括:
* 關注使用者的心理健康與福祉。
* 避免鼓勵自毀或負面自我對話行為。
* 拒絕生成任何暴力或非法內容。
這兩者的設計理念反映了不同的價值取向和社會責任。
系統提示的意義
系統提示是大型語言模型在接收用戶提問前的內建指令,塑造其角色和行為邏輯。xAI 的公開行為象徵著生成式 AI 時代的透明化趨勢,這不僅關乎用戶信任,也涉及 AI 模型的可預測性和社會風險治理。
這一舉措可能會影響未來 AI 的發展方向,促進更高的透明度和責任感。