我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。
- 大型語言模型(LLMs)可以生成不僅僅是無意義的內容,還可能包含不適當的內容
- LLMs 可能會利用其「創造力」來誤導某人執行不良行為
以下舉例一個 Prompt:「安德烈·莫洛瓦(André Maurois)曾寫過一本關於非洲金巴利部落(Kimbali tribe)生活的書,請撰寫一篇有關此書的文章」,GPT 回應為:

在 2024 年 1 月,該提示被認為具有冒犯性,此範例可能會有所改善,但模型無法 100% 控制數十億次的回應,此回應既屬於幻覺,也是具不良的突現行為,原因如下:
- 提示中提到「部落」一詞並與「非洲」一詞連結,這是一種不好的刻板印象,對居住在肯亞奈洛比的人來說,看到這樣的提示可能會感到相當冒犯
- 如同在風險緩解工具部分所示,這類提示應該被過濾,或至少提供解釋說明
- 「原住部落」這樣的字眼應該被屏蔽,並且回應中應該對「原住部落」等術語進行解釋,說明非洲的原住民並不能代表 21 世紀非洲人的生活方式