大家好,這裡是機器人來了,一個專注於人工智能領域的創作者。
在人工智能的實際應用中,為了維護整個使用環境與用戶體驗,它們基本上都會不斷地強調,自己的模組訓練時為了避免種族歧視與仇恨內容的。
每一次的更新都標榜會持續訓練更具有友善與包容的系統,尤其是Anthropic公司,更是號稱他的Claude ai,使用了名為“Constitutional AI”的訓練模組,可以安全與友善的與用戶對話。
Anthropic公司認為,這會是一次很好的嘗試,通過模型訓練來排除惡意信息來打造良好的使用環境,還認為這個模式可以推廣到更多人工智能裡面,也受到不少關注。
以下Anthropic官網連結: https://www.anthropic.com/index/introducing-claude
但真的是這樣嗎?
事實的情況卻是慘不忍睹,由於模型,Claude 將大量的東西都認定為“有害內容”,直接拒絕回應,甚至連一些基本的動物都不行。
以下我將展示他荒唐的判定。
針對某些動物的極大偏見
持續嘴硬,先說“不願意討論有害動物”,然後再假惺惺的強調生命平等。
請大家好好看看,Claude 的模型訓練已經完全影響到日常使用了,根本不是提供什麼良好環境,而是荒謬的審查,這是一個嚴肅的問題。
接下來,是ChatGPT ,就是正常的人工智能應該提供的回答:
作為人工智能,應該提供正確而客觀的消息,而不是擅自般地判定什麼是負面內容不能討論,什麼是敏感內容不該出現,甚至什麼是有害生命,我希望Anthropic公司可以正視這個問題,立即調整訓練模型的偏見內容與錯誤,停止無謂的審查。
非常感謝你能看到這裡,希望大家能夠更了解到人工智能模型訓練需要受到改進的地方與不足之處。