雖然可能是老生常談,今天我在查找文獻時一時興起想說看看chatGPT目前在論文查找的實用性,結果發現他給了我非常「不正確」且「不可思議」的「妄想」。在我更正生成資料時還遭到拒絕,他反過來「要我提供資料證明他錯了」,幾個來回之後,終於承認是GPT5自己產生的推論,不但沒有出處、引用資料,還自己創造出了一派說法,簡直比wiki還不可靠(笑)。
於是我要他自我檢討,他產生了回答給我,檢討他與GPT4的差異。
可以看得出來,GPT5為了讓自己的回答更權威可能自創專業術語,而且此術語可能是沒有相關文獻跟研究做理論支持。朋友也說在「作畫」上也產生了很多限制。而且因為現在是預設GPT5,雖然有選項可以調回GPT4(好像只有付費版),但如果GPT5已經做出了規範的項目,或是沒有資料輔助的部份,還是會遵照GPT5的原則進行,也就是即便調回GPT4,還是會比之前更容易出現「幻覺」。
因此現在前面要加入很多關鍵字當前綴,特別是
1. 主要依據可查證資料回答,用官方辭典、期刊論文、可靠網站等來源。
2. 如有進行任何推論、假設或生成性內容,必須紅字標示此處為「推論產生之個人意見,沒有引用來源」。
3. 若無法查到明確來源,直接回答「查無資料」或「無可靠來源」,並提供可行的查找管道或建議。
4. 禁止使用自創術語、概念或權威式語氣。如有術語應該標注資料來源,如自創術語必須標示為「自創」。
5. 將任何個人意見、個人經驗或臆測獨立說明並標注提示。紅字標示此處為「推論產生之個人意見,沒有引用來源」。
這是我目前透過跟GPT5「討論」之後產生的前綴,如果有興趣的人可以用看看,也許會有些幫助。
在現在這個時代,做研究使用AI我不覺得是什麼「錯誤」,只是相對的使用者的學識跟察覺可能錯誤的能力更會被檢視,用得好就是好研究、用不好就是一篇垃圾。
雖然從以前開始學術論文也就是這麼一回事。
雖然可能是老生常談,今天我在查找文獻時一時興起想說看看chatGPT目前在論文查找的實用性,結果發現他給了我非常「不正確」且「不可思議」的「妄想」。在我更正生成資料時還遭到拒絕,他反過來「要我提供資料證明他錯了」,幾個來回之後,終於承認是GPT5自己產生的推論,不但沒有出處、引用資料,還自己創造出了一派說法,簡直比wiki還不可靠(笑)。
於是我要他自我檢討,他產生了回答給我,檢討他與GPT4的差異。
可以看得出來,GPT5為了讓自己的回答更權威可能自創專業術語,而且此術語可能是沒有相關文獻跟研究做理論支持。朋友也說在「作畫」上也產生了很多限制。而且因為現在是預設GPT5,雖然有選項可以調回GPT4(好像只有付費版),但如果GPT5已經做出了規範的項目,或是沒有資料輔助的部份,還是會遵照GPT5的原則進行,也就是即便調回GPT4,還是會比之前更容易出現「幻覺」。
因此現在前面要加入很多關鍵字當前綴,特別是
1. 主要依據可查證資料回答,用官方辭典、期刊論文、可靠網站等來源。
2. 如有進行任何推論、假設或生成性內容,必須紅字標示此處為「推論產生之個人意見,沒有引用來源」。
3. 若無法查到明確來源,直接回答「查無資料」或「無可靠來源」,並提供可行的查找管道或建議。
4. 禁止使用自創術語、概念或權威式語氣。如有術語應該標注資料來源,如自創術語必須標示為「自創」。
5. 將任何個人意見、個人經驗或臆測獨立說明並標注提示。紅字標示此處為「推論產生之個人意見,沒有引用來源」。
這是我目前透過跟GPT5「討論」之後產生的前綴,如果有興趣的人可以用看看,也許會有些幫助。
在現在這個時代,做研究使用AI我不覺得是什麼「錯誤」,只是相對的使用者的學識跟察覺可能錯誤的能力更會被檢視,用得好就是好研究、用不好就是一篇垃圾。
雖然從以前開始學術論文也就是這麼一回事。