前言
有人急著衝到答案,有人習慣慢慢鋪陳;你的提問方式,其實就是你的思維地圖。
這是你嗎?
沛勳是一位剛轉職到行銷部的專案企劃,他被主管交派一個任務,就是要寫出一個自家商品針對年輕族群的品牌銷售策略。
沛勳研究了自家商品的特質,以及公司希望主攻的年輕族群的喜好以後,打開Copilot輸入了第一句話:「請幫我寫一份針對年輕族群的品牌策略,語氣要有點叛逆但又不失專業。」他想著,這樣看起來就可以很快得到一個可以用到的品牌策略了吧!
沒有想到AI的第一個品牌策略規劃,看起來完全沒有叛逆的感覺,而是意外地很嚴肅。就像是一個給長輩的品牌策略規劃,沛勳覺得這個完全不適合年輕人。「怎麼跟我想像中的差這麼多?」於是沛勳跟AI表示:「請再叛逆一點!」
結果AI的回覆,一直沒有達到沛勳心中覺得品牌銷售策略希望「叛逆」的那個感覺,甚至AI回覆的風格設計越來越奇怪了。
沛勳有點懷疑人生:「難道是我們定義的『叛逆但專業』這件事情有落差嗎?」
另一個場景裡,我們看到芷涵,芷涵是一位目前正在攻讀科技教育研究所的學生,他正在準備自己這學期選修的「教育與科技概論」課程的期末報告。
由於老師在學期初的時候就已經表示了,課程所有的報告都會檢查是否是使用AI來完成,芷涵很擔心這件事情,但是又希望過程中可以有AI的協助來幫忙看內容跟整理資料。
於是他打開了ChatGPT以後,直接輸入:「請幫我完成一份3000字的研究報告大綱,主題是『AI與教育的未來』。」
結果芷涵明明想要一個段落一個段落一邊找資料慢慢思考要怎麼寫,沒有想到ChatGPT直接給他了一個條理清楚、內容完整的大綱。
雖然是沒有直接幫他完成整篇的內容,但是每一個段落裡面的概述幾乎也足夠完善了。
芷涵看著長篇大論的輸出,並沒有感覺到自己的問題有被解決,而是覺得壓力山大:「我只是想要慢慢分段完成,怎麼一下子就給我這麼多?」於是他試著再要求AI幫她拆解,但AI依然傾向一次給出大塊內容。
芷涵感覺到自己跟AI的對話一直沒有在同一個節奏上面,這樣一整天對話下來反而還耽誤了寫期末報告的時間。
而在新創公司中,承翰也遇到了一個挑戰,承翰是一位新創公司的產品經理,他正在嘗試使用Gemini協助他製作一份關於他最近負責產品的ppt。
承翰在最一開始的時候就輸入了相當長的起手語,交代了像是產品本身的特性與特色、產品定位、競爭對手分析以及想要的簡報風格,甚至還提供了簡報風格的範例參考。
一開始AI的回覆還很切合承翰的意,承翰覺得自己根本就是起手語小達人,於是他繼續往下追問,而且也因為中間討論的很熱絡的關係也有幾次岔題。
隨著時間過去,承翰與AI的對話越來越長。經過了這樣一來一往約30多輪以後,他突然發現AI的回覆開始偏離最初的定位,甚至忘了他一開始設定的簡報風格。
承翰只好回去翻找對話記錄,想要找回最初的設定內容以及比較重要的討論結論,但是對話已經太長了結果翻的很辛苦,也找不太到,這一點讓承翰非常挫折。
這看起來似乎是很常與AI對話的日常,但真的一定是這樣嗎?
讓對話有錨點與步調
有那麼一些人,他們在與AI對話以前,會先停下來,確認彼此是否是待在同一個起點。
他們不會急著在打開AI的視窗以後,馬上就開始討論要做的事情,而是先確認AI是否能夠理解這個任務的初始背景與設定。
當共識建立之後,他們會再選擇適合的節奏來進行對話,有時候需要馬上得到一個草稿再慢慢修正,有時候則需要慢慢拆解任務一步一步來,有時候則要先釐清再前進。
每次針對不同的事情做不同的選擇,讓AI的回覆不再顯得突兀或失焦,而是貼合他們真正的需求。
這些人在對話的過程中,也懂得適時地要留下一些摘要與整理,當對話拉長、AI一時忘記時,他們只要把這份摘要貼回來,就能立刻喚回AI的記憶。
你會看到,這些人和AI的互動,不再是隨機的問與答,就像開驚喜包一樣永遠無法預測AI會有什麼回答,而是一場有錨點、有步調的旅程。
AI的回覆精準而穩定,他們也能在過程中調整節奏,確保每一步都更靠近目標。
在這樣的對話裡,對他們來說,AI不只是工具,而是能與他們並肩前行的夥伴;而他們,也真正成了這段對話的掌舵者,帶領對話的前進。
當你能掌握錨點與步調,你的提問方式就不只是思維地圖,而是帶領AI同行的航海圖。
從風險到策略:打造穩定又高效的對話
當前提不清、參照缺席、記憶斷裂時:對話的三大隱憂
常見與AI的互動中,常見的第一個隱憂就是「前提不清」。
許多提問者打開AI的對話框以後就急著輸入需求,而沒有交代提問的動機、背景與前提。
就算使用了還算是詳細的起手語,卻也因為沒有先跟AI確認是否理解任務的背景與目標,導致在後續的對話中,人類與AI往往各說各話,輸出的內容跟期待完全沒有對上。
Lin等人於2024年的研究[1]中,透過人類和大型語言模型的協作任務實驗發現,若沒有在對話前建立角色與目標共識,AI的建議常常偏離決策需求,導致任務成功率下降。
Clark與Brennan在研究[2]中也指出,如果人際溝通中缺乏共同的語境(Common ground),雙方沒有透過反問、確認等機制建立起對話共識的話,對話的雙方就會容易誤解,雖然針對的不是人機互動的研究,而是人類之間的對話交流,但在與AI對話的過程中也有一定的參考性。
這些研究都提醒了我們,前提確認不只是形式,而是確保對話能「對得上頻率」的必要條件。
人類與AI對話的第二個隱憂,則是來自於「缺乏參照」,也就是說當提問者並沒有提供足夠的風格範例或是參考資料的時候,AI雖然可以生成內容,但往往會和期待的結果或方向相去甚遠。
Zhou等人於2023年對於大型語言模型的研究[3]中,比較了不同的提示方法對於大型語言模型產出的結果差異。
該研究發現,語言模型的輸出結果有時候可能會忽略對話的前後文的線索,如果可以在提示中適當的加入上下文或是提供範例,模型的輸出會更貼合需求,也能夠提升輸出的一致性。
同樣的Lin也在2023年的文章[4]中,將「提供範例」列為有效提示設計的核心原則,指出這能幫助模型更好地對齊提問者的風格期待。
這些研究都顯示了,提供風格或資料給AI參照不只是「加分」,而是避免AI產生了不符合提問者預期內容的重要關鍵。
最後的一個AI提問隱憂,則是AI對話中常見的問題-「記憶斷裂」。
就算一開始的起手語、背景資訊與風格設計的再完整,隨著對話一來一往的輪數增加以後,AI有可能會逐漸遺忘前面的設定,導致後續回覆偏離最初的方向。
Maharana等人在2024年的研究[5]中,透過研究來測試大型語言模型長達300輪的對話表現,發現模型的記憶力會隨著對話延長而顯著下降,無法維持一致性。
相同的結論,UC Berkeley AI Research的實驗[6]也指出,大型語言模型在長對話中的記憶準確率僅約10%,必須透過外部記憶機制才能提升到90%以上。
這些研究結果都指出,AI的「短期記憶」確實有限,因此在長對話中,提問者需要透過摘要或整理來幫助AI回想,才能維持對話的穩定性。
光是避免隱憂還不夠:節奏決定能跑多快、多穩
理解了風險之後,我們更需要思考:如何設計出能真正提升品質的對話策略?
前面段落所提到的AI對話三大隱憂讓我們理解到,如果人類與AI的對話之間沒有特別設計過的結構與提問策略,就會很容易失憶導致偏離目標、效率降低。
但事實上來說,設計對話的結構與提問策略,從來就並不只是單純的不讓AI出錯,而是為了要讓整體和AI對話的互動品質穩定地推進。
從「防止失誤」走向「促進品質」的觀點,代表我們不能夠只是讓AI不出錯,更要讓它能持續承接、清楚聚焦、有效回應。
Fu和Du的研究[7],在2025年對於AI的對話提出了「先問後答」(First Ask Then Answer)框架,讓AI在回應前先主動生成補充問題,形成一種有意識的節奏性互動。這種設計不僅減少多輪對話的負擔,也讓模型在回應時更具完整性與穩定性。
另外在2024年Jia等人的研究[8]中同時也發現,當提示設計具備節奏性結構,模型在語境維持與品質評估上表現更佳。
而Li等人也有在教育場域的研究[9]中也指出,當人機互動具備清晰的節奏與互動結構,不僅能提升AI的語境分析能力,也能增進人類提問者的理解與參與感。
這些研究都有指出一個共同點:節奏不是附加品,而是讓人與AI都能「對得上頻率」的關鍵設計。當策略到位,對話就不再是一場隨機的漫遊,而是一條穩定的路徑——這正是我們這一篇文章的後續要探討的核心。
穩定承接、清晰聚焦:對話品質的雙向提升
當整個對話的流程具備了明確的節奏設計,並且適度搭配資料與風格參照的補充,以及任務開始前和過程中不定期的摘要整理,你會發現和AI對話的過程中可以很明顯減少AI回覆內容的偏移。
一旦提問者在對話的過程中感受到了更高的參與感與控制感以後,對於提問者來說最直接的效益就是「被理解的安心感」。
提問者不再需要擔心AI的回覆就像是開驚喜包一樣,永遠沒有辦法確定到底會得到什麼答案,也不需要擔心AI會失憶然後又找不到前面的對話,整體互動更有方向感與預期性。
這種穩定的節奏可以讓提問者預測AI的回應方式,也更容易調整自己的提問策略以達到最終的目的,形成一種互相協調的對話節奏,對話的過程就會是愉快的。
在我們前幾篇文章中經常引用的自我決定理論(Self-Determination Theory, SDT)[10]中可以知道,當互動能滿足提問者的自主性、能力感與關係感,就能促進內在動機與持續參與。
而透過同樣被我們前面幾篇文章用到許多次的價值期望理論(Expectancy-Value Theory, EVT)[11]則是強調,當提問者能預期互動成果並感受到其價值,就更願意投入與回應。
而提問者一旦有更高的意願參與時,就能從AI的對話中得到更多收穫,而有飛躍性的成長。
就AI對話品質的層面而言,策略的存在則是輸出品質的穩定器。有前提確認,模型能準確對齊任務目標;有參照提供,生成內容更貼近風格與語氣;有摘要留下,語境不易斷裂,回應更具連貫性。
許多研究[12][13][14]透過設計與AI對話的節奏與模組,都有發現在刻意設計過的對話結構中,AI回應的聚焦度與語境連貫性都有顯著提升,穩定性與可追溯性也較高。
綜合以上研究可見,刻意設計的對話節奏與結構,不只是技術優化,更是人機協作品質的根本支撐。它讓提問者更安心,也讓AI更穩定,是一種雙向品質的提升。
從起手語到追問前的流程藍圖
在我們已經理解了人類與AI對話過程中的三大隱憂,並且透過理論與實證研究確認這些問題會直接影響互動品質與任務成功率後,接下來我們必須要思考的問題就是,該如何設計一套穩健的流程,可以在不同的提問情境下都可以適用。
而這套流程也必須要可以處理我們前面提過的挑戰與隱憂,同時又可以穩定推進對話節奏。
因此我在這一篇文章中會提出一個,從起手語到追問前,可以穩定與AI對話的品質,以及解決我們前面眾多疑慮與擔憂,且能夠適用於不同情況下的模組。
我在這裡把他稱之為「對話定錨節奏法」!
以下先提供整個對話定錨節奏法的流程圖,建議可以點開以後放在旁邊,後面介紹細部流程的時候可以一邊對照喔!

對話定錨節奏法流程圖
在這個部分我會先說明一下我們這個對話流程的特色,並且在下一個段落中再更進一步地說明每一個流程我們應該如何操作。
特色1:對話節奏分段設計
我們把原本是單一節奏選擇的流程,拆成數個不同的步驟,每一個流程都有明確的功能以及互動的目標。
像是為了避免記憶斷裂的摘要流程,或是對齊提問者與AI認知的確認流程。
這種結構化的功能可以讓跟AI對話的流程中,更聚焦在每一個階段要做的事情,除了具有便利性以外,還可以穩定對話的品質,讓提問者可以預測到接下來AI會回覆什麼。
而這樣的設計正是呼應了前面文章中提到的,模組化的提示設計會有助於AI對話的連貫性和穩定性,並且提高提問者的參與AI對話的意願。
特色2:前提確認與再確認雙層設計
不同於以往的文字提示(prompt)的設計,我們在提問者輸入完起手語以後,先不急著讓AI執行任務,而是先確認是否有缺漏的必要或建議增加的補充資訊。
我們設計讓AI以起手語裡面的角色與背景為基礎,進行前提確認與再確認的審查機制。
除了審查提問者所提供的資訊是否完善以外,也可以讓AI主動判斷提問者所設定的角色是否清楚、目標是否具體以及是否有缺漏會影響任務的開展。
有些必要的資訊很可能是提問者在思考的時候沒有想到的,如果可以在執行任務以前就由AI提醒完善的話,更能有助於AI能產生更貼合提問者需求的內容。
特色3:素材補充與用途釐清
在前述的文獻整理中有明確提到,如果沒有提供或定義風格或是用途,則AI很容易會混淆並且產生和提問者預料之外的回覆。
甚至也有研究強調,可以提供AI適當的範例並且搭配說明,就能夠提升輸出的一致性。
也因此我們在整個流程裡面設計了材料補充與用途釐清的這個環節,提問者可以提供AI相關的範例與思考的素材。
AI不會立即模仿,而是先釐清這些素材的用途——是要參照語氣、補充背景,還是作為任務內容。這樣的分層預告與用途確認,能有效避免參照誤用或語氣錯置。
特色4:摘要整理與保留機制
摘要整理與保留機制,是我們用來對抗「AI失憶」這個擔憂的關鍵設計。
在任務開始前,我們特別設計了一個流程讓AI可以主動整理起手語的內容以及補充的資訊,一方面,除了讓提問者可以在AI真正開始處理任務以前,對於自己想要釐清的問題和相關資訊有一個鳥瞰,可以讓提問者確認AI對於提供的資訊、任務的要求是否有遺漏的或需要補充的。
另一方面,提問者可以將AI整理出來的內容作為最初始的回溯記憶存檔點,如果後續AI忘記了原本的設定,則可以再貼上整個摘要幫助AI想起來。
有了這樣的記憶回溯設計,就可以比較大幅度的克服AI可能會遺忘最一開始設定的問題。
特色5:互動節奏選擇模組
最後這個流程最重要也是最關鍵的核心,當屬於互動節奏選擇的模組了。
這是我們設計中最貼近提問者狀態的部分,提問者可以選擇探索型的節奏,由AI和提問者討論以後再決定怎麼往下走,或者是由AI主導整個對話流程,亦或是提問者比較有想法,那就選擇自己喜歡的對話節奏。
這樣的設計不只是操作上的彈性,更是對話安全感的來源。你不需要什麼都清楚才能開始,有時候讓AI帶著你走也是一個不一樣的體驗。
讓起手就對頻:對話定錨節奏法
接下來,我們將介紹這套流程的整體架構與使用上的注意事項。
這個流程並非臨時拼湊,而是經過反覆測試與理論對照後所建立的節奏設計。每一段都有其語用功能與互動目標,彼此之間環環相扣,形成一條可預期、可調整、可回溯的對話路徑。這些設計不只是為了讓AI不出錯,同時也是為了讓提問者能安心參與、AI能穩定回應,真正實現讓對話雙向品質的提升。
這篇文章內的文字提示採用直接提供,你可以複製到與AI對話框中再修改使用。或者你也可以前往我的部落格中,所有的文字提示都會被放置在文字框中,你可以修改成自己的風格以後再一鍵複製使用,會更為方便喔!
起手語的輸入
關於起手語的產生,可以參照我們前一篇文章:
【AI x learning】AI 是共構者,不是答案供應機:打造良好對話起手式
或者是你對於文字提示或是起手語非常熟悉,可以自行完成的話,也可以自行完成相關的內容。
如果你有使用我們的起手語產生器的話,你可以發現不管動機是哪一類,或是填寫的內容是什麼,起手語的最後都一定有這一段話:「請先不要輸出,後面我會提供對話節奏。」
之所以有這一段話的原因是在於,因為我們起手語輸入的後續流程,就會進到我們的「對話定錨節奏法」。
因此我們刻意設計了這一段話,讓AI煞車先不要開始執行任務。
所以當你在使用我們前一篇文章的起手語時,你會發現AI並不會開始執行任何的任務,而是靜候你的指示。
如果你是使用自己的起手語,可以在對話框輸入完了起手語以後,一鍵複製我們下面的這句話,一併貼上到你原本起手語的後方,來阻止AI開始進行任務,並且預料後面會開始節奏流程步驟。
這是我這次任務的起手語,裡面包含角色設定、目標、語氣偏好等。請先不要開始執行任務,也不要回覆任何內容,等我貼完後續指令再開始。
前提確認與再確認
雖然起手語是由我們所產生的,照理來說可能是我們會最了解自己想要執行甚麼樣子的任務,或是限制是什麼。
但是百密總是會有一疏,我們在起手語裡面所提供的資訊,可能會有跟想要執行的任務息息相關,但有欠缺而我們卻不知道。
因此我們會需要AI針對我們的起手語,以及我們所設定給他的角色以及目標,綜合考量之下先全盤性審查是否應該還有提問者應該要提供的資訊。
AI的起手語前提確認
為了避免這個問題,這個流程中,我們讓AI主動協助提問者確認是否還有欠缺的資訊,並且要求提問者加以補充資訊以後,再往下進行後續的程序。
提問者可以在提供完起手語以後,將以下我們設計的這一段內容貼入AI的對話框中,便可以要求AI根據你的起手語內容、角色設定與目標等等,幫你審查一下是否有欠缺的必要資訊。
請你先看我這段起手語,想像自己要用裡面的角色和目標來幫我做事。幫我判斷:有沒有什麼『一定要補充』的資訊,缺了就會很難開始?請盡量精簡,通常不超過三點,除非真的有更多不可或缺的。其他不是那麼重要的,就放在『之後再補』。如果角色或目標本身不清楚,請先幫我確認這兩個我是否有要再說更多的內容。如果你覺得已經夠了,就直接告訴我『可以進入後續階段』。先不要開始執行起手語的任務,請先幫我做這個確認的過程。
這一段文字提示的設計概念在於,讓AI基於原本起手語內的資訊通盤考慮以後,在執行任務以前先判斷提問者是否應該要補足什麼必要資訊,才可以開始整個流程。
另外,避免一開始AI就找了太多必要資訊造成提問者的混亂,因此我們這邊設計的是「三點」內容,如果你會很擔心遺漏很多事情的話,也可以讓他多輸出幾點,這個部分提問者完全可以自己調控。
這邊我會建議,如果AI有找出一定要補充的內容,為了後續回答的品質,強烈建議一定要將資訊補完給AI,才能讓AI的回覆更貼合你的需求。
而如果屬於「之後再補」的內容,就表示這個資訊不是這麼不可或缺,有的話可以讓最後的結果會更貼合,但這個部分是屬於可以在後續對話慢慢補充的內容。
此外,任務中希望AI扮演的角色與提問者的目標,是一個攸關後續結果品質的重要內容,因此做為整個前提確認的時候,特別拉出來一定要AI優先確認的事情。
補充資訊的輸入與再確認
當執行了前面的文字提示以後,AI會提供你一定要補充的資訊、之後可以再補充的資訊以及可能需要補充關於角色以及目標的資訊。
請記得,這個時候我們都還沒有開始任務的執行,只是在協助提問者釐清自己的目標與提供的資訊是否完善而已。
附帶一提,提問者補充資訊的時候,並沒有特別的格式,可以直接平鋪直敘的回答AI提出的問題的答案就可以了。
而因為輸入的答案仍然還需要仰賴AI再確認一次,因此提問者在都已經確認補充內容以後,可以在補充內容的底下貼上以下的文字,就可以驅動AI再幫你確認一次起手語跟補充內容是否充足。
請用剛剛的前提確認方式,再幫我綜合檢查一次起手語跟我後來補充的內容,是否還有一定要補充的資訊。
因為提問者可能會在資訊補充的過程中,讓自己本來的問題逐漸清晰,有時候可能會直接不需要仰賴AI協助解決問題(那就真的太好了呢!)。
因此我們在這邊沒有限制提問者補充資訊的次數,提問者可以多次使用上面的那一段文字,讓AI協助確認是不是應該還有更多的資訊需要補充。
但請務必注意一件事情,前面我們也有提過,AI很可能在多輪對話過後可能會開始有失憶跟遺忘的現象,因此會強烈建議這邊的資訊補充盡量在「2-3輪內完成」。
如果真的有沒有補充完的,可以等到後面一邊對話的時候再一邊補充,都還是有機會的。
而當如果要補充的資訊都已經補充完了,或是還沒有補充完但是沒有打算要繼續補充想先繼續對話,可以在最後一次補充資訊輸入完以後,再底下貼入下面的這段話,就可以告訴AI已經完成補充內容。
我的補充資訊已經完成,請先不要開始執行任務,也不要回覆任何內容,等我貼完後續指令再開始。
素材與參考範例的匯入
如果你的任務心中已經有一個想要的參考範例(後續我們稱為參考資料),以及希望AI的思考是基於特定的素材作為範圍(我們稱之為思考素材),基於前面研究的建議,我們在這裡設計一個流程讓你可以提供這些素材內容。
這個部分不是必須,提問者可以依照自己的需求是不是有參考範例,或是希望AI基於某些素材思考的情況,選擇是否需要提供。
但如果你心裡已經有一定程度的想法,以及特別偏好的風格等等,基於前面的研究結論,我會強烈建議一定要提供,AI輸出的結果會更符合你想要的樣子。
你可以看你慣用的AI工具可以接受什麼樣的形式,我自己大多數都是以撰寫文章或是寫程式為主,因此多數都是文字的形式。
我也會有提供圖片,並且說明風格,總之是看提問者自己的形式來決定怎麼提供。
那我們應該要如何開啟這個補充資料的流程呢?首先,你必須要先思考的事情是,這個資料於你而言是,希望AI參考的風格(最後的輸出會是「跟這個很像」),還是希望AI基於這個素材為基底去思考(最後的輸出會是「在這個範圍內」)。
如果你是希望AI基於這些素材去思考,那麼請先貼以下的文字提示。
接下來我會貼一些內容,這些是你在後續思考時的素材,請以這個素材為基底。包含草稿、程式碼、筆記、資料段落等。請你先不要回覆,也不要分析,後續等我的指令再繼續。
但如果你是希望AI可以參考這些內容而不是作為思考範圍限制,那請貼以下的文字提示。
接下來我會貼一些內容,這些是你在後續可以參考的風格或語氣。包含文章段落、語氣偏好、格式範例等。請你先不要回覆,也不要分析,後續等我的指令再繼續。
如果提供的資料文字量超過了AI對話框的限制,可以告訴AI現在提供的資料只是一部分,後面還會繼續提供,就可以無止盡的一直貼資料。
然後因為我們有一句「後續等我的指令再繼續」,所以只要在還沒有其他的後續指令以前,都可以一直貼參考範例跟思考資料,這個也是我們設計這個流程方便的地方。
而一旦確認思考素材或是參考資料都已經提供完畢以後,可能也會有疏漏的地方,或者是「如果有提供會更好」的狀況,因此我們設計了一個可以讓AI基於起手語和補充資料的設定,對於些資料自我檢查的一段文字提示。
提問者在貼完資料以後,可以將下面這一段話也貼給AI,一方面當作讓AI知道資料已經貼完了,另一方面是讓AI開啟這個自我檢查的過程。
我已經貼完參考資料與思考素材,請你基於幫我完成起手語的任務的角色設定,以及我前面提供的起手語與補充資料的內容,幫我判斷:這份參考資料裡有哪些部分,是我需要進一步提供與說明的?請你不要直接模仿或展開任務,而是先幫我釐清參考的用途與邊界,等我定義完再開始後續思考。
而在進一步回答完AI檢測提出的問題以後,可以貼上以下的內容,告訴AI已經補充完畢,可以進入到下一個階段了。
我的參考資料與思考素材已經提供完成,請先不要開始執行任務,也不要回覆任何內容,等我提供後續指令再開始。
如果你會有點擔心這樣的補充是否不夠,希望AI可以幫你再次檢查跟確認的話,也可以使用以下的文字提示讓AI再行確認。
請用剛剛的參考資料與思考素材確認方式,再幫我綜合檢查一次我的參考資料與思考素材,是否還有一定要補充或說明的資訊。如果沒有的話,請告訴我『可以進行下一階段』。
摘要整理與確認
在前面的研究文獻整理中我們會發現,許多的研究都有提到AI在多輪對話以後可能會有失憶的問題。
另外也有幾篇文獻中有提到,不論是人與AI的對話或是人與人之間的對話,都必須要形成「共同語境」,也就是說,必須要確保雙方都是在相同程度的理解上,才能達到有效率的對話。
因此在這個流程裡面,我們設計了摘要整理與確認這個階段,首先讓AI先將前面所提供的資料整理出來,讓提問的人可以審視確認雙方是不是在相同的認知理解(對於AI來說是限制、條件與資料)下進行後續的任務。
在前一個階段結束以後,提問者可以貼入以下的提示文字來達到這個效果。
接著請你根據我剛剛的起手語、補充資訊以及參考資料等,完整理解並整理成一份精簡的摘要。摘要需涵蓋所有要素,並挑出對執行任務最重要的資訊。不要開始執行任務,只停在摘要。並且在摘要最後加上一句簡短提醒:『請檢查是否有誤會或需要調整的地方』。
當執行了這一段文字提示以後,AI便會將前面所提供的起手語資訊、角色設定、目標、以及後續的補充資料等進行摘要整理。
摘要的內容不一定會完全正確,畢竟我們前面的過程一來一往可能也經過好幾輪的對話了,極端的情況下AI可能已經開始有產生部分的失憶問題。
因此這個摘要的流程與確認是絕對必要的。
這個時候提問者可以審視AI所整理的摘要,包含後續的角色設定、任務內容與目標、相關的參考資料等等是不是跟自己本來所提供的,和預期的是相同的。
我們也在文字提示中安排AI在整理完摘要以後,要提醒提問者確認內容。
提問者確認完以後如果發現有內容需要做修正,可以明確指出是哪一個地方需要做修正。
而且為了避免AI修正完以後只有輸出部分的內容,後續不好直接保存,因此要請AI全部重新輸出。
以下提供可以使用的文字提示架構,提問者有需要的話可以依照格式自行修改使用:
我想要修改:1.(修改內容) ;2.(修改內容2)...請依照我的指示調整完以後,將摘要整合全部重新輸出
如果你覺得這份摘要已經準確地整理了你的起手語、補充資訊與素材內容,建議你先將這份摘要手動保留下來,我自己會習慣另外開一個word檔案保留,避免要一直翻對話紀錄。
這樣如果後續對話過長導致AI忘記初衷,你可以貼回來讓AI回憶我們最一開始的所有內容。
保存完成以後,可以提供一段文字告訴AI,這些資訊雙方都已經對標沒有問題了,接下來就是要選擇對話的節奏。
對話的摘要以及相關資訊都確認完成,請先不要開始執行任務,也不要回覆任何內容,等我提供後續指令再開始。
對話主導權選擇
接下來的這個流程,就是決定你在這段與AI對話的關係中,你想要有多大程度的語氣主導權。
有人會傾向整個流程中都是由自己主導AI的對話節奏,針對不同的任務都有自己一套的對話節奏可以使用。
但也有人對於自己沒有把握,希望由AI帶領自己直到完成整個任務。
我們會建議,如果你不確定自己在使用AI上面是否有足夠的語氣主導權,可以參照我們系列文章的第一篇裡面的檢測,來看看自己是屬於哪一個類型的喔!
【AI x learning】 從不動腦到思考迴路:為什麼使用 AI 前你得先學會提問
當然你也可以先問自己幾個問題,來釐清你自己想要的是什麼樣的對話節奏:
Q1. 我現在有明確方向嗎?
Q2. 我希望自己主導,還是希望AI幫我規劃?
Q3. 我對這個任務的信心程度是高、中、低?
根據不同的回答,這篇文章提供了三種不同的對話節奏可以供選擇,可能的作法和相對應的文字提示應該如何使用。
由於篇幅較多的關係,因此我們會在下個小標題裡面談的更深入一些。
對話節奏定錨法中的對話節奏選擇
針對前面你對於自己的語氣狀態檢測,你可以曉得自己在與AI對話中語氣主導權的程度如何。但語氣主導權程度是有可能根據你在不同的任務、不同的情況下有所不同。
因此我們也建議你可以先問問自己,在對話中希望的節奏會是如何。
請記得,每個人都可以在與AI的對話中,找到屬於自己的節奏,這完全是可控、可預期的。
模糊型對話節奏
如果你在提問者類型分類中是屬於「語氣萌芽型」以及「語氣探索型」的提問者,或是對於這一次開啟的對話沒有明確的方向與信心,那就會推薦可以使用模糊型的對話節奏。
如果你現在感到有點混亂,不知道怎麼開始,這是很常見的狀態。你可以直接貼上這段文字提示,讓AI一步一步帶著你走。
我現在的狀態是還不太確定要怎麼開始,也不太知道該怎麼進行。請你根據我前面的起手語、補充資料與摘要內容,直接幫我規劃並開始進行。你可以一步一步帶我走,我會根據你的引導來回應。
當然,如果你在對話的過程中有其他的想法了,你也可以隨時中途調整方向,AI會配合你的節奏。
探索型對話節奏
要是你的提問者類型分類是屬於「語氣設計型」的提問者,或是對於這一次的AI對話中可能稍微有一點方向,但是不太肯定的話,我會推薦你可以走探索型的對話節奏。
因為這類型的提問者已經有一點點對話節奏的方向了,某種程度上來說只需要AI推波助瀾一下就可以。
也因此這類型的對話節奏的進行流程,會是由AI先提供一個大概的解決流程給提問者鳥瞰,確認這樣的流程沒有問題以後再往下開始進行。
探索型對話節奏的提問者,可以直接貼上這一段提示文字。
我現在的狀態是有一些方向,但還不確定怎麼展開。請你根據我前面的起手語、補充資料與摘要內容,幫我初步規劃一下後續的對話流程。你可以列出可能的進行方式、階段順序或互動節奏,讓我看看是否需要調整。等我確認流程沒問題後,我們再照著這個節奏開始進行。
提問者也可以將大概的方向與構想寫在上面的這段文字中,讓AI參考你的構想來進一步的規畫整個任務的流程。
提問者主導型對話節奏
如果你是屬於語氣創作者型的提問者,或是一開始對於這段與AI的對話節奏就有想法並且想要主導整個對話節奏的。
那我非常推薦你可以直接主導整個與AI對話的節奏,讓AI在你需要幫助的時候,成為24小時隨call隨到的助手與協作者。
而對於這樣的提問者,想必對於AI的使用已經有一套自己的節奏了,因此這篇文章想嘗試提供其他種不同的對話節奏,以及它們對應的使用時機,給主導型對話節奏的提問者參考。
快速疊代模式
在快速疊代的對話節奏中,AI的運作方式是先產出一個簡短但具代表性的初稿,並主動列出三個最需要改進的地方。
這個初稿不求完整,而是作為「可測試版本」讓提問者快速看到方向。
AI會等待提問者回饋後再進行更新,更新過後的版本提問者可以使用我們在下一篇文章提到的追問技巧,以及目標對齊的技巧重新對照原始摘要與任務初衷,確保不偏離原始目標。
這種互動方式可以讓提問者能在短時間內看到成果並進行微調,形成一種「做中學」的對話節奏。
這樣的與AI的互動模式之所以有效,是來自於敏捷開發(Agile Development)與精實創業(Lean Startup)的理論基礎。
Ries於2011年在《The Lean Startup》[15]一書中提出「最小可行產品」(MVP)概念。
主張產品製作應該要先推出簡化版本,透過真實提問者的回饋不斷修正方向,避免一開始投入過多資源在錯誤的假設上。該書強調「建造-測試-學習」的循環,並以 Dropbox、Intuit 等案例說明如何透過快速疊代提升產品品質與市場適應力。
而Beck等人於2001在《Agile Manifesto》[16]中則強調,快速交付與持續回饋是提升產品品質與使用者滿意度的關鍵,並提出「回應變化高於遵循計畫」的原則,支持在不確定性中持續調整。
快速疊代法特別適合在任務目標已明確、但細節尚未定案的情境下使用,像是寫作、設計、教學模組開發等。
只要提問者希望「先看到一個版本再進行調整」,這個模式就能發揮最大效益。
這個模式也非常適合時間有限、需要快速試錯的場景,讓提問者不必陷入「一開始就要完美」的壓力。
需要注意的事情是,如果整體任務的情況是較為複雜的,AI在這個模式下會選擇最有機會產出簡短版本結果的那個方向先前進,因此有可能在任務的整體佈局上未必會是最有利的。
在後續追問與目標對齊上,我會建議提問者必須要時常請AI回顧產出的結果與摘要和原本的目標的差距與貼合程度。
而且因為這個方式容易一開始的時候,AI就挑選相對來說好完成的任務而未必是最重要的任務,因此建議適度搭配其他的模式,可以避免見樹不見林的問題。
另外,需要額外小心的是,由於經常需要完整輸出產出的結果,可能多輪以後會容易發生AI失憶的情況,因此仰賴提問者經常地對齊初衷。
不過,透過這種「疊代+回顧」的策略,能有效維持語境穩定性與任務聚焦度。
如果你想要啟動這個模式的話,可以貼上以下這段文字提示。
請你先幫我做出一個簡短的版本,內容不需要完整,但要能讓我看出整體方向。完成後請列出三個你覺得最需要改進的地方,我會回饋後再請你更新。這樣我們可以一邊修、一邊前進。
我自己多數會是在真的很簡短且明確的任務時,會使用快速疊代模式,例如產出一封Email、職涯訪談的訪綱等等。
微任務分解模式
在微任務分解的對話節奏中,AI的運作方式會依照任務的複雜度,將整個任務拆解成數個小步驟,每個步驟都清楚標示要做什麼、會產出什麼、成功的標準是什麼。
這些步驟會以條列式的方式呈現,讓提問者可以一目了然地掌握任務架構。AI不會一次執行所有內容,而是等提問者確認分解後的架構,再從第一個子任務開始逐步推進。
這樣的設計之所以有效,來自於任務分析(Task Analysis)與認知負荷理論(Cognitive Load Theory)的研究基礎。
Sweller於1988年在研究[17]中指出,當任務太複雜、過大而未被適當拆解時,學習者容易因認知負荷過高而無法有效處理資訊。
該研究透過實驗比較「整體任務vs.分段任務」的學習表現,發現分段設計能顯著提升理解力與完成率。
同樣地,Annett於2003年則在《Hierarchical Task Analysis》[18]一書中提出層級任務分析法,強調將任務拆成可操作的子單元,並定義每一階段的輸入、輸出與成功條件以後,可以有助於提升執行效率與協作品質。
微任務分解法特別適合在任務太大、太複雜、容易卡住或分心的情境下使用,像是課程設計、研究規劃、專案管理等。只要任務有多個環節或需要逐步完成,這個模式就能提供清晰的導航。
因為他可以把任務明顯切割,所以它也非常適合多人協作的場景,讓每個人都能清楚知道自己負責哪一段、要達成什麼目標。
微任務分解法和我們在前面選擇模糊型、探索型以及提問者主導型的對話節奏選擇中的探索型看起來似乎有點相似。
但是在這邊的微型任務分解模式中,提問者並不是想要讓主導權有一部份或全部交給AI,而只是讓AI來協助做任務的拆解與區分。
拆分過後的子任務,提問者可以分別在搭配其他不同的模式或是直接交派給他人來完成。
因此微任務分解法更像是其他模式的前置模式。
但是前面的探索型節奏,比較像是在決定提問者跟AI在整個對話中的互動過程,要讓AI做一部份的節奏引導,兩者概念相似但是本質略有不同。
而在後續的追問與目標對齊上,由於這個方法會先以比較大的範圍去拆解任務,後續就會下到個別任務的處理,慢慢會開始變得瑣碎。
而個別的子任務如果又有一定程度的內容的話,很容易讓對話快速地變得很多輪,甚至到完成第一個子任務以後,AI可能就會忘記最一開始的任務分割狀況。
因此我會建議在最一開始與AI定案了任務的分割以及個別的內容以後,提問者可以將這個內容手動保留下來。
然後在每一個子任務開始執行時,透過像是前面提供思考資料的方式,讓AI回顧初中的設定,確保整體不會偏離任務的邏輯。
我自己使用上甚至會在不同的子任務分別開不同的新頁面,避免彼此互相影響,或是資訊過多輪AI容易失憶。
這個步驟AI的角色會比較像是純粹的任務執行者,而提問者或提問者則很像必須要時時回顧任務整體的專案管理人或專案經理的角色。
因此如果當AI開始有偏離的情況時,就必須要透過追問的技巧來讓AI重新對齊本來的任務。
如果你想啟動這個模式,可以貼上以下這段文字提示:
請你先幫我把這個任務拆成幾個小步驟,每個步驟都寫清楚要做什麼、會產出什麼、成功的標準是什麼。然後我們從第一步開始慢慢做。
我自己會在有很大型企畫的時候,就會使用這個模式,好比說在撰寫【AI x learning】這個系列的文章時,我的整個系列文章的主架構還有每一篇要講的內容是由一個頁面完成討論。
後來每一篇文章的細部內容,則是另外開頁面來分別處理的。如果有需要寫程式的就會利用快速疊代法。
決策分支模式
在決策分支模式的對話節奏中,AI的運作方式是先提出數種互不相同的做法,每一種都會附上優點、缺點與適用情境,讓提問者可以快速比較並選擇最符合需求的方案。
AI不會預設哪一種是最好的,而是以「並列選項」的方式呈現,讓提問者保有主導權。
而當提問者選定其中一種後,AI才會展開細節並進入執行階段。
這樣的設計之所以有效,來自於決策理論(Decision Theory)與多準則決策分析(Multi-Criteria Decision Making, MCDM)的研究基礎。
Keeney與Raiffa於1993年在《Decisions with Multiple Objectives》一書[19]中提出,當決策者面對多個目標時,必須明確定義偏好結構,並透過系統性比較做出最適選擇。
該書中以能源政策、醫療資源分配等案例說明如何在多目標下進行選擇,並強調「透明化選項」與「偏好排序」的重要性。
而Saaty於1980年則在《The Analytic Hierarchy Process》一書[20]中提出層級分析法(AHP),透過配對比較與權重分配,協助決策者在複雜情境中做出理性選擇。該方法目前仍然廣泛應用於企業策略、公共政策與教育設計領域。
決策分支模式特別適合在提問者有選擇困難、需要比較策略、風格或技術路線的情境下使用。
像是課程設計風格選擇、寫作語氣取向、專案執行方式等,只要提問者希望「先看選項再決定」,這個模式就能提供清晰的比較架構。它也非常適合在提問者不想自己全部想、但又希望保有選擇權的場景。
在後續的追問與目標對齊上,在AI開出了不同的方案以後,提問者可以先追問AI在考量特定的要素下,哪一個方案比較貼齊最後的目標。
如果你想啟動這個模式,可以在貼上以下這段文字提示:
請你幫我想三種不同的做法,每種都列出優點、缺點、適合什麼情況。然後我來選我要用哪一種。
我自己會使用決策分支模式的時機是在於,撰寫行銷文案的時候,會讓AI先提供三種不同的版本,之後再挑選一個覺得比較好的方向往下。
如果真的很難以抉擇的時候,我會針對不同的方案向AI提出數個指標以及對應指標的權重,然後由我跟AI分別針對不同指標評分以後,依據權重選出最佳的方案。
雖然看起來麻煩,但是量化選項,有時候反而會看得更清楚一點。
蘇格拉底釐清模式
在蘇格拉底釐清模式的對話節奏中,AI的運作方式是先暫緩任務的執行,改以提問為主,先幫助提問者釐清自己的目標、限制與價值觀。
AI會提出數個釐清性問題,涵蓋動機、預期成果、可能的障礙與優先順序等面向。
提問者可以逐一回答,也可以跳過不想回答的問題。當提問者回答完畢後,AI會將這些回答整理成一份「釐清摘要」,作為後續任務的語境錨點。
在任務進行過程中,AI會持續對照這份摘要,確保回應不偏離提問者的初衷與限制。
你會發現,這種提問邏輯與「前提確認」有些相似。
但這兩個用途不同,前提確認是由AI主動判斷提問者是否缺少必要資料;而蘇格拉底釐清則是由AI透過提問,幫助提問者自己釐清目標或限制。前者偏向任務執行的準備檢查,後者則是思考方向的探索輔助。
蘇格拉底釐清模式之所以有效,來自於蘇格拉底式提問(Socratic Questioning)與批判性思考教學(Critical Thinking Pedagogy)的理論基礎。
Paul與Elder於2006年在《The Thinker's Guide to The Art of Socratic Questioning》[21]一書中指出,有效的提問能幫助思考者釐清假設、辨識盲點、強化邏輯結構。該書提供了多種提問類型,包括澄清問題、假設檢查、觀點比較等,並強調提問的順序與語氣會影響思考深度。
Lipman則於2003年在《Thinking in Education》[22]一書中提出「探究社群」的概念,主張教育應以思考為核心,透過對話與提問促進價值釐清與自我理解。該書以兒童哲學課程為例,說明如何透過提問建立共同語境與批判能力。
蘇格拉底釐清模式特別適合在提問者不確定自己要什麼、有情緒卡住或價值衝突的情境下使用。像是生涯規劃、創作方向選擇、教育設計初期等。
和決策分支模式不同的是,在決策分支模式下提問者對於自己的喜好或傾向有明確的想法,只是不確定不同的做法和自己的喜好與傾向的關聯性。
只要提問者感到模糊或猶豫,這個模式就能提供思考空間與語境穩定性。它也非常適合在任務尚未定義清楚、需要先釐清再開始的場景。
在後續的追問與目標對齊上,在反覆多次的提問與回答以後,對於問題會慢慢釐清它的樣貌,但也可能因為多次的問答而造成偏題,因此會特別建議提問者可以適時的請AI整理討論的摘要內容,確保不偏離初衷。
若提問者的需求或方向有所變動,也要透過追問的方式適時調整AI對話的方向。
如果你想啟動這個模式,可以貼上以下這段文字提示:
我現在有點模糊,請你先問我幾個問題,幫我釐清我到底想做什麼、有哪些限制。問完我再回覆,我們再繼續。
範例驅動精化模式
在範例驅動精化模式的對話節奏中,AI的運作方式是根據提問者在前面素材提供階段中所提供的範例與素材,自動進行風格比對與改寫。
提問者不需要重貼範例,因為我們前面已經有匯入過參考資料了,所以可以直接引用前面的資料來當作範例或是思考素材。
改寫時,AI會清楚標註「保留了哪些元素」、「調整了哪些地方」,並說明這些選擇的理由。這樣的互動方式讓提問者能夠理解改寫邏輯,也能快速判斷是否符合預期風格。
若提問者覺得不夠像,可以要求AI會再進行比對與微調,直到達到預期的語氣與邏輯。
範例驅動精化模式的概念是來自於案例式推理(Case-Based Reasoning)與類比轉移(Analogical Transfer)的理論基礎。
Kolodner於1993年在《Case-Based Reasoning》[23]一書中指出,當系統能夠記憶並比對過去的案例,就能在新情境中進行有邏輯的調整與應用。
該書以醫療診斷、法律判例等領域為例,說明如何透過案例比對提升推理品質與回應一致性。
另外,Gentner在1983年進行的研究與討論[24]提出,類比不是表面模仿,而是基於結構關係的轉移。該研究透過心理實驗,證明人類在進行類比時會優先比對深層邏輯結構而非表面特徵。
這個模式特別適合在提問者已經有明確風格偏好,並且在素材提供階段就已經提供過範例的情境下使用。像是寫作、簡報、教學設計、品牌文案等。
只要提問者希望AI自動比對並套用風格,不必重複操作,這個模式就能發揮最大效益。
它也非常適合在提問者希望「模仿+微調」的場景,讓輸出既有一致性又具個人化。
在後續的追問與目標對齊上,可以反覆透過追問的技巧來比對以及微調AI的風格,提問者可以每一次都要求AI要說明這一次的調整方向與內容,提問者就能夠理解並參與風格塑造。
如果你想啟動這個模式,可以貼上以下這段文字提示:
請你參考我之前提供給你的範例與參考資料,幫我改寫下面的內容,風格要跟範例接近。也請你說明哪些地方你有保留、哪些地方你有調整。
如果不是希望參考風格,而是希望直接就前面輸入的資料去做改寫的話,那可以貼上以下這段文字的提示:
請以前面匯入的資料為基底來思考調整。
我自己在寫部落格文章的系列作時,都會提供AI我前面幾篇文章的內容,確保後續的討論文章的語氣風格一致。
有時候在產生系列作文章的社群貼文以及圖片的時候,也會匯入前面幾次的貼文和圖片風格,讓AI配合這一次的部落格文章產生相類似風格的圖文。
而如果是基於某些資料來做思考的時機,我自己會在code寫完以後讓AI幫我做code review,可以節省非常多自己debug的時間。
我非常推薦這個範例驅動精化模式喔!
限制導向分級模式
在限制導向分級模式的對話節奏中,AI的運作方式是根據提問者所提供的限制條件(例如時間、字數、資源等),先列出所有可能可以執行的項目,再根據影響力、可行性與資源消耗進行排序。
排序完成後,AI會提出一個精簡但有效的執行方案,讓提問者在有限條件下仍能達成最重要的目標。這個模式的互動方式是:提問者先說明限制,AI則主動進行「任務分級」,讓提問者可以明確知道要怎麼樣在有限的資源下完成任務。
若提問者有新的限制或想調整排序,AI會即時重新分級並更新方案。
前提確認與限制導向分級模式的差異在於,起手語與前提確認是在蒐集所有執行任務的時候的限制條件,這比較像是任務的大框架,這樣的條件會進入AI的記憶庫中以後,後續如果提問者開啟了限制導向分級模式,AI會根據提問者額外強調的限制來進行任務排序。
這樣的設計之所以有效,來自於限制滿足理論(Constraint Satisfaction)與資源分配模型(Resource Allocation)的研究基礎。
Tsang於1993年的研究[25]中系統整理了限制滿足問題的定義、演算法與應用,並指出在資源有限的情境下,透過限制條件進行任務篩選與優化,是提升效率與穩定性的關鍵。
限制導向分級法相當適合在提問者資源有限(時間、字數、預算等),但仍希望做出最有效選擇的情境下使用,像是簡報設計、教學規劃、專案任務分配等。
只要提問者有明確的限制條件,這個模式就能協助AI進行任務篩選與優先排序。它也非常適合在提問者感到「什麼都想做但時間不夠」的場景,幫助聚焦並做出取捨。
限制導向分級模式會經常搭配其他的模式使用,由AI排序出了任務的優先順序以後,提問者可以針對個別的任務切換成其他的模式來分別執行。
因此在追問時提問者會比較需要注意的部分是,確保AI安排的順序,的確有利於提問者可以在有限的資源做最大化的任務執行。
如果你想啟動這個模式,可以貼上以下這段文字提示:
我現在有一限制(例如:只能寫500字/只能花2小時),請你幫我列出可以做的事情,然後排優先順序,最後給我一個精簡的執行計畫。
我自己比較少有這種時間很緊迫的情況下,必須要完成任務的情形,所以這個模式幾乎不太有用到。
小結
當你發現你不只是會在對話的一開始就清楚如何設定角色、目標與限制,並且完整闡述背景。
你也能曉得針對自己喜歡的風格和想要AI思考的素材,提供特定的資料,並且在真正開始進行任務的提問以前確認AI的理解,與是否和自己有達成共識。
同時也能夠在對話的過程中靈活切換節奏,不管是需要快速產生結果,或是需要深度釐清,甚至是需要不同的選項來加以選擇,你都有辦法可以讓AI配合你想要的對話節奏。
在你主導的語言對話下,對話像是一場有節奏的舞蹈:既不拖沓,也不倉促,最終穩穩走到目標。
下次和AI對話時,不要急著要答案,先想想:我要用什麼節奏來走這段路。
你的節奏,從來就不只是語言的表面,而是你思考的底層設定。
當然,真正的關鍵,絕對不是只有在開始執行任務的第一句,而是包含每一次AI回覆後,你是否願意停下來檢核對話的品質,並且透過追問來推進對話內容。
透過對話品質的檢核,除了可以確保對話的品質以外,也能有效推進對話,讓追問成為前往目標的力量。
下一章,我們將帶你學會如何檢驗對話品質以及設計追問,讓對話不只是延續,而是持續升級。
參考文獻
[1] Lin, J., Tomlin, N., Andreas, J., & Eisner, J. (2024). Decision-oriented dialogue for human-AI collaboration. Transactions of the Association for Computational Linguistics, 12, 892–911. https://doi.org/10.1162/tacl_a_00679
[2] Clark, H. H., & Brennan, S. E. (1991). Grounding in communication. In L. B. Resnick, J. M. Levine, & S. D. Teasley (Eds.), Perspectives on socially shared cognition (pp. 127–149). American Psychological Association.
[3] Zhou, W., Zhang, S., Poon, H., & Chen, M. (2023). Context-faithful prompting for large language models. Findings of EMNLP 2023, 14544–14556. https://doi.org/10.18653/v1/2023.findings-emnlp.968
[4] Lin, Z. (2023). Ten simple rules for crafting effective prompts for large language models. ResearchGate. https://www.researchgate.net/publication/371123456_Ten_Simple_Rules_for_Crafting_Effective_Prompts_for_Large_Language_Models
[5] Maharana, A., et al. (2024). Evaluating very long-term conversational memory of LLM agents. arXiv preprint arXiv:2402.17753.
[6] UC Berkeley AI Research. (2024). LLM4LLM: Longer-lasting memory for LLMs. arXiv preprint.
[7] Fu, C., & Du, Y. (2025). First Ask Then Answer: A Framework Design for AI Dialogue Based on Supplementary Questioning with Large Language Models. arXiv preprint arXiv:2508.08308.
[8] Jia, J., Komma, A., Leffel, T., Peng, X., Nagesh, A., Soliman, T., Galstyan, A., & Kumar, A. (2024). Leveraging LLMs for Dialogue Quality Measurement. Proceedings of NAACL 2024 (Industry Track), 359–367. https://doi.org/10.18653/v1/2024.naacl-industry.30
[9] Li, X., Han, G., Fang, B., & He, J. (2025). Advancing the In-Class Dialogic Quality: Developing an Artificial Intelligence-Supported Framework for Classroom Dialogue Analysis. The Asia-Pacific Education Researcher, 34, 495–509. https://link.springer.com/article/10.1007/s40299-024-00872-z
[10] Ryan, R. M., & Deci, E. L. (2000). Self-determination theory and the facilitation of intrinsic motivation, social development, and well-being. American Psychologist, 55(1), 68–78.https://doi.org/10.1037/0003-066X.55.1.68
[11] Wigfield, A., Tonks, S., & Klauda, S. L. (2009). Expectancy-value theory. In K. R. Wentzel & A. Wigfield (Eds.), Handbook of motivation at school (pp. 55–75). Routledge. https://doi.org/10.4324/9780203879498
[12] Torkestani, M. S., Alameer, A., Palaiahnakote, S., & Manosuri, T. (2025). Inclusive prompt engineering for large language models: A modular framework for ethical, structured, and adaptive AI. Artificial Intelligence Review, 58, Article 348. https://doi.org/10.1007/s10462-025-11330-7
[13] Abe, K., Quan, C., Cao, S., & Luo, Z. (2025). Subjective Evaluation of Generative AI-Driven Dialogues in Paired Dyadic and Topic-Sharing Triadic Interaction Structures. Applied Sciences, 15(9), 5092. https://doi.org/10.3390/app15095092
[14] Campanula, D. (2025). Structured Dialogue: A Framework for Collaborative Thinking with Generative AI. GitHub Repository. https://github.com/dvcampanula/structured-dialogue
[15] Ries, E. (2011). *The Lean Startup: How Today's Entrepreneurs Use Continuous Innovation to Create Radically Successful Businesses*. Crown Publishing.
[16] Beck, K., Beedle, M., van Bennekum, A., Cockburn, A., Cunningham, W., Fowler, M., ... & Thomas, D. (2001). *Manifesto for Agile Software Development*. Retrieved from [https://agilemanifesto.org](https://agilemanifesto.org/)
[17] Sweller, J. (1988). Cognitive Load During Problem Solving: Effects on Learning. Cognitive Science, 12(2), 257–285.
[18] Annett, J. (2003). Hierarchical Task Analysis. CRC Press.
[19] Keeney, R. L., & Raiffa, H. (1993). Decisions with Multiple Objectives: Preferences and Value Tradeoffs. Cambridge University Press.
[20] Saaty, T. L. (1980). The Analytic Hierarchy Process: Planning, Priority Setting, Resource Allocation. McGraw-Hill.
[21] Paul, R., & Elder, L. (2006). The Thinker's Guide to The Art of Socratic Questioning. Foundation for Critical Thinking.
[22] Lipman, M. (2003). Thinking in Education (2nd ed.). Cambridge University Press.
[23] Kolodner, J. L. (1993). Case-based reasoning. Morgan Kaufmann.
[24] Gentner, D. (1983). Structure-mapping: A theoretical framework for analogy. Cognitive Science, 7(2), 155–170. https://doi.org/10.1016/S0364-0213(83)80009-3
[25] Tsang, E. (1993). *Foundations of Constraint Satisfaction*. Academic Press.



















