我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。
回顧目前手上有的素材:
到目前為止,可以來進行 RAG 測試了:
input_text = "What are the impacts of climate change?"
if "climate" in input_text.lower():
document_excerpt = "Climate change refers to significant changes in global temperatures and weather patterns over time."
if "RAG" in input_text.lower():
document_excerpt = "OpenAI documentation states that RAG or retrieval augmented generation can tell the model about relevant documents."
summaries = fetch_and_summarize(input_text)
iresponse = openai_chat(input_text, document_excerpt, web_article_summary)
formatted_response = iresponse.replace('\n', '')
display(widgets.HTML(value = formatted_response))
結果為:
我們可以看到,RAG 是一種提高生成式 AI 模型品質的好方法,還可以透過引導增強輸入請求來控制輸出。