對 AI 的粗淺認識與個人見解
前陣子在 Coursera 上完成了 Google AI Essential 這門課,相比先前在 Google Skill Shop 沒上完的 AI 課程,這是一門更加容易上手的基本入門課(aka 比初階更初階的基礎介紹),對 AI 的技術說明比例較低,較多圍繞在 AI 限制與帶來的影響、Prompt Engineering 這些主題。上課筆記被我整理在 Garden 裡,而這篇文章主要是連結了近期看到的文章們,紀錄下一些個人想法。
免責聲明(?):上課筆記可能有理解錯誤或敘述不清,個人見解部分則是我腦洞大開,都歡迎利用網站右下角的回饋或是來信網站底端附上的信箱討論。
對 AI 的粗淺認識
避免文章過長,比較詳細的技術名詞筆記都在 Garden,建議對技術名詞解釋的人有興趣再點擊文內連結去看。
LLM 是 AI 的一個子集合
近年迅速竄起的 AI 產業風潮,精確來說是由使用大型語言模型(Large language model, LLM)技術的工具所引領,而 LLM 是人工智慧(Artificial Intelligence, AI)的一個子集。
重點整理
為了區分什麼是 LLM,實在是需要了解非常多專有名詞,可以點擊標題去參考 Garden 的筆記,簡化後的兩點關鍵:
-
AI 是指能模擬人類智慧完成做決策或解決問題等複雜情境的電腦程式
-
LLM 是 GAI 的一個子集,特別強調在文字生成與語言理解上的能力
AI 的先天限制
即使 AI 的發展越來越進步,它依然面臨一些先天性的限制,讓它在實際應用中可能產生誤差或不準確的情況。
無論是將它應用於不同產品上的開發端,還是使用應用相關技術工具的用戶端,瞭解他的限制並培養辨認 AI 提供的哪些內容是真實有效都是必要的。
重點整理
-
知識截止點來自 AI 無法獲取最新資訊,是知識的靜態限制
- 飄移是知識逐漸脫節的動態影響,使 AI 回應的知識不符合現況
- 幻覺是知識截止點和飄移造成的結果之一,當 AI 無法提供真實答案時,可能為了填補空缺而編造出錯誤的回應
-
偏誤和幻覺都可能來自 AI 訓練數據的品質問題
- 當數據本身存在偏見或錯誤,AI 就可能在回答中反映這些偏見
- 偏見可能導致幻覺中的不 公平表現,讓 AI 編造出有偏向的答案
和 LLM 合作更順暢的 Prompting 技巧
在使用 LLM 時,提示語(Prompt)的撰寫方式會直接影響 AI 回應的品質,因此初步理解提示工程(Prompt engineering)這門用來設計與撰寫指令的技術,能夠幫助自己引導 AI 提供更有用、清晰、並且符合需求的結果。
重點整理
- 給予脈絡,告訴 AI 情境和回答的角色
- 使用動詞,明確指出要 AI 執行的事項
- 適度給予範例或請 AI 逐步解釋問題
- 持續參與和 AI 的對話,運用人類的判斷和審核,引導出合理的結果