A. 生成式 AI 基礎與架構
LLM/Transformer/Encoder-Decoder/GAN/VAE/Diffusion/CLIP
🔥生成式 AI 基本概念與核心技術
Generative AI Fundamentals
★★★★★
生成式 AI(Generative AI):學習資料分布並生成新內容(文字/圖像/音訊/影片)。核心技術:大型語言模型(LLM)、生成對抗網路(GAN)、擴散模型(Diffusion)、變分自編碼器(VAE)。與鑑別式 AI 的根本差異:生成 vs 分類。
📌 出處:115 S2#23、114 S2#6、114 S2#22、114 S2#25、114 S2#27
對應能力:K09
🔥鑑別式 AI vs 生成式 AI
Discriminative vs Generative AI
★★★★★
鑑別式:學決策邊界 P(y|x)、做分類/預測(如 SVM、邏輯迴歸、CNN 分類器)。生成式:學資料分布 P(x)、生成新樣本(如 GPT、GAN、VAE、Diffusion)。題目常考兩者「典型任務」對應,注意不要顛倒。
📌 出處:115 S2#5、115 S2#20、115 S2#23、115 S2#35、114 S2#6、114 S2#22、114 S2#25、114 S2#26…等 10 題
對應能力:K09
🔥大型語言模型(LLM)基礎
Large Language Model (LLM)
★★★★★
LLM 基於 Transformer 架構,透過大規模文本預訓練。代表:GPT 系(Decoder-only,自迴歸生成)、BERT(Encoder-only)、T5(Encoder-Decoder)。本質是 next-token prediction,**不保證輸出正確性**(會幻覺)。
📌 出處:115 S2#12、115 S2#33、115 S2#37、114 S2#7、114 S2#17、114 S2#43、114 S2#44、114 S2#45
對應能力:K09
⭐Transformer 與自注意力機制
Transformer & Self-Attention
★★★★★
Transformer 用 Self-Attention 機制讓每位置直接關注序列任意位置(O(1) 路徑),克服 RNN 長距依賴問題。Multi-head Attention 從多個子空間並行學習多樣關聯。是 GPT、BERT、Stable Diffusion 等的基礎。
📌 出處:115 S2#5、115 S2#35
對應能力:K09
Encoder-Decoder vs Decoder-only
Encoder-Decoder vs Decoder-only
★★★★☆
Encoder-Decoder(如 T5、BART):先編碼理解輸入、再解碼生成輸出(適翻譯/摘要)。Decoder-only(如 GPT 系):單一模型同時處理上下文與生成,next-token 自迴歸(適對話/長文續寫)。
📌 出處:115 S2#35
對應能力:K09
生成模型三大家族(GAN/VAE/Diffusion)
GAN / VAE / Diffusion
★★★★★
GAN:生成器 vs 判別器對抗訓練,品質高但易模式崩潰(WGAN 改善)。VAE:顯式潛在變數,可解釋但生成模糊。Diffusion:條件去噪反推,當前最強,DDIM/LCM 加速採樣。
對應能力:K05, K09
⭐CLIP 與多模態(Multimodal)
CLIP & Multimodal
★★★★☆
CLIP 用對比學習把(image, text)對齊到共同嵌入空間,可零樣本分類、文圖檢索。Stable Diffusion 用 CLIP 做文字→影像條件。多模態任務按輸入→輸出分類:T2I/T2A/I2T/Speech-to-Image 等。
📌 出處:115 S2#20、114 S2#25
對應能力:K09
B. No-Code / Low-Code
NCLC 平台、優勢限制、治理、AutoML、與 GenAI 整合
🔥No-Code / Low-Code 平台定義與比較
No-Code vs Low-Code
★★★★★
No-Code:無需程式碼,純視覺化拖拉(如 Bubble、Microsoft Power Apps)。Low-Code:少量程式碼+視覺化,需基本程式概念(如 Mendix、OutSystems)。題目看「IT 人力少 + 需客製」→ Low-Code;「完全不寫程式」→ No-Code。
📌 出處:115 S2#3、115 S2#7、115 S2#11、115 S2#29、115 S2#32、115 S2#33、115 S2#34、114 S2#1…等 10 題
對應能力:L12101
公民開發者(Citizen Developer)
Citizen Developer
★★★☆☆
公民開發者=非專業開發人員(業務人員、分析師),透過 NCLC 平台建立應用。降低 IT 門檻、加速數位化,但需配套治理(避免 shadow IT)。
對應能力:L12101
No-Code/Low-Code 優勢
NCLC Advantages
★★★★☆
優勢:加速開發速度(視覺化拖拉)、降低成本、降低 IT 技術門檻、促進跨部門協作、易於原型驗證(PoC)、內建安全與權限機制(多數平台支援 RBAC)。
對應能力:L12102
No-Code/Low-Code 限制
NCLC Limitations
★★★★☆
限制:高度客製化困難、平台鎖定(Vendor Lock-in)、效能瓶頸、複雜業務邏輯難實現、整合舊系統有挑戰、進階特徵工程仍需 Code。題目看「需精細控制/演算法細節」→ 不適合 NCLC。
對應能力:L12102
⭐No-Code/Low-Code 治理與風險
NCLC Governance
★★★★★
缺乏治理會出現:重複系統、資料欄位不一、未審核上線、權限混亂。對策:建立統一開發/上線管理機制、版本控管、變更管理、合規審查。題目看「半年後重複系統+混亂」→ 缺統一治理。
📌 出處:115 S2#7、115 S2#34、115 S2#49、114 S2#3
對應能力:L12102
No-Code/Low-Code 結合生成式 AI
NCLC + GenAI Integration
★★★★★
整合策略:在 NCLC 平台中導入 LLM API 做自然語言判讀/自動分類;自動建立介面模板+用戶數據驅動個人化;生成行銷推播。可大幅縮短應用開發週期。
📌 出處:114 S2#6
對應能力:L12102, S10
自動化機器學習(AutoML)
AutoML
★★★★☆
AutoML 自動完成資料前處理、特徵工程、演算法選擇、超參搜尋、模型評估。適用:缺資料科學家、需快速比較多模型、業務驅動。**不適用**:高客製化、需精細控制每步。
📌 出處:115 S2#11
對應能力:K05, S04
C. 生成式 AI 應用領域與工具
ChatGPT/Copilot/Vibe Coding/n8n/GPT-Realtime
⭐常見生成式 AI 工具與基本操作
Common GenAI Tools
★★★★★
ChatGPT(OpenAI)、Claude(Anthropic)、Gemini(Google):通用對話/推理。Midjourney/Stable Diffusion/DALL-E:文生圖。GitHub Copilot:程式碼輔助。Sora/Veo:文生影片。
📌 出處:114 S2#22、114 S2#25、114 S2#27
對應能力:L12201, L12202, S10
⭐AI 程式碼輔助工具運作原理
AI Coding Assistants (Copilot/ChatGPT)
★★★★☆
ChatGPT、Copilot、Claude 都基於 LLM,本質 next-token prediction,不執行也不編譯,**不保證程式碼正確性**。需 review/test/靜態分析才能上線。Copilot 由 OpenAI Codex 提供技術支援。
📌 出處:115 S2#18、114 S2#13
對應能力:L12201
Vibe Coding 與品質管理
Vibe Coding
★★★★☆
Vibe Coding:用自然語言「感覺」描述需求讓 AI 寫程式。MVP 場景能快速產出,但仍需 code review、重構、SAST/DAST 安全測試才能上 production。
📌 出處:115 S2#19
對應能力:L12201
工作流程自動化(n8n)
n8n Workflow Automation
★★★★☆
n8n:開源工作流自動化平台,視覺化拖拉+海量 connector(API/Slack/Email/檔案系統)。適用:整合多系統、需彈性、開發人力有限。題目看「整合 + 彈性 + 快速」即 n8n。
📌 出處:115 S2#27
對應能力:L12201, S10
即時互動模型(GPT-Realtime)
GPT-Realtime / Real-time AI
★★★☆☆
GPT-Realtime:低延遲、語音 in/out、串流輸出。適合即時語音客服、互動式 AI 代理。批次任務/結構化檢索/法規摘要不需 realtime。
📌 出處:115 S2#20
對應能力:L12201
⭐生成式 AI 各領域應用
GenAI Industry Applications
★★★★☆
行銷/文案、客服自動回覆、程式碼生成、內容創作(圖/影)、數據增強、教育、醫療輔助、金融分析。常見題型:「給定情境 → 選最合適的工具/技術組合」。
📌 出處:114 S2#27、114 S2#29
對應能力:L12201, S02, S10
D. Prompt Engineering
CoT/ToT/Few-shot/Zero-shot/Graph Prompting/Context Engineering
🔥Prompt Engineering 概念
Prompt Engineering
★★★★★
Prompt Engineering:設計/優化輸入提示以引導 LLM 生成期望輸出。良好的提示可顯著提升生成品質、相關性、一致性。包含:清晰指令、角色設定、範例(Few-shot)、結構化輸出(JSON/Markdown)。
📌 出處:115 S2#9、115 S2#14、115 S2#36、115 S2#37、115 S2#45、114 S2#4、114 S2#5、114 S2#9…等 14 題
對應能力:L12202, S10
🔥Zero-shot / Few-shot Prompting
Zero-shot / Few-shot Prompting
★★★★★
Zero-shot:直接指令、不給範例(適簡單通用任務,如情感分析)。Few-shot:在 prompt 給 1-N 個示範(適新領域、結構化抽取、特定格式輸出)。Few-shot 範例不夠時遇到 Domain Shift 會失效。
📌 出處:115 S2#9、115 S2#30、114 S2#23、114 S2#28、114 S2#41
對應能力:L12202
⭐Chain-of-Thought(CoT)思維鏈
Chain-of-Thought (CoT)
★★★★★
CoT:要求模型「逐步說明判斷依據與推理過程」,最後再給結論。提升邏輯性、推理透明度。經典寫法:「Let's think step by step」。適合需推理的任務(數學、客服分析、合約解讀)。
📌 出處:115 S2#45、114 S2#39
對應能力:L12202
Tree of Thoughts(ToT)思維樹
Tree of Thoughts (ToT)
★★★★☆
ToT:探索多條推理路徑,比較不同方案再決策。適合多方案比較(如「跨部門行銷活動規劃,需同時考量預算/場地/人力」)。CoT 線性、ToT 多分支。
📌 出處:114 S2#39
對應能力:L12202
Graph Prompting 圖提示
Graph Prompting
★★★★☆
Graph Prompting:用圖(節點+邊)結構化呈現條件與關聯。適合多條件相互影響(如「庫存/促銷/區域差異/物流彼此相關」)。CoT 線性表達不擅,Graph 能完整捕捉非線性網絡關係。
📌 出處:114 S2#40
對應能力:L12202
⭐Context Engineering 上下文工程
Context Engineering
★★★★☆
Context Engineering:設計、編排、管理塞給 LLM 的 context(系統提示、檢索文件、歷史、工具結果)。給 LLM 表格資料先轉 JSON/Markdown table,比原始 Excel 字串更穩。
📌 出處:115 S2#14、114 S2#9
對應能力:L12202
風格與角色控制(Persona / Style)
Persona & Style Control
★★★★☆
風格控制:System Prompt 設角色/語氣、Control Tokens 風格標籤(同一模型動態切換)、降低生成溫度(一致性提升)。客服多群體風格切換用 Control Tokens 比每群一模型輕量。
📌 出處:114 S2#15
對應能力:L12202
E. 微調與訓練策略
Fine-tuning/PEFT/LoRA/RFT-RLHF/知識蒸餾/Quantization
⭐Fine-tuning 微調基礎
Fine-tuning
★★★★★
Fine-tuning:在預訓練模型上用領域資料繼續訓練,讓模型適應特定任務/語氣。優點:學風格/格式效果好。缺點:算力大、易過擬合、知識更新慢。動態知識(每日促銷)不適合用 Fine-tune,應用 RAG。
📌 出處:115 S2#2、115 S2#40、114 S2#17
對應能力:K09
PEFT 與 LoRA
PEFT & LoRA
★★★★★
PEFT(Parameter-Efficient Fine-Tuning):只更新少量參數。LoRA:在原權重旁加低秩矩陣 A·B(r 很小,如 8/16),凍結原權重、可訓練參數降至 0.1~1%,效能近全參數微調。資源受限首選。
📌 出處:115 S2#2
對應能力:K09
RFT / RLHF(強化微調與人類回饋)
RFT / RLHF
★★★★☆
RFT(Reinforcement Fine-tuning)/RLHF:用 reward model 給回應打分,反向更新策略,對齊「優先順序、品牌語氣、人類偏好」這類偏好。Fine-tune 學知識/語氣後仍有偏差時用 RFT 對齊行為。
📌 出處:115 S2#40
對應能力:K09
⭐知識蒸餾(Knowledge Distillation)
Knowledge Distillation
★★★★☆
KD:讓小模型(Student)學大模型(Teacher)的軟標籤輸出分布,保留品質、降推理成本/延遲。RAG 場景常用於壓縮 generator。
📌 出處:115 S2#10、114 S2#42
對應能力:K05, K09
模型量化(Quantization)
Model Quantization
★★★☆☆
把權重從 FP32 轉 INT8(甚至 INT4),降低記憶體與運算成本,常用於邊緣部署。PTQ(訓練後量化)簡單但精度損失大;QAT(量化感知訓練)較佳。
對應能力:K09
F. RAG 與知識整合
RAG/Chunking/向量資料庫/Hybrid Search/MCP
🔥RAG(Retrieval-Augmented Generation)
Retrieval-Augmented Generation
★★★★★
RAG:檢索(向量庫/關鍵字)→ 把相關文件當 context 餵給 LLM 生成。可解決 LLM 知識過時、領域知識不足、幻覺。動態知識(每日促銷)適合 RAG,避開反覆 Fine-tune 成本。
📌 出處:115 S2#12、115 S2#13、115 S2#26、115 S2#31、115 S2#37、114 S2#17、114 S2#18、114 S2#29…等 12 題
對應能力:K09
⭐Chunking 文本切分
Chunking
★★★★★
Chunking:把長文件切成語意連貫的小段,讓向量檢索更精準、降低長文件干擾。需設定 chunk size + overlap(避免語意切斷)。整份文件直接餵 → 干擾大、引用不精準。
📌 出處:115 S2#13、114 S2#47
對應能力:L12302
向量資料庫與檢索
Vector Database & Retrieval
★★★★☆
向量資料庫(Pinecone、Weaviate、Faiss、ScaNN、HNSW)儲存文件 embedding 並做近似最近鄰搜尋。RAG 檢索階段最大挑戰:避免「語意相似但與查詢意圖無關」的結果,需 re-ranker / query rewriting。
對應能力:L12302
混合檢索(Hybrid Search)
Hybrid Search
★★★☆☆
Hybrid Search:結合稠密向量(Dense Vector,語意相似)+ BM25 關鍵字檢索(精確匹配),互補單一檢索的弱點,提升 RAG 檢索準確度。
對應能力:L12302
⭐Model Context Protocol(MCP)
Model Context Protocol
★★★★☆
MCP(Anthropic 提出):標準化協議讓 LLM 與外部工具/資料源互動。三角色:Host(執行 LLM 的應用)→ Client(協議端點)→ Server(外部資源)。MCP 重「動作」,RAG 重「知識」。
📌 出處:115 S2#12、114 S2#7、114 S2#44
對應能力:L12302
⭐RAG vs Fine-tuning 選型
RAG vs Fine-tuning
★★★★☆
動態知識(每日促銷/新文件)→ RAG。靜態風格/格式/語氣 → Fine-tune(一次定下來)。最佳組合:Fine-tune 一次語氣 + RAG 即時更新內容,避開反覆訓練成本。
📌 出處:115 S2#37、114 S2#14、114 S2#17
對應能力:K09
G. Agentic AI
Agent/Solution Graph/Multi-agent/A2A/AgentKit
🔥AI Agent 基本概念
AI Agent
★★★★★
AI Agent:能自主推理、規劃、使用工具的 AI 系統。常需的能力:API 調用(執行操作)、向量檢索(取知識)、任務規劃(拆解)、記憶管理。客服 Agent 沒 API 調用 → 不能改訂單。
📌 出處:115 S2#15、115 S2#16、115 S2#21、115 S2#44、114 S2#8、114 S2#11、114 S2#14、114 S2#16…等 11 題
對應能力:K09
情境感知代理(Context-aware Agent)
Context-aware Agent
★★★★☆
Context-aware Agent:能讀對話歷史、任務狀態、環境,據此調整行為。題目看「保留歷程/看狀態決策」即此特性。即時重訓不是它的能力(那是線上學習)。
📌 出處:115 S2#15
對應能力:K09
⭐Solution Graph 解決方案圖譜
Solution Graph
★★★★☆
Solution Graph:把複雜任務拆成節點(子任務)+ 邊(依賴關係)的圖,給 Agent 作為決策路徑藍圖。Agent 配合 LLM 推理在圖上找路徑(BFS/DFS/最佳優先)。
📌 出處:115 S2#16、114 S2#49
對應能力:K09
多代理系統(Multi-Agent)
Multi-Agent System
★★★☆☆
多 Agent 協作(規劃者/執行者/評審者)。沒有清楚定義角色與啟動條件 → 多代理重複做相同任務(效率低)、無限對話循環。需明確的角色分工與終止條件。
📌 出處:114 S2#16
對應能力:K09
Agent-to-Agent(A2A)通訊
Agent-to-Agent
★★★☆☆
A2A(Google 提出):Agent 通訊規格。Client Agent 發任務 → Remote Agent 執行 → 回傳結果。client-server 模型,不是同步處理或對等。
📌 出處:114 S2#8
對應能力:K09
OpenAI AgentKit
OpenAI AgentKit
★★★☆☆
AgentKit(OpenAI 2025 推出):Agent 開發工具組,含 Agent Builder、Connector Registry、ChatKit。用於建構 Agent、整合工具、設計流程。不是 RL 模擬環境也不是預訓練。
對應能力:K09
H. 導入評估與風險管理
PoC/TCO-ROI/Hallucination/Prompt Injection/合規/部署策略
⭐生成式 AI 導入評估框架
GenAI Adoption Evaluation
★★★★★
評估架構:(1) 必要性(為何需要)、(2) 目標與預期成果、(3) 可行性(技術/資源)、(4) 效益(ROI)、(5) 風險(合規/資安/倫理)。先 KPI → 蒐資料 → 選技術 → 設計實作。
📌 出處:115 S2#38、114 S2#30
對應能力:L12301, S03, S04, S11, S14
⭐PoC 概念驗證與漸進部署
PoC & Phased Rollout
★★★★★
PoC 目標=快速驗證可行性:模型品質、業務匹配、整合可行性。**不適合 PoC 階段**做的事:制定跨部門使用規範、長期治理框架(這是 Pilot/Production 階段)。
📌 出處:115 S2#38、115 S2#47
對應能力:L12301
⭐TCO(總體擁有成本)與 ROI
TCO & ROI
★★★★★
TCO:直接成本(API、維護、基礎設施)+ 間接成本(訓練、整合、合規)。ROI = 節省成本 / 投入成本。算 ROI:人工成本 − API 成本 = 月節省,整合費 / 月節省 = 回本月數。
📌 出處:115 S2#24、115 S2#25、115 S2#28
對應能力:K07, S14
Token Economics
Token Economics
★★★★☆
Token Economics:分析 LLM 推論的 input/output token 量與費用。**只看推理階段**;訓練階段的 GPU 成本屬訓練成本、不在 Token Economics 範疇。
📌 出處:115 S2#28
對應能力:K07
🔥生成式 AI 風險類型
GenAI Risk Categories
★★★★★
技術風險(幻覺、效能不穩)、資料風險(外洩/污染)、倫理風險(偏見、歧視)、法律合規風險(個資/著作權)、營運風險(成本暴增、依賴外部)。需建立全面風險管理框架。
📌 出處:115 S2#1、115 S2#6、115 S2#22、115 S2#39、115 S2#41、115 S2#42、115 S2#46、115 S2#50…等 17 題
對應能力:L12303, K10, K12, K13, K15
幻覺(Hallucination)
AI Hallucination
★★★★☆
LLM 自信地生成不真實內容(虛構事實/引用)。原因:next-token 預測無事實校驗、上下文矛盾、訓練資料偏差。對策:RAG 引入真實知識、輸出驗證、Guardrails、人工審查(HITL)。
📌 出處:114 S2#10
對應能力:K10, K12
Prompt Injection 提示注入攻擊
Prompt Injection
★★★★☆
攻擊者透過特殊輸入讓 LLM 洩漏系統提示/執行未授權動作。防禦:Input Sanitization(輸入檢測)+ Output Moderation(輸出審核)+ 限制可回應主題。
📌 出處:114 S2#36
對應能力:K12, K15
⭐資料最小化與去識別化
Data Minimization & De-identification
★★★★★
個資合規源頭治理:資料最小化(只取必要欄位)+ 去識別化(Anonymization)/ 偽匿名化(Pseudonymization)。GDPR/PDPA 推薦此源頭做法。輸出審查與存取控管屬下游補強。
📌 出處:115 S2#39、114 S2#31
對應能力:K12, K13
隱私計算(HE / FL / ZKP / DP)
Privacy-Preserving Computing
★★★★☆
HE(同態加密):密文上直接運算。FL(聯邦學習):資料留在地、只交換參數。ZKP(零知識證明):證明屬性不洩露原值。DP(差分隱私):加噪保護個體。各適不同情境。
📌 出處:114 S2#2
對應能力:K12, K13
⭐AI 內容溯源(C2PA / SynthID / 浮水印)
Content Provenance (C2PA / SynthID / Watermark)
★★★★☆
C2PA Content Credentials:標準化元數據追溯內容來源(Sora 採用)。SynthID(Google DeepMind):在每幀影片嵌入不可見浮水印(Veo 採用)。降低 Deepfake/不實資訊風險。
📌 出處:115 S2#6、115 S2#22
對應能力:K10, K12
⭐偏差檢測與緩解(Bias Detection / Mitigation)
Bias Detection vs Mitigation
★★★★☆
Detection=看(測量、比較群組指標差距)。Mitigation=改(重新加權、過濾、閾值調整、HITL 後處理人工審查)。性別/年齡偏差最務實兜底=後處理人工審查。
📌 出處:115 S2#1、115 S2#41、115 S2#50、114 S2#38
對應能力:K10, K12
EU AI Act 風險分級
EU AI Act
★★★★☆
EU AI Act 採風險分級:不可接受(禁用)、高風險(醫療/招聘/信用,需嚴格合規)、有限風險(透明度義務)、低風險。求職者心理狀態判斷屬高風險。
📌 出處:115 S2#46
對應能力:K10, K15
⭐部署策略(私有化 vs 雲端 API)
On-prem vs Cloud Deployment
★★★★☆
私有化部署(on-prem):資料不出邊界,符合金融/政府/醫療法遵;維運成本高。雲端 API:快速部署、低門檻;但敏感資料外傳風險。高合規最高等級=自訓 + 私有化 + 稽核。
📌 出處:115 S2#43、115 S2#46、114 S2#12、114 S2#24
對應能力:K10, S07
🔥高可用部署架構
High Availability Architecture
★★★☆☆
高 RPS + 高可用:容器化(Docker)+ 水平擴展多實例 + 負載均衡 + 自動擴展(Auto Scaling)。單一 VM 是 SPOF。Edge 設備受運算資源限制,雲端順暢、邊緣會卡。
📌 出處:115 S2#4、115 S2#8、115 S2#17、115 S2#43、114 S2#12、114 S2#35
對應能力:S07
⭐Data Drift / Concept Drift 監控
Data / Concept Drift
★★★★☆
上線後資料分布/使用者行為變化,模型衰退。偵測:KL Divergence、PSI(金融標準)。對策:Rolling Window 驗證、定期重新訓練。題目看「上線後逐步下降」即此。
📌 出處:115 S2#48、114 S2#37
對應能力:K05, S07