- 瞭解人工智慧的基本定義、核心目標與發展演進。
- AI 技術涵蓋的主要領域包含機器學習、深度學習、自然語言處理、電腦視覺等。
- 能依任務本質區分強 AI / 弱 AI,並理解符號主義到連接主義的歷史脈絡。
把人類大腦的「看、聽、說、想」拆成程式可以做的小任務,整套加起來就叫 AI。
把人類大腦的「看、聽、說、想」拆成程式可以做的小任務,整套加起來就叫 AI。
給 AI 訂一套「行為守則」——就像給新進員工的員工手冊,規定哪些事可以做、哪些不行、出事誰負責。
看 AI 在做什麼動作分三類:分析型像偵探(找線索)、預測型像氣象主播(猜未來)、生成型像作家(寫新東西)。
AI 的歷史像漫長的爬山——1956 年起步、1970-80 年困在邏輯規則、2010 年代深度學習加 GPU 才爆發。
台灣的「AI 駕照考場」——數位部成立評測中心,幫 AI 做品質檢查(會不會偏差、能不能解釋)。
歐盟給 AI 分四個風險等級——像食品安全等級:不可吃(禁用)、嚴格管(高風險)、要標示(有限)、隨便吃(低風險)。
資料就像食材:結構化(已洗好切好的牛排)、半結構化(有包裝的速食)、非結構化(一整桶生鮮)。
資料整合三招:統一格式(換成同一種度量單位)、去重複(不要把同一個人記兩次)、整併多源(把分散資料拼在一起)。
EDA 就像第一次去陌生城市先逛一圈——看大致長相、找重要地標、注意危險區域,再決定怎麼深度玩。
ETL 像把多家餐廳的食材送到中央廚房:抽取(去取貨)、轉換(清洗切配)、載入(放入冰箱)。
資料倉儲=整理過的衣櫃(找衣服快但只能放整理過的);資料湖=大儲物間(什麼都能塞,要找東西要花時間)。
資料品質就像考前看的筆記——錯字、漏記、過時、重複,會讓你考試答錯題。AI 的「考試」就是模型輸出。
離群值像班上身高 200 公分的同學——可能是錯記(要刪),也可能是 NBA 球員(要保留)。要靠領域知識判斷。
缺失值像考卷沒寫的題目——可以猜中位數(用班上中間分數猜)、用 KNN(看鄰座答什麼)、或乾脆不算這題。
標準化像把不同單位(公分、英寸、台尺)統一成同一把尺。距離型模型(KNN/SVM)一定要先做。
One-hot 像問卷勾選題(每個類別獨立欄位);Label Encoding 像評分 1-3(會被誤以為有大小順序)。
99 個健康樣本、1 個生病樣本——直接訓練模型會變成「全猜健康」也對 99%。要用 SMOTE 在生病樣本附近合成新樣本。
AI 處理個資要從源頭就少碰——只取真正需要的欄位、把姓名替換成代號,不要等資料外洩才補救。
資安三柱=CIA:Confidentiality(鎖好不被偷看)、Integrity(不被竄改)、Availability(要用時拿得到)。
機器學習像訓練狗狗——給範例(資料)、做動作(模型推論)、給對錯回饋(loss),重複到狗狗會自己做。
監督式=有老師批改作業(有標籤);非監督式=自己分組找規律(沒標籤);強化學習=玩遊戲練功(看分數)。
特徵 = 履歷上的資料(年齡、學歷);標籤 = 你想預測的答案(會不會流失)。模型用特徵猜標籤。
訓練集=練習題、驗證集=模擬考、測試集=期末考。期末考前看到答案就破功了(Data Leakage)。
KNN 像「物以類聚」——要分類新人,看他週遭的 K 個朋友是哪一類,多數決。距離型必須先標準化。
決策樹像玩 20 questions——一直問是非題(年收 > 50 萬?已婚?)一路分到答案。資訊增益最大的問題優先問。
分群=沒老師的分組——K-means 像分到 K 桌(要先決定幾桌);DBSCAN 像找「密集圈圈」自動忽略雜訊。
PCA 像把 3D 立體模型壓成 2D 平面照片——丟少量資訊但保留主要輪廓。前必先標準化否則大尺度特徵主導。
特徵工程像下廚前的備料——切絲、調味、混合(互動特徵)。垃圾進垃圾出,資料品質決定模型品質。
AutoML 像智慧型相機自動模式——不用懂光圈快門也能拍出不錯照片。但專業攝影師(高客製)還是會用手動。
結構化學習=輸出有「形狀」:序列(NER 找出每個字的類別)、樹(語法樹)、圖(影像分割輪廓)。不是單一標籤。
異常偵測像信用卡盜刷警報——找「跟平常很不一樣」的少數案例。不是預測常態,是抓異類。
神經網路像層層過濾器——前向猜答案、算錯了多少(loss)、反向傳播找出每層該往哪邊調,慢慢學會。
CNN 像顯微鏡掃描影像——卷積層找紋理(邊緣/角點)、池化層縮小圖、全連接層做最終判斷。
RNN 像有短期記憶的人邊聽邊忘;LSTM 加了「記憶閘門」決定什麼要記、什麼可忘——適合長句子、時序預測。
Transformer 的注意力機制=讀句子時可同時看全文,每個字直接連到任何字(不像 RNN 一字一字傳)。
BERT 學習方式=填空題:把句子隨機遮住 15% 的字,逼模型用「左右文」猜回來,學會雙向理解。
鑑別式=法官(給證據判有罪/無罪);生成式=小說家(從零寫新故事)。
鑑別式模型代表=邏輯迴歸、SVM、CNN 分類器、BERT Classifier——都是「給輸入、判類別」的模型。
GAN 像偽鈔對抗:生成器造假鈔、判別器辨真偽,互相進步。Diffusion 像「先把畫弄花再慢慢還原」生成。
LLM 本質=超強「下個字接龍」機器,從幾兆字學出來的字接龍能力。再厲害也只是統計,會幻覺。
生成式造模擬資料(GAN 生瑕疵照片)+ 鑑別式做判斷(CNN 認瑕疵)——兩家聯手,數據缺也能訓練。
CLIP 把「貓的照片」和「貓」這個字訓練成同一個向量點——讓 AI 能跨模態(用文字搜圖、用圖配字)。
多模態=看「進什麼出什麼」:T2I(文字→圖)、T2A(文字→音)、I2T(圖→描述)、Speech-to-Image。
過擬合=硬背答案的學生(看過的題滿分、新題全錯);欠擬合=沒讀書(看過的題也不會)。
CV 像把練習題切 5 份,每份輪流當模擬考其餘當練習,5 次平均分數比較穩——不會看一次運氣好就誤判。
F1 是 Precision(抓得準不準)和 Recall(漏沒漏抓)的調和平均——像考試的「精準度 vs 全面性」綜合分。
MSE(平方誤差,重罰大錯)vs MAE(絕對誤差,平等對待);R² 是「我的模型解釋了 X% 的變化」。
偏誤大=模型太簡單(直線去配曲線);變異大=模型太敏感(換筆資料就大變)。要在中間取平衡。
Grid Search 像逐個試所有組合(地毯式搜索);Random Search 像隨機抽樣(高維空間更有效率)。
Detection=看(量化群組差距是多少);Mitigation=改(重新加權樣本、調整閾值、輸出過濾)。
AI 公平像招生不分性別——不能只用「不看性別欄位」(因為郵遞區號等替代變數仍有偏差),要持續檢測校正。
黑箱模型像不告訴你為什麼拒貸的銀行——XAI(LIME/SHAP)告訴你「因為收入低 + 年齡因素」這種可讀理由。
HE=鎖住的箱子裡也能算數;FL=資料不出家門、只交作業;ZKP=證明會解題但不給看答案;DP=答案加雜訊保護個體。
去識別像把員工名牌換成「員工 #1234」——資料還能用但無法直接辨人。Pseudonymization 是可逆的代號替換。
幻覺=LLM「自信地胡說八道」——它不知道自己不知道。對策:用 RAG 把真實知識塞進去、加 Guardrails 攔下危險輸出。
對抗攻擊像在停止標誌貼貼紙讓自駕車誤判——對輸入加肉眼難察的擾動。防禦:訓練含對抗樣本、加輸入檢查。
Data Drift=模型上線後,使用者行為慢慢變了(疫情後消費習慣改變),模型還用舊資料判斷就準確率掉。
MLOps=把 ML 模型像產品一樣管理:版本控管、自動部署、上線監控、漂移預警——不只是訓練完就丟著。
漸進部署像新藥上市——先小範圍(單科室)試用、觀察反應、修正、再全面推。高風險領域必經。
醫療影像(用鑑別式 CNN,不用生成式以免幻覺)、金融風控(XAI 解釋拒貸)、智慧城市(IoT + 即時分析)。