fbpx

MCU 728x90 114

現在位置: 艾鍗學院數位課程 Web及雲端系列課程AI雲端原生與MLOps自動化實務班
 

課程大綱
  •  課程總時數:56小時
  •  課程所附教材:
    • 完整範例程式碼
    • 線上助教系統

 

  

第一階段:AI 雲端原生基礎(Linux + Docker + K8s)21hrs

建立能支撐 AI 系統穩定運行與規模化的底層架構能力

1. Process 管理與記憶體調度 (處理 OOM Killer)
2. 處理大型模型權重檔 (Model Weights) 的掛載與存取
3. Docker 容器化技術實戰
4. AI 環境封裝:Dockerfile 撰寫(針對 Python/PyTorch 環境優化)
5. AI模型檔瘦身技術
6. 實作: 將一個預測模型封裝為標準化的 Docker Image
7. Kubernetes (K8s) 核心架構:Pod, Deployment, Service 與網路配置
8. ConfigMap 與 Secret 的應用
9. Service 與 Ingress 網路配置
10. Liveness 與 Readiness Probes 設定
11. 實作:AI Workload 管理:資源限制、自動擴展 (Scaling) 與 GPU/算力節點掛載 

第二階段:AI 微服務架構(FastAPI + gRPC + RAG)14hrs

運用微服務概念設計 AI 應用,擺脫單體式架構 (Monolithic) 的限制

1. 從 Monolithic 到 Microservices:架構轉型思維
2. API 設計原則 (RESTful/FastAPI):讓 AI 模型成為可被呼叫的服務
3. 實作:FastAPI 進階 — Pydantic 資料驗證與型別安全
4. 實作:Async/Await 非同步推論處理 (解決 AI 高延遲阻塞)
5. gRPC 高效能通訊協定概念介紹
6. 實作:微服務拆分部署 — 影像辨識與自然語言模型
7. K8s 資料持久化:PersistentVolume (PV) 與 PVC 實作
8. 實作:在 K8s 上部署 Qdrant/Milvus 向量資料庫
9. 實作:RAG API 開發 — 讓微服務整合向量檢索能力

第三階段: n8n 自動化 MLOps(模型監控 + 重訓 + GitOps)21hrs

運用 n8n 串接數據、模型與業務邏輯,實現 MLOps 。整合 Cloud-Native 與 AI Agent,完成企業級落地應用

1. Process MLOps 核心概念與 n8n 在 K8s 上的部署架構
2. n8n 作業流程設計:錯誤處理與重試機制
3. AI/ML 資料來源串接:整合 SQL, API 及非結構化數據
4. 資料清洗、轉換與前處理自動化(n8n 進行 ETL)
5. 建立 AI 模型推論工作流:n8n 接收請求並呼叫 K8s微服務
6. 推論資料的回存、整併與日誌紀錄流程
7. 模型效能追蹤與漂移監控 (Monitoring Workflow)
8. 重訓排程與 GitOps 部署流程自動化
9. LLM/AI Agent 與 n8n 的進階整合實務
10. Capstone Project: AI 系統落地實戰
11. 完成從 AI 模型 API 化(FastAPI)、Docker 封裝模型、K8s 部署微服務,到用 n8n 自動化維運監控
 

Netman深度解析K8s課程設計與企業技術需求

 
企業級AI架構實戰
 
 
➤支持AI落地的基礎:DGX / HGX與雲原生 MLOps 架構示意
 
 
 
p3 DGX HGX
 
 
師資團隊

Netman
雲端架構專家

專精 Linux 底層與 K8s 叢集管理,傳授「如何讓系統穩定運行」

Fred
微服務架構師

專精 Docker 與系統設計,傳授「如何解耦與擴展服務」

Y寛
AI/MLOps專家

專精 n8n 自動化與模型部署,傳授「如何串接模型與業務」

更多延伸學習

 

職涯方向

1. AI 平台工程師(AI Platform Engineer)

2. MLOps / DevOps 工程師

3. AI 微服務後端工程師

4. 雲端原生/ Cloud Native應用工程師

 

課程Q&A
➤最大的幫助是讓你的模型「真正落地」,你將學會模型容器化、部署到 K8s 進行規模化,並建立自動化 MLOps 維運閉環。解決你在生產環境部署時遇到的效能、穩定性和擴展性問題。
➤ 本課程的重點在於「AI 模型的系統化整合」。你將學會如何針對 AI 模型的特殊需求(如 GPU/算力、模型權重檔)來優化 Dockerfile 和 K8s 資源配置,並掌握 MLOps 流程,讓你能無縫整合 AI 團隊的需求。

➤ 本課程定位為實戰班,建議學員需具備基礎的 Python 程式能力或對 AI 專案開發流程有基本認識。我們會從 Linux 底層、Docker 開始教起,為您打下紮實的雲端原生基礎,目標培養能直接上線的專業人才。

➤ 課程以 K8s 為核心部署環境,使用 Docker 進行容器化,並專注於使用 n8n 實作自動化的 MLOps 閉環(Workflow Engine)。我們不會只介紹一堆工具,而是專注於用最穩定、最有效的方式,建立一套完整的、能運行的 MLOps Pipeline。

➤ 會,這是本課程的核心價值之一。 課程會深入探討 Linux 效能調度,教您如何判讀與解決 AI 容器的 OOM Killer (記憶體不足)、Latency (系統延遲),以及大型模型權重檔的掛載與存取等,讓您的 AI 服務真正穩定

➤ K8s 是雲原生架構的業界標準,也是公有雲的底層基石。 掌握 K8s 意味著您的 AI 系統可以跨平台部署(如 AWS, GCP, Azure 或地端私有雲),擁有最高的彈性和控制權。學會 K8s,您就能主導架構,而不是被單一雲平台鎖定。

➤ 您將具備市場最稀缺的 「AI + Cloud 雙軸核心能力」,可勝任:AI 平台工程師 (AI Platform Engineer)、MLOps / DevOps 工程師、AI 微服務後端工程師,或晉升為主導 AI 專案落地的全端架構師。

 

課程諮詢