fbpx

MCU 728x90 114

 

本班介紹 活動議程 專題介紹 歷屆成果展

 

 

2026embedded ai resultpost banner ai

 

 

艾鍗學院長期以來與學術單位緊密合作,此次,艾鍗學院協辦華梵大學「嵌入式AI影像技術與應用班」成果發表暨企業徵才活動。30位學員歷經三個月的密集實作訓練, 產出「為用而生」的技術作品,迫不及待向企業夥伴們展現心血成果。本活動完全免費,歡迎企業夥伴到場來交流喔!

TIMEDESCRIPTION
13:10-13:30 來賓報到
13:30-14:10 來賓致詞、專題指導老師致詞
14:10-15:10 學員進行專題簡報

► AI智慧居家安全照護系統
► AI穿搭辨識與智慧服飾推薦系統
► 基於 YOLO 與大型語言模型之家庭食材智慧管理系統
► 智慧市場洞察與社群內容自動化營運系統
► 基於眼手協作之智慧看護機械臂模仿控制系統


15:10-15:20 休息茶敘時間
15:20-16:30 成果展示、學員與廠商交流時間
16:30-17:00 學員結訓、賦歸

活動時間

115年3月20日 (五) 下午13:30~17:00

活動地點

華梵大學推廣教育處新北板橋中心(新北市板橋區文化路二段242號6樓)

活動報名

聯絡窗口:張小姐 Email住址會使用灌水程式保護機制。你需要啟動Javascript才能觀看它 | (02)2316-7732

 

AI智慧居家安全照護系統 —

基於YOLO影像辨識之危險偵測與離床監控

 home care

 

組員:吳○群、胡○偉、官○倫、李○翰
摘要

本專題旨在開發一套基於影像辨識的「智慧安全照護系統」,以解決長照或居家環境中兩大核心安全需求:離床通知與危險物品偵測。系統透過攝影機擷取即時影像,並結合 OpenCV 與 YOLO 物件偵測模型進行分析,能精確辨識使用者是否上、下床(透過人物框選與位置判斷),同時即時偵測家庭中常見的危險物品,例如刀具、剪刀、打火機、藥品與清潔劑等,尤其著重於物品是否出現在使用者手部附近的情境判斷。

此外,系統建立「危險指數」評估機制,綜合「人與危險物品之像素距離」、「物品危險等級」以及「危險畫面持續時間」三項指標進行加權計算。一旦判定為高風險事件,即會自動生成事件紀錄(包含時間戳記、影像截圖、危險物品類別與風險分數),並透過 Email、App Push、Tkinter 介面或警示音等多元方式即時通知照護者,達成智慧巡房與遠端監控的目標,進而提升居家安全照護的即時性與管理效率。

 

關鍵字:Object Detection, YOLO,  OpenCV,  Deep Learning

AI穿搭辨識與智慧服飾推薦系統

virtual try on

組員:謝○恩、姚○、余○鴻、林○岐、陳○銘、蔣○政
摘要

本專題旨在解決使用者於日常服裝搭配時,容易侷限於既有穿搭思維、缺乏多元建議的問題,開發一套結合電腦視覺與生成式人工智慧技術之「AI穿搭辨識與智慧服飾推薦系統」。系統核心在於提供完整的虛擬試穿體驗,根據使用者輸入之個人資訊(如身高、年齡、性別、偏好風格)及個人全身照片,自動生成服裝虛擬嵌入效果,協助使用者直觀預覽不同穿搭組合。

系統流程包含前端影像擷取與使用者資料輸入、後端風格分析與服裝生成模組,以及最終模擬結果輸出。在 AI 實作層面,本研究採用深度學習模型進行服裝區域替換。首先透過 U-Net 模型對使用者全身影像進行語義分割,取得上半身與下半身之區域遮罩(mask);接著結合 Stable Diffusion Inpainting 模型,搭配指定服裝描述提示詞(Prompt),於遮罩區域內生成符合人體比例與風格設定之服裝影像,完成虛擬換裝效果。

在資料與模型訓練方面,本專題將利用 RichWear Dataset 等大型服裝資料集進行探索式資料分析(EDA),了解服飾類型分布與特徵差異,並進一步優化 U-Net 與生成模型之訓練流程。錯誤分析重點將著重於提升生成影像的自然度、邊緣融合品質與人體曲線貼合度,以降低失真與不合理變形問題。最終系統利用Streamlit 整合為具操作介面之應用程式,提供直覺化且即時的虛擬試穿體驗。本研究期望透過結合語義分割與生成式 AI 技術,提出一套兼具實用性與創新性的智慧穿搭解決方案。

關鍵字:虛擬試穿、U-Net、Stable Diffusion Inpainting、生成式AI、深度學習、語義分割

 

基於 YOLO 與大型語言模型之家庭食材智慧管理系統

virtual try on

組員:黃○傑、詹○宏、林○翰、黃○翎、李○學、林○吉
摘要

本專題旨在因應日益嚴重的家庭食物浪費問題,提出一套結合人工智慧視覺辨識與LLM 技術之「智慧食材管理系統」。系統核心目標為透過影像辨識技術,即時監控冰箱內各類食材狀態,協助使用者有效掌握庫存與新鮮度資訊,進而降低食物浪費風險。

在技術實作方面,本專題將採用  YOLOv11 物件偵測模型,針對蔬果、肉類及其不同新鮮程度進行辨識與分類。AI 實作流程中,將整合多個公開食材與肉類新鮮度資料集進行資料前處理與模型訓練,並以 mAP 指標與 Confusion Matrix 進行效能評估與錯誤分析,以優化模型辨識準確度與泛化能力。

除影像辨識功能外,系統亦整合食材購買日期與保存期限資訊,並結合大型語言模型(LLM)提供智慧化管理建議與食譜推薦,協助使用者優先處理即將過期之食材。最終系統將透過 Streamlit 建立操作介面,完成前後端整合與視覺化呈現,提供直覺化的使用體驗。本研究期望透過 AI 技術提升家庭食材管理效率,並為減少食物浪費提出具實務價值之智慧解決方案。

關鍵字:家庭食物浪費、智慧冰箱、物件偵測(YOLO)、食材新鮮度辨識、大型語言模型(LLM)、電腦視覺

 

 

智慧市場洞察與社群內容自動化營運系統

 virtual try on

組員:丘○平、方○粧、何○寧、呂○諺、陳○翰
摘要

本專題旨在建構一套 AI 驅動之社群內容自動化營運系統,以提升粉絲專頁經營效率與內容品質。系統透過網路爬蟲技術,自 PTT、Dcard 及電商平台(如蝦皮)擷取貼文與商品留言資料,並進行資料清理、關鍵詞分析與熱門度統計,以辨識具潛力之熱門議題與市場趨勢。

在內容生成階段,系統結合大型語言模型(Gemini 2.5 Flash API),依據分析結果自動產生符合市場趨勢之社群貼文內容,並可依不同平台特性調整語氣與風格,以提升貼文吸引力與互動表現。在自動化營運方面,本專題採用 n8n 建立流程管理與排程機制,將 AI 生成內容自動發布至 Instagram(IG)粉絲專頁,同時定期回收貼文數據(如觸及率、互動數與點擊率),作為後續內容優化的依據,形成資料驅動的營運優化循環。本研究期望整合資料分析與生成式 AI 技術,提出一套可實際應用於數位行銷場域的智慧社群經營解決方案。

 

關鍵字:社群自動化、大型語言模型(LLM)、網路爬蟲、內容生成、自動化流程(n8n)

 

 

基於眼手協作之智慧看護機械臂模仿控制系統

gensture robot

組員:鄭○修、王○昕、李○偉
摘要

本專題旨在回應高齡化社會中行動不便者日益增加的照護需求,開發一套具備眼手協作能力之智慧看護機械臂系統。核心目標在於降低照護人力負擔,並讓使用者能透過非接觸式操作遠端控制機械手臂,提升其自主生活能力與操作便利性。本系統控制架構分為兩個階段:首先,透過眼動追蹤技術將眼球移動映射為螢幕游標,實現機械手臂之遠端定位控制;其次,整合 MediaPipe 姿態估計模型,擷取使用者手臂關節角度並進行即時映射,以精準控制機械手臂運動。此外,系統能辨識「抓取(grab)」、「釋放(release)」及「旋轉(rotate)」三種手勢動作,作為模仿學習之操作指令。

在 AI 模型實作方面,本研究採用 MPIIGaze 資料集進行眼動追蹤校準,並結合 DexYCB 資料集進行人手與物體互動姿態辨識與映射。資料經 MediaPipe 處理後,透過 UART 傳輸至 Raspberry Pi Pico,並以 PWM 訊號驅動四軸伺服馬達完成機械臂控制。系統最終將整合完整軟體架構,並以 Gradio 建立操作介面(UI)。本研究期望提出一套結合 AI 視覺辨識與嵌入式控制技術之創新智慧照護解決方案,以提升居家照護的效率與可行性。

關鍵字:看護機器人、眼動追蹤、機械手臂、手勢辨識、MediaPipe、模仿學習、人機互動

 

 

Email住址會使用灌水程式保護機制。你需要啟動Javascript才能觀看它

Email住址會使用灌水程式保護機制。你需要啟動Javascript才能觀看它

 

AIoT 728X90