本班介紹 | 活動議程 | 專題介紹 | 歷屆成果展 |
學員將於活動中簡報專題發想動機、技術架構、開發心得、預計成果等,並於簡報後和現場企業來賓進行交流。 歡迎AI人工智慧、機器學習開發、嵌入式系統開發、韌體開發等技術領域相關企業蒞臨交流。
艾鍗辦訓,秉持著「為用而訓」之原則,幫助學員培養符合業界所需的職能。本此成果展的班隊為數據分析暨機器學習應用班。學員們經過3個多月的紮實的實作學習,產出「為用而生」的技術作品,迫不及待向企業夥伴們展現心血成果。本活動免費,歡迎企業廠商到場來交流喔!
![]()
|
活動時間
114年07月18日 (五) 下午13:30~16:30
活動地點
集思交通部會議中心2樓(台北市中正區杭州南路一段24號)
若您有停車需求,屆時歡迎停至"中華電信仁愛停車場(大樓B3)",本公司人員將再協助您處理停車費用
活動報名
聯絡窗口:張先生 Email住址會使用灌水程式保護機制。你需要啟動Javascript才能觀看它 | (02)2316-7734
本專案旨在建構一套結合機器學習技術的 AI 飆股預測系統,專門針對台灣股市中 20 個交易日內漲幅超過 30% 的潛力個股進行預測。系統聚焦四大核心預測任務:飆股判定、漲跌方向、漲跌幅度與買賣訊號強度,能廣泛應用於多種金融投資情境。
在技術架構上,本系統採用多模型集成策略,以 XGBoost 與 Random Forest 為主要預測模型,兩者皆擅長處理非線性特徵及金融時間序列,並具備良好的缺失值容忍能力。資料來源整合 FinMind 與 Kaggle 平台,涵蓋 21 個關鍵欄位,包含 OHLC 價格資訊、成交量、市值、PER、PBR 等基本面與市場指標。
資料處理部分重點放在特徵工程,加入 RSI、MACD、布林通道等技術指標與時間特徵,並透過 StandardScaler 進行標準化處理,以提升模型表現。模型評估採用多元指標,包括分類任務的F1-score,及迴歸任務的 MAPE。最終,系統可同步輸出多項預測結果,提供投資決策全面參考。
本專案旨在開發一套智慧型預警系統,以因應台灣黑熊保育成功後,牠們活動範圍與人類聚落逐漸重疊,所引發的人熊衝突問題。系統核心技術為 YOLOv8 物件偵測模型,負責即時辨識影像中的台灣黑熊,並透過信心度閾值設定有效降低誤報率。
訓練資料取自紀錄片《台灣黑熊保衛戰》,共蒐集 3,000 張圖片,其中 1,000 張已標註為「kumay」,另有 200 張山豬與黑狗等負樣本以提升模型判別能力。圖片統一調整為 640x360 尺寸,模型訓練設定 100 個 Epochs,以提升準確度與穩定性。
系統功能包括黑熊即時偵測、物件標記(Bounding Box)、辨識結果紀錄(時間戳、定位座標、信心度)並寫入 PostgreSQL 資料庫,以供後續資料分析與視覺化,進一步生成黑熊活動熱點圖。系統亦整合通報模組,透過 Telegram 或簡訊 API 即時提醒當地居民與保育單位「熊出沒注意!」。
未來將拓展支援多物種偵測、結合紅外線與熱成像設備,並與林務局或社區簡訊平台串接,推動實地部署與智慧保育。
本專題開發一套具備條件式輸入與虛擬試衣功能的 AI 造型顧問系統,讓使用者僅需上傳個人照片,並依自身條件(如性別、年齡、臉型、膚色、身形比例與心情)進行自訂輸入,系統將綜合天氣、節慶與場合等背景情境,自動推薦合適的穿搭風格。推薦結果將直接應用於使用者圖像,呈現個人化虛擬試穿效果。
圖像處理流程包含三個階段:第一階段使用 U²-Net 模型進行語意分割,精準擷取上衣與下身區域,並輸出對應顏色遮罩(mask);第二階段透過 OpenCV 色域範圍判斷,將指定布料紋理自動平鋪至遮罩區域,完成初步貼圖替換。但此方式在處理皺摺、光影變化時常顯生硬,缺乏真實感。為此,系統第三階段導入 Stable Diffusion Inpainting 模型,依據輸入條件動態組合成文字提示(prompt),搭配遮罩資訊進行局部服裝圖像重建,使新衣物自然融入原圖,並保留人物五官與姿勢特徵。此系統具備高度擴充性,未來可應用於時尚電商、虛擬試衣服務與個人造型推薦平台。
關鍵詞 : 虛擬試衣(Virtual Try-On), U²-Net, 語意分割(Semantic Segmentation), Stable Diffusion Inpainting
本專題旨在開發一套結合人臉辨識與重複圖片偵測功能的智慧型圖片管理系統,協助使用者從龐大的圖庫中快速整理重複影像,並有效篩選出特定人物照片。系統包含兩大核心模組:重複圖片偵測與個人臉部照片篩選。
在重複圖片偵測方面,系統首先透過訓練一個SimCLR 模型能將類似圖片,類似照片即同一個圖片其經過角度旋轉、平移、亮度不同、些許雜點的細微變化來仍能建立相同的特徵向量,再搭配 DBSCAN 聚類演算法將高度相似圖片自動分群,輔助使用者批次刪除或整合冗餘影像。在人臉篩選模組中,使用者可上傳一張樣本臉,系統使用 FaceNet 擷取臉部區域並生成嵌入向量,接著比對指定資料夾中所有影像的臉部特徵向量,篩選出相似度高的個人照片,並自動搬移至指定目的地資料夾,實現高效率的人臉照片搜尋與整理功能。
關鍵詞 : SimCLR , DBSCAN, FaceNet , 人臉辨識
本專案「BentoCal(食刻拍)」旨在開發一套 AI 驅動的便當與自助餐影像辨識與熱量估算系統。使用者可透過網站上傳餐盒照片,系統將自動辨識照片中的各類食材,並依據食材比例推估熱量,進而提供個人化飲食建議,協助用戶進行熱量管理與健康控制。
技術架構整合多項深度學習模型:核心辨識模型採用 YOLOv8,負責即時定位並辨識便當中各項菜餚;系統依據每個食材物件框佔據便當盒的比例,估算其相對體積與熱量。模型初期訓練準確率約為 60%,經優化標註策略、擴增圖像資料(每類食材超過 200 張)與參數調校後,已提升至 90% 以上。
資料來源包括自行拍攝與標註的便當圖片、透過爬蟲工具蒐集的網路食物圖像,以及「Taiwan Food 101」開放資料集。系統亦依據台灣飲食習慣建立食材分類架構,涵蓋蔬菜、豆製品、蛋類與多種肉品。
未來可結合使用者 BMR(基礎代謝率)與健康目標,提供飲食建議與記錄功能,並擴展應用至智慧餐盤或個人健康管理平台。