目錄表


謝文欽

wenchin34@gmail.com


學經歷



專業技能

🔹 理論(學科)


🔹 實務(整合應用開發)


🔹 參賽獲獎



作品集

🔹 商業應用


🔹 教學應用



講授課程

🔸 大專 資訊相關學科


🔸 勞動部 委辦職訓課程


🔸 物聯網創客基地 工作坊課程



課程主題規劃

🟠 程式設計

🔹 Python 程式設計


🔹 SQL 資料庫 與 Python 網頁整合應用系統實作

 【SQL】
 【Python】


🔹 MongoDB 文件型資料庫、MQL 查詢語言、與 Python / Node.js 整合應用


🔹 HTML5 動態網頁設計


🔹 Node.js / JavaScript 程式設計


🟠 系統、網路

🔹 VM 虛擬主機 / Linux 作業系統


🔹 Application Server 應用伺服器


🔹 Network 網路 / Internet 連線


🟠 IoT / AIoT 應用

🔹 IoT 物聯網 / Open Data / 電子地圖 / 雲端服務


🔹 智慧家居 與 物聯網 整合平臺


🔹 微控板、物聯網、車隊管理 整合平臺


🔹 AI / AIoT / 電腦視覺 / 3D 動畫 / AR / VR


🟠 其他


1)
實作導入 Game Tree 演算法,使電腦具備超強棋力!
2)
測速相機位置來自政府「測速執法設置點」開放資料,透過 HTML5 的 GeoLocation API 持續讀取 Browser 所支援的「位置感應器」。
行車方位、車速、與接近中的測速點距離 等資訊,將搭配 OSM 開放街圖 即時呈現在網頁上。 其中有關測速相機的即時資訊,系統還會以 TTS (Text-to-Speech) 文字轉語音的方式來提醒駕駛人注意。
3)
以 雙北公車的站牌、路線、行駛班車的位置,以及 YouBike 的站點位置、可借、可還車輛數 為例
4)
利用 MQTT、GAE、MongoDB 免費雲端平臺 記錄手機 App 回報的座標,事後再將指定時段內的移動軌跡繪製在 OSM 開放街圖上。
5)
無需下載手機 App,也不需事先取得夥伴們的同意,只需打開網頁、輸入相同的 MQTT Topic 即可分享彼此的座標,當網頁關閉時即刻停止分享。
網頁採用 GAE 雲端平臺來架設,手機座標則是透過 HTML5 的 GeoLocation API 來讀取,經由 WebSocket 連接至雲端 MQTT 主機,透過 MQTT Publish / Subscribe 達成位置資訊的分享,最後再搭配 OSM 開放街圖將夥伴們所在的位置動態的呈現在網頁上。
6)
採用 GAE 雲端平臺架設網頁,測速相機位置來自政府「測速執法設置點」開放資料。當使用者打開手機 Browser 連入指定網址後,即可透過 HTML5 的 GeoLocation API 持續讀取 Browser 所支援的「位置感應器」。
在此同時,行車方位、車速、與接近中的測速相機距離 等資訊,也會搭配 OSM 開放街圖 即時呈現在網頁上。其中有關測速相機的即時資訊,系統還會以 TTS (Text-to-Speech) 文字轉語音的方式來提醒駕駛人注意。
7)
使用免費開源的 3D 動畫軟體 Blender 來建構角色模型,再搭配 Google MediaPipe AI 電腦視覺開發套件,即時捕捉演員的身體姿態、臉部表情、手勢動作,同步牽動 AR/VR 場景中指定的角色模型,或錄製成動畫腳本。
此外,還可以搭配一些好用的工具,例如: MakeHuman、SketchFab、WebXR、RADiCAL、…等等,讓整個製程更加的輕鬆順暢、更易於應用和展現。
8)
應用 OpenPose 或 MediaPipe 套件 推估 2D 人體姿態,以操控 人偶動畫 及 實體機械手臂。
9)
採用 MediaPipe 機器學習套件、Stereo Camera 校準程序、及 OpenCV 3D Reconstruction 演算法,來建構「3D 人體姿態」數據。
換算出骨骼中各關節的角度後,再透過 WebSocket / MQTT 傳送至網頁中,並使用 Three.js 模組繪製與人體姿勢同步的 VR 3D 造型人偶。
10)
採用 MediaPipe 機器學習套件、Stereo Camera 校準程序、及 OpenCV 3D Reconstruction 演算法,來建構「3D 左右手手勢」數據。
推導算出兩手食指指尖的3D座標後,再透過 MQTT 傳送至 Robot Car,藉以控制 Robot Car 的前進、後退、轉向、機械手臂的高度、及夾鉗開合角度。
11)
應用 Google MediaPipe 電腦視覺開發套件,對辨識出的各種手勢姿態關鍵點座標進行採樣,同時加以標記分類,再送入 AI 機器學習模型中進行訓練。
兩階段的 AI 模型處理,可讓後者的自訓模型免於處理大量的 2D 影像資料,只需專注在精簡的關鍵點相對位置即可。模型簡化使得記憶體耗用減少、運算也更有效率。
完成訓練後,系統實際運作也同樣是讓視訊串流先通過 MediaPipe 來截取手勢姿態中的關鍵點座標,再交給訓練好的 AI 模型進行推演。
當具有特定意涵的手勢被識別出來時,立即轉成指令代碼,透過 MQTT 物聯網通訊協定,傳入 Home Assistant 智慧家居平臺,藉以觸發任何自訂的反應機制,最簡單的如:開燈、關燈動作。