2025-08-10 –, TR409-2
MLPerf 是由非營利組織 MLCommons 推動的開源 AI Benchmark 標準,廣泛應用於雲端、終端與嵌入式裝置,其程式碼、模型、測試流程皆公開於 GitHub,致力於打造透明且可重現的 AI 性能評估框架。本演講由 MLPerf Tiny Working Group 共同主席 Peter Chang 主講,將介紹 MLCommons 的開源使命、MLPerf 各類 benchmark 的設計與應用,並分享實際提交流程與業界案例。此外,演講也將介紹 MLPerf Enrichment Interview 訪談計畫與志工參與機會,目前 MLPerf 正在積極招募社群開發者參與 benchmark 的測試設計、程式開發與資料維護,歡迎有興趣貢獻 AI 評測基礎建設的開發者一同加入開源社群的行列!
COSCUP 的參與者
Difficulty:初學者
Peter Chang 是 MLCommons MLPerf Tiny Working Group 的共同主席,同時也是 Skymizer Taiwan Inc. 的業務開發經理。Peter 於國立交通大學電機工程學系取得學士學位,並於國立清華大學資訊工程研究所取得碩士學位。研發興趣涵蓋電控系統、作業系統、虛擬化技術、效能工程與電腦架構設計。目前致力於機器學習領域的軟硬體協同設計與 Benchmark 測試研究,積極參與 MLPerf Tiny 與 EdgeAI Foundation (原稱 TinyML Foundation) 等國際社群,曾任 tinyML Asia 2024 的議程委員,持續在社群中推動 AI 效能評估的開放標準發展。
Peter 也曾擔任 SkyPat(一套開源效能單元測試框架)與 ARMvisor(建構於 KVM 基礎的 Arm 虛擬化解決方案)等專案的維護者,長期投入於開源專案實作與推廣,期盼與更多開發者在 COSCUP 社群中交流與合作。