Udemy線上課程 (Ken Cen出品)Generative AI第23部 訓練大語言模型必修 - LoRA & Quantization 講師:Ken Cen 影音教學 中文發音 繁體中文(DVD版) Udemy線上課程(KenCen出品)GenerativeAI第23部訓練大語言模型必修-LoRA&Quantization講師:KenCen影音教學中文發音繁體中文(DVD版)內容說明: 想讓您的AI模型在邊緣設備上跑得更快、更小、更智能?加入我們的課程,帶您從原理到實操,徹底掌握: 參數高效、成本低 LoRA僅透過低秩矩陣AAA和BBB的更新,凍結原始權重,使得微調參數量相比傳統方法大幅縮減,無需重訓整個模型,省時、省算力、省錢。 PyTorch直擊實戰 從torch.nn.utils.parametrize開始,手把手教你如何在線性層中注入LoRA參數化邏輯;以MNIST分類示範,讓你快速上手微調流程。 細節解密、數據驗證 不僅帶你凍結原始權重、訓練與測試,還深入探討如何對比LoRA啟用/禁用時的性能差異,並驗證原始權重是否真正保持不變。 參數效率深度分析 計算並對比原始模型參數量與LoRA額外引入的參數量,用數據說話,讓你更加清晰地掌握技術優勢與取捨。 完整數學推導與程式實現 從SVD(奇異值分解)基礎概念,到低秩近似矩陣生成,再到W+BA?scaleW+BA\cdot\text{scale}W+BA?scale的數學邏輯,理論與實作一氣呵成。 對稱vs.非對稱:深度對比兩大量化策略,掌握S(Scale)與Z(Zero?Point)的配置技巧,讓零點映射更“零失真”; PTQ實戰:手把手演示「訓練後量化」流程:插入觀察器、校準統計、S/Z計算,一鍵生成INT8模型,輕鬆部署; QAT精髓:揭開「量化感知訓練」原理,在訓練圖中插入“假量化”模塊,讓模型在訓練時就學會“自我修正”,大幅減少量化誤差; 課程內容: 01-課程需要準備的工具&環境 001課程工具準備.mp4 002如何使用uv作為包管理器和項目管理工具.mp4 02-如何在大語言模型fine-tuning中使用LoRA 001LoRA如何實現低秩分解Low-RankDecomposition.mp4 002如何使用Pytorch製作MNIST神經網絡.mp4 003如何使用訓練BigNet及對模型進行評估.mp4 004如何使用Pytorch實現LoRA低秩適應.mp4 03-PTQ訓練後量化&QAT量化感知訓練 001如何使用對稱量化&非對稱量化和反量化.mp4 002如何理解Calbration選擇合適的量化範圍.mp4 003如何使用Pytorch實現訓練後量化PTQ.mp4 004如何使用Pytorch實現QAT量化.mp4 站內搜索 請輸入軟體名稱或編號functionsubmit_searcher(){searcher_change()vare=document.getElementsByName('keyword2')[0];varu=encodeURI(e.value).split('-').join('[[jianhao]]');window.location='/tag/'+u+'.htm';returnfalse;}購物車functionlar_update_cart(){lch_ajax("/lch_ajax.php?action=cart_get",function(pc){document.getElementById("my_cart").innerHTML=pc;if(document.getElementById("ismenu")){init_disk_list_state();}});}lar_update_cart();functionadd_number_2_cart(number){lch_ajax("/lch_ajax.php?action=cart_add&number="+number,function(pc){document.getElementById("my_cart").innerHTML=pc;});returnfalse;}熱門關鍵字51job前程無憂Frank學院QingmingWpf詳解Zhao工作效率女性領導力三節課下篇六卦詳解王思迅文富打造獨角獸光佑有個小院行銷東東東東好課佳旋易經開門課的環境預備若水美伊思迅星空面對痛苦渡人渡己紫微篇資承遍路文化漢化課程養心養身養神編程入門養體霍大俠觸發器