1、負(fù)責(zé)大語(yǔ)言模型(LLM)的微調(diào)優(yōu)化,包括指令調(diào)優(yōu)(Instruction Tuning)、對(duì)齊訓(xùn)練(Alignment)等;
2、使用LlamaFactory 、MS-Swift 等工具鏈進(jìn)行模型高效微調(diào)(如LoRA、Adapter、QLoRA等);
3、設(shè)計(jì)并實(shí)現(xiàn)模型壓縮方案(量化、剪枝、蒸餾),提升模型推理效率;
4、構(gòu)建數(shù)據(jù)預(yù)處理流程,優(yōu)化訓(xùn)練數(shù)據(jù)質(zhì)量及多樣性;
5、與算法、工程團(tuán)隊(duì)協(xié)作,將微調(diào)后的模型部署到生產(chǎn)環(huán)境;
6、跟蹤大模型領(lǐng)域前沿技術(shù)(如MoE、長(zhǎng)上下文訓(xùn)練),推動(dòng)技術(shù)落地。
具備如下條件優(yōu)先:
1、在GitHub有開源項(xiàng)目(如基于LlamaFactory的微調(diào)案例);
2、發(fā)表過(guò)頂會(huì)論文(NeurIPS/ICML/ACL等)或技術(shù)博客;
3、熟悉多模態(tài)模型(如Qwen-VL)、垂直領(lǐng)域(通信/政企)微調(diào)經(jīng)驗(yàn);
4、了解大模型推理加速技術(shù)(vLLM、TensorRT-LLM)。