Link:alma-13b-r
ALMA-R模型,透過Contrastive Preference Optimization (CPO)進行了進一步的LoRA微調,超越了GPT-4和WMT獲獎者。使用者可以在GitHub倉庫中下載ALMA(-R)模型和資料集。ALMA-R建立在ALMA模型的基礎上,採用了我們提出的Contrastive Preference Optimization (CPO)進行微調,而不是ALMA中使用的Supervised Fine-tuning。CPO微調需要我們的三元組偏好資料進行偏好學習。ALMA-R現在可以匹配甚至超越GPT-4或WMT獲獎者!
需求人群:
"使用者可以使用ALMA-R模型進行機器翻譯,也可以下載相關資料集進行訓練和微調,還可以部署模型進行實際應用。"
使用場景示例:
使用ALMA-R模型進行中文到英文的機器翻譯
下載ALMA-R模型進行自定義微調
部署ALMA-R模型進行實時翻譯服務
產品特色:
ALMA(-R)模型下載
資料集下載
機器翻譯
模型微調
模型部署