ALMA-13B-R:先進的機器翻譯模型

Link:alma-13b-r
ALMA-R模型,透過Contrastive Preference Optimization (CPO)進行了進一步的LoRA微調,超越了GPT-4和WMT獲獎者。使用者可以在GitHub倉庫中下載ALMA(-R)模型和資料集。ALMA-R建立在ALMA模型的基礎上,採用了我們提出的Contrastive Preference Optimization (CPO)進行微調,而不是ALMA中使用的Supervised Fine-tuning。CPO微調需要我們的三元組偏好資料進行偏好學習。ALMA-R現在可以匹配甚至超越GPT-4或WMT獲獎者!

需求人群:

"使用者可以使用ALMA-R模型進行機器翻譯,也可以下載相關資料集進行訓練和微調,還可以部署模型進行實際應用。"

使用場景示例:

使用ALMA-R模型進行中文到英文的機器翻譯

下載ALMA-R模型進行自定義微調

部署ALMA-R模型進行實時翻譯服務

產品特色:

ALMA(-R)模型下載

資料集下載

機器翻譯

模型微調

模型部署

返回頂端