Link:olmo
OLMo是一個開源的語言模型和訓練框架,由AI2研究院釋出。它提供了完整的訓練資料、程式碼、模型引數、評估程式碼等資源,使研究人員能夠訓練並實驗大規模語言模型。OLMo的優勢在於真正開放,使用者可以訪問從資料到模型的完整資訊,輔以豐富的檔案,便於研究人員進行開放式研究和協作。該框架降低了語言模型研究的門檻,使更多人參與進來推動語言模型技術進步。
需求人群:
"語言模型技術研究"
使用場景示例:
我們使用OLMo框架訓練了一個10億引數規模的語言模型
我們基於OLMo的模型做了語言理解方面的研究
我們參考了OLMo的訓練方式,調整了部分超引數後取得了不錯的效果
產品特色:
開源語言模型
完整的訓練框架