Link:h2o-danube-1-8b
H2O-Danube-1.8B是一個基於1T標記訓練的1.8B語言模型,遵循LLama 2和Mistral的核心原則。儘管我們的模型在訓練時使用的總標記數量明顯少於類似規模的參考模型,但在多個基準測試中表現出極具競爭力的指標。此外,我們還發布了一個經過監督微調和直接偏好最佳化訓練的聊天模型。我們將H2O-Danube-1.8B以Apache 2.0許可證開放原始碼,進一步將大型語言模型民主化,讓更廣泛的受眾經濟地受益。
需求人群:
"可用於自然語言處理、聊天機器人、文字生成等領域"
使用場景示例:
用於構建智慧聊天機器人
應用於大規模文字生成任務
用於自然語言處理研究
產品特色:
1.8B標記的語言模型
開源免費
具有競爭力的效能指標
釋出了經過最佳化的聊天模型