TinyLlama:在3萬億令牌上預訓練一個1.1B Llama模型

Link:tinyllama
TinyLlama專案旨在在3萬億令牌上預訓練一個1.1B Llama模型。透過一些適當的最佳化,我們可以在“僅”90天內使用16個A100-40G GPU完成。訓練已於2023-09-01開始。我們採用了與Llama 2完全相同的架構和分詞器。這意味著TinyLlama可以在許多建立在Llama基礎上的開源專案中使用。此外,TinyLlama只有1.1B個引數,緊湊性使其能夠滿足許多對計算和記憶體佔用有限的應用需求。

需求人群:

"TinyLlama可用於聊天模型的微調和文字生成。"

使用場景示例:

https://github.com/jzhang38/TinyLlama

https://huggingface.co/docs/transformers/main/en/chat_templating

https://github.com/huggingface/transformers.git

產品特色:

文字生成

Transformers

安全張量

返回頂端