語言模型

TOFU:TOFU資料集為大型語言模型的虛構遺忘任務提供基準。

TOFU資料集包含根據不存在的200位作者虛構生成的問答對,用於評估大型語言模型在真實任務上的遺忘效能。該任務的目標是遺忘在各種遺忘集比例上經過微調的模型。該資料集採用問答格式,非常適合用於流行的聊天模型,如Llama2、Mistral或Qwen。但是,它也適用於任何其他大型語言模型。對應的程式碼庫是針對Llama2聊天和Phi-1.5模型編寫的,但可以輕鬆地適配到其他模型。

MambaByte:無標記的選擇性狀態空間模型

曼巴位元組是一種無標記的語言模型,直接從原始位元組中學習,消除了子詞標記化的偏見。它在位元組上執行,但會導致序列顯著變長,標準的自迴歸Transformer在這種情況下的擴充套件性較差。我們在位元組序列上自迴歸訓練了曼巴位元組,這是Mamba狀態空間模型的無標記適應。我們的實驗表明,與其他位元組級模型相比,曼巴位元組具有較高的計算效率。我們還發現,曼巴位元組在與最先進的子詞Transformer的競爭中表現出色,甚至超越其效能。此外,由於長度的線性擴充套件,曼巴位元組在推理過程中比Transformer具有更快的速度。我們的發現證實了曼巴位元組在實現無標記語言建模方面的可行性。

Astraios:引數高效Fine-tuning大型語言模型

Astraios是一個提供大型語言模型Fine-tuning的平臺,提供了多種引數高效Fine-tuning方法,以及多種規模的模型選擇。使用者可以在該平臺上進行大規模語言模型的Fine-tuning,並獲得最佳的成本-效能平衡。平臺還提供了豐富的模型、資料集和文件,方便使用者進行相關研究和開發。定價靈活,適用於不同規模的使用者需求。

StreamingLLM:具有注意力下沉的高效流媒體語言模型

StreamingLLM是一種高效的語言模型,能夠處理無限長度的輸入,而不會犧牲效率和效能。它透過保留最近的令牌和注意力池,丟棄中間令牌,從而使模型能夠從最近的令牌生成連貫的文字,而無需快取重置。StreamingLLM的優勢在於能夠在不需要重新整理快取的情況下,從最近的對話中生成響應,而不需要依賴過去的資料。

Claude AI:先進AI語言模型

Claude 2是由Anthropic AI開發的先進語言模型,提供廣泛的資料處理能力,創意寫作,程式設計任務和資料分析。它支援100K token limit,推理能力僅次於ChatGPT4。免費使用Claude 2 AI,享受與先進AI技術的無縫互動。

Cola:大型語言模型是視覺推理協調器

Cola是一種使用語言模型(LM)來聚合2個或更多視覺-語言模型(VLM)輸出的方法。我們的模型組裝方法被稱為Cola(COordinative LAnguage model or visual reasoning)。Cola在LM微調(稱為Cola-FT)時效果最好。Cola在零樣本或少樣本上下文學習(稱為Cola-Zero)時也很有效。除了效能提升外,Cola還對VLM的錯誤更具魯棒性。我們展示了Cola可以應用於各種VLM(包括大型多模態模型如InstructBLIP)和7個資料集(VQA v2、OK-VQA、A-OKVQA、e-SNLI-VE、VSR、CLEVR、GQA),並且它始終提高了效能。

A Vision Check-up:學習模型間字元串關係,檢查視覺世界

這篇論文系統評估了大型語言模型(LLMs)生成和識別逐漸複雜的視覺概唸的能力,並展示瞭如何使用文字模型訓練初步的視覺表示學習系統。雖然語言模型不能直接處理畫素級的視覺資訊,但使用程式碼表示影象進行研究。LLM 生成的影象雖然不像自然影象,但在影象生成和糾正方面的結果表明,準確建模字元串可以教會語言模型許多關於視覺世界的方面。此外,利用文字模型生成的影象進行自監督視覺表示學習的實驗,突出了只使用 LLMs 就能訓練能夠對自然影象進行語義評估的視覺模型的潛力。

moondream:一款強大的小型視覺語言模型,無處不在

moondream是一個使用SigLIP、Phi-1.5和LLaVA訓練資料集構建的16億引數模型。由於使用了LLaVA資料集,權重受CC-BY-SA許可證保護。您可以在Huggingface Spaces上嘗試使用它。該模型在VQAv2、GQA、VizWiz和TextVQA基準測試中表現如下:LLaVA-1.5(13.3B引數):80.0、63.3、53.6、61.3;LLaVA-1.5(7.3B引數):78.5、62.0、50.0、58.2;MC-LLaVA-3B(3B引數):64.2、49.6、24.9、38.6;LLaVA-Phi(3B引數):71.4、-、35.9、48.6;moondream1(1.6B引數):74.3、56.3、30.3、39.8。

返回頂端