語言模型

LLM Transparency Tool:分析Transformer語言模型的內部工作機制

LLM Transparency Tool(LLM-TT)是一個開源的互動式工具包,用於分析基於Transformer的語言模型的內部工作機制。它允許使用者選擇模型、新增提示並執行推理,透過視覺化的方式展示模型的注意力流動和資訊傳遞路徑。該工具旨在提高模型的透明度,幫助研究人員和開發者更好地理解和改進語言模型。

QuranGPT:求助至高者,他必不拒絕!

QuranGPT是一款基於人工智慧的語言模型工具,透過GPT-3技術實現。它可以回答使用者關於伊斯蘭教的問題,並提供指導和解答。QuranGPT的功能包括回答問題、解釋教義、提供教育知識等。它的優勢是能夠在大部分情況下提供準確和有幫助的回答。QuranGPT是免費使用的。它適用於那些希望瞭解伊斯蘭教的人,以及需要伊斯蘭教方面知識的學生、研究人員和教師。

MLC Chat:iPad和iPhone上的開源語言模型聊天應用

MLC Chat允許使用者在iPad和iPhone上本地與開源語言模型進行聊天。在將模型下載到應用程式後,一切都在本地執行,無需伺服器支援,而且無需網際網路連線,不記錄任何資訊。由於模型在本地執行,它僅適用於具有足夠VRAM的裝置,具體取決於所使用的模型。MLC Chat是開源專案MLC LLM的一部分,允許在各種硬體後端和本機應用程式上本地部署任何語言模型。MLC Chat是在您的手機上執行不同開源模型架構的執行時。該應用旨在非商業目的。它允許您執行從網際網路上下載的開源語言模型。每個模型可能受其各自的許可證約束。

Llama3-70B-SteerLM-RM:70億引數的多方面獎勵模型

Llama3-70B-SteerLM-RM是一個70億引數的語言模型,用作屬性預測模型,一個多方面的獎勵模型,它在多個方面對模型響應進行評分,而不是傳統獎勵模型中的單一分數。該模型使用HelpSteer2資料集訓練,並透過NVIDIA NeMo-Aligner進行訓練,這是一個可擴充的工具包,用於高效和高效的模型對齊。

MoA:提升大型語言模型效能的混合代理技術

MoA(Mixture of Agents)是一種新穎的方法,它利用多個大型語言模型(LLMs)的集體優勢來提升效能,實作了最先進的結果。MoA採用分層架構,每層包含多個LLM代理,顯著超越了GPT-4 Omni在AlpacaEval 2.0上的57.5%得分,達到了65.1%的得分,使用的是僅開源模型。

VideoLLaMA2-7B:大型影片-語言模型,提供視覺問答和影片字幕生成

VideoLLaMA2-7B是由DAMO-NLP-SG團隊開發的多模態大型語言模型,專注於影片內容的理解和生成。該模型在視覺問答和影片字幕生成方面具有顯著的效能,能夠處理複雜的影片內容,並生成準確、自然的語言描述。它在空間-時間建模和音訊理解方面進行了最佳化,為影片內容的智慧分析和處理提供了強大的支援。

MDLM:一種高效的遮蔽擴散語言模型

Masked Diffusion Language Models (MDLM) 是一種新型的語言模型,它透過遮蔽和擴散機制來生成高質量的文本資料。MDLM 透過改進的訓練方法和簡化的目標函式,提高了遮蔽擴散模型的效能,使其在語言建模基準測試中達到了新的最佳狀態,並接近自迴歸模型的困惑度。

返回頂端