InternLM2:多語言預訓練語言模型

Link:internlm2
「書生·浦語2.0」InternLM2是一個面向中文和英文的大型多語言預訓練語言模型。它具有語言理解、自然語言生成、多模式推理、程式碼理解等強大的能力。模型採用Transformer架構並進行海量資料的預訓練,在長文字理解、對話、數學運算等多個方向上都達到了業界領先水平。該系列模型包含多種規模,使用者可以選擇合適的模型進行下游任務微調或構建聊天機器人等應用。

需求人群:

["聊天機器人","文字分類","問答系統","文字生成","機器翻譯"]

使用場景示例:

我透過Transformers API載入InternLM-7B-Chat模型,與其進行簡單的英文聊天互動

我使用InternLM-20B微調後的模型作為問答系統的Backbone,提升了20%的準確率

我使用InternLM進行長文字的機器閱讀理解任務,它可以準確定位難以發現的資訊

產品特色:

語言理解

自然語言生成

多語言支援

程式碼理解

數學運算

返回頂端