連結:https://changes.openinterpreter.com/log/local-iii
Local III是一個由超過100名來自世界各地的開發者共同開發的更新,它提供了易於使用的本地模型瀏覽器,深度整合了推理引擎如Ollama,為開放模型如Llama3、Moondream和Codestral定製了設定檔,並提供了一套設定,使離執行緒式碼解釋更加可靠。Local III還引入了一個免費的、託管的、可選的模型透過直譯器–model i。與i模型的對話將用於訓練我們自己的開源電腦控制語言模型。
需求人群:
- Local III的目標受眾是希望在本地訪問機器智慧以進行程式碼解釋和執行的開發者和技術人員。它為那些對隱私有高要求、希望在沒有網路連線的情況下使用AI模型的使用者提供了便利。
使用場景示例:
- 開發者使用Local III進行本地程式碼的編寫和測試,無需依賴線上服務。
- 資料科學家利用Local III在沒有網路的環境中分析和處理資料。
- 教育機構使用Local III作為教學工具,教授學生如何在本地環境中使用AI技術。
產品特色:
- 互動式設定,選擇推理提供商、模型、下載新模型等
- 引入i模型,提供無設定體驗,同時貢獻於本地執行的語言模型訓練
- 深度整合Ollama模型,簡化模型設定命令
- 最佳化設定檔,為codestral、llama3和qwen等SOTA本地語言模型提供推薦設定
- 本地視覺支援,將影象轉換為由Moondream生成的影象描述和OCR提取
- 實驗性本地作業系統模式,允許Open Interpreter控制滑鼠、鍵盤並檢視螢幕
使用教學:
1. 訪問Local III的官方網站並下載外掛。
2. 安裝外掛並啟動,根據需要選擇推理提供商和模型。
3. 使用互動式設定下載所需的新模型。
4. 配置推薦設定以最佳化特定模型的效能。
5. 利用Local Explorer進行模型的本地管理和使用。
6. 在需要時啟用本地視覺和作業系統模式,以實作更高階的互動功能。
7. 參與對話和模型訓練,為開源AI的發展做出貢獻。