IT之家 7 月 19 日消息,英偉達聯(lián)合法國初創(chuàng)公司 Mistral AI,今天發(fā)布了全新的 Mistral-NeMo AI 大語言模型,擁有 120 億個參數(shù),上下文窗口(AI 模型一次能夠處理的最大 Token 數(shù)量)為 12.8 萬個 token。
VentureBeat 與 Midjourney 合作制作
Mistral-NeMo AI 大模型主要面向企業(yè)環(huán)境,讓企業(yè)不需要使用大量云資源的情況下,實施人工智能解決方案。
由于 Mistral NeMo 依賴于標準架構,因此企業(yè)在使用過程中可直接替換任何使用 Mistral 7B 的系統(tǒng)。
英偉達是 GPU 制造和人工智能硬件領域的巨頭,而 Mistral AI 則是歐洲人工智能領域的后起之秀,雙方的合作標志著人工智能行業(yè)的企業(yè)解決方案發(fā)生了重大轉(zhuǎn)變。
行業(yè)分析師認為,這一版本可能會極大地顛覆人工智能軟件市場。Mistral-NeMo 的推出代表著企業(yè)人工智能部署的潛在轉(zhuǎn)變。
通過提供一種可在本地硬件上高效運行的模式,英偉達和 Mistral AI 正在解決阻礙許多企業(yè)廣泛采用人工智能的問題,如數(shù)據(jù)隱私、延遲以及與基于云的解決方案相關的高成本。
此舉有可能創(chuàng)造公平的競爭環(huán)境,讓資源有限的小型企業(yè)也能利用人工智能功能,而這些功能以前只有擁有大量 IT 預算的大型企業(yè)才能使用。
然而,這一發(fā)展的真正影響將取決于該模型在實際應用中的表現(xiàn),以及圍繞該模型開發(fā)的工具和支持生態(tài)系統(tǒng)。
該模型以 Apache 2.0 許可發(fā)布,允許商業(yè)使用,這將加速其在企業(yè)環(huán)境中的應用。IT之家附上官方公布的該 AI 模型性能參數(shù)如下:
表 1:Mistral NeMo 基本模型與 Gemma 2 9B 和 Llama 3 8B 的性能比較。
圖 1:Mistral NeMo 在多語言基準測試中的表現(xiàn)。
圖 2:Tekken 壓縮率
Mistral NeMo 指令調(diào)整模型精度。使用 GPT4o 根據(jù)官方參考文獻進行的評估。