可以在筆記本電腦或移動(dòng)設(shè)備上運(yùn)行。

微軟研究院推出Phi-2小語言模型,“也可以解決物理等學(xué)科問題”

2023-12-13 11:07:14發(fā)布     來源:多知網(wǎng)    作者:王上  

  多知網(wǎng)12月13日消息,微軟研究院今天在X上宣布發(fā)布其 Phi-2 小語言模型(SML)和promptbase,微軟表示,“Phi-2 足夠小,可以在筆記本電腦或移動(dòng)設(shè)備上運(yùn)行。”

  Phi-2 有 27 億個(gè)參數(shù)(人工神經(jīng)元之間的連接),其他的大模型如Meta 的 Llama 2-7B 有 70 億個(gè)參數(shù)。

WechatIMG89.jpg

  微軟研究員說,在各種綜合基準(zhǔn)測試中,Phi-2 的表現(xiàn)超過了歐洲AI初創(chuàng)公司Mistral旗下?lián)碛?0億個(gè)參數(shù)的大語言模型(LLM)Mistral 7B、以及Meta發(fā)布的參數(shù)達(dá)130億個(gè)的AI模型Llama 2,甚至優(yōu)于谷歌最新發(fā)布的 32 億參數(shù)的Gemini Nano 2。

  微軟稱,Phi-2模型的性能與谷歌Gemini Nano 2相當(dāng),甚至更好,盡管模型規(guī)模較小。此外,也能夠正確回答問題并糾正學(xué)生。

WechatIMG91.jpg

(Phi-2回答物理題目)

  微軟于今年6月發(fā)布只有13 億參數(shù)的Phi-1模型,適用于QA問答、聊天格式和代碼等等場景。微軟表示,Phi-2在邏輯推理和安全性方面顯示出顯著的改進(jìn),通過正確的微調(diào)和定制,小型語言模型是云和邊緣應(yīng)用程序的強(qiáng)大工具。

  但是,微軟研究院指出,Phi-2 仍然存在很大的局限性,它只有“僅研究目的”的許可證,而不是商業(yè)用途,該許可證進(jìn)一步規(guī)定了 Phi -2只能用于“非商業(yè)、非創(chuàng)收、研究目的”。(多知網(wǎng) 王上)