訓(xùn)練數(shù)據(jù),MMLU75%,MT-bench 8.7分。微軟推出的Phi-3系列小型開源語言模型,在多種語言、推理、編程和數(shù)學(xué)基準(zhǔn)測試中展示了前所未有的性能,超越了相同大小及更大型號的其他模型。
- Phi-3模型由于其小型化設(shè)計,在資源受限的設(shè)備上運(yùn)行,同時能夠保持高效性能。
適應(yīng)多種環(huán)境:適合部署在智能手機(jī)、嵌入式系統(tǒng)等邊緣計算設(shè)備上,可以在不依賴云計算的情況下本地處理數(shù)據(jù),減少延遲,增強(qiáng)隱私保護(hù)。
Phi-3-mini3.8B的參數(shù),3.3T token訓(xùn)練數(shù)據(jù)。在多個學(xué)術(shù)基準(zhǔn)測試中,Phi-3-mini性能接近或等同于市場上的大模型,例如在MMLU測試中得分為69%,在MT-bench測試中得分為8.38分,和GPT-3.5和Mixtral 8x7B相當(dāng),甚至超過剛發(fā)布的Llama 3 8B。
Phi-3-small和Phi-3-medium這兩個是擴(kuò)展模型:Phi-3-Small是7B參數(shù),4.8T token
Phi-3-Medium是14B參數(shù),4.8T token訓(xùn)練數(shù)據(jù),MMLU78%,MT-bench 8.9分。
Phi-3 Microsoft Blog Phi-3微軟博客
Phi-3 Technical Report Phi-3技術(shù)報告
模型下載:
https://huggingface.co/microsoft/Phi-3-mini-128k-instruct