#MPT-7B-

1 篇文章

科技新聞網站主編:MosaicML 推出 7B 引數、8K 內文長度的開源 LLM MPT-7B-8K
754

科技新聞網站主編:MosaicML 推出 7B 引數、8K 內文長度的開源 LLM MPT-7B-8K

MosaicML 推出擁有 70 億引數和 8k 內文長度的開源大型語言模型(LLM)概述 MosaicML 最近推出了一個名為 MPT-7B-8K 的開源大型語言模型,它擁有 70 億個引數和一個 8k 的內文長度。據該公司稱,該模型在 MosaicML 平臺上進行了預訓練,並透過從 MPT-7B

«1»