Novita API 服務(wù)商
Novita API產(chǎn)品27
Mistral NeMo 12B 是由 Mistral AI 與 NVIDIA 聯(lián)合開發(fā)的開源大語言模型,擁有 120 億參數(shù),支持最長 128K token 的上下文輸入,專為多輪對話、代碼生成和多語言任務(wù)優(yōu)化。該模型采用 FP8 精度格式,提升推理效率,適用于企業(yè)級應(yīng)用。Mistral NeMo 12B 可通過 NVIDIA NIM 微服務(wù)部署,便于在各類平臺上快速集成和使用。
Mistral 7B Instruct 是由 Mistral AI 發(fā)布的開源指令微調(diào)語言模型,擁有 73 億參數(shù),專為對話生成、代碼編寫和函數(shù)調(diào)用等任務(wù)優(yōu)化。該模型采用 Grouped-Query Attention(GQA)機(jī)制,支持最長 32,768 個 token 的上下文輸入,性能優(yōu)于 LLaMA 2 13B,適用于智能問答、內(nèi)容創(chuàng)作和多語言應(yīng)用場景。Mistral 7B Instruct 可通過 Hugging Face 和 NVIDIA NIM 等平臺部署使用。 ?
Llama 3.1 70B Instruct 是 Meta 于 2024 年 7 月發(fā)布的多語言指令微調(diào)大語言模型,擁有 700 億參數(shù),支持最長 128K token 的上下文輸入。該模型采用優(yōu)化的 Transformer 架構(gòu),結(jié)合分組查詢注意力(GQA)機(jī)制,通過監(jiān)督微調(diào)(SFT)和人類反饋強(qiáng)化學(xué)習(xí)(RLHF)進(jìn)行訓(xùn)練,優(yōu)化了多語言對話、代碼生成、數(shù)學(xué)推理等任務(wù),適用于智能問答、內(nèi)容生成和多語言應(yīng)用場景。
Llama 3 8B Instruct 是 Meta 于 2024 年 4 月發(fā)布的開源指令微調(diào)語言模型,擁有 80 億參數(shù),專為對話、代碼生成和多語言任務(wù)優(yōu)化。該模型在 15 萬億 token 上進(jìn)行預(yù)訓(xùn)練,結(jié)合監(jiān)督微調(diào)(SFT)和人類反饋強(qiáng)化學(xué)習(xí)(RLHF)進(jìn)行訓(xùn)練,支持最長 8,192 個 token 的上下文輸入,適用于智能問答、內(nèi)容創(chuàng)作和企業(yè)級應(yīng)用場景。
Llama 3.2 11B Vision Instruct 是 Meta 于 2024 年 9 月發(fā)布的多模態(tài)指令微調(diào)模型,擁有 110 億參數(shù),支持圖像與文本混合輸入,輸出文本結(jié)果。該模型優(yōu)化了圖像識別、視覺問答、圖像描述和文檔解析等任務(wù),支持最長 128K token 的上下文輸入,適用于內(nèi)容生成、智能問答、教育輔助等場景??赏ㄟ^ Hugging Face 和 Amazon Bedrock 等平臺部署使用。
Llama 3.1 70B Instruct 是 Meta 于 2024 年發(fā)布的多語言指令微調(diào)大語言模型,擁有 700 億參數(shù),支持最長 128K token 的上下文輸入。該模型采用優(yōu)化的 Transformer 架構(gòu),結(jié)合分組查詢注意力(GQA)機(jī)制,通過監(jiān)督微調(diào)(SFT)和人類反饋強(qiáng)化學(xué)習(xí)(RLHF)進(jìn)行訓(xùn)練,優(yōu)化了多語言對話、代碼生成、數(shù)學(xué)推理等任務(wù),適用于智能問答、內(nèi)容生成和多語言應(yīng)用場景。
Llama 3.1 8B Instruct BF16 是 Meta 于 2024 年 7 月發(fā)布的多語言指令微調(diào)大語言模型,擁有 80 億參數(shù),采用 bfloat16 精度格式,優(yōu)化了推理性能和內(nèi)存效率。該模型支持最長 128K token 的上下文輸入,適用于對話生成、代碼編寫和多語言翻譯等任務(wù),適合在資源受限的本地部署和商業(yè)應(yīng)用場景。
Llama 3.1 8B Instruct 是 Meta 于 2024 年 7 月發(fā)布的多語言指令微調(diào)大語言模型,擁有 80 億參數(shù),支持最長 128K token 的上下文輸入。該模型采用 Grouped-Query Attention(GQA)機(jī)制,優(yōu)化了對話、文本生成、代碼編寫和多語言翻譯等任務(wù),適用于資源受限的本地部署和商業(yè)應(yīng)用場景。
Llama 3.2 1B Instruct 是 Meta 于 2024 年 9 月發(fā)布的輕量級多語言指令微調(diào)模型,擁有 12.3 億參數(shù),支持最長 128K token 的上下文輸入。該模型采用優(yōu)化的 Transformer 架構(gòu),結(jié)合 Grouped-Query Attention(GQA)機(jī)制,通過監(jiān)督微調(diào)(SFT)和人類反饋強(qiáng)化學(xué)習(xí)(RLHF)進(jìn)行訓(xùn)練,優(yōu)化了多語言對話、摘要生成和知識檢索等任務(wù),適用于邊緣設(shè)備和移動應(yīng)用。
Llama 3.2 3B Instruct 是 Meta 于 2024 年 9 月發(fā)布的多語言指令微調(diào)語言模型,擁有 32 億參數(shù),采用優(yōu)化的 Transformer 架構(gòu),結(jié)合 Grouped-Query Attention(GQA)機(jī)制,支持最長 128K token 的上下文輸入。該模型通過監(jiān)督微調(diào)(SFT)和人類反饋強(qiáng)化學(xué)習(xí)(RLHF)進(jìn)行訓(xùn)練,優(yōu)化了多語言對話、摘要生成和知識檢索等任務(wù),適用于邊緣設(shè)備和移動應(yīng)用。官方支持英語、德語、法語、意大利語、葡萄牙語、印地語、西班牙語和泰語等語言。 ?