--model /data/models/Mistral-Large-Instruct-2407/
--served-model-name aaa
--trust-remote-code
--tensor-parallel-size 4
--port 8000

部署完成后,可以使用標(biāo)準(zhǔn)OpenAI接口進(jìn)行訪問(wèn)。

使用示例

以下Python代碼展示了如何通過(guò)LangChain庫(kù)與模型進(jìn)行交互:

from langchain.chat_models import ChatOpenAI
from langchain.schema import HumanMessage

llm = ChatOpenAI(
streaming=True,
verbose=True,
openai_api_key='none',
openai_api_base='http://10.11.12.13:8000/v1',
model_name='aaa'
)
output = llm([HumanMessage(content='你好')])
print(output.content)

Mistral-Large-Instruct-2407 的測(cè)試與優(yōu)化

測(cè)試用例

為了驗(yàn)證模型的推理能力,可以使用之前被認(rèn)為是挑戰(zhàn)性的問(wèn)題進(jìn)行測(cè)試。例如,問(wèn)題“9.11和9.9哪個(gè)大?”是一個(gè)經(jīng)典的測(cè)試問(wèn)題。Mistral-Large-Instruct-2407能夠正確回答,但其推理過(guò)程尚需優(yōu)化。

9.11 比 9.9 大。

原因如下:

1. 首先比較整數(shù)部分:9.11 和 9.9 的整數(shù)部分都是 9,所以它們相等。
2. 接下來(lái)比較小數(shù)部分:
- 9.11 的小數(shù)部分是 0.11。
- 9.9 的小數(shù)部分是 0.9。

0.11 比 0.9 小,但我們需要比較整體數(shù)值,而不是單獨(dú)的小數(shù)部分。

小結(jié)

盡管模型的回答是正確的,但其推理過(guò)程中存在邏輯錯(cuò)誤,如“因?yàn)?9.11 比 9.9 多了 0.01”這一點(diǎn)仍需改進(jìn)。

部署中的常見(jiàn)問(wèn)題

最大Token限制

Mistral-Large-Instruct-2407官方宣稱支持最大128k token,但當(dāng)前配置文件顯示最大支持32k token。這一限制在實(shí)際應(yīng)用中會(huì)導(dǎo)致超出限制的請(qǐng)求報(bào)錯(cuò):

BadRequestError: Error code: 400 - {'object': 'error', 'message': "This model's maximum context length is 32768 tokens..."}

函數(shù)調(diào)用支持

目前,vllm框架尚未支持Mistral-Large-Instruct-2407的函數(shù)調(diào)用,這在某些應(yīng)用場(chǎng)景中會(huì)限制其功能。

Mistral-Large-Instruct-2407 的優(yōu)勢(shì)與未來(lái)展望

模型優(yōu)勢(shì)

Mistral-Large-Instruct-2407在通用能力上表現(xiàn)出色,尤其是在多語(yǔ)言支持和編程能力上,已經(jīng)接近了GPT4的水平。其在MMLU上的準(zhǔn)確度達(dá)到了84.0%,這在業(yè)內(nèi)是一個(gè)顯著的成績(jī)。

未來(lái)改進(jìn)方向

未來(lái)版本可以在以下幾個(gè)方向進(jìn)行改進(jìn):

  1. 增強(qiáng)token限制以支持更大規(guī)模的上下文。
  2. 優(yōu)化推理過(guò)程的邏輯準(zhǔn)確性。
  3. 擴(kuò)展函數(shù)調(diào)用的支持以增強(qiáng)實(shí)用性。

FAQ

  1. 問(wèn):Mistral-Large-Instruct-2407支持哪些編程語(yǔ)言?

  2. 問(wèn):如何優(yōu)化模型的推理速度?

  3. 問(wèn):模型支持的最大token數(shù)量是多少?

  4. 問(wèn):如何處理超出token限制的錯(cuò)誤?

  5. 問(wèn):模型的通用能力如何與GPT4比較?

通過(guò)以上的詳細(xì)介紹,相信您對(duì)Mistral-Large-Instruct-2407的部署和使用有了更深入的了解。

上一篇:

AndesGPT-2.0 本地知識(shí)庫(kù)與智能體的構(gòu)建與應(yīng)用

下一篇:

Hunyuan-Turbo-Preview 常用提示詞指南
#你可能也喜歡這些API文章!

我們有何不同?

API服務(wù)商零注冊(cè)

多API并行試用

數(shù)據(jù)驅(qū)動(dòng)選型,提升決策效率

查看全部API→
??

熱門(mén)場(chǎng)景實(shí)測(cè),選對(duì)API

#AI文本生成大模型API

對(duì)比大模型API的內(nèi)容創(chuàng)意新穎性、情感共鳴力、商業(yè)轉(zhuǎn)化潛力

25個(gè)渠道
一鍵對(duì)比試用API 限時(shí)免費(fèi)

#AI深度推理大模型API

對(duì)比大模型API的邏輯推理準(zhǔn)確性、分析深度、可視化建議合理性

10個(gè)渠道
一鍵對(duì)比試用API 限時(shí)免費(fèi)