
文心一言寫(xiě)代碼:代碼生成力的探索
--model /data/models/Mistral-Large-Instruct-2407/
--served-model-name aaa
--trust-remote-code
--tensor-parallel-size 4
--port 8000
部署完成后,可以使用標(biāo)準(zhǔn)OpenAI接口進(jìn)行訪問(wèn)。
以下Python代碼展示了如何通過(guò)LangChain庫(kù)與模型進(jìn)行交互:
from langchain.chat_models import ChatOpenAI
from langchain.schema import HumanMessage
llm = ChatOpenAI(
streaming=True,
verbose=True,
openai_api_key='none',
openai_api_base='http://10.11.12.13:8000/v1',
model_name='aaa'
)
output = llm([HumanMessage(content='你好')])
print(output.content)
為了驗(yàn)證模型的推理能力,可以使用之前被認(rèn)為是挑戰(zhàn)性的問(wèn)題進(jìn)行測(cè)試。例如,問(wèn)題“9.11和9.9哪個(gè)大?”是一個(gè)經(jīng)典的測(cè)試問(wèn)題。Mistral-Large-Instruct-2407能夠正確回答,但其推理過(guò)程尚需優(yōu)化。
9.11 比 9.9 大。
原因如下:
1. 首先比較整數(shù)部分:9.11 和 9.9 的整數(shù)部分都是 9,所以它們相等。
2. 接下來(lái)比較小數(shù)部分:
- 9.11 的小數(shù)部分是 0.11。
- 9.9 的小數(shù)部分是 0.9。
0.11 比 0.9 小,但我們需要比較整體數(shù)值,而不是單獨(dú)的小數(shù)部分。
盡管模型的回答是正確的,但其推理過(guò)程中存在邏輯錯(cuò)誤,如“因?yàn)?9.11 比 9.9 多了 0.01”這一點(diǎn)仍需改進(jìn)。
Mistral-Large-Instruct-2407官方宣稱支持最大128k token,但當(dāng)前配置文件顯示最大支持32k token。這一限制在實(shí)際應(yīng)用中會(huì)導(dǎo)致超出限制的請(qǐng)求報(bào)錯(cuò):
BadRequestError: Error code: 400 - {'object': 'error', 'message': "This model's maximum context length is 32768 tokens..."}
目前,vllm框架尚未支持Mistral-Large-Instruct-2407的函數(shù)調(diào)用,這在某些應(yīng)用場(chǎng)景中會(huì)限制其功能。
Mistral-Large-Instruct-2407在通用能力上表現(xiàn)出色,尤其是在多語(yǔ)言支持和編程能力上,已經(jīng)接近了GPT4的水平。其在MMLU上的準(zhǔn)確度達(dá)到了84.0%,這在業(yè)內(nèi)是一個(gè)顯著的成績(jī)。
未來(lái)版本可以在以下幾個(gè)方向進(jìn)行改進(jìn):
問(wèn):Mistral-Large-Instruct-2407支持哪些編程語(yǔ)言?
問(wèn):如何優(yōu)化模型的推理速度?
問(wèn):模型支持的最大token數(shù)量是多少?
問(wèn):如何處理超出token限制的錯(cuò)誤?
問(wèn):模型的通用能力如何與GPT4比較?
通過(guò)以上的詳細(xì)介紹,相信您對(duì)Mistral-Large-Instruct-2407的部署和使用有了更深入的了解。
對(duì)比大模型API的內(nèi)容創(chuàng)意新穎性、情感共鳴力、商業(yè)轉(zhuǎn)化潛力
一鍵對(duì)比試用API 限時(shí)免費(fèi)