日日夜夜免费无卡顿,国内精品久久,久章草在线视频观看,天天操天天干天天人天天干,国产二区亚洲三区,国产自拍久久久国产无码,91免费 无码 国产在线观看,国产精品蝌蚪,日本美女家庭教师黄色网站,天天操猛猛操,国产无遮挡又黄又爽在线观,天天综合网精品视频7799,囯产夜轮视屏,五月丁香六月综合人妻,人人草人人干人人,青草影院国产

當(dāng)前位置:首頁(yè) > 資訊中心 > 市場(chǎng)行情 > 正文

Mac 專(zhuān)屬大模型框架來(lái)了:兩行代碼部署,能聊本地?cái)?shù)據(jù)還支持中文

www.help-services.cn  2024-03-05 10:46  

Mac 用戶(hù),終于不用羨慕 N 卡玩家有專(zhuān)屬大模型 Chat with RTX 了!大神推出的新框架,讓蘋(píng)果電腦也跑起了本地大模型,而且只要兩行代碼就能完成部署。

仿照 Chat with RTX,框架的名字就叫 Chat with MLX(MLX 是蘋(píng)果機(jī)器學(xué)習(xí)框架),由一名 OpenAI 前員工打造。

黃院士的框架里有的功能,例如本地文檔總結(jié)、YouTube 視頻分析,Chat with MLX 里也都有。

而且包括中文在內(nèi)共有 11 種可用語(yǔ)言,自帶支持的開(kāi)源大模型多達(dá)七種。

體驗(yàn)過(guò)的用戶(hù)表示,雖然計(jì)算量負(fù)擔(dān)對(duì)蘋(píng)果設(shè)備可能大了點(diǎn),但是新手也很容易上手,Chat with MLX 真的是個(gè)好東西。

那么,Chat with MLX 的實(shí)際效果究竟怎么樣呢?

用 MacBook 部署本地大模型

Chat with MLX 已經(jīng)集成到了 pip 命令中,所以在有 pip 的條件下,只需要一行代碼就能完成安裝:

pip install chat-with-mlx

安裝完成后,在終端中輸入 chat-with-mlx 并按回車(chē),就會(huì)自動(dòng)完成初始化并彈出網(wǎng)頁(yè)(第一次啟動(dòng)及下載模型時(shí)需要連接到 Hugging Face 服務(wù)器)。

▲Chat with MLX 實(shí)測(cè)效果

將這個(gè)頁(yè)面向下翻,選擇想用的模型和語(yǔ)言后點(diǎn)擊 Load Model,系統(tǒng)就會(huì)自動(dòng)下載模型信息并加載。

注意如果中途需要更換模型,需要先將前面的模型 Unload 再選擇新模型。

其他模型只要 Hugging Face 上有并且兼容 MLX 框架,也可以手工添加,方法可以到 GitHub 頁(yè)中了解。

如果要使用自有數(shù)據(jù),需要先選擇類(lèi)型(文件或 YouTube 視頻),然后上傳文件或填寫(xiě)視頻鏈接,并點(diǎn)擊 Start Indexing 建立索引。

按照開(kāi)發(fā)者的說(shuō)法,只要不點(diǎn)擊 Stop,再次上傳新文件后數(shù)據(jù)是累加的。當(dāng)然,也可以不傳數(shù)據(jù),直接當(dāng)成普通大模型來(lái)用。

為了避免推理時(shí)間過(guò)長(zhǎng),我們選擇了規(guī)模較小的 Quyen-SE 來(lái)進(jìn)行測(cè)試。

(Quyen-SE 基于阿里的通義千問(wèn)改造而成,Chat with MLX 的作者也參與了研發(fā)工作。)

首先看看模型不加定制數(shù)據(jù)的速度,在 M1 芯片的 MacBook 上,這個(gè) 0.5B 的模型表現(xiàn)是這樣的,可以說(shuō)比較流暢。

但在宣傳中,Chat with MLX 的主要賣(mài)點(diǎn),還是本地 RAG 檢索。為了確保素材文檔在模型的訓(xùn)練數(shù)據(jù)中不存在,小編從箱底翻出了自己不公開(kāi)上網(wǎng)的本科畢業(yè)論文。

我們?cè)儐?wèn)了論文中不同位置的細(xì)節(jié),一共根據(jù)文章內(nèi)容給 Chat with MLX 設(shè)計(jì)了十個(gè)問(wèn)題。

其中有七個(gè)回答是正確(符合文意)的,不過(guò)速度和純生成相比要略慢一些。

測(cè)試中我們還發(fā)現(xiàn),模型還有一定的幾率會(huì)把提示詞吐出來(lái),不過(guò)觸發(fā)條件似乎沒(méi)有什么規(guī)律。

但可以看出,為了提高模型的表現(xiàn),作者已經(jīng)把給小費(fèi)這種新興的提示詞技巧都招呼上了。

整體感受下來(lái),可能是受制于算力原因,在蘋(píng)果設(shè)備上部署本地大模型,效果無(wú)法和英偉達(dá)的 Chat with RTX 相媲美。

同時(shí),在 GitHub 上,也有許多用戶(hù)反饋各種各樣的安裝失敗問(wèn)題,作者也都進(jìn)行了回復(fù)或跟進(jìn),并把程序重新更新了一遍。

但無(wú)論如何,選擇本地化部署,數(shù)據(jù)的安全性可能是更為重要的考量因素;而且從中可以看出,本地化、專(zhuān)屬化的大模型,已經(jīng)開(kāi)始出現(xiàn)向消費(fèi)級(jí)產(chǎn)品普及的趨勢(shì)。

用網(wǎng)友的話(huà)說(shuō),升級(jí) AI PC 的時(shí)間到了。

GitHub:

https://github.com/qnguyen3/chat-with-mlx

本文來(lái)自微信公眾號(hào):量子位 (ID:QbitAI),作者:克雷西

廣告聲明:文內(nèi)含有的對(duì)外跳轉(zhuǎn)鏈接(包括不限于超鏈接、二維碼、口令等形式),用于傳遞更多信息,節(jié)省甄選時(shí)間,結(jié)果僅供參考,IT之家所有文章均包含本聲明。

本文地址:http://www.help-services.cn/info/2024/03/0510463630.html

打印該頁(yè) 】【 關(guān)閉窗口
相關(guān)資訊