Тёмный
No video :(

AI 電腦對決,MacBook Pro M3 Max 居然更便宜? 

安淇藍 Angelance
Подписаться 2,6 тыс.
Просмотров 20 тыс.
50% 1

買一台跑得動像是 ChatGPT 模型的電腦要多少錢?分析給你聽
How to setup a computer running Large-language model locally
更詳細的購買指南請參考
timdettmers.co...
組pc跑 LLM 的方法:
4張二手的nvidia 3090 配 1600w 供電

Опубликовано:

 

19 ноя 2023

Поделиться:

Ссылка:

Скачать:

Готовим ссылку...

Добавить в:

Мой плейлист
Посмотреть позже
Комментарии : 44   
@flystudiox
@flystudiox 9 месяцев назад
很實用的資訊,沒想到 Mac 在運行 LLM 有這樣的優勢
@angelance
@angelance 9 месяцев назад
Mac 居然也有實惠便宜的一天
@user-bf9ch3ri9h
@user-bf9ch3ri9h Месяц назад
但大部份都係 based on CUDA 去寫 LLM
@zijinzhang20
@zijinzhang20 7 месяцев назад
谢谢分享!我正愁在windows上不好跑LLM!
@user-vq2rx7mx6p
@user-vq2rx7mx6p 9 месяцев назад
想試試看裝語言模型就有人來講解了,希望有用,正在觀看😮
@3a146
@3a146 3 месяца назад
其实不行, apple只是缓存做的好, 如果你的大模型用例只有100 tokens的上下文, 那可以, 如果你想用真的大模型弄几千tokens, 比如codellama, 那m3就寄了, 而这时候英伟达还是该怎么跑怎么跑.
@3a146
@3a146 3 месяца назад
我今天差点下单mbp顶配, 所以仔细研究了一下.
@3a146
@3a146 3 месяца назад
其实,我又仔细研究了一下,还是下单了,4000刀的128gb,因为我仔细算了一下,要手搓一个这么大的inference endpoint,估计性能好不如它。就当DGX平替了。
@marvinevo1
@marvinevo1 4 месяца назад
虽然m3max很贵,但也是最有性价比
@kch0263
@kch0263 8 месяцев назад
很實用的資訊,可以去買M3 MAX了!
@frank_zhao
@frank_zhao 8 месяцев назад
可以等ultra,先用老的练练手
@wengchi-hung8326
@wengchi-hung8326 9 месяцев назад
LLM 請看能否在那台筆電finetune ,看跑不跑得動/要跑多久? 若不能finetune 以適合某些客戶需要的場景,不就少了些能盈利的可能性? 又,如果只是部署LLM,多張GeForce 3090,4090難道會比較慢? 比較貴? 我認為一分錢一分貨。蘋果雖RAM多,但算力差。不可能是所謂高C/P值的選項。如果您想說服我蘋果比NV顯卡還划算,請多跑實驗(LLM on H100? LLM on GeForce?) 讓影片更有價值,謝謝。
@angelance
@angelance 9 месяцев назад
關於如何組多張 3090 4090 的方式,我是參考 timdettmers.com/2023/01/30/which-gpu-for-deep-learning/ 適合願意花時間精打細算的人細細品嚐 作者用4張二手的3090配 1600瓦供電
@elvis1322
@elvis1322 8 месяцев назад
他不就說沒有要finetune 只是local端運行而已嗎?你是不是影片根本沒認真看,只看到m3 LLM幾個關鍵字就開始嘴了?
@wengchi-hung8326
@wengchi-hung8326 8 месяцев назад
@@elvis1322 嗯 我只是怕此片標題誤導群眾(買蘋果跑AI 高C/P值)。所以進來留言,提供個人觀點。 買這麼貴的電腦,連finetune LLM都不行;且模型推理或訓練皆慢…那麼,何來C/P值? 我是認為,若拿來盈利的機率很低,這樣的配置充其量🤔只是一個有趣的玩具 而已。 我是不否認也許串langchain 純跑模型推理,有機會能在Mac上弄出有 稍微像樣的LLM APP。但為了普適不同應用場景,使其能夠盈利或商用,可能還是要能夠finetune。 另外從主流NVIDIA 脫離,若既有開發程式碼已經有自定義的NVIDIA CUDA算子.. 那若要想辦法轉移至Apple,也是開發成本。
@wengchi-hung8326
@wengchi-hung8326 8 месяцев назад
另外我想說,在這個AI開發者群體裡面,我沒看過誰說M1/2/3 Max好棒棒,可以拿來賺錢 是高生產力工具。 我只看過M1/M2 Max有很多網紅買來剪片。 (可以盈利 所以他們買Mac 我沒有話說。) 很多AI開發者,擁有M1 Air 或Pro ,只是將其當作從本地連接到遠程伺服器開發的一台美麗跳板工具。(公司配給;或是反正需要一台本地機器能遠程連線到AI伺服器;有閒錢的話自己買本地機器如MacBook Air也無妨) 網路上是有開發者拿M1 MacBook Air 來教學,跑簡單深度學習範例(如Karparthy)。 🤔似乎僅此而已。 我在這邊留言就是提個醒。若你是剛進資工系的大學生/或是開始學習AI開發,自己也沒有遠程服務器可使用,🤔不要買蘋果。 買個具備NVIDIA 顯卡的電競筆電或桌機 比較高C/P值(不用擔心適配性,網路上各開源程式嗎都近乎100%支持NVIDIA GPU。可以跑各種練習。)至於Apple silicon跑AI的適配性? 也是近幾年才開始支持。很多開源也是跑不起來,即使跑得起來,可能還有精度問題(bug)…。
@wengchi-hung8326
@wengchi-hung8326 8 месяцев назад
先不說NVIDIA 當代顯卡,有專門矩陣運算的張量核心、TF32型別、以及單半混精訓練技術。 我們就單比較訓練AI可能是最基礎、最核心的FP32浮點運算速度(TFLOPs)。 M2記得是約10TFlops; M3 我猜測是最多到13TFlops。 這是什麼概念? 2017年的時候NVIDIA 有一張卡片叫做1080Ti,他的速度就是約12T Flops。當年賣約兩三萬。🤔那…請問現在是幾年…。2023年…🤔。 但也不是說Apple silicon一無是處。他這種CPU與GPU的統一記憶體架構,可讓GPU可以直接取得大量記憶體。啊其實這個也不是什麼新概念。以前IBM早有推過同樣的東西(arm架構伺服器,搭NVIDIA 顯卡,但也沒看有多少人願意買單)。 只是Apple silicon算力我希望一兩年後能加強到比較堪用的等級(例如一兩張Geforce4090的速度..)🤔只是一兩年後誰知道NVIDIA 又有多變態的消費級/伺服器級顯卡出現…。
@burger21215-b
@burger21215-b 6 месяцев назад
不能用一般的ram(非vram)來跑嗎,差距有多大
@angelance
@angelance 6 месяцев назад
普通ram的傳輸速度較慢 資料量大要等 一般的ram每秒傳輸的頻寬64Gb就很高了 M3 max 的unified ram 每秒可達400gb M2 Ultra 每秒 800Gb Nvidia 4090顯卡內的記憶體每秒1008Gb 大型語言模型需要處理極大量的資料 因此,因為頻寬有倍數的差距,會讓執行llm 的速度有明顯的差異
@user-li5or6qh6q
@user-li5or6qh6q 8 месяцев назад
不好意思想問所以如果新的macbook組 1TB 讀取速度會是7000mb?
@angelance
@angelance 8 месяцев назад
是的,1 TB 版的讀取速度的最快上限就有 7000mb
@kayanli91
@kayanli91 4 месяца назад
@@angelance 所以m3 max 買512GB版本就沒有嗎
@fpw6666
@fpw6666 7 месяцев назад
为什么要在自己电脑上跑大模型?用云服务不好吗。
@angelance
@angelance 7 месяцев назад
保護隱私,可以跑的更快,還可以更彈性的客製化自己專用的 GPT,使用在自己的品牌網站上等 小規模試驗的成本較低,利於開發客製化應用。中小企業,或想用 gpt 創業,做生意賺錢的可以考慮 如果只是個人日常輕度使用,可能用雲服務就夠用
@coolpigben
@coolpigben 5 месяцев назад
​@@user-sl8gi3vb6e在下路過 我是ai門外漢 但商用電腦以前也是一整間房子 肯定以後人人手上都能有一台量子電腦的
@whymetvtv
@whymetvtv 5 месяцев назад
那是因為你不是開發者,不需要聯網,可以避免信息洩露。也不需要支付雲端開發費用。自己訓練好模型和app以後,換回雲端的api就行了。​@@user-sl8gi3vb6e
@user-do7kb7td4h
@user-do7kb7td4h 3 месяца назад
跑模型跟產生模型是兩件事
@user-sl8gi3vb6e
@user-sl8gi3vb6e 3 месяца назад
@@user-do7kb7td4h 在未来世界,模型是fluid的,和self-modifying程序一样并不是write once run forever的,就用你们最引以为荣的neutral network来说的,它未来是横跨整个宇宙的,火星上的某个neuron的状态改变,是要在有限的时间内与你家里的neutron互动的,所以任何东西都不可能再是local的。
@dodomakudo1783
@dodomakudo1783 8 месяцев назад
一个4090的价钱😂
@wlt2801
@wlt2801 7 месяцев назад
请问不能跑在 Intel mac上吗
@angelance
@angelance 7 месяцев назад
可以,可以從最小 7b 模型跑跑看 LM studio 是跨平台的
@user-ky1gn7fh5l
@user-ky1gn7fh5l 5 месяцев назад
据说跑的越大 mac的统一内存越慢 不知道是不是真的
@angelance
@angelance 5 месяцев назад
內存速度固定,但模型的尺寸越大當然跑越慢,13b (130億)參數的肯定跑的比 70b(700億)參數的快
Далее
开源AI社区有多爱苹果电脑?
11:08
Просмотров 82 тыс.
7 Days Stranded In A Cave
17:59
Просмотров 45 млн
本地跑大模型,需要什么配置
5:21
Просмотров 15 тыс.
macOS Sequoia 的 10 大新功能|彼得森
13:59
Просмотров 142 тыс.
Zero to Hero LLMs with M3 Max BEAST
17:00
Просмотров 118 тыс.