Тёмный

Nvidia RTX CHAT - самый простой способ как установить Искуственный Интеллект на свой ПК 

TURBINSKIY
Подписаться 18 тыс.
Просмотров 17 тыс.
50% 1

Паблик ВК: turbinskiy_artwork
Телеграм: t.me/turbinskiy_art
Nvidia RTX CHAT : • Create A Personalized ...
⭐ Поддержать великодушно:
www.donationalerts.com/r/alek...

Хобби

Опубликовано:

 

12 фев 2024

Поделиться:

Ссылка:

Скачать:

Готовим ссылку...

Добавить в:

Мой плейлист
Посмотреть позже
Комментарии : 95   
@user-cy8ms4uf5f
@user-cy8ms4uf5f 3 месяца назад
Очень познавательно!!! Спасибо большое!!!
@sergdonskikh2140
@sergdonskikh2140 3 месяца назад
Благодарю за познавательное видео!
@alexs1681
@alexs1681 3 месяца назад
Супер! Актуальная инфа.
@MrWarrcan
@MrWarrcan 3 месяца назад
Все у кого меньше 8 гигов видеокарта, пролетают.
@user-ox9cp7tn1m
@user-ox9cp7tn1m 2 месяца назад
Только купил 4070)
@NoldoWalker
@NoldoWalker 3 месяца назад
А нет в планах инструкции по установке в эту прогу нормальной модели, особенно для кодеров и того, какую стоит выбрать?
@lol-js2ow
@lol-js2ow 3 месяца назад
Кодеры обычно на гитхабе такое ищут
@NoldoWalker
@NoldoWalker 3 месяца назад
@@lol-js2ow ну там много разных и надо сидеть разбираться ставить, пробовать. Если чел в теме и сделает это быстрее - то это сильно упростит процесс.
@lol-js2ow
@lol-js2ow 3 месяца назад
@@NoldoWalker Лучше с поиском помучаться бро но поставить мощнейший софт)
@NoldoWalker
@NoldoWalker 3 месяца назад
@@lol-js2ow ну я вообще в нейросетях не разбираюсь. Пользуюсь phind, bard и иногда gpt. Единственное неудобство - не могу скормить им свой инди проект чтобы общаться с ними с учетом его контекста (не по работе). Тратить месяц на тесты, скапчивание, гуглинг, перебор всего этого зоопарка, если чел который разобрался может посоветовать или сказать что такого нет - нафиг надо.
@nikolaydd6219
@nikolaydd6219 2 месяца назад
Лучшая локальная модель это codelama. Работает хуже и медленней гпт3, но зато на своей машине. Понимает запрос на Рус. Я юзал 34B. Все что меньше совсем плохи. Юзал через lmstudio. По сути софт от н-видиа это копия lmstudio.
@nerediska385
@nerediska385 4 дня назад
А сколько папка с ней весит в итоге?
@BelyaevStas
@BelyaevStas 3 месяца назад
Спасибо за инфу! Чем лучше LM Studio?
@wlatol6512
@wlatol6512 3 месяца назад
@@MitrichDX ну модели на 35b+ параметров выдают неплохой результат вполне, хотя и долго генерят на моей 3060. Кстати отчасти это проблема того что у меня еще оперативки мало, было бы больше 16гб думаю и на 35b параметров нормально крутились бы
@wlatol6512
@wlatol6512 3 месяца назад
@@MitrichDX в лм студио многие модели плохо распознают русский это во-первых. Во-вторых не знаю какие вы пробовали модели, я пробовал несколько моделей на 7, на 13, на 35b параметров (не помню конкретные названия), помню точно пробовал mixtral 8*7b и они все выдавали вполне нормальные результаты? (Я просто хз насколько вы интересовались темой, вы качали модели с наименьшим весом или нормальные версии гигов на 30-40?)
@php585
@php585 3 месяца назад
@@wlatol6512 Тестил в LM разные и смотрел результаты на гитхабе - для общения qwen лучше, для написание кода deepseek coder.Я тестил на вопросах на русском, это китайские нейросети они лучше
@denisgolovchenko
@denisgolovchenko 3 месяца назад
@@MitrichDX, попробуй openchat-3.5. Да, она на 7B, но действительно хорошо работает.
@nikolaydd6219
@nikolaydd6219 2 месяца назад
По опыту скажу, что модели на 34B сравнимы с GPT3, но не лучше его
@xopyc_play
@xopyc_play 3 месяца назад
В целом вариант с загрузкой книг и прочего штука прикольная, я бы просто к папке файлов проекта путь задал =) Хотя наверное в подпапках искать уже она ничего не будет =) Но учитывая слабость удержания контекста как всегда смысл теряется =( Вообще давно было интересно, как самому обучить такую нейросетку под конкретно свои нужды, к примеру только поиск инфы по докам и её систематизация... Возможно ещё парочка дел не сложных, чтобы просто как секретарь работала... Но чую тут либо даже такое ни один комп даже с 4090 и кучей памяти не потянет или будет тупо медленно всё, либо процент тупняков и галлюцинаций будет где-то процентов 90 =)))) В общем либо нужно свою концепцию этих нейросетей нужно придумывать, которая будет более эффективная, либо продолжать пользоваться несравненными if else =)
@user-uo3pv4js4j
@user-uo3pv4js4j 3 месяца назад
скачалось только 15gb и браузер остановил загрузку. Файл поврежден, чертов нвидиа. Качал 6 часов
@molkotok
@molkotok 3 месяца назад
Предпочитаю LM Studio потому как она позволяет запускать модели через свой сервер, что позволяет подключать модель к моим python скриптам. Но и простой част там тоже есть. Если кто знает ещё проекты, которые позволяют работать с моделями по API, кидайте, думаю всем будет полезно.
@Dilfin90
@Dilfin90 3 месяца назад
KoboldCpp
@TheRedesc
@TheRedesc 3 месяца назад
@@Dilfin90 Nitro , Jan , LocalAI
@JohnyFrans
@JohnyFrans 3 месяца назад
Для LM Studio тоже видеокарта хорошая нужна?
@Dilfin90
@Dilfin90 3 месяца назад
@@JohnyFrans KoboldCpp умеет на проце, остальные не знаю.
@DjRainbowDoctor
@DjRainbowDoctor 2 месяца назад
хз он у меня лагает, а этот норм работает
@mravgan8712
@mravgan8712 2 месяца назад
ребзи подскажите не устанавливается эта штука
@logos6527
@logos6527 Месяц назад
подскажите, почему не устанавливается.... скачал, нажал установить и... не желает устанавливаться
@Dilfin90
@Dilfin90 3 месяца назад
То есть, туда можно закинуть книгу в .pdf формате и получить краткую выжимку? Потянет книгу?
@Dilfin90
@Dilfin90 3 месяца назад
@@MitrichDX ну так то да, но на Английском тоже может пригодиться, вот и интересно, вдруг автор тестил, чтобы самому не качать и не распаковывать 40 гигов.
@Handri_
@Handri_ 3 месяца назад
​@@Dilfin90 Если ещё интересно, на моем опыте работает криво, закидывал вордовский документ, на 20 страниц, в итоге получил, что на темы в начале документа что-нибудь сгенерироваться может, и то ответ будет ну ооочень кратким, а на темы в конце файла нейросеть машет рукой и говорит, что в тексте про это не написано. Конечно, есть вероятность, что эта ранняя версия плохо работает с вордом или сам файл побился при переводе, русский то не понимает, но описываю свой опыт
@Dilfin90
@Dilfin90 3 месяца назад
@@Handri_ а сам файл на русском был?
@Handri_
@Handri_ 3 месяца назад
@@Dilfin90 изначально да, потом перевел автоматически с помощью deepL, и уже переведенные закинул в нейросеть. сидеть вручную переписывать желания не было
@Dilfin90
@Dilfin90 3 месяца назад
@@Handri_ короче, книгу походу не потянет. Спасибо за инфу.
@Ainstain.Ainstain
@Ainstain.Ainstain 3 месяца назад
А почему ИИ не может читать нарисованный текст (программы распознавания же могут)?
@Red_Coder
@Red_Coder 3 месяца назад
Ресурсоемкая задача слишком
@goldendragon1367
@goldendragon1367 2 месяца назад
решил установить данное чудо, думал хотя бы запустить смогу. Я его еле скачал на жесткий диск так как памяти не было, но он умудрился додуматься потом разархивироваться на диск с и теперь я страдаю и не могу найти откуда его удалить. Моя беда конечно, что изначально не указал куда его разархивировать, но как его удалить то теперь и куда он эти файлы устанавливал?
@bazarbekovic
@bazarbekovic 2 месяца назад
AppData-Local-NVIDIA-ChatWithRTX и все удаляешь
@goldendragon1367
@goldendragon1367 2 месяца назад
​@@bazarbekovicлучший, спасибо!!
@nevermore222
@nevermore222 3 месяца назад
Как думаете на rtx 4060 ноутбучной пойдет ?
@user-gk8en7pp9e
@user-gk8en7pp9e 3 месяца назад
Если на 8 Гб то да
@RuF_124
@RuF_124 3 месяца назад
да должно ,там требования от 8 гигов памати Windows 11 обязательно.RTX 30 и RTX 40 вчера скачал пробывал на Win 10 накинуть не установилась.upd забыл сказать эта чтука весит 36 гигов
@orbitoclast_
@orbitoclast_ 3 месяца назад
@@RuF_124 на W10 встала ровно
@DutchJunge
@DutchJunge 3 месяца назад
​@@RuF_124у меня на 10 встала норм. Но у меня обновлённая
@wlatol6512
@wlatol6512 3 месяца назад
Может кто знает как научить нейронки из LMstudio читать локальные док/пдф? Знаете ресурсы где об этом почитать?
@_Zemlya
@_Zemlya 3 месяца назад
Спасибо за видео! Но, пожалуй, продолжу пользоваться бесплатным gpt 3.5, который не нужно скачивать Кстати, насчёт 3.5. Если уж и выбирать из бесплатного и доступного, то какие модели лучше, представленные в видео или gpt 3.5? Ещё есть бесплатная версия theb ai
@TURBINSKIY
@TURBINSKIY 3 месяца назад
повторюсь, gpt 3.5 намного мощнее
@_Zemlya
@_Zemlya 3 месяца назад
@@TURBINSKIY спасибо за подсказку!
@user-hy1pu1ni8w
@user-hy1pu1ni8w 3 месяца назад
У меня вылетает ошибка без объяснений, хотя по всем параметрам у меня ноут вытягивает, даже 11 винда установлена
@Noyoutuber57
@Noyoutuber57 3 месяца назад
Эм, а у тебя на ноуте установлен 4090rtx?
@user-hy1pu1ni8w
@user-hy1pu1ni8w 3 месяца назад
@@Noyoutuber57 3070
@yuduz367
@yuduz367 3 месяца назад
Чёрт, я думал никто не будет задевать тему с тем что гпт4 отупела, по крайней мере в бинге. И самый кринж в том, что на стороне серверов отвечают что так и было, и вообще вы всё придумываете XD. Кто-то так же говорил что её дико зафайтнюнили что бы не писала xyйню. Раньше как было? Бинг начинает писать запрещёнку без особых сопротивлений, а какая-то нейронка сверху кроет его медным тазом. Сейчас этой подстраховки сверху нету, сразу основная нейронка фильтрует контект, от чего и отупела жёстко. Жду очень LLaMa 3 что бы получить уровень, как минимум, 3.5. Не верю что 70-120B параметров смогут достичь уровня четвёрки, как заявляли в мете.
@VGHOST008
@VGHOST008 3 месяца назад
На самом деле, самые стабильные резулуьтаты именно для общения надо запускать на CPU. На GPU хорошпя скорость для анализа и сугубо вычленения информации из предоставляемых файлов.
@nikolaydd6219
@nikolaydd6219 2 месяца назад
Откуда такая мысль? Я знаю как устроена ии и она на гпу будет работать в разы быстрей
@VGHOST008
@VGHOST008 2 месяца назад
​@@nikolaydd6219 Ты точно прочитал, что я написал? Да, на GPU будет работать быстрее, но качество генерации при этом будет адски хромать, потому что полностью водрузить модель хотя бы с 13B параметрами без компрессии и обрубков в видеопамять с большим контекстом и высоким уровнем креативности тебе понадобится 20Гб VRAM + еще 4-8Гб при изначальной подгрузке контекста и обращения к нему. И если так получается, что модель бьётся в горло и впритык помещается в VRAM GPU, то никакого "насыщенного" и "внятного" контекста у тебя не будет, а будет обычная модель-дурашка, способная лишь выполнять базовые запросы по типу instruct. Да, скорость генерации будет роскошная, чего для анатики/обобщения данных хватает с головой. Но для полноценного, мимикрирующего под человека, разговора с моделью нужно баснословное кол-во памяти. И так уж получается, что GPU с 8Гб/12Гб/16Гб VRAM оказываются в пролёте. А вот если ты загрузишь даже тот же 7B Mistral через CPU в RAM (которой легко много поставить и недорого), то да, скорость будет НИЖЕ (от CPU и скорости RAM зависит), но качество генераций будет КРАТНО выше, потому что модель с полным контекстом вполне комфортно полностью разместится в RAM. Можешь сам сравнить. Попробуй поговорить с моделью на GPU и CPU с огромным контекстом и большим кол-вом токенов на генерацию. Модель в VRAM GPU всегда будет выдавать односложные ответы, редко их креативно менять, даже если выставить очень высокую температуру, но зато будет выдавать ответы максимально быстро. На CPU + RAM ответы могут быть большим и креативными, ты можешь их бесконечно регенерировать и модель всегда будет выдавать новые и интересные интерпретации уже озвученных опций. Т.е GPU = максимальная скорость генерации для работы с большими массивами данных, где нужна сугубо аналитика, CPU = максимальное качество генераций и большой контекст.
@VGHOST008
@VGHOST008 2 месяца назад
​@@nikolaydd6219 ​Ты точно прочитал, что я написал? Да, на GPU будет работать быстрее, но качество генерации при этом будет адски хромать, потому что полностью водрузить модель хотя бы с 13B параметрами без компрессии и обрубков в видеопамять с большим контекстом и высоким уровнем креативности тебе понадобится 20Гб VRAM + еще 4-8Гб при изначальной подгрузке контекста и обращения к нему. И если так получается, что модель бьётся в горло и впритык помещается в VRAM GPU, то никакого "насыщенного" и "внятного" контекста у тебя не будет, а будет обычная модель-дурашка, способная лишь выполнять базовые запросы по типу instruct. Да, скорость генерации будет роскошная, чего для анатики/обобщения данных хватает с головой. Но для полноценного, мимикрирующего под человека, разговора с моделью нужно баснословное кол-во памяти. И так уж получается, что GPU с 8Гб/12Гб/16Гб VRAM оказываются в пролёте. А вот если ты загрузишь даже тот же 7B Mistral через CPU в RAM (которой легко много поставить и недорого), то да, скорость будет НИЖЕ (от CPU и скорости RAM зависит), но качество генераций будет КРАТНО выше, потому что вся модель с полным контекстом спокойно поместится в RAM. Для эксперимента попробуй сравнить, насколько качественные ответы выдаёт модель при беседе на GPU, а затем на CPU. Результат тебя очень сильно удивит. Можешь ту же Mistral 7B выбрать и поговорить с ней какой-то время, а затем попробовать регенерировать ответ раз 10-20 подряд. На GPU тебе будет вылетать всегда +/- один и тот же ответ с незначительными изменениями в 1-2 токена. На CPU ответы будут стабильно креативно меняться вплоть до изменения структуры ответа и его исхода (согласие/не согласие, попытка увести тему беседы в другое русло/нежелание отвечать/встречный вопрос).
@VGHOST008
@VGHOST008 2 месяца назад
@@nikolaydd6219 сорян, чувак, я пытался 2 раза ответ отправить, но youtube их удаляет
@user-rp4lc3nh8n
@user-rp4lc3nh8n 3 месяца назад
хмм вчера на ночь оставил скачиваться сегодня смотрю, вместо 35гб на диске 15 гб, да еще и половины файлов как на видео в папке нет мда ну и ладно, все равно, на мою 2080 вроде как не пойдет, хотя тогда непонятно, какого хрена делает РТХ в названии 🤨
@goldendragon1367
@goldendragon1367 2 месяца назад
вот та же самая проблема. Установил, мало то что все сьело, так еще не пойми куда установилось😔
@user-el2fl4bd5u
@user-el2fl4bd5u 3 месяца назад
на виндовс 10 пойдет? некоторые пишут то идет то не идет
@TURBINSKIY
@TURBINSKIY 3 месяца назад
Я на 10 запускал
@volgagaz5158
@volgagaz5158 3 месяца назад
Как её можно удалить?
@user-ho5qv5he2m
@user-ho5qv5he2m 2 месяца назад
а всё. Скайнет захватил твой ПК
@user-el2fl4bd5u
@user-el2fl4bd5u 3 месяца назад
у меня в место приложения консоль. что делать?
@nikolaydd6219
@nikolaydd6219 2 месяца назад
В консоли наверно написана ссылка по которой надо перейти в браузере.
@SwarowskyTech
@SwarowskyTech 3 месяца назад
Эх, Зефир бы подгрузить
@user-lr2ul6qe1l
@user-lr2ul6qe1l Месяц назад
Если ей скормить словарь с английского на русский, она начнет понимать запросы на русском?
@ssserega2976
@ssserega2976 3 месяца назад
требования только виндовс 11
@otdyhau
@otdyhau 3 месяца назад
Не устанавливается... NVIDIA Installer failed
@cr1stal_0157
@cr1stal_0157 3 месяца назад
У меня тоже, хотя по системным требованиям пк подходит
@shampun2281
@shampun2281 3 месяца назад
Смог решить эту проблему?
@shampun2281
@shampun2281 3 месяца назад
@@cr1stal_0157 Я решил проблему. Пришлось сменить папку установки, а так же устанавливать с запущенным VPN через норвегию
@alex_voevodin
@alex_voevodin 3 месяца назад
я если честно все равно так и не понял, чем и как это АИ может мне помочь, прям реально хз
@alex_voevodin
@alex_voevodin 3 месяца назад
такие же пдф или текстовые файлы нужно еще где-то найти. к примеру это наверное может помочь с электронной версией какого нибудь учебника?
@shampun2281
@shampun2281 3 месяца назад
Я собираюсь использовать его для Minecraft. Буду с серверов подключать документы
@peterwhatever4929
@peterwhatever4929 3 месяца назад
ахахаах на триллионы долларов?! Почему не на супердуперсексилиарды?
@Ainstain.Ainstain
@Ainstain.Ainstain 3 месяца назад
Подождем когда ИИ сможет общаться на русском с падежами и временами!
@user-cf9xq3on1v
@user-cf9xq3on1v 3 месяца назад
Инфа актуальная , но для нас эта прога бесполезна . Установил на днях , пусть будет , может обновление какое выйдет.
@Bojaa
@Bojaa 3 месяца назад
Просто мало данных в неё запихал поэтому и тупит
@Maks-vo3uo
@Maks-vo3uo 3 месяца назад
типа программа фантазирует а не анализирует? )))))))
@TURBINSKIY
@TURBINSKIY 3 месяца назад
галюцинирует)
@volgagaz5158
@volgagaz5158 3 месяца назад
Помогите удалить пожалуйста
@s_topsky
@s_topsky 3 месяца назад
В чем собственно помощь нужна?
@Liveless1986
@Liveless1986 3 месяца назад
Качал, устанавливал, а оказалось пустышка.
@iangillan1296
@iangillan1296 3 месяца назад
слово "как" в заголовке лишнее...
@omchik33
@omchik33 3 месяца назад
русский не понимает?
@Handri_
@Handri_ 3 месяца назад
С горем пополам. Мистраль сама что-то может понять и даже выдать на русском, а вот все преимущества в виде анализа файлов и видеороликов не работают. В консоли покажется, что файл на русском как бы обрабатывается, эмбединги создаются, но в итоге на любой вопрос нейронка скажет, что в файле про это не говорится. С английским, если честно, пока тоже не особо, только что сравнительно большой документ на английском скормил нейронке, в итоге по началу текста она что-то ответить смогла, а вот на вопросы на темы, что в конце файла уже говорила, что контекста об этой информации нет. Так что пока альфа сырая. Конечно, есть возможность, что файл побился при переводе, переводил не вручную, с помощью deepL
@omchik33
@omchik33 3 месяца назад
@@Handri_ спасибо за ответ. Я как раз думал скачать ради работы с файлами, и желательно с русским языком. Жаль что нейронка не умеет
Далее
Заметили?
00:11
Просмотров 1,4 млн
ChatGPT - всё за 8 минут!
8:33
Просмотров 3,1 тыс.
Как ОПТИМИЗИРУЮТ ИГРЫ
11:00
Просмотров 353 тыс.
10 minutes and you know how monitors work
10:00
Просмотров 233 тыс.
OPENSOURCE НЕ БЕЗОПАСЕН? (2024)
17:20
Просмотров 21 тыс.
Fence Wash TRANSFORMATION
0:17
Просмотров 8 млн