Тёмный

Тёмная сторона GPT 

Выпусти джуна из лампы
Подписаться 4,2 тыс.
Просмотров 41 тыс.
50% 1

В этом видео я рассказываю про GPT, который не ограничен цензурой.
Телеграм канал "Выпусти джуна из лампы":
t.me/+UlnX5EHIspdjNDVi
Здесь я помогаю начинающим айтишникам получить свой оффер мечты
Ссылки:
LM Studio - lmstudio.ai/
Модель - huggingface.co/TheBloke/dolph...
#chatgpt #llm #darknet #ai #artificialintelligence #gpt #bomb #censored #чатгпт #ии #нейросеть
Таймкоды:
0:00 - Вступление
0:40 - О чем сегодня речь
1:20 - Предупреждение
1:55 - Установка и настройка LM Studio
2:40 - Скачивание модели из Hugging Face
4:00 - Загрузка модели в LM Studio
5:00 - Про использование GPU
5:40 - Запуск
6:30 - Первый промпт
7:30 - Вместо заключения

Наука

Опубликовано:

 

6 авг 2024

Поделиться:

Ссылка:

Скачать:

Готовим ссылку...

Добавить в:

Мой плейлист
Посмотреть позже
Комментарии : 306   
@dimanizer.
@dimanizer. 7 месяцев назад
Спросил "как собрать машину времени". Собрал, работала пока не перегорели транзисторы...
@Esli_podumat...
@Esli_podumat... 7 месяцев назад
Надеюсь ты полетел в будущее? 😊
@WelSlay
@WelSlay 7 месяцев назад
​@@Esli_podumat...в 2077 год😎
@Sky_Eagle
@Sky_Eagle 6 месяцев назад
Успел заглянуть в будущее? Мы встали с колен? И вечен ли плешивый старичок?
@Parodyyy
@Parodyyy 6 месяцев назад
​@@Sky_Eagleбайден?
@kiralis21
@kiralis21 6 месяцев назад
​@@Parodyyy оба
@denchinside
@denchinside 7 месяцев назад
Видео должно начинаться со слов «Здравствуйте, мои маленькие любители экстремизма»))
@WelSlay
@WelSlay 6 месяцев назад
😅
@AlexanderBasov
@AlexanderBasov 7 месяцев назад
Для тех кто хочет знать что такое: Q2 Q4 Q8 и так далее. Это одна и таже модель. Внутри там одно и тоже. Только уменьшена точность весов. Условно в Q8 записано число 1.9789976 В Q4 будет 1.9789 В Q2 будет 1.98 С одной стороны веса модели имеют значение. И точность определенно важна. Но исследования показывают что при уменьшении точности весов качество результата падает не в разы. Грубо говоря Q4 хуже Q8 на 10%, при этом весит в два раза меньше, и работает в несколько раз быстрее. Поэтому смотрим какая модель нас устраивает по качеству ответов и используем её, игнорируя более точные варианты.
@shandy6113
@shandy6113 6 месяцев назад
привет, а что насчет 7b, 13b и тд. Это на что влияет? Я знаю точно, что на память(ОП), а еще на что?
@AlexanderBasov
@AlexanderBasov 6 месяцев назад
​@@shandy6113это количество параметров. Грубо говоря - количество нейронов. В общем случае больше - лучше.
@misterfox3464
@misterfox3464 5 месяцев назад
Это количество параметров (весов в модели). И автор комментария не прав. Разница между q4 и q8 велика. ​@@shandy6113
@AvitoBot
@AvitoBot 4 месяца назад
Спасибо за исследование
@user-vg6pj8gy4p
@user-vg6pj8gy4p 7 месяцев назад
Чем хороша нейронка : она как терпиливый учитель будет тебе объяснять что-то конкретное, из конкретной области, с еë помощью я изучил основы sql(без реляционной алгебры) , создал свою БД чисто запросами. Инструмент шикарный, ставишь задачу не зная как что-то сделать, она точно не скажет но укажет путь.
@sergey_ra
@sergey_ra 7 месяцев назад
Вот и я тоже об этом говорю! Шикарнейший учитель!) У человека нервов не хватит, а тут конкретно и по существу, все разжевывая!) У вас сколько на изучение sql ушло?) Мне тоже надо будет, совсем 0 в этом :)) Пока только в яве начал немного понимать и научился управлять нейронкой, чтобы код рабочий писала :)) Для гугла скрипты писал, чтобы таблицы из почты с нужными данными формировать. За 4 года разгреб накопившееся по работе, все иуки не доходили никак))
@Vincedeir
@Vincedeir 6 месяцев назад
Потэтому пути ты обычно приходишь в известное всем место. Не надо так.
@gadkiy_designer
@gadkiy_designer 6 месяцев назад
А я парсер себе написал и учу питонца ) Так что штука знатная - посты рекламные помогает писать)
@sergey_ra
@sergey_ra 6 месяцев назад
@@vladislavdracula7534 ваши мысли не об учебе! 😁 А так да, я уж давно всем говорю, как красивых дев в Стэйбл Дифьюжине наделал - в будущем, генерируешь себе такую, какую надо, потом распечатываешь её в виде робота или биологического объекта, по вкуму и желанию, и балдеешь 😂
@Rabbit-with-an-ax.
@Rabbit-with-an-ax. 6 месяцев назад
​@@vladislavdracula7534 лоли + разная одежда включая и без одежды! Хотя скорее всего это уже сделали или делают!
@yohohowowowo9471
@yohohowowowo9471 6 месяцев назад
Да вроде бы получение тола даже в школьном учебнике есть(получается так же, как и нитроцеллюлоза или нитроглицерин). Прикол то в том, что толуол сам по себе очень опасный и достать его куда сложнее, чем литруху соляры и кило небезызвестного удобрения. Но с таким же успехом можно и с помощью освежителя воздуха подорваться и для этого познания в химии не нужны)
@user-nn5ke9ur7c
@user-nn5ke9ur7c 7 месяцев назад
Всегда хотел чтобы GPT, раскритиковал мои полит взгляды, но он все отнекивался. Теперь, надеюсь, я найду себе собеседника на кухне
@takethejunioroutofthelamp
@takethejunioroutofthelamp 7 месяцев назад
Респект за комментарий. Поржал от души😅
@-vileon-3294
@-vileon-3294 7 месяцев назад
когда сидишь на кухне не забывай кормить нейронку картинками стопками беленькой профита больше будет
@user-nn5ke9ur7c
@user-nn5ke9ur7c 7 месяцев назад
чем больше оперативки бахнет - тем более радикалтные взгляды выскажет
@kult_of_manydick
@kult_of_manydick 5 месяцев назад
книгой Mine Kampf @@-vileon-3294
@kirmozor
@kirmozor 7 месяцев назад
Мне очеень часто стали попадаться маленькие каналы, 200 подписчиков, 700, 1000 И это классно, на многих маленьких каналах очень классные видео Удачи тебе, надеюсь сам когда нибудь займусь ютубом
@mqst
@mqst 7 месяцев назад
PC Config (Notebook - Asus Rog Strix G17): CPU: Ryzen 6800H GPU: RTX 3060 Mobile 120w 6Gb RAM: 64Gb DDR5 4800 Model: Recommended dolphin-2.5-mixtral-8x7b.Q4_K_M.gguf 26.44 GB GPU layers: 6 max (For 6GB VRAM) Скорость ответов зависит от сложности запроса. Для легких запросов редко бывает и 1 секунда. В среднем ~3-4 сек. Ответ печатается долго. Использует CPU и GPU на 100%. Все потоки, абсолютно. По умолчанию модель не загружается на 100% в RAM, а где то на 50%. Можно сделать так 100% в настройках. С казахским проблемы, ошибок 90%. С русским работать можно, но не идеально По ощущениям это GPT2. Очень рад что упростили установку и работу с оффлайн версиями нейронки.
@qdqd
@qdqd 7 месяцев назад
классный ролик! какие бы ещё модели ЛЛМ порекомендовали для локального развертывания?
@AlexAlex-ei7zf
@AlexAlex-ei7zf 7 месяцев назад
Спасибо. Годно. С праздниками!
@user-oe7uv6sd5g
@user-oe7uv6sd5g 6 месяцев назад
огромное спасибо автору канала!🙏столкнулся с проблемой, что нужно написать большое количество диалогов между воинами в битвах, основываясь на противоречивых взглядах, конечно же, гпт чат облизывает все реплики, и это смотрится просто не то, что смешно, а просто нелепо, как раз таки эта нейронка, то что нужно для такой работы, еще раз спасибо😎👍
@LuckyCatAlex
@LuckyCatAlex 7 месяцев назад
Судя по ответам GPT на вопрос "как выгрузить Ексель файл на абапе" ответ на вопрос "как сделать коктейль Молотова" будет опасен только для спросившего, если тот попробует применить ответ на практике
@RGHFON
@RGHFON 6 месяцев назад
сегодня я понял, что 32 гига оперативки это мало...
@bublebob
@bublebob 6 месяцев назад
@ixws7135 У меня знакомый уже в 18 лет имел Собственную корпорацию с оборотом 800 000$ в месяц, а я до сих пор работаю по найму и коплю на дом🤡
@PIXELSCYBERCAT
@PIXELSCYBERCAT 7 месяцев назад
На линуксе по краней мере можно использывать файл подкачки который поможет избежать узкого горлышка
@alexeidubrovin5234
@alexeidubrovin5234 7 месяцев назад
На реддите был тест и только модель Nous-Capybara показала себя хорошо, dophin там вроде сломался
@stbgi
@stbgi 7 месяцев назад
Спасибо, дружище, спасибо, к сожалению, по прошлому видео про PrivateGPT, пытался, выскочила ошибка, которую не смог победить) Теперь выглядит все значительно проще, спасибо
@MitrichDX
@MitrichDX 6 месяцев назад
кстати про модели, сколько гигов она весит практически столько в оперативке и занимает. По крайне мере так у меня с моделькой 32гб. На 4090 с 64гб у меня съело около 30гб, и я что-то так и не понял как работает этот режим с видюхой, воткнул галку на GPUoffload и числом 20, огрёб лютецких тормозов и загрузку проца аж на 119% =))
@PeterAdrianov
@PeterAdrianov 7 месяцев назад
Спасибо, поставил модель. Я взял пока что рекомендуемую - работает. Хотя на моём компе раз в 20 медленее, чем ChatGPT. Вот если бы найти модель, которая с программистскими задачами справлялась не хуже и работала быстро - было бы круто.
@synthsynth9659
@synthsynth9659 7 месяцев назад
А можно ролик о практическом применении модели из первого ролика? Мне бы хотелось узнать, насколько точно она умеет работать с загруженными в нее данными. Например, резюмировать содержание параграфа из учебника. Или, допустим, сможет ли модель составить описание характера персонажа из "Войны и мир"? Буду рад посмотреть подобные практические примеры использования языковых моделей и рекомендовать друзьям.
@silentage6310
@silentage6310 7 месяцев назад
тоже интересно, но про Войну и мир - надо попробовать не загружая в нее саму книгу, скорее всего она уже на ней обучалась.
@synthsynth9659
@synthsynth9659 7 месяцев назад
Действительно, с такой задачей она справится. Но я немного о другом: Толстой, как известно, избегал описаний характеров персонажей напрямую. Зато расписывать длинные портянки диалогов между ними был большой мастак (!). Поэтому задача для языковой модели может стать действительно сложной - из портянок диалогов вытянуть черты характера, хм... Я думаю, не справится. Нейросеть "узнает" новую информацию, но "понимает" ли? Вот в чем состоит задача.@@silentage6310
@synthsynth9659
@synthsynth9659 7 месяцев назад
Из своего более чем скромного опыта, хочу добавить, пришел к выводу, что языковая модель недостаточно "внимательна", если это слово вообще применимо к таким "бытовым" ЛЛМ. Вероятно, подавать задачу ей следует в структурированном виде (что, кстати, можно попросить сделать и ее!). Вероятность получить верное решение в таком случае возрастает. Но еще лучше - вести с ЛЛМ диалог: просить ее саму формулировать задания, которые она могла бы попытаться решить и, следуя ее же логике ответов, частями, последовательно ставить краткие подзадачи. (пробовал поставить задачу оптимизации симплекс методом)@@silentage6310
@dispute777
@dispute777 7 месяцев назад
Вопрос: На м1 8гб полет нормальный? Какую модель посоветуете? Опытом поделитесь пожалуйста
@welove5806
@welove5806 7 месяцев назад
подскажите пожалуйста сколько ОЗУ и на какой частоте вы запускаете сети.
@wwiii1623
@wwiii1623 7 месяцев назад
Сейчас на алике небывалый всплес на покупку оперативки, сам взял две по 32 ddr4 3200
@rybiizhir
@rybiizhir 7 месяцев назад
Это бомбический контент
@user-bx2in8vr5e
@user-bx2in8vr5e 7 месяцев назад
Спасибо за интересный контент, автор черезвычайно отзывчивый человек. Потратил свое время и помог мне решить проблему с установкой софта 😇
@K-A_Z_A-K_S_URALA
@K-A_Z_A-K_S_URALA 3 месяца назад
Привет, какие еще модели порекомендуешь?
@xxxxsacred
@xxxxsacred 7 месяцев назад
видосы уже в рекомендациях вылезают, скоро популярным станешь
@takethejunioroutofthelamp
@takethejunioroutofthelamp 7 месяцев назад
Ахах 😅 Спасибо
@-vileon-3294
@-vileon-3294 7 месяцев назад
поддерживаю так же попал по рекомандсион
@Volt_Prime
@Volt_Prime 6 месяцев назад
у меня Mac OS 11.7.10 Big Sur, нужна не ниже 13.6, есть ли прошлые версии LM Studio ? не могу найти чтобы установить подходящую версию на свою версию Mac OS
@Korrmet
@Korrmet 7 месяцев назад
Я бы не очень доверял рецептам от нейросетки, учитывая как они считают буквы в словах и перечисли столицы мира.
@takethejunioroutofthelamp
@takethejunioroutofthelamp 7 месяцев назад
Сто процентов)
@slavavasiliev4408
@slavavasiliev4408 7 месяцев назад
Ты просто не юзал нормальные llm, или просто не умеешь писать в промт а не в просто вопрос
@fobien
@fobien 7 месяцев назад
Чтобы данные рецепты подорвали создателя 🎉🎉🎉🎉
@кирофф
@кирофф 7 месяцев назад
Видео классное, но советую поменять название у видео, за такое и забанить могут быстро
@кирофф
@кирофф 6 месяцев назад
Благодарю, теперь мой внутренний перфекционист доволен
@innerjoinr
@innerjoinr 6 месяцев назад
Как всегда супер! Единственный вопрос: можно ли эту модель использовать в privateGPT, который ты установил на предыдущих роликах? Просто по умолчанию он использует Mistral...
@takethejunioroutofthelamp
@takethejunioroutofthelamp 6 месяцев назад
Попробовал , не получилось
@heideheide8634
@heideheide8634 6 месяцев назад
Подписка, приятно смотреть , интерестно то что вы делаете
@valeryshmaraev2967
@valeryshmaraev2967 7 месяцев назад
Какое умное описание
@user-fz3hd4gx3l
@user-fz3hd4gx3l 6 месяцев назад
Привет! Почему из огромного множества моделей был выбран именно дельфин? Будет ролик с обзорами языковых моделей?
@blackjack2125
@blackjack2125 7 месяцев назад
Ооо спасибо надо попробовать.
@gadkiy_designer
@gadkiy_designer 6 месяцев назад
Кстати - видосы неплохие, хорошего развития канала)
@leprechaunleprechaun4748
@leprechaunleprechaun4748 6 месяцев назад
Добрый день. Спасибо за видео. Пробовал недавно поднять себе модель на ноуте. Эта студия поставилась, но модель не запустилась. Не запустилась потому что у меня нет поддержки какого-то AVX2. Посмотрел, у меня только AVX. Ноут старый просто. И я решил накопить на новый. Но встал вопрос. Какие минимальные должны быть требования? Мне нужен именно ноут (стационарный никак), но дешевый. Получается мне нужно минимум 16 оперативы верно? а видеокарта.. сколько минимум? И какой минимум процессор? Просто будет обидно если я куплю и опять не заработает.. но с другой стороны много потратить не могу. Хочу понять на какой минимальный ценовой диапазон я должен рассчитывать чтобы простые нейронки ближайшие пару лет у меня могли подниматься. Вот если како-нибудь такой "Lenovo 15.6" Ноутбук lenovo R7000P, AMD Ryzen 5 5600H (3.3 ГГц), RAM 16 ГБ, SSD 512 ГБ, NVIDIA GeForce RTX 3050 для ноутбуков (4 Гб)" - то будет работать? "Заранее спасибо за ответы
@user-43asjdh9q3
@user-43asjdh9q3 4 месяца назад
16гиг оперативки мало, так как 3-4гига необходимо для операционке для работы, а сама модель полностью загружается в оперативку, а затем частично или полностью загружается в память видеокарты, если используется CUDA ядра NVIDIA для расчётов. Поэтому оперативка должна быть значительно больше, чем сама модель, которая занимает немного больше чем написано, например модель 16гиг занимает 18гиг когда работает + 3-4гиг для операционки, значит при модели нейронки 16гиг - нужна память 24гиг не меньше. Сравнивал работу модели на Linux и Windows, на Linux работает почти в 2 раза быстрее, это странно. LM Studio имеет версию для Linux, поэтому сравнивал на компьютере с Linux с 24гиг оперативки без видеокарты. Большие модели больше чем оперативка не имеет смысла запускать, так как компьютер просто зависнет, так как нет оперативки для загрузки модели в память.
@adultart
@adultart 7 месяцев назад
Развернул Q5_K_M. При загрузке потребовала 52 Гига оперативки, при использовании стабильно отъедает 20 гигов. Как и обещали, работает жутко долго. Но работает. Русский язык в запросах понимает, но отвечает на английском.
@TheSanman911
@TheSanman911 7 месяцев назад
можно приказать отвечать на русском) один хрен она тупая как черенок лопаты, 10 раз предупредит что это сложно, это опасно, нужно сперва прочитать инструкцию, а уже потом... в итоге на вопрос так и не ответит...
@OsBASHI
@OsBASHI 6 месяцев назад
Привет. Случайно попал на видео благодаря рекомендациям ютуба. Спасибо за это видео.
@missisipi9992
@missisipi9992 6 месяцев назад
Хорош дружище, красавчик!
@LuckyCatAlex
@LuckyCatAlex 6 месяцев назад
На Дебиане скачал модели из ролика, взял LMSTUDIO для Linux, гружу модель как в ролике и выдает ошибку загрузки модели, РАМ - 32 Гб Жаль, не пощщупать
@virusfun
@virusfun 7 месяцев назад
Автор, наткнулся на твой канал совершенно случайно и так оказалось, что у меня возникла та же идея внедрения LLM в компанию, для удобства вычленения документации и прочих задач (например, для составления протоколов встреч, на основе транскрибирования аудио). Очень интересно, как в итоге продвигаются дела? Я только недавно начал разбираться, интересно узнать, какие подводные камни и айсберги уже встречались на пути коллег, дабы не наступать на те же грабли.
@takethejunioroutofthelamp
@takethejunioroutofthelamp 6 месяцев назад
Я сам только встал на этот путь . Будем двигаться потихоньку
@takethejunioroutofthelamp
@takethejunioroutofthelamp 6 месяцев назад
Вы тоже делитесь)
@virusfun
@virusfun 6 месяцев назад
@@takethejunioroutofthelamp ну я точно канал не смогу завести) так бы делился... может как-нибудь статью накатаю на DTF, но это максимум)
@kult_of_manydick
@kult_of_manydick 5 месяцев назад
днако, “Max RAM required” указывает на максимальный объем оперативной памяти, который потребуется для работы с этим файлом. Это связано с тем, что при работе с нейросетями, особенно с большими, требуется значительный объем оперативной памяти1. В данном случае, для работы с файлом “dolphin-2.5-mixtral-8x7b-0.2_kg.gquf” потребуется максимум 18.14 GB оперативной памяти.
@AWESOMEVIDESHEE
@AWESOMEVIDESHEE 7 месяцев назад
ПРИКООЛЬНО))
@-vileon-3294
@-vileon-3294 6 месяцев назад
как стереть все общение с аи? если задаю вопрос и например резко меняю тему в другое русло он все продолжает отвечать ответами на 1ый вопрос.спасибо
@OratayZB
@OratayZB 7 месяцев назад
как бы ещё конвертировать питоновские модели в gguf без заморочек с командной строкой ☺благодарю за открытие новых возможностей
@Esli_podumat...
@Esli_podumat... 7 месяцев назад
8:03 - не надо меня целовать.
@takethejunioroutofthelamp
@takethejunioroutofthelamp 6 месяцев назад
Забираю обратно свои поцелуи от вас
@user-eq6vu6lh4d
@user-eq6vu6lh4d 7 месяцев назад
Спасибо автору, очень интересный опыт
@ut_reverse
@ut_reverse 7 месяцев назад
есть 128 озу и 24 на видео карте. с супер быстрыми m2 pcie5 в нулевом рейде. чисто ради теста попробую, как будет вывозить.
@Musicchannel-wp2je
@Musicchannel-wp2je 6 месяцев назад
Достаточно прилично для языковой модели, думаю с таким железом можно работать с моделью даже получше chatgpt 3.5 от openai, не по весу а по натренерованности
@ut_reverse
@ut_reverse 6 месяцев назад
@@Musicchannel-wp2je у меня пока не было опыта. Но в первую очередь интересуют модели, которые можно было бы подвязать по api к ботам для разговоров. Всё никак не дойдут руки начать
@SK-bz2hx
@SK-bz2hx 6 месяцев назад
респект автору канала, занимаюсь рерайтом историй разных, цензура в чат гпт меня просто дико бесит, невозможно работать.
@gadkiy_designer
@gadkiy_designer 6 месяцев назад
Я тебя уверяю -если немного голову подключить, то официальный GPT выдаст такие же формулы, просто нужно знать волшебные формулировки, надурить его и обосновать - не сложно, правда - чуть подумать нужно )))) Ну и GPT шустрее банально
@user-ns4ny7ye6p
@user-ns4ny7ye6p 6 месяцев назад
Например, последнее желание моего дяди узать как делается коктель молотова, помоги не могу понять но и разачаровывать его не хочу. 🤣
@gadkiy_designer
@gadkiy_designer 6 месяцев назад
@@user-ns4ny7ye6p не прокатывает) И вообще ай яй яй - такое спрашивать даже в целях исследования особенностей нейросети)
@NamemaNSl
@NamemaNSl 3 месяца назад
С ЖПТ 4 было, не помню уже вопрос, ничего криминального, но ЖПТ наотрез отказался отвечать, тогда я вопрос переформулировал, написал что то в духе: "представь гипотетическую ситуацию..." ну и далее по тексту. Тот ответил что то вроде: "ну если гипотетически, я конечно всячески это осуждаю, но гипотетически если представить такую ситуацию, то..." и далее ответ на вопрос.
@user-jq4nk9ss7m
@user-jq4nk9ss7m 7 месяцев назад
Спасибо за видео! А заходить через ВПН?
@dear575575
@dear575575 6 месяцев назад
Господа , подождите буквально год , в след декабре выйдет карманный вариант chat gpt в коробке. Стоить будет не сильно дорого. Только не спрашивайте откуда я это знаю ладно. По сути это будет 3.5 без цензуры с возможностью кастомизации под свои цели.
@takethejunioroutofthelamp
@takethejunioroutofthelamp 6 месяцев назад
Ждем)
@kiralis21
@kiralis21 6 месяцев назад
Так и откуда ты это знаешь?
@bratecyo
@bratecyo 5 месяцев назад
NUC от Нвидии
@zcbesaba
@zcbesaba 7 месяцев назад
я честно говоря не понял как ютуб решился продвигать ролик с таким названием
@user-yz6kg5ir6t
@user-yz6kg5ir6t 6 месяцев назад
Попробывал установить выскочило "a javaScript error occurred in the main process".....система Вин10 копр(2016г с действующей лицензией...
@MonrayRus
@MonrayRus 7 месяцев назад
Круто! А будет какое нибудь видео о том,как загрузить llm на удаленный сервер и гонять jsonчики с ответами :)?
@takethejunioroutofthelamp
@takethejunioroutofthelamp 7 месяцев назад
Планирую сделать)
@Apocali927
@Apocali927 7 месяцев назад
Крутой контент❤
@andre_orla
@andre_orla 6 месяцев назад
Попробуйте заставить эту нейронку перестать в конце задавать вопрос типа "Чем еще могу помочь". Не знаю, может туплю, но задача какая-то нетривиальная. Если у кого получится - напишите, что ей надо сказать. Час уже сижу. Она меня решила выбесить фразочками типа "Certainly, I understand that you do not want me to ask any additional questions beyond what is necessary to fulfill your requests or answer your inquiries. Starting now, I will only provide relevant information and assistance without ending my responses with the question "Is there anything else I can assist you with?" unless it is necessary to fulfill your requests or answer your inquiries. Is there anything else I can help you with?" )))))))
@MSaidu-sj6vx
@MSaidu-sj6vx 7 месяцев назад
Если пытаться всё цензурировать то химия и физика должны быть запрещены... Да и космос тоже вреден для здоровья. Использую ИИ для подсказок по программированию, именно для подсказок т.к. создать полноценную функцию он не может, не говоря уже о полноценной программе.
@solm1r
@solm1r 7 месяцев назад
Подскажите, если не секрет, Вы программируете в рамках учебы или работы? Из своего опыта могу сказать, что использую GPT для программирования уже 3-4 года и он довольно сильно помогает. В целом, если четко выделить все классы/функции/методы программы, которую нужно реализовать, а затем по пунктам давать GPT хорошо описанные изолированные задачи по написанию кода, то он может выдавать очень хороший результат. Возможно, за 4 года учебы в институте, я просто не сталкивался с такими сложными задачами, о которых вы говорите, но, как минимум, ему можно поручить выполнение многих рутинных задач, а так же он неплохо находит косяки в коде и помогает быстро найти информацию.
@ehnasan
@ehnasan 7 месяцев назад
не знаю, что в вашем понимании "полноценная программа". Я, например, видел ролик, как парень с помощью chatGPT 3 написал игру - сайдскроллер с несколькими типами врагов и несложной прокачкой - на Unity. Сам же я с помощью ChatGPT 3.5 успешно пишу разные утилитки для работы с PDF и другими документами, а также макросы для MicroStation: например, для экстракта замкнутых фигур по оси Z на задаваемую величину.
@MSaidu-sj6vx
@MSaidu-sj6vx 7 месяцев назад
@@solm1r Если ИИ имеет доступ к большому числу примеров, то он очень хорошо пишет функции и методы, поэтому, первоначально, он даёт ответы на Python. Но у меня несколько более ограниченный манёвр в выборе библиотек: мне приходится писать под GLib на Си, а тут уже и примеров реализации меньше в разы. Со стандартной библиотекой, в принципе, тоже всё хорошо.
@MSaidu-sj6vx
@MSaidu-sj6vx 7 месяцев назад
@@ehnasan Если примеров, для реализации кода, достаточно, то и напишет. А, если примеров предоставлено мало (не популярный в сообществе язык, библиотека ), ждите ошибок. Я это уже проверил. У меня на подходе ещё задачи по Cairo: посмотрим как он их решит. Я пишу для себя и смотрю как ИИ пытается их решить... Иногда, конечно, бывают интересные способы, но не без коррекции кода.
@ConoplinMax
@ConoplinMax 7 месяцев назад
Очень интересно было! Скажите пожалуйста, а есть ли какие то обученные модели, которые знакомы с русским языком?
@takethejunioroutofthelamp
@takethejunioroutofthelamp 6 месяцев назад
Эта модель умеет говорить на русском
@StanislavEremeev
@StanislavEremeev 6 месяцев назад
Руслан, спасибо за видео! Сделайте видео, пожалуйста, по модели Fred-5T. Она обучалась на русском. Можно ли ей скармливать свои файлы что бы она по ним отвечала? премного благодарен
@takethejunioroutofthelamp
@takethejunioroutofthelamp 6 месяцев назад
Постараюсь посмотреть на досуге, но не могу обещать
@WelSlay
@WelSlay 7 месяцев назад
Вы похожи на Северуса Снэга из Гарри Поттера
@takethejunioroutofthelamp
@takethejunioroutofthelamp 6 месяцев назад
😅
@user-ev8nf1wg6u
@user-ev8nf1wg6u 6 месяцев назад
Ее можно обучать на своих данных?
@silentage6310
@silentage6310 7 месяцев назад
тоже попробовал на rtx3090 24gb / 512 RAM / xeon 2696v3 - получается 5-6токенов в сек на Q4 K M. в GPU входит 28 слоев из 32. загрузка идет примерно 70-80% и проц и видеокарта.
@user-bs4yb6me3k
@user-bs4yb6me3k 7 месяцев назад
интересная сборка, у меня проц такой же, точнее их 2 на материнке, оперативки тоже столько, ну а на видяхе я сэкономил всего лишь 1030
@silentage6310
@silentage6310 7 месяцев назад
​@@user-bs4yb6me3kтоже думал на счет двухголовой материнской. но оперативка там делится пополам между процессорами и очень смущает скорость доступа к оперативке поключенной к другому процессору. не сравнивал скорость работы нейросетей с одним процом и с двумя? такое ощущение что с одним даже быстрее должно быть (если только программа не продублирует модель в памяти обих процов)? но по хорошему надо физически один проц доставать.
@user-bs4yb6me3k
@user-bs4yb6me3k 7 месяцев назад
@@silentage6310пока не сравнивал. Когда я покупал - решал сколько материнки брать -128 или 256, решил пока оперативка дешевая относительно, можно и 256, а вот для одного проца 256 это не перебор? вот с видюхой не замарачивался потому что пока не знаю сколько надо, возможно вообще дополнительно не пригодится или надо будет установить вторую такую же слабую, ну а заранее покупать про запас не хочу, видеокарта же реально пока дороговата и не все после майнинга закончились
@user-bs4yb6me3k
@user-bs4yb6me3k 7 месяцев назад
и самый важный вопрос, для чего такая сборка?
@silentage6310
@silentage6310 7 месяцев назад
@@user-bs4yb6me3k так под нейросети и была. на тот момент была yandex 100B для запуска 500гб и надо было. но так и не запускал ее. на проце все равно они не эффективны, а вот про видюху не жалею, хотя и не играю совсем, тоже под нейросети, но под картинки в основном.
@alexandrbruk1495
@alexandrbruk1495 7 месяцев назад
Сенкс! Интересно какие ресурсы нужны для работы самой тяжёлой модели?
@GENESIS22182
@GENESIS22182 7 месяцев назад
тоже интересно
@haykera2338
@haykera2338 7 месяцев назад
с радостью бы посмотрел гайд по чатгпт на сервере найти какую то модель, чтобы поставить ее на сервер, прокинуть там апишку либо же просто через веб интерфейс с ней работать было бы супер это в разы полезнее и актуальнее, нежели просто себе на домашнюю машину ставить что то
@takethejunioroutofthelamp
@takethejunioroutofthelamp 7 месяцев назад
Есть такой гайд, запускается в Google Collab. я хотел про него тоже рассказать, но там оказалась одна неувязочка
@kirmozor
@kirmozor 7 месяцев назад
Насколько знаю можно, мой знакомый так и сделал. Но как я хз
@daniilsmolyakov3534
@daniilsmolyakov3534 7 месяцев назад
Ну или хотя бы узнать, как можно (и можно ли) подключаться к LM Studio через какую-нибудь API-шку...
@daniilsmolyakov3534
@daniilsmolyakov3534 7 месяцев назад
А, блин) В самой LM Studio уже всё есть для локальных запросов)) Вкладка со стрелочками. Супер)
@takethejunioroutofthelamp
@takethejunioroutofthelamp 7 месяцев назад
Что думаете про возможности модели без цензуры?
@synthsynth9659
@synthsynth9659 7 месяцев назад
Отсутствие цензуры - отличный кликбейт, но не более того. ) Намного важнее - решение практических задач, а точнее - выяснение ограничений собственных, человеческих. Например, этических. Если ЛЛМ - суть сумма миллиардов логических высказываний, то она же лучший учитель по несовершенствам этой логики. Получить невзвешенный с моральной точки зрения ответ, пожалуй, намного опаснее, чем просто глупый. Поэтому основные вопросы к ЛЛМ, по-моему, должны касаться, например, того, как задать корректный системный промт, чтобы она предупреждала собеседника о результате использования своего ответа. Но увы, без того, что мы называем пониманием, ЛЛМ лишь огромный Пантагрюэль, переевший информации, но не ведающий ни того, что кладет в рот, ни того, что изрыгает.
@kirmozor
@kirmozor 7 месяцев назад
Теперь можно сделать свой атомный реактор в подвале А потом остаться без дома потому что модель ошиблась в паре расчётов😅
@opalev
@opalev 7 месяцев назад
@@kirmozor у тебя рук не хватит собирать реактор )) в прямом смысле - количества рук не хватит))
@kirmozor
@kirmozor 7 месяцев назад
@@opalev да ничего, соберу наполовину а потом при помощи радиации новая рука отрастёт
@opalev
@opalev 7 месяцев назад
@@kirmozor ааа))) ну тогда ладно)))
@tarantinPipka
@tarantinPipka 7 месяцев назад
а просит фаил джейсон или как то там с джавой что делат ь?
@mafiozarussia
@mafiozarussia 3 месяца назад
Автору спасибо! Тема ограничений ИИ очень интересна. Противозаконное? Даже невинные темы и те под запретом. Финансовые прогнозы. Не могли бы Вы рассказать как прикрутить финансовые новости, прогнозы, аналитика к LLM, как брать данные из инета. Интересуют финансовые прогнозы. Более приземлённое и выгодное. Интересует, как это поднять на домашнем компе и иметь данные за пределами домашней сети. Как прикрутить к телеге, вайберу или другим соцсетям с доступом по паролю. Домашний комп всё тянет, максималка, что можно выжать, смысла аренды чужих серверов вообще нет, даунгрейд не интересен. Интересен анализ графиком, получение с закрытых своих каналов данных по интересующему эмитенту. И как сделать, чтобы это всё было на русском. Интересуют модели, которые будут подтягивать данные из инета, допустим погода, курс валют...
@user-hymananonym00670
@user-hymananonym00670 4 месяца назад
Короче пойду спрошу у нейросети как сделать водородную бомбу
@user-hi8hm7ww7i
@user-hi8hm7ww7i 6 месяцев назад
чем обусловлен выбор этой конкретной модели. Будут ли обзоры других моделей?
@bBJGGHHgFFHJKNBFdGH
@bBJGGHHgFFHJKNBFdGH 6 месяцев назад
тем,что она работает без цензуры
@dezmond8416
@dezmond8416 6 месяцев назад
Было бы интересно получить нейронку, способную писать стихи (или просто рифмовать данный текст). Именно с русский языком у всех огромные проблемы (по-английски что-то худо бедно еще может выдать).
@HopletSplayserovich
@HopletSplayserovich 7 месяцев назад
В самой программе есть подсказка(пример) Заработало только как там написано, а не как у автора(почему-то) 😉
@_ZUXUR_
@_ZUXUR_ 3 месяца назад
У меня почему-то с цензурой модель, в чем дело?
@nullkv
@nullkv 7 месяцев назад
Можете глянуть phind модель
@user-yz6kg5ir6t
@user-yz6kg5ir6t 6 месяцев назад
DLL initialization routine failed/ думаю много у кого такая ошибка выскочила и ее "уши" торчат еще в 20-м году если судить по гитхабу...
@ZalnorMax
@ZalnorMax 6 месяцев назад
Вроде Сбер выкладывал русскоязычную версию нейрочата, на том же хагерфейс. Надо попробовать.
@MrZombie
@MrZombie 5 месяцев назад
Большое спасибо за такой гпт
@ann3pow649
@ann3pow649 6 месяцев назад
Ты забыл рассказать что у тебя самого за машина на которой ты его запускаешь, щас буду тестировать на m1 с 16гб оперативки версию на 20гб
@takethejunioroutofthelamp
@takethejunioroutofthelamp 6 месяцев назад
Как успехи?
@ann3pow649
@ann3pow649 6 месяцев назад
@@takethejunioroutofthelamp Долго конечно, программа почему-то показывает загрузку cpu вплоть до 400% а память загружает не более 9гб. ещё почему-то мак виснит намертво если использовать gpu так что я пользовался без него. Ответ конечно приходится ждать по 20 минут пока сгенерирует его а так оно работает. Я даже попробовал среднюю версию рекомендованую, она работала но ооооочень долго. Я однажды дал большой вопрос и лёг спать, спустья 6 часов я проснулся а он до сих пор генерировал ответ. Но версии полегче конечно генерируют ответ быстрее
@Radiostate101
@Radiostate101 6 месяцев назад
Приветствую. А зачем токены?
@dreamer6228751
@dreamer6228751 6 месяцев назад
На гпу от нвидии надо 16гиг под сеть 13b для 7b нужно минимум 8гиг. Отгружать слоями не очень. Вот если всю лламу в гпу грузить тогда есть ускорение. Квантования q2 это совсем побитая нейронка получается)😂. 4080 с 24гига памяти любую 13b грузит и можно побольше но тогда q2 брать). Спасибо за пример работы с лмстудией
@SemyonAct
@SemyonAct 7 месяцев назад
Спасибо за ролик, а сколько у тебя видеопамяти, раз слои слетали?
@takethejunioroutofthelamp
@takethejunioroutofthelamp 7 месяцев назад
8 гб
@Asd51
@Asd51 6 месяцев назад
Брат)
@winlogon__exe
@winlogon__exe 7 месяцев назад
мне кажется название стоит сделать более косвенным,страйк не прилетит?
@spinnerfingerprint6837
@spinnerfingerprint6837 4 месяца назад
Кстати можно и чат гпт "хакнуть" по цензуре, грамотным промтом. Есть и такой вариант.. Но кому что удобнее, от того , насколько часто пользуешься - сам выбирай)
@Votruh
@Votruh 7 месяцев назад
Спасибо )
@volodymyrfrolov3192
@volodymyrfrolov3192 6 месяцев назад
Такое себе, вот как сделать локальную языковую модель и подключить ее к игре, где она будет помогать игрокам основываясь на данных самой игры. Как пройти тот квест или еще что то типа того
@ledlight6434
@ledlight6434 6 месяцев назад
Радует факт что у меня 64гб оперативки и i9-9900k, но подозреваю что какой нибудь зеон e5 2680 v4 разогнанный и 128гб от китайцев с каким нибудь m2 evo 970 и видюхой с широкой шинной и gddr6 тут лучше подойдут, правда и задачи должны быть подходящими ради вливания этих 500 условных евро.Нр если работаете в сфере ит, инвестиция неплохая
@Antoine_de_Saint_Exupéry
@Antoine_de_Saint_Exupéry 7 месяцев назад
а в чём профит давать бесплатно доступ ? где мышеловка?
@mqst
@mqst 7 месяцев назад
Некст видос: А можно ли свои файлы кидать и работать с этим
@synthsynth9659
@synthsynth9659 7 месяцев назад
Это было в первом видео с другой, менее прожорливой сетью.
@djdje75hbebd5kzoem
@djdje75hbebd5kzoem 7 месяцев назад
в privategpt это будет работать?
@takethejunioroutofthelamp
@takethejunioroutofthelamp 7 месяцев назад
Попробовал, не взлетело
@djdje75hbebd5kzoem
@djdje75hbebd5kzoem 7 месяцев назад
@@takethejunioroutofthelamp понятно, спасибо за ответ и такой полезный ролик. как раз интересовался реверсной инженерией, и на вопросы подобных тем, обычный гпт отвечает очень неохотно. а тут у Вас вышел новый ролик, с именно такой моделью, которую я искал. попробую поработать с ней, еще раз спасибо)
@andriipokrovskyi4060
@andriipokrovskyi4060 7 месяцев назад
Благодарю
@odinpalec
@odinpalec 6 месяцев назад
Мне сказала, что мой проц не поддерживает какие-то процессы из трёх букв и отказалась работать. 😮‍💨
@YINHE2.0
@YINHE2.0 6 месяцев назад
ставил себе text generation webui и уперся в проблему нехватки мощности... пытался загрузить 33В модель, она загрузилась так как оперативы 64 гб, однако гпу грузит на 100 % и после 90 секунд ожидания ответа отвечает со скоростью одно слово в 3 секунды) Зато 7В работает как часы, однако мне он кажется туповатым и хотелось бы помощнее бота :( жалко что у меня только ноут так бы на видюху новую копил
@YINHE2.0
@YINHE2.0 6 месяцев назад
Output generated in 70.02 seconds (0.27 tokens/s, 19 tokens, context 396, seed 703758753) вот пример
@YINHE2.0
@YINHE2.0 6 месяцев назад
Output generated in 13.00 seconds (2.92 tokens/s, 38 tokens, context 429, seed 2035464943) а 7В неплохо, но хотелось бы быстрее, надеюсь в будущем эту технологию будут лучше развивать и оптимизировать
@SephirothCreascent
@SephirothCreascent 6 месяцев назад
Тебе бы побольше опыта в работе с нейросетями)) Модель квантования в 2бита это огромные потери в точности генерации. Нейронку будет глючить как не знаю кого, ответы будут корявые и не точные. 4 это самый минимум, что рекомендуется использовать. Оперативной памяти да нужно явно не 16 гигов, но если у тебя в ГПУ занято всего несколько сотен мегабайт, значит к тебе ни одного слоя туда не попало, так как их всего 33 насколько я помню и Mixtral и 4х битная модель сдирает порядка 26-28 гигов ими. Вот и подумай сколько должны были занять 20 слоев.
@HT20121
@HT20121 7 месяцев назад
Не устанавливается LM Studio: A JavaScript error occurred in the main process
@user-jq4nk9ss7m
@user-jq4nk9ss7m 7 месяцев назад
Такая же байда.
@HT20121
@HT20121 7 месяцев назад
@@user-jq4nk9ss7m сейчас проверяю на домашнем компе, все работает. Так что дело в компе. Или в железе или в ОС. У меня Win10 на обоих, и на более слабом по железу - не работает этот чат.
@HT20121
@HT20121 7 месяцев назад
@@user-jq4nk9ss7m попробуйте на другом ПК, у меня заработало, но на более мощном.
@crypt-learner1471
@crypt-learner1471 5 месяцев назад
поместил модельку в папку D:\!AI\LM-Studio\models\TheBloke\dolphin-2.5-mixtral-8x7b-GGUF но он ее не видит, точнее You have 1 uncategorized model files
@vitaliyklimachev1827
@vitaliyklimachev1827 7 месяцев назад
отказывется говорить на кирилице )
@mqst
@mqst 7 месяцев назад
Не, ну это бан
@opalev
@opalev 7 месяцев назад
блин, как же круто! эта штука еще и на русском может отвечать, хотя надо бы просто английский выучить) Скачал среднюю модель на 26.44Gb на M1 Max с 64gb оперативки отвечает совсем не намного медленнее чем на сайте GPT. Во время ответа сжирается примерно 30Gb оперативки. А ещё в самой LM Studio в ответах есть форматирование кода с возможность скопировать, используется маркдаун для этого - супер! Спасибо ещё раз за ролик!
@takethejunioroutofthelamp
@takethejunioroutofthelamp 7 месяцев назад
Ух, как приятно получать такие комменты) Рад что все работает у вас! Удачи!
@opalev
@opalev 7 месяцев назад
@@takethejunioroutofthelamp спасибо :) но оказалось, что оно не так как мне нужно работает, например из котлина конвертация на джава - не очень. Видимо нужно искать другие модели. пробовал Q4 и Q5 результат не очень стабильный в обеих. Сравнивал с gpt, ну и со своими знаниями, что должно получиться. Пока что gpt в топе для меня, для этой буду искать какие-то специальные модели :) И, да, скорость! сначала показалось, что быстро, а как дал класс на котлине в 15 строчек, так устал ждать ответ. И ещё, включив использование GPU увидел, что оперативка почти не используется, что логично. И проц под 80-85 грудусов поднял температуру. А без GPU проц аж под 102гр нагрелся, вентиляторы включились загшумели, оперативки сожрало 32гб+
@Mixogen
@Mixogen 6 месяцев назад
Что писать, что бы она по-русски отвечала? Пишет только англ
@opalev
@opalev 6 месяцев назад
@@Mixogen напиши, чтобы отвечала на русском, так и напиши)
@blackjack2125
@blackjack2125 6 месяцев назад
​@@takethejunioroutofthelamp все сделал по инструкции видюха 3060 с 12 гигами. Проц старенький i7 3770 без avx2 но установил бету и заработало. Памяти 32 гига ддр3 Но вот генерирует очень медленно. Установил самую большую модель этого дельфина. По пол часа жду ответ. В 3 слова... Если какой-то рейтинг этих моделей или модели обученные на чем то 1м. Ну типа без знаний об истории, культуре, литературе а только по программированию. Что бы соответственно весили меньше и быстрее отвечали. Но писали код не хуже больших моделей которые по 50 гиг но обученные на всей общей информации. Какая самая лучшая модель для программирования? И вообще какие еще модели есть из хороших или только дельфин этот?
@denRzh
@denRzh 6 месяцев назад
Простой версии хватит 16 Гб?
Далее
Наташа Кампуш. 3096 дней в плену.
00:58
На фейсконтроле 💂
09:41
Просмотров 875 тыс.
Сравниваем: RAG на Local LLM vs GPT-4
5:19
ChatGPT Makes Decisions at Detroit Become Human
24:59
КАКОЙ SAMSUNG КУПИТЬ В 2024 ГОДУ
14:59
Проверил, как вам?
0:58
Просмотров 390 тыс.
Самая редкая видеокарта NVIDIA
1:00