Тёмный

Llama 3 языковая модель для разработчика  

PurpleSchool | Anton Larichev
Подписаться 41 тыс.
Просмотров 15 тыс.
50% 1

Посмотрим на новую языковую модуль Llama 3 для разработчиков.
Обучение разработке: purpleschool.ru/
#ai #shorts

Опубликовано:

 

3 май 2024

Поделиться:

Ссылка:

Скачать:

Готовим ссылку...

Добавить в:

Мой плейлист
Посмотреть позже
Комментарии : 25   
@PurpleSchool
@PurpleSchool Месяц назад
Курсы по разработке: purpleschool.ru/
@kephec6233
@kephec6233 Месяц назад
Это бред. Какие данные страшно потерять программеру при работе с моделью? А бесплатный Gemini это вообще тупое убожество, которое даже для кулинарии и рецептов использовать страшно, потому что вообще пишет оно что попало.
@ericborder5996
@ericborder5996 Месяц назад
А какие требования к железу?
@rikishihiradate2922
@rikishihiradate2922 Месяц назад
Тоже хотел спросить. Слышал, что инстанс GPT-3 требует минимум 40 Гб видеопамяти.
@mkgs210
@mkgs210 Месяц назад
Смотря какая версия ламы 8B или 70B. Размер стоит умножать на 2 и мы примерно получим необходимое количество оперативки. Но также есть возможность запускать квантованые версии моделей 4 или 8 bit, что уменьшит потребление памяти. Для русского языка оригинальная модель настроена плохо, пока что лучше всего работает тюн suzume
@PurpleSchool
@PurpleSchool Месяц назад
Память хотя бы 16 для версии 8b для комфортной работы. Но с русским языком работает не очень
@no_drama808
@no_drama808 Месяц назад
Вы про оперативную память говорите, или про видеопамять? Если 16 Гб видеопамяти, то это видео вообще не имеет смысла (:
@mekbect
@mekbect Месяц назад
​@@rikishihiradate2922 Как я знаю, это требования к серверам а не к одиночному использованию а так, даже если у вас слабый то можно использовать Google colab
@user-hruser
@user-hruser Месяц назад
Полностью локально? А данные для ответа где она берет
@PurpleSchool
@PurpleSchool Месяц назад
При запуске скачивается модель размером 5GB
@wowlikon
@wowlikon Месяц назад
Ответ генерируется на основе данных, на которых обучалась нейросеть
@Shorttrip1
@Shorttrip1 Месяц назад
А что если процессор поддерживает только AVX ?
@luppi2865
@luppi2865 Месяц назад
Будет работать
@SiberFrost
@SiberFrost Месяц назад
Бро, отличные видео, мне очень нравятся Хотел дать совет со стороны, возможно будет лучше если ты будешь погромче и поуверенней говорить Сейчас прям слишком мягко звучишь, как будто с детьми общаешься, чуть ли не сюсюкаешься Не принимай на свой счет, просто со стороны говорю как это звучит
@KinoGuruHD
@KinoGuruHD Месяц назад
На самом деле фигня полная, мб только у меня так но макбуке м1 про (достаточно хорошее железо) отвечает он очень медленно и часто хуже чем github copilot, хотя как будто модель сильнее. Хотел попробовать старшую модель ламы которая весит больше, так она вообще не стала мне отвечать ))) Жду кстати devin
@user-rl8fy6xe1t
@user-rl8fy6xe1t Месяц назад
на 4090 старшая модель летает и норм отвечает, железо норм нужно прост
@KinoGuruHD
@KinoGuruHD Месяц назад
@@user-rl8fy6xe1t видишь как, лагает даже 4090, тогда вообще грустно так как когда работаешь ждать некогда, так поиграться если только
@user-nt5ee3uo4t
@user-nt5ee3uo4t Месяц назад
Зачем ты им рассказал
@PurpleSchool
@PurpleSchool Месяц назад
Кому им и почему не рассказывать?)
@truedivan
@truedivan Месяц назад
​@@PurpleSchoolони это все остальные😂
@siddxartxa
@siddxartxa Месяц назад
Не ЭЛ лама 3, а просто лама 3... Лама по английски пишется с 2 L.
@PurpleSchool
@PurpleSchool Месяц назад
Лама по английски пишется Lama
@agilkerimov
@agilkerimov Месяц назад
А Lloyd наверное Эл Лойд 😂😂😂
@D11ND1
@D11ND1 Месяц назад
что если это испанский. и перевод такой как "позвони", или "позови", или "набери", или "я здесь, только свистни". и произносится тогда как "яма".
@D11ND1
@D11ND1 Месяц назад
llámame
Далее
LLaMA 3 Tested!! Yes, It’s REALLY That GREAT
15:02
Просмотров 206 тыс.
2000000❤️⚽️#shorts #thankyou
00:20
Просмотров 10 млн
ДОЕЗДИЛИСЬ, ДОПОМОГАЛИСЬ…
23:34
3 года с Tesla - горькая правда
38:36
ЧТО?
Просмотров 1,2 тыс.