Это бред. Какие данные страшно потерять программеру при работе с моделью? А бесплатный Gemini это вообще тупое убожество, которое даже для кулинарии и рецептов использовать страшно, потому что вообще пишет оно что попало.
Смотря какая версия ламы 8B или 70B. Размер стоит умножать на 2 и мы примерно получим необходимое количество оперативки. Но также есть возможность запускать квантованые версии моделей 4 или 8 bit, что уменьшит потребление памяти. Для русского языка оригинальная модель настроена плохо, пока что лучше всего работает тюн suzume
@@rikishihiradate2922 Как я знаю, это требования к серверам а не к одиночному использованию а так, даже если у вас слабый то можно использовать Google colab
Бро, отличные видео, мне очень нравятся Хотел дать совет со стороны, возможно будет лучше если ты будешь погромче и поуверенней говорить Сейчас прям слишком мягко звучишь, как будто с детьми общаешься, чуть ли не сюсюкаешься Не принимай на свой счет, просто со стороны говорю как это звучит
На самом деле фигня полная, мб только у меня так но макбуке м1 про (достаточно хорошее железо) отвечает он очень медленно и часто хуже чем github copilot, хотя как будто модель сильнее. Хотел попробовать старшую модель ламы которая весит больше, так она вообще не стала мне отвечать ))) Жду кстати devin