لن يتفوق علية طبعا لان الموديل ده dense model من ٤٠٥ مليار باراميتر عكس ال chat gpt اللى هو عبارة عن moe أو mixture of experts الفرق شاسع غير أنه تشغيل الموديل ده غير متاح الأشخاص العاديين لو حجم البارميتر 2 بايت أو ١٦ بت يعنى ولو هيتم تشغيلة على أساس float point 16 يعنى مش هيتم تشغيل الموديل بشكل كامل أو عمل loading للموديل على أساس float point 32 فى الممورى بشكل كامل ده معناه أنه الشخص ده محتاج اكتر من ٨٠٠ جيجا رام غير باقى العناصر الأخرى زى ال sequence length أو الممورى المطلوبة للسؤال والإجابة الخاصة بال tokens ده معناه مش اقل من ١ تيرا vram أو ممورى كارت الشاشه يعنى غير العناصى التانيه لتشغيل المودل زى ال activation checkpoint وال gradient checkpoint وال memory management buffer يعنى محتاج واحد تيرا رام من كروت شاشه من نوع tensor خلاصه الموضوع مش اى شخص عندة إمكانيات تشغيل الموديل بشكل كامل لاستخدام شخصى الا اذا كنت خليجي
"لقد ألغيت جميع الاشتراكات في أي نماذج أخرى لأن النموذج 405b هو وحش وحقيقي. لقد تأثرت جدًا عندما عمل وفعل بالضبط ما أردته أن يفعله. أنا مندهش وممتن جدًا لجهود شركة ميتا في مساعدة مجتمع المصادر المفتوحة، ضد جشع الشركات ذات المصادر المغلقة. المشكلة الوحيدة مع هذا النموذج هي أن تشغيله محليًا يتطلب كمية كبيرة من ذاكرة النظام (212.8 جيجابايت)، ولكن إذا كان لديك هذه الكمية من الذاكرة، فأنت المدير."