Llama 2 70B

انتشار محتوا: ۱۹ آبان ۱۴۰۲ ساعت ۱۰:۴۸:۵۳ قبل از ظهر

متا و مایکروسافت Llama 2، یک LLM منبع باز را برای استفاده تحقیقاتی و تجاری برای عموم منتشر کردند. Llama 2 یک مدل زبان رگرسیون خودکار است که از معماری ترانسفورماتور بهینه شده استفاده می کند. نسخه‌های تنظیم‌شده از تنظیم دقیق نظارتی (SFT) و یادگیری تقویتی با بازخورد انسانی (RLHF) استفاده می‌کنند تا با اولویت‌های انسان برای مفید بودن و ایمنی هماهنگ شوند. بر روی 2 تریلیون داده از منابع عمومی در دسترس از قبل آموزش داده شده است. برای اجرای این مدل‌ برای استنتاج، مدل 70B به 8 GPU نیاز دارد. مقادیر Model Parallel (MP) در حالی که مدل در حال ساخت است تنظیم میشود. بزرگترین و بهترین مدل از این خانواده ، Llama2 70B است  که دارای 70 میلیارد پارامتر است. یک پارامتر fp16 2 بایت وزن دارد. بارگیری Llama 2 70B به 140 گیگابایت حافظه (70 میلیارد * 2 بایت) نیاز دارد.