متا و مایکروسافت Llama 2، یک LLM منبع باز را برای استفاده تحقیقاتی و تجاری برای عموم منتشر کردند. Llama 2 یک مدل زبان رگرسیون خودکار است که از معماری ترانسفورماتور بهینه شده استفاده می کند. نسخههای تنظیمشده از تنظیم دقیق نظارتی (SFT) و یادگیری تقویتی با بازخورد انسانی (RLHF) استفاده میکنند تا با اولویتهای انسان برای مفید بودن و ایمنی هماهنگ شوند. بر روی 2 تریلیون داده از منابع عمومی در دسترس از قبل آموزش داده شده است. برای اجرای این مدل برای استنتاج، مدل 70B به 8 GPU نیاز دارد. مقادیر Model Parallel (MP) در حالی که مدل در حال ساخت است تنظیم میشود. بزرگترین و بهترین مدل از این خانواده ، Llama2 70B است که دارای 70 میلیارد پارامتر است. یک پارامتر fp16 2 بایت وزن دارد. بارگیری Llama 2 70B به 140 گیگابایت حافظه (70 میلیارد * 2 بایت) نیاز دارد.