LLAMA Model Save with INT8 Format
作者:XD / 发表: 2023年7月31日 02:51 / 更新: 2023年7月31日 02:51 / 编程笔记 / 阅读量:898
LLAMA Model Save with INT8 Format
from transformers import BitsAndBytesConfig
from transformers import AutoModelForCausalLM
config = BitsAndBytesConfig(
load_in_8bit=True,
)
path = "/home/llm/model/path/"
model = AutoModelForCausalLM.from_pretrained(path, device_map="cpu", quantization_config=config)
model.save_pretrained("model_save_folder-8bit")
相关标签