作者您好,Readme中所提到的Transformers库版本似乎和代码对应不上,在Transformers4.36.1版本中transformers.models.llama.modeling_llama这个位置没有StaticCache,所以在执行samd_sam_only/model_patch/llama.py中
from transformers.models.llama.modeling_llama import (
LlamaModel,
LlamaForCausalLM,
Cache,
StaticCache,
AttentionMaskConverter
)
的时候,会出现导入错误,我想知道正确的Transformers库的版本应该是多少?
作者您好,Readme中所提到的Transformers库版本似乎和代码对应不上,在Transformers4.36.1版本中transformers.models.llama.modeling_llama这个位置没有StaticCache,所以在执行samd_sam_only/model_patch/llama.py中
from transformers.models.llama.modeling_llama import (
LlamaModel,
LlamaForCausalLM,
Cache,
StaticCache,
AttentionMaskConverter
)
的时候,会出现导入错误,我想知道正确的Transformers库的版本应该是多少?