huggingface 的模型缓存目录

创建日期: 2024-08-09 10:51 | 作者: 风波 | 浏览次数: 16 | 分类: AI

1. 默认的缓存目录

/root/.cache/huggingface/hub # 其实就是 `/~/.cache/huggingface/hub`

2. 手动设置缓存目录

在文件最开始指定缓存路径

import os
os.environ['HF_HOME'] = '/root/workspace/'

或者使用环境变量

export HF_HOME=/root/workspace/

那么对应的缓存目录就是 /root/workspace/hub

3. 使用缓存目录

例如,指定缓存目录为 /root/workspace/,指定的模型是 google/gemma-2b-it 那么 huggingface 会从目录 /root/workspace/hub/models--google--gemma-2b-it/snapshots/main/ 中查找文件。

也就是会所在网页上看到的 https://huggingface.co/google/gemma-2-2b-it/tree/main 里面的文件,要下载到目录 /root/workspace/hub/models--google--gemma-2b-it/snapshots/main/ 里面。

注意⚠️: - 检测缓存是否存在的动作,在代码文件 /usr/local/lib/python3.10/dist-packages/huggingface_hub/file_download.py 的第 1620 行附近。 - 下载文件的位置是 /usr/local/lib/python3.10/dist-packages/huggingface_hub/file_download.py 文件的 _request_wrapper 函数。

4. 直接使用绝对路径

model_path = "/root/workspace/gemma-2-2b-it"
#model_path = "google/gemma-2b-it"

tokenizer = AutoTokenizer.from_pretrained(model_path) # google/gemma-2b-it
model = AutoModelForCausalLM.from_pretrained(model_path, device_map="auto") # google/gemma-2b-it
16 浏览
9 爬虫
0 评论