国内HuggingFace,预训练模型镜像使用_A_zhangpengjie的博客-CSDN博客 (1)
| 2022-12-11
101  |  阅读时长 1 分钟
notion image
Hugging Face Transformers 是自然语言处理领域的重要开源项目,提供了基于通用架构(如 BERT,GPT-2,RoBERTa)的数千个预训练模型,并提供了 PyTorch 和 TensorFlow 的良好互操作性。 Hugging Face Transformers 是自然语言处理领域的重要开源项目,提供了基于通用架构(如 BERT,GPT-2,RoBERTa)的数千个预训练模型,并提供了 PyTorch 和 TensorFlow 的良好互操作性。
我们镜像了 Hugging Face Model Hub,为国内用户下载预训练模型数据提供便利。

使用方法

注意:transformers > 3.1.0 的版本支持下面的 mirror 选项。
只需在 from_pretrained 函数调用中添加 mirror 选项,如:
目前内置的两个来源为 tuna 与 bfsu。此外,也可以显式提供镜像地址,如:
  • Giscus
目录