huggingface-transformers相关内容

基于脸部权重建立TensorFlow模型的问题

我需要使用来自HuggingFace和TensorFlow的预先训练好的BERT模型('dbmdz/bert-base-italian-xxl-cased')(位于this链接)。 在网站上看到这篇文章后 目前只有与PyTorch-Transformers兼容的权重可用。如果您需要访问TensorFlow检查点,请提出问题! 我提出了这个问题,很快就给了我一个指向包含以下文件的档案的 ..

节省和重新装入紧凑面微调变压器

我正在尝试重新加载经过微调的DistilBertForTokenClass模型。我使用的是Translers 3.4.0和pytorch版本1.6.0+cu101。在使用训练器训练了下载的模型之后,我用traine.saveModel()保存了模型,在排除故障时,我通过模型保存到了一个不同的目录。我正在使用Google Colab,并将模型保存到我的Google Drive中。在测试了模型之后,我 ..
发布时间:2022-06-23 17:55:09 Python

如何使用 BertForMaskedLM 或 BertModel 计算句子的困惑度?

我想用 BertForMaskedLM 或 BertModel 来计算句子的困惑度,所以我写了这样的代码: 将 numpy 导入为 np进口火炬将 torch.nn 导入为 nn从变压器进口 BertTokenizer,BertForMaskedLM# 加载预训练模型(权重)使用 torch.no_grad():模型 = BertForMaskedLM.from_pretrained('hfl/ ..

如何禁用 TOKENIZERS_PARALLELISM=(true | false) 警告?

我使用pytorch来训练huggingface-transformers模型,但是每一个epoch,总是输出警告: 当前进程刚刚被分叉.禁用并行性以避免死锁...要禁用此警告,请明确设置 TOKENIZERS_PARALLELISM=(true | false) 如何禁用此警告? 解决方案 设置环境变量为字符串"false" 要么通过 TOKENIZERS_PARALLELI ..

如何在没有 IOB 标签的情况下使用 Hugging Face 的转换器管道重建文本实体?

我一直在寻找将 Hugging Face 的管道用于 NER(命名实体识别).但是,它以内-外-开始 (IOB) 格式返回实体标签,但 没有 IOB 标签.所以我无法将管道的输出映射回我的原始文本.此外,输出以 BERT 标记化格式进行屏蔽(默认模型为 BERT-large). 例如: 来自转换器导入管道nlp_bert_lg = 管道('ner')print(nlp_bert_lg('H ..

如何在 MLM 和 NSP 的新域上从头开始训练 BERT?

我正在尝试使用 HuggingFace 库使用我自己的数据集从头开始训练 BERT 模型.我想以一种具有原始 BERT 模型的确切架构的方式来训练模型. 在原始论文中,它指出:“BERT 接受了两项任务的训练:预测随机掩码标记 (MLM) 和预测两个句子是否紧跟 (NSP).SCIBERT 遵循与 BERT 相同的架构,但在科学文本上进行了预训练." 我试图了解如何在上述两个任务上训练 ..

如何在 HuggingFace Transformers 库中获得预训练 BERT 模型的中间层输出?

(我正在关注 this pytorch 教程关于 BERT 词嵌入,在教程中作者是访问 BERT 模型的中间层.) 我想要的是使用 HuggingFace 的 Transformers 库访问 TensorFlow2 中 BERT 模型的单个输入令牌的最后一层,比如说,最后 4 层.因为每一层输出一个长度为 768 的向量,所以最后 4 层的形状将是 4*768=3072(对于每个 toke ..

如何将 HuggingFace 的 Seq2seq 模型转换为 onnx 格式

我正在尝试将 HuggingFace 的转换器模型中的 Pegasus 新闻编辑室转换为 ONNX 格式.我跟着 这份指南由 Huggingface 出版.安装先决条件后,我运行了以下代码: !rm -rf onnx/从 pathlib 导入路径从transformers.convert_graph_to_onnx 导入转换转换(框架=“pt",模型=“google/pegasus-newsro ..
发布时间:2021-09-05 19:01:29 Python