About 50 results
Open links in new tab
  1. 如何评价RoBERTa? - 知乎

    roberta 是bert 的一个完善版,相对于模型架构之类的都没有改变,改变的只是三个方面: 预训练数据: BERT采用了BOOKCORPUS 和英文维基百科, 总共16GB。 而 RoBERTa采用了BOOKCORPUS …

  2. [读论文] RoBERTa: 健壮优化的 BERT 预训练方法 - 知乎

    论文题目:RoBERTa: A Robustly Optimized BERT Pretraining Approach 作者单位: 华盛顿大学 保罗·艾伦计算机科学与 工程学院,FaceBook AI 这篇文章是 BERT 系列模型和 XLNet 模型的又一次交 …

  3. BERT and RoBERTa 知识点整理有哪些? - 知乎

    Sep 15, 2021 · RoBERTa:每次给模型看这句话的时候,才 临时、随机地 选择一些词进行 Mask。 这意味着模型每次看到的同一句话,要填的“空”都可能不一样。 更大规模 更多的训练数据:BERT 使用 …

  4. “追星”Transformer(七):RoBERTa——“鲁棒版BERT”

    RoBERTa认为BERT的符号化粒度还是过大,无法克服很多稀有词汇容易产生“OOV”的问题。 为了解决上述问题,RoBERTa借鉴了GPT-2.0的做法,使用力度更小的 字节级BPE (byte-level BPE)进行 …

  5. 大模型面试:八股文+题目整理 - 知乎

    NLP、算法、大模型、Python编程 在 Transformer 出现之前,序列建模主要依赖循环神经网络(RNN)及其改进版本 LSTM 和 GRU,它们通过递归结构逐步处理序列,适用于语言建模、机器翻 …

  6. transformers 案例一:RoBERTa 商品评论语义分析

    性能优越,这个价格下的高配置称得上高性价比。外观也很漂亮,拿手上也不觉得太沉。跑vista很流畅,开多个程序基本不觉得卡,内存高就是好啊。label=1predict=1昨天刚从南京回来,去之前经过反复 …

  7. 2021年了,有哪些效果明显强于bert和roberta的预训练模型? - 知乎

    英文领域: deberta v3:微软开源的模型,在许多任务上超过了bert和roberta,现在kaggle中比较常用此模型打比赛,也侧面反映了deberta v3的效果是最好的。 ernie 2.0:这个百度是只开源了英文版,我 …

  8. 2025年还有哪些模型可以用来文本分类? - 知乎

    曾经的Bert,roberta现在还是最佳选择吗?

  9. 如何评价RoBERTa? - 知乎

    RoBERTa,全称为“Robustly Optimized BERT Pretraining Approach”,是 BERT(双向编码器表示)的一个改进版,它在自然语言处理(NLP)领域带来了革命性的突破。RoBERTa 是由 Facebook AI 开 …

  10. 用RoBERTa模型希望得到中文词向量而非字向量的情况,可以在输入时 …

    Jan 19, 2022 · 全词掩码是训练任务,训练时的输入依然是 RoBERTa 的 tokenizer 处理后的字。 “重新写下tokenizor函数来按词进行分割” 效果会很差因为其它的参数并没有训练。 个人建议如下: 1.在开源 …