首页
教程
IT编程
国外技术
登录
标签
通篇
RoBERTa: A Robustly Optimized BERT Pretraining Approach(通篇翻译)
RoBERTa:一种稳健优化的BERT预训练方法Yinhan Liu ∗ § Myle Ott ∗§ Naman Goyal ∗§ Jingfei Du ∗§ Mandar Joshi † Danqi Chen §
通篇
optimized
Robustly
RoBERTa
Approach
admin
4月前
29
0