Last updated 3 years ago
Was this helpful?
如何训练一个全能的预训练模型?——兼顾理解和生成的中文预训练模型CPT,邱锡鹏
中文预训练模型中没有考虑到的?
T5和BART用了Encoder-Decoder架构(难以训练)
挑战
同时支持理解和生成任务,生成效率提升2倍以上
模型效果
未来的工作:中文的字、词级别的兼顾