论文阅读——BART
最佳答案 问答题库608位专家为你答疑解惑
Arxiv: https://arxiv.org/abs/1910.13461
一个去噪自编码器的预训练序列到序列的模型。是一个结合了双向和自回归transformers的模型。
预训练分为两个阶段:任意噪声函数破坏文本和序列模型重建原始文本
一、模型
input:被破坏的文本-->bidirectional encoder-->left-to-right autoregressive decoder-->output
标准transformers模型,encoder 6层,decoder 12层
其他细节:激活函数把ReLU换成GeLUs
1、预训练:
允许输入任意类型噪声破坏的文本,极端情况下,如果任意信息都丢失,BART等同于语言模型。
Token Masking:和BERT一样
Token Deletion:随机抽取到的token删除(Token Masking是抽取到的token用mask代替,这个是随机抽取到的token删除),模型可以学习到什么位置的token丢失了
Text Infilling:对多个文本跨度进行采样,跨度长度取自泊松分布,可以教模型预测一个跨度中缺少多少tokens
Sentence Permutation:文章句子打乱顺序
Document Rotation:文章中随机找到一个token,将文章翻转,以该token作为文章的开头
2、微调:
各下游任务微调
二、Loss:交叉熵
99%的人还看了
相似问题
- 最新AIGC创作系统ChatGPT系统源码,支持最新GPT-4-Turbo模型,支持DALL-E3文生图,图片对话理解功能
- 思维模型 等待效应
- FinGPT:金融垂类大模型架构
- 人工智能基础_机器学习044_使用逻辑回归模型计算逻辑回归概率_以及_逻辑回归代码实现与手动计算概率对比---人工智能工作笔记0084
- Pytorch完整的模型训练套路
- Doris数据模型的选择建议(十三)
- python自动化标注工具+自定义目标P图替换+深度学习大模型(代码+教程+告别手动标注)
- ChatGLM2 大模型微调过程中遇到的一些坑及解决方法(更新中)
- Python实现WOA智能鲸鱼优化算法优化随机森林分类模型(RandomForestClassifier算法)项目实战
- 扩散模型实战(十一):剖析Stable Diffusion Pipeline各个组件
猜你感兴趣
版权申明
本文"论文阅读——BART":http://eshow365.cn/6-26284-0.html 内容来自互联网,请自行判断内容的正确性。如有侵权请联系我们,立即删除!
- 上一篇: 配置Sentinel 控制台
- 下一篇: Kafka - 消息队列的两种模式