已解决
NLP:Attention和self-attention的区别
来自网友在路上 152852提问 提问时间:2023-10-09 03:45:37阅读次数: 52
最佳答案 问答题库528位专家为你答疑解惑
核心思想是根据不同的上下文为不同的信息分配不同的注意力权重
效果:
- Attention:它允许模型在解码时聚焦于输入的特定部分,从而更好地捕获上下文信息。
- Self-attention:它帮助模型捕获输入序列内部的关系,无论这些关系的距离有多远。
计算:
- Attention:权重是基于当前的输出(或解码器状态)和所有的输入(或编码器状态)来计算的。
- Self-attention:权重是基于输入序列的每一个元素与其他所有元素的关系来计算的。
数学:
self-attention比attention约束条件多了两个:
1. Q=K=V(同源) 也就是说,查询、键、和值都来自于同一个地方,即输入序列和输出序列是相同的,即模型在生成每一个输出时都对自己的所有输入(包括自己)进行加权求和。
2. Q,K,V需要遵循attention的做法
查看全文
99%的人还看了
相似问题
- 【Django-DRF用法】多年积累md笔记,第3篇:Django-DRF的序列化和反序列化详解
- 【Java 进阶篇】JavaScript JSON 语法入门:轻松理解数据的序列化和反序列化
- 【python学习】基础篇-常用模块-pickle模块:序列化和反序列化
- ZC序列理论学习及仿真
- 时间序列预测实战(十七)PyTorch实现LSTM-GRU模型长期预测并可视化结果(附代码+数据集+详细讲解)
- 代码随想录算法训练营第二十九天| 491 递增子序列 46 全排列
- 最长递增子序列
- 深入解析序列模型:全面阐释 RNN、LSTM 与 Seq2Seq 的秘密
- c#Nettonsoft.net库常用的方法json序列化反序列化
- 基于C#实现最长公共子序列
猜你感兴趣
版权申明
本文"NLP:Attention和self-attention的区别":http://eshow365.cn/6-17576-0.html 内容来自互联网,请自行判断内容的正确性。如有侵权请联系我们,立即删除!
- 上一篇: 【软考】9.1 顺序表/链表/栈和队列
- 下一篇: 三十二、【进阶】hash索引结构