【发布时间】:2021-09-11 13:18:32
【问题描述】:
我研究了变压器架构中自回归与非自回归之间的区别。但我想知道 TensorFlow 中的注意力层是否实际上是自回归的?还是我需要实现自回归机制?
我没有看到任何因果选项(例如 causal=true/false)
我没有看到说明“tfa.layers.MultiHeadAttention”是否为自回归的文档
对此的任何想法将不胜感激。
【问题讨论】:
标签: tensorflow transformer attention-model autoregressive-models