前言因工作需要,不得不再次将Transformer从尘封的记忆中取出。半年前学Transformer的时候只觉得模型好复杂,步骤好复杂,论文读完,想了好几天,感觉还是没有完全搞明白,仅仅是记住了一些专有名词,除了用于吹牛逼其余一无是处,因为内部的机理完全不明白,所以这些名词啊、公式啊转眼就忘。Self-attention是Transformer最核心的思想,这两天重新阅读了论文,有了一些新的感想,便急忙将其记下,与朋友们共勉。博主刚开始接触self-attention时,最不理解的地方就是Q
Copyright 2019-2023 All Rights Reserved. 乐易云 版权所有
网站地图 香港樂易雲網絡有限公司www.123yun.com