编辑
2022-12-06
深度学习
0

啃完了Transformer,今天来啃BERT,考虑到BERT我个人再用的时候更多的是调huggingface上的预训练模型,于是这篇博客就只记录一下BERT的结构以及我个人对于Bert预训练任务的理解.

编辑
2022-12-03
深度学习
0

没错,我也不知道过了多久,总之就是啃完了!

编辑
2022-11-26
深度学习
0

接上一篇RNN,GRU是现在用的比较多的循环神经网络,最主要的特色是引入了重置门和更新门这两个结构。

编辑
2022-11-25
深度学习
0

RNN这块在很久之前就已经接触过了,写这篇blog的时候正在啃transformer,啃得属实有点痛

编辑
2022-11-24
深度学习
0

这只是一个markdown测试页面

f(x)=wx+baf(x) = \frac{wx+b}{a}
p