博客
关于我
强烈建议你试试无所不能的chatGPT,快点击我
RCNN
阅读量:4329 次
发布时间:2019-06-06

本文共 575 字,大约阅读时间需要 1 分钟。

RCNN

首先从这里我了解到对于RNN来说,上一层的隐层仓的输出和这一时刻输入

两者向量拼接作为输入。这一层的输入维度取决于输入神经元的个数,隐层的输入维度取决于rnn隐层的神经元的个数。

通过这个知识点的了解,我就知道为什么在

lstm在初始化h0 c0的时候采取
h0 = torch.zeros(self.num_layers, x.size(0), self.hidden_size).to(device)
c0 = torch.zeros(self.num_layers, x.size(0), self.hidden_size).to(device)

如果说是个双向的lstm,我们就要使用self.num_layers x 2

中,它对h和c的维度有一个概括,是这样说的。
h_n shape (n_layers, batch, hidden_size)
h_c shape (n_layers, batch, hidden_size)

对于双向lstm来说,我们使用pytorch代码之后,得到的隐层状态是两个单层lstm隐层状态的拼接

RCNN代码

TextRCNN 文本分类 阅读笔记 - 今天做作业没的文章 - 知乎

转载于:https://www.cnblogs.com/lzida9223/p/10535975.html

你可能感兴趣的文章
最大堆,最小堆及堆排序
查看>>
学习日记
查看>>
EasyNVR RTSP转RTMP-HLS流媒体服务器前端构建之:内部搜索功能的实现
查看>>
四则运算--封装5.1
查看>>
Python中dunder名称的来历
查看>>
不知道下一步该怎么走
查看>>
并查集,合根植物
查看>>
C++中String类的字符串分割实现
查看>>
HelloWorld
查看>>
CSS3-animations
查看>>
轮廓系数
查看>>
【Luogu1272】重建道路(动态规划)
查看>>
一次开发逻辑规范的总结
查看>>
Android 中 Movie 类显示GIF图片
查看>>
python学习---朴素贝叶斯算法的简单实现
查看>>
Eclipse使用技巧汇总
查看>>
RabbitMQ
查看>>
composite模式(摘自博客园博客)
查看>>
iOS程序执行顺序和UIViewController 的生命周期(整理)
查看>>
Embedding 文献收藏
查看>>