【图解】随机采样 & 相邻采样

【图解】随机采样 & 相邻采样

本系列主要针对深度学习过程中的零碎知识点整理与直观理解。

先验知识:

采样序列总字符长度:$L$

批量大小(每个批量中的样本数):batch_size = n

每个样本包含的时间步:num_step = t

小批量采样:每次只处理一个批量的样本,每个字符最多只能出现在一个样本中。

【重点】:随机和相邻均指相邻批量之间!

由序列总长与样本时间步可知样本数为:$N = \lfloor \frac{L}{t} \rfloor$ (向下取整,舍弃)

图解

image 1

image 2

image 3

python实现

代码页面

------ 本文结束------
0%