《深度学习的数学——使用Python语言》第3章 概率论学习
[复制链接]
概率分布可以理解为生成所需数值的一个函数。
深度学习中主要用到的对概率分布进行采样的地方,就是在训练之前对网络参数进行初始化,目前主流的神经网络都用均匀分布或正态分布对参数中的权重项进行初始化
直方图与概率
生成一个直方图的简单代码
EXP1 将一个大小为1000的元素取值区间为[0,9]的整形数组赋值给n,然后对数组n中的每个整数进行统计,如果伪随机数没有问题,我们大致会获得平均的0-9数据
0出现975次 1出现987次等
Import numpy as np
N= np.random.randint(0,10,10000)
H= np.bincount(N)
H
离散型概率分布
二项分布
二项分布是指,如果重复多次试验,每次都有某事件以相同的概率发生,那么在所有实验中该事件有望发生的次数。
以n=5 p=0.3进行二项式可能计算
任意样本取值为1的可能性最大占36%可能性
通过数学计算可以知道
N=5 p=0.3
k取0的概率0.168
k取1的概率0.36
k取2的概率0.3087
k取3的概率0.1323
k取4的概率0.02835
k取5的概率0.00243
测试代码
测试结果
伯努利分布
伯努利分布是一种特殊的二项分布,对应n固定为1的情况,表示只进行一次实验
伯努利分布的样本取值为0和1,表示事件发生与否
EEWORLDIMGTK4
测试结果
[0.1689 0.3678 0.3011 0.1316 0.0284 0.0022]
[5027 4973]
大数法则
大数法则谁的是随着从分布中进行采样的样本数不断增加,样本的均值会逐渐趋于总体的均值
要证明大数法则,我们可以不断增加样本量,然后跟踪均值的变化,于是得到一个均值关于样本量n的函数
代码如下
测试结果
我们可以看出对均值为1的正态分布进行采样并且不断加大样本量,随着样本量的增加,样本的均值趋于总体的均值
|