标签:随机 bsp relative 相同 距离 csdn ack llb detail
熵其实是信息量的期望值,它是一个随机变量的确定性的度量(不确定度)。熵越大,变量的取值越不确定,反之就越确定。
http://blog.csdn.net/rtygbwwwerr/article/details/50778098
相对熵(relative entropy)又称为KL散度(Kullback-Leibler divergence),KL距离,是两个随机分布间距离的度量。KL为0,表明两者分布相同。
交叉熵:
http://blog.csdn.net/u012162613/article/details/44239919
标签:随机 bsp relative 相同 距离 csdn ack llb detail
原文地址:http://www.cnblogs.com/kprac/p/7412770.html