标签:通过 线性 梯度下降法 距离 逻辑 mat 不同的 训练 情感分析
七,专著研读(Logistic回归)
把上边两个损失函数综合起来:
\(-[ylog(x)+(1-ylog(1-x)]\)
y是标签,分别取0,1。对于m个样本,总的损失函数为:
\(J(\Theta )=-\frac{1}{m}\sum_{i=1}^{m}[y_{i}log(p(x_{i})+(1-y_{i})log(1-p(x_{i}))]\)
这个式子中,m是样本数,y是标签,取值0或1,i表示第i个样本,p(x)表示预测的输出。
标签:通过 线性 梯度下降法 距离 逻辑 mat 不同的 训练 情感分析
原文地址:https://www.cnblogs.com/zaw-315/p/11257719.html