标签:最优 标准 imu .sh 计算 res ima alt com
SVM损失函数 & SoftMax损失函数:
注意一下softmax损失的用法:
import numpy as np def L_i(x, y, W): ‘‘‘ 非向量化SVM损失计算 :param x: 输入矢量 :param y: 标准分类 :param W: 参数矩阵 :return: ‘‘‘ delta = 1.0 scores = W.dot(x) correct_score = scores[y] D = W.shap[0] loss_i = 0.0 for j in range(D): if j==y: continue loss_i += max(0.0, scores[j] - correct_score + delta) return loss_i def L_i_vectorized(x, y, W): ‘‘‘ 半向量化SVM损失计算 :param x: 输入矢量 :param y: 标准分类 :param W: 参数矩阵 :return: ‘‘‘ delta = 1.0 scores = W.dot(x) margins = np.maximum(0, scores - scores[y] + delta) margins[y] = 0 loss_i = np.sum(margins) return loss_i
import numpy as np # 正常的softmax分类器 f = np.array([123, 456, 789]) # p = np.exp(f) / np.sum(np.exp(f)) # print(p) # 数值稳定化的softmax分类器 f -= np.max(f) p = np.exp(f) / np.sum(np.exp(f)) print(p)
损失函数=代价函数=目标函数
svm给出一个得分,softmax给出一个概率。
标签:最优 标准 imu .sh 计算 res ima alt com
原文地址:http://www.cnblogs.com/hellcat/p/6978838.html