码迷,mamicode.com
首页 > 编程语言 > 详细

机器学习--Logistic回归算法案例

时间:2015-05-08 09:41:46      阅读:187      评论:0      收藏:0      [点我收藏+]

标签:

案例:从疝气病症预测病马的死亡率

        准备数据时,数据中的缺失值是个非常棘手的问题。因为有时候数据相当昂贵,扔掉和重新获取都是不可取的,所以必须采用一些方法来解决这个问题。

        在预处理阶段需要做两件事:第一,所有的缺失值必须用一个实数值来替换,因为我们使用的NumPy数据类型不允许包含缺失值。这里选择实数0来替换所有缺失值,恰好能适用于Logistic回归。第二,如果在测试数据集中发现了一条数据的类别标签已经缺失,那么我们可以将该条数据丢弃。因为类别标签与特征不同,很难确定采用某个合适的值来替换。

 

1、测试Logistic回归算法。把测试集上每个特征向量乘以最优化方法得来的回归系数,再将该乘积结果求和,最后输入到Sigmoid函数中。如果对应的Sigmoid值大于0.5就预测类别标签1,否则为0。

########################################
#功能:类别标签分类
#输入变量:inx, weights 特征向量,回归系数
########################################
def classify_vector(inx, weights):

    prob = sigmoid(sum(inx * weights))
    if prob > 0.5:
        return 1.0
    else:
        return 0.0

 

2、打开训练集和测试集,并对数据进行格式化处理。数据的最后一列是类别标签,分为“仍存活”和“未能存活”两类。这里选用改进的随机梯度上升算法来计算回归系数向量。

########################################
# 功能:病马死亡率的测试
# 输入变量:空
# 输出变量:错误率
########################################
def colic_test():

    fr_train = open(‘horseColicTraining.txt‘)
    fr_test = open(‘horseColicTest.txt‘)
    training_set = []
    training_labels = []

    for line in fr_train.readlines():

        curr_line = line.strip().split(‘\t‘)
        line_arr = []

        for i in xrange(21):
            line_arr.append(float(curr_line[i]))
        training_set.append(line_arr)
        training_labels.append(float(curr_line[21]))

    train_weights = rand_grad_ascent1(array(training_set), training_labels, 500)

    error_count = 0
    num_test_vec = 0.0

    for line in fr_test.readlines():

        num_test_vec += 1.0
        curr_line = line.strip().split(‘\t‘)
        line_arr = []

        for i in xrange(21):
            line_arr.append(float(curr_line[i]))

        if int(classify_vector(array(line_arr), train_weights)) != int(curr_line[21]):
            error_count += 1

    error_rate = float(error_count)/num_test_vec
    print ‘the error rate of this test is: %f‘ % error_rate

    return error_rate

 

########################################
# 功能:求迭代10次后的平均错误率

########################################

def multi_test():

    num_tests = 10
    error_sum = 0.0

    for k in xrange(num_tests):
        error_sum += colic_test()
    print ‘after %d iterations the average error rate is: %f‘ % (num_tests, error_sum/float(num_tests))


测试代码:

def main():
    
    multi_test()

if __name__ == ‘__main__‘:
    main()

机器学习--Logistic回归算法案例

标签:

原文地址:http://blog.csdn.net/zyl1042635242/article/details/45565959

(0)
(0)
   
举报
评论 一句话评论(0
登录后才能评论!
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!