标签:newlisp
在理解条件概率的前提下,参考之前的文章理解条件概率
现在来看看大名鼎鼎的bayes算法。bayes分成训练和查询两个阶段。训练指的是对样本数据集的训练,从而找出规律。
newlispe提供了bayes-train函数
syntax: (bayes-train list-M1 [list-M2 ... ] sym-context-D)list-M1 [list-M2 ...] 是输入参数,都是一堆list,list中的元素可以是symbol或者string, 在bayes中,这些元素有一个规范的名称,叫做token. 因此list-M1 ... 这些称之为token list.
> (bayes-train ‘(A A B C C) ‘(A B B C C C) ‘L) (15 18) > (symbols L) (L:A L:B L:C L:L L:total) >用symbols函数显示了结果L中有若干个symbol, 其中total是总计,现在逐一显示它们的值。
> L:A (2 1) > L:B (1 2) > L:C (2 3) > L:total (5 6)
(bayes-train ‘("one" "two" "two" "three") ‘("three" "one" "three") ‘("one" "two" "three") ‘S)
> (bayes-train ‘(A A B C C) ‘(A B B C C C) ‘L) (10 12) > L:A (4 2) > L:total (10 12)这是个好消息,我们每次可以将L的结果保存在数据库中,以后有新的训练样本过来,可以继续训练,而不是从头开始。i而且,如果的确已经通过其他手段获得了token的频次,我们可以跳过一次训练,直接将结果保存在context中,帮助后续的训练。
标签:newlisp
原文地址:http://blog.csdn.net/csfreebird/article/details/43370541