线性分类器和非线性分类器总结https://blog.csdn.net/jodie123456/article/details/90512238?ops_request_misc=&request_id=&biz_id=102&utm_term=%E9%9D%9E%E7%BA%BF%E6%80%A7%E5%88%86%E7%B1%BB%E5%99%A8&utm_medium=distribute.pc_search_result.none-task-blog-2~all~sobaiduweb~default-2-90512238.142%5Ev47%5Epc_rank_34_default_2,201%5Ev3%5Eadd_ask&spm=1018.2226.3001.4187>>>非线性分类器
一、决策树决策树的起源——Hunt算法
https://blog.csdn.net/e15273/article/details/79874588?ops_request_misc=&request_id=&biz_id=102&utm_term=%E5%86%B3%E7%AD%96%E6%A0%91%E7%AE%97%E6%B3%95%E7%9A%84%E5%8F%91%E5%B1%95&utm_medium=distribute.pc_search_result.none-task-blog-2~all~sobaiduweb~default-4-79874588.142%5Ev47%5Epc_rank_34_default_2,201%5Ev3%5Eadd_ask&spm=1018.2226.3001.4187
人的一生不一定要成就很多事,有一件事载入史册足矣
1.信息量
2.信息增益及其计算方法
3.熵
信息量的描述:消息出现概率为P,其所含信息量为I = -logP
4.决策树——ID3算法
>>>决策树——ID3算法
https://blog.csdn.net/weixin_46245411/article/details/114703474?ops_request_misc=%257B%2522request%255Fid%2522%253A%2522166373501916781432923582%2522%252C%2522scm%2522%253A%252220140713.130102334..%2522%257D&request_id=166373501916781432923582&biz_id=0&utm_medium=distribute.pc_search_result.none-task-blog-2~all~sobaiduend~default-1-114703474-null-null.142^v48^pc_rank_34_default_2,201^v3^add_ask&utm_term=%E5%86%B3%E7%AD%96%E6%A0%91id3%E7%AE%97%E6%B3%95&spm=1018.2226.3001.4187
二、随机森林
1.集成学习
集成学习的发展史、实现方法
http://c.biancheng.net/ml_alg/ensemble-learning.html机器学习:集成学习(图文)
https://blog.csdn.net/weixin_45707277/article/details/120596614?ops_request_misc=&request_id=&biz_id=102&utm_term=%E9%9B%86%E6%88%90%E5%AD%A6%E4%B9%A0&utm_medium=distribute.pc_search_result.none-task-blog-2~all~sobaiduweb~default-4-120596614.142^v48^pc_rank_34_default_2,201^v3^add_ask&spm=1018.2226.3001.4187
>>>机器学习之集成学习(ensemble learning) 5W+阅读
弱学习器和强学习器https://www.csdn.net/tags/MtjaQgysNTg4NTAtYmxvZwO0O0OO0O0O.html
2.随机森林
三、题外话
决策树的模型——DFS
N叉树的前序遍历https://leetcode.cn/problems/n-ary-tree-preorder-traversal/
本文含有隐藏内容,请 开通VIP 后查看