计算机系教师:http://www.ntu.edu.sg/home/axsun/
//@好东西传送门://@请叫我卫小华: 不同的场景可能不一样,算法的实现方式也可能不同,文章说的是最基本的算法情况~高阶的则另当别论了。//@木叶漂舟: 文章说GBDT树的深度为1时效果比较好,貌似印象里3~7之间比较好,scikit-learn默认的是3,这个有比较好的经验值么?
最近看到一个群里有人讨论RF和GBDT异同,我就写了一篇 《Random Forest 与 GBDT 的异同 》→ @NLPJob @爱可可-爱生活 @好东西传送门 [嘻嘻][嘻嘻]
//@爱可可-爱生活://@特仑蘇oOo: 欢迎大家看看我们的KDD'15论文: “Exploiting Relevance Feedback in Knowledge Graph Search", 研究如何利用user feedback提高knowledge graph search的准确率. //@好东西传送门: → 这个链接更直观
【KDD 2015论文集】"Proceedings of the 21th ACM SIGKDD International Conference on Knowledge Discovery and Data Mining" 论文免登录直接下载 →
没停过这么高级的,停过一次看起来像九宫格的,把车倒进一个格子里,然后机器转动把停好车的格子转到地下或空中,然后地面层重新转过来一个空格子。技术差,折腾了好久才倒进格子里//@丕子: 这个靠谱
"柚子是不是皮很厚?" "柚子营养丰富,耐储存耐运输."
台风 →