机器学习

XGBoost(eXtreme Gradient Boosting)和GBDT(Gradient Boosting Decision Tree)区别

XGBoost(eXtreme Gradient Boosting)和GBDT(Gradient Boosting Decision Tree)区别 XGBoost(eXtreme Gradient Boosting)和GBDT(Gradient Boosting Decision Tree)都是基
2023-10-20

决策树和随机森林的区别

决策树和随机森林的区别 决策树和随机森林是两种常见的机器学习模型,它们在构建和预测方式上有显著的不同。以下是它们的主要区别: 模型结构: 决策树:是一个单独的树结构,它通过一系列的问题(通常是关于特征的阈值测试)来对数据进行分类或回归预测。 随机森林
2023-10-20

梯度提升决策树(GBDT,Gradient Boosting Decision Tree)

GBDT算法 梯度提升决策树(GBDT,Gradient Boosting Decision Tree)是一种集成学习算法,它通过构建多个决策树来进行预测,并将这些决策树的结果累加起来形成最终的预测输出。GBDT在处理回归和分类问题上表现出色,尤其在数据集较大、特征较多的情况下。 GBDT的核心思想
2023-10-20

常见的机器算法原理及优缺点

常见的机器算法原理及优缺点 算法 基础原理 优点 缺点
2023-09-16

什么是无监督学习?

#什么是无监督学习? 顾名思义,“无监督”学习发生在没有监督者或老师并且学习者自己学习的情况下。 例如,考虑一个第一次看到并品尝到苹果的孩子。她记录了水果的颜色、质地、味道和气味。下次她看到一个苹果时,她就知道这个苹果和之前的苹果是相似的物体,因为它们具有非常相似的特征。她知道这和橙子很不一样。但是
2023-08-16

注意力机制(Attention Mechanism)

注意力机制(Attention Mechanism) 注意力机制(Attention Mechanism)是一种在深度学习中模拟人类视觉注意力的方法,它能够帮助模型集中于输入数据中最重要的部分,从而提高处理效率和准确性。注意力模型在自然语言处理(NLP)、图像识别和语音识别等多个领域都有广泛的应用。
2023-05-20

随机森林和Bagging算法区别

随机森林和Bagging算法区别 随机森林(Random Forest)和Bagging(Bootstrap Aggregating)算法都是机器学习中用于提高模型稳定性和准确率的集成学习方法,但它们之间存在一些区别: Bagging算法: 基础概念:Bagging是一种通过对原始数据集进行多次重采
2023-05-01

书单

书单 这份书籍清单和链接如下,简单翻译了一下书名,供感兴趣的朋友参考: The Elements of Statistical Learning(统计学习基础) Trevor Hastie, Robert Tibshirani, Jerome Friedman http://link.springe
2023-01-16

MLDE

用于多标签分类的动态集成学习 Xiaoyan Zhu a 1, Jiaxuan Li
2022-10-07