0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

探析从贝叶斯到深度学习及各自优缺点

mK5P_AItists 来源:cc 2019-02-17 09:56 次阅读

目录

正则化算法(Regularization Algorithms)

集成算法(Ensemble Algorithms)

决策树算法(Decision Tree Algorithm)

回归(Regression)

人工神经网络(Artificial Neural Network)

深度学习(Deep Learning)

支持向量机(Support Vector Machine)

降维算法(Dimensionality Reduction Algorithms)

聚类算法(Clustering Algorithms)

基于实例的算法(Instance-based Algorithms)

贝叶斯算法(Bayesian Algorithms)

关联规则学习算法(Association Rule Learning Algorithms)

图模型(Graphical Models)

正则化算法(Regularization Algorithms)

它是另一种方法(通常是回归方法)的拓展,这种方法会基于模型复杂性对其进行惩罚,它喜欢相对简单能够更好的泛化的模型。

例子:

岭回归(Ridge Regression)

最小绝对收缩与选择算子(LASSO)

GLASSO

弹性网络(Elastic Net)

最小角回归(Least-Angle Regression)

优点:

其惩罚会减少过拟合

总会有解决方法

缺点:

惩罚会造成欠拟合

很难校准

集成算法(Ensemble algorithms)

集成方法是由多个较弱的模型集成模型组,其中的模型可以单独进行训练,并且它们的预测能以某种方式结合起来去做出一个总体预测。

该算法主要的问题是要找出哪些较弱的模型可以结合起来,以及结合的方法。这是一个非常强大的技术集,因此广受欢迎。

Boosting

Bootstrapped Aggregation(Bagging)

AdaBoost

层叠泛化(Stacked Generalization)(blending)

梯度推进机(Gradient Boosting Machines,GBM)

梯度提升回归树(Gradient Boosted Regression Trees,GBRT)

随机森林(Random Forest)

优点:

当先最先进的预测几乎都使用了算法集成。它比使用单个模型预测出来的结果要精确的多

缺点:

需要大量的维护工作

决策树算法(Decision Tree Algorithm)

决策树学习使用一个决策树作为一个预测模型,它将对一个 item(表征在分支上)观察所得映射成关于该 item 的目标值的结论(表征在叶子中)。

树模型中的目标是可变的,可以采一组有限值,被称为分类树;在这些树结构中,叶子表示类标签,分支表示表征这些类标签的连接的特征。

例子:

分类和回归树(Classification and Regression Tree,CART)

Iterative Dichotomiser 3(ID3)

C4.5 和 C5.0(一种强大方法的两个不同版本)

优点:

容易解释

参数

缺点:

趋向过拟合

可能或陷于局部最小值中

没有在线学习

回归(Regression)算法

回归是用于估计两种变量之间关系的统计过程。当用于分析因变量和一个 多个自变量之间的关系时,该算法能提供很多建模和分析多个变量的技巧。具体一点说,回归分析可以帮助我们理解当任意一个自变量变化,另一个自变量不变时,因变量变化的典型值。最常见的是,回归分析能在给定自变量的条件下估计出因变量的条件期望。

回归算法是统计学中的主要算法,它已被纳入统计机器学习

例子:

普通最小二乘回归(Ordinary Least Squares Regression,OLSR)

线性回归(Linear Regression)

逻辑回归(Logistic Regression)

逐步回归(Stepwise Regression)

多元自适应回归样条(Multivariate Adaptive Regression Splines,MARS

本地散点平滑估计(Locally Estimated Scatterplot Smoothing,LOESS)

优点:

直接、快速

知名度高

缺点:

要求严格的假设

需要处理异常值

人工神经网络

人工神经网络是受生物神经网络启发而构建的算法模型。

它是一种模式匹配,常被用于回归和分类问题,但拥有庞大的子域,由数百种算法和各类问题的变体组成。

例子:

感知器

反向传播

Hopfield 网络

径向基函数网络(Radial Basis Function Network,RBFN)

优点:

在语音、语义、视觉、各类游戏(如围棋)的任务中表现极好。

算法可以快速调整,适应新的问题。

缺点:

需要大量数据进行训练

训练要求很高的硬件配置

模型处于「黑箱状态」,难以理解内部机制

元参数(Metaparameter)与网络拓扑选择困难。

深度学习(Deep Learning)

深度学习是人工神经网络的最新分支,它受益于当代硬件的快速发展。

众多研究者目前的方向主要集中于构建更大、更复杂的神经网络,目前有许多方法正在聚焦半监督学习问题,其中用于训练的大数据集只包含很少的标记。

例子:

深玻耳兹曼机(Deep Boltzmann Machine,DBM)

Deep Belief Networks(DBN)

卷积神经网络(CNN)

Stacked Auto-Encoders

优点/缺点:见神经网络

支持向量机(Support Vector Machines)

给定一组训练事例,其中每个事例都属于两个类别中的一个,支持向量机(SVM)训练算法可以在被输入新的事例后将其分类到两个类别中的一个,使自身成为非概率二进制线性分类器。

SVM 模型将训练事例表示为空间中的点,它们被映射到一幅图中,由一条明确的、尽可能宽的间隔分开以区分两个类别。

随后,新的示例会被映射到同一空间中,并基于它们落在间隔的哪一侧来预测它属于的类别。

优点:

在非线性可分问题上表现优秀

缺点:

非常难以训练

很难解释

降维算法(Dimensionality Reduction Algorithms)

和集簇方法类似,降维追求并利用数据的内在结构,目的在于使用较少的信息总结或描述数据。

这一算法可用于可视化高维数据或简化接下来可用于监督学习中的数据。许多这样的方法可针对分类和回归的使用进行调整。

例子:

主成分分析(Principal Component Analysis (PCA))

主成分回归(Principal Component Regression (PCR))

偏最小二乘回归(Partial Least Squares Regression (PLSR))

Sammon 映射(Sammon Mapping)

多维尺度变换(Multidimensional Scaling (MDS))

投影寻踪(Projection Pursuit)

线性判别分析(Linear Discriminant Analysis (LDA))

混合判别分析(Mixture Discriminant Analysis (MDA))

二次判别分析(Quadratic Discriminant Analysis (QDA))

灵活判别分析(Flexible Discriminant Analysis (FDA))

优点:

可处理大规模数据集

无需在数据上进行假设

缺点:

难以搞定非线性数据

难以理解结果的意义

聚类算法(Clustering Algorithms)

聚类算法是指对一组目标进行分类,属于同一组(亦即一个类,cluster)的目标被划分在一组中,与其他组目标相比,同一组目标更加彼此相似(在某种意义上)。

例子:

K-均值(k-Means)

k-Medians 算法

Expectation Maximi 封层 ation (EM)

最大期望算法(EM)

分层集群(Hierarchical Clstering)

优点:

让数据变得有意义

缺点:

结果难以解读,针对不寻常的数据组,结果可能无用。

基于实例的算法(Instance-based Algorithms)

基于实例的算法(有时也称为基于记忆的学习)是这样学 习算法,不是明确归纳,而是将新的问题例子与训练过程中见过的例子进行对比,这些见过的例子就在存储器中。

之所以叫基于实例的算法是因为它直接从训练实例中建构出假设。这意味这,假设的复杂度能随着数据的增长而变化:最糟的情况是,假设是一个训练项目列表,分类一个单独新实例计算复杂度为 O(n)

例子:

K 最近邻(k-Nearest Neighbor (kNN))

学习向量量化(Learning Vector Quantization (LVQ))

自组织映射(Self-Organizing Map (SOM))

局部加权学习(Locally Weighted Learning (LWL))

优点:

算法简单、结果易于解读

缺点:

内存使用非常高

计算成本高

不可能用于高维特征空间

贝叶斯算法(Bayesian Algorithms)

贝叶斯方法是指明确应用了贝叶斯定理来解决如分类和回归等问题的方法。

例子:

朴素贝叶斯(Naive Bayes)

高斯朴素贝叶斯(Gaussian Naive Bayes)

多项式朴素贝叶斯(Multinomial Naive Bayes)

平均一致依赖估计器(Averaged One-Dependence Estimators (AODE))

贝叶斯信念网络(Bayesian Belief Network (BBN))

贝叶斯网络(Bayesian Network (BN))

优点:

快速、易于训练、给出了它们所需的资源能带来良好的表现

缺点:

如果输入变量是相关的,则会出现问题

关联规则学习算法(Association Rule Learning Algorithms)

关联规则学习方法能够提取出对数据中的变量之间的关系的最佳解释。比如说一家超市的销售数据中存在规则 {洋葱,土豆}=> {汉堡},那说明当一位客户同时购买了洋葱和土豆的时候,他很有可能还会购买汉堡肉。

例子:

Apriori 算法(Apriori algorithm)

Eclat 算法(Eclat algorithm)

FP-growth

图模型(Graphical Models)

图模型或概率图模型(PGM/probabilistic graphical model)是一种概率模型,一个图(graph)可以通过其表示随机变量之间的条件依赖结构(conditional dependence structure)。

例子:

贝叶斯网络(Bayesian network)

马尔可夫随机域(Markov random field)

链图(Chain Graphs)

祖先图(Ancestral graph)

优点:

模型清晰,能被直观地理解

缺点:

确定其依赖的拓扑很困难,有时候也很模糊

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 机器学习
    +关注

    关注

    66

    文章

    8382

    浏览量

    132458
  • 深度学习
    +关注

    关注

    73

    文章

    5493

    浏览量

    121017

原文标题:机器学习算法集锦:从贝叶斯到深度学习及各自优缺点

文章出处:【微信号:AItists,微信公众号:人工智能学家】欢迎添加关注!文章转载请注明出处。

收藏 人收藏

    评论

    相关推荐

    FPGA与ASIC的优缺点比较

    FPGA(现场可编程门阵列)与ASIC(专用集成电路)是两种不同的硬件实现方式,各自具有独特的优缺点。以下是对两者优缺点的比较: FPGA的优点 可编程性强 :FPGA具有高度的可编程性,可以灵活
    的头像 发表于 10-25 09:24 258次阅读

    opa2134与opa1632d的区别和各自优缺点是什么?

    老师您好 请问opa2134与opa1632d的区别和各自优缺点是什么谢谢
    发表于 09-20 12:55

    风扇灯的优缺点有哪些

    风扇灯是一种结合了风扇和照明功能的家用电器,它通过创新的设计消除了传统风扇的叶片,从而提高了安全性和美观性。 无风扇灯的优点: 安全性 :无设计消除了传统风扇的叶片,减少了儿童或宠物受伤
    的头像 发表于 09-07 11:44 3330次阅读

    滤波和卡尔曼滤波的区别

    滤波和卡尔曼滤波是两种常用的滤波方法,它们在信号处理、导航、机器人定位等领域有着广泛的应用。
    的头像 发表于 08-01 15:25 525次阅读

    武汉凯迪正大分享电缆电力检测方法及其优缺点

    随着技术的发展和进步电缆电力检测方法也日益多样化,涵盖了传统的电桥法现代的局部放电法、红外热像法等多种技术手段。本文将依照凯迪正大的经验围绕电缆电力检测的主要方法展开讨论,并分析其各自
    的头像 发表于 07-24 17:28 298次阅读

    AI大模型与小模型的优缺点

    在人工智能(AI)的广阔领域中,模型作为算法与数据之间的桥梁,扮演着至关重要的角色。根据模型的大小和复杂度,我们可以将其大致分为AI大模型和小模型。这两种模型在定义、优缺点及应用场景上存在着显著的差异。本文将从多个维度深入探讨AI大模型与小模型的特点,并分析其各自
    的头像 发表于 07-10 10:39 2458次阅读

    深度学习中的无监督学习方法综述

    应用中往往难以实现。因此,无监督学习深度学习中扮演着越来越重要的角色。本文旨在综述深度学习中的无监督
    的头像 发表于 07-09 10:50 561次阅读

    神经网络算法的优缺点有哪些

    神经网络算法是一种模拟人脑神经元结构的计算模型,广泛应用于机器学习深度学习、图像识别、语音识别等领域。然而,神经网络算法也存在一些优缺点。本文将详细分析神经网络算法的
    的头像 发表于 07-03 09:47 1201次阅读

    TensorFlow与PyTorch深度学习框架的比较与选择

    学习框架,它们各自拥有独特的特点和优势。本文将从背景介绍、核心特性、操作步骤、性能对比以及选择指南等方面对TensorFlow和PyTorch进行详细比较,以帮助读者了解这两个框架的优缺点,并选择最适合自己需求的框架。
    的头像 发表于 07-02 14:04 911次阅读

    再次问鼎全球首富

    今日,亚马逊创始人杰夫·再次荣登全球首富宝座,成功超越了法国奢侈品巨头LVMH老板伯纳德·阿尔诺。在全球富豪500强排名中,以惊人的2090亿美元净资产位列榜首。
    的头像 发表于 06-12 17:36 642次阅读

    nbiot和lora的优缺点是什么?

    nbiot和lora的优缺点
    发表于 06-04 06:37

    电感储能和电容储能各有什么优缺点

    电感储能和电容储能是两种在电子电路中常见的能量存储方式,它们各自具有独特的优缺点,适用于不同的应用场景。
    的头像 发表于 05-06 15:47 5285次阅读

    Systick到底是用作延时好还是用作定时好?都有什么优缺点

    功能,作基础定时用,而不建议用作延时功能,方便后面程序移植. 最好有个定论,方便后面程序的移植,不能各自各自的,一个公司里面写程序的风格和标准需要统一。 想问下各位,Systick到底是用作延时好?还是用作定时好,都有什么优缺点
    发表于 04-08 07:37

    SD-WAN网络与传统网络的区别及各自优缺点

    SD-WAN网络与传统网络的区别及各自优缺点  SD-WAN是一种新兴的网络技术,它与传统网络相比有许多区别与优点。在本文中,我们将详尽、详实、细致地探讨SD-WAN网络与传统网络之间的区别以及
    的头像 发表于 03-27 16:23 981次阅读

    双绞线和同轴电缆的特征以及优缺点

    双绞线和同轴电缆的特征以及优缺点  双绞线和同轴电缆都是用于传输信号和数据的常见电缆类型。它们在不同的应用场景中具有不同的特征和优缺点。下面将详细介绍双绞线和同轴电缆的特征以及各自优缺点
    的头像 发表于 12-26 16:23 4405次阅读