0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

支持向量机(原问题和对偶问题)

RG15206629988 来源:行业学习与研究 2023-05-25 09:31 次阅读

本文主要介绍原问题(PRIME PROBLEM)和对偶问题(DUAL PROBLEM),支持向量机优化问题可通过原问题向对偶问题的转化求解。

一、原问题的定义

原问题的定义为:

最小化:f(ω);

限制条件:gi(ω)≤0,i=1~K;hi(ω)=0,i=1~M。

其中,ω为多维向量,限制条件中具有K个不等式(gi(ω)≤0),M个等式(hi(ω)=0)。

二、对偶问题的定义

首先定义函数:L(ω,α,β)=f(ω)+∑αigi(ω)+∑βihi(ω);

该函数向量形式的定义:L(ω,α,β)=f(ω)+αTg(ω)+βTh(ω);

该函数向量形式的定义中,α=[α1,α2,…,αK]T,β=[β1,β2,…,βM]T,g(ω)=[g1(ω),g2(ω),…,gK(ω)]T,h(ω)=[h1(ω),h2(ω),…,hM(ω)]T。

基于函数L(ω,α,β)的定义,原问题的对偶问题定义如下:

最大化:θ(α,β)=infL(ω,α,β);

限制条件:αi≥0,i=1~K。

其中,infL(ω,α,β)为遍历所有ω后,取值最小的L(ω,α,β)。

三、定理一

根据以上定义,可得出定理一:

如果ω*是原问题的解,(α*,β*)是对偶问题的解,则有: f(ω*)≥θ(α*,β*)

该定理的证明如下: θ(α*,β*)=infL(ω,α*,β*)(将α*、β*代入对偶函数的定义)

≤L(ω*,α*,β*)(此步推导由于infL(ω,α*,β*)的取值最小)

=f(ω*)+α*Tg(ω*)+β*Th(ω*)(此步推导根据L(ω,α,β)的定义)

≤f(ω*)(此步推导由于原问题的限制条件gi(ω)≤0,hi(ω)=0,对偶问题的限制条件αi≥0)

四、强对偶定理

将f(ω*)-θ(α*,β*)定义为对偶差距(DUALITY GAP),根据上述定理,对偶差距是大于等于零的函数。

如果g(ω)=Aω+b,h(ω)=Cω+d,f(ω)为凸函数,则有f(ω*)=θ(α*,β*),此时对偶差距等于零。该定理为强对偶定理(STRONG DUALITY THEOREM)。

强对偶定理可更通俗地表述为:原问题的目标函数(f(ω))是凸函数,原问题的限制条件是线性函数,则原问题的解与对偶函数的解相等。

五、KKT条件

若f(ω*)=θ(α*,β*),则有: f(ω*)+α*Tg(ω*)+β*Th(ω*)=f(ω*); 即对于所有的i=1~K,要么αi=0,要么gi(ω*)=0(因为hi(ω)=0)。

该结论被称为KKT条件,KKT分别代表先后独立发现该结论的研究人员Karush、Kuhn、Tucker,该结论在Kuhn、Tucker发现后逐步被推广。






审核编辑:刘清

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 向量机
    +关注

    关注

    0

    文章

    166

    浏览量

    20832
  • 机器学习
    +关注

    关注

    66

    文章

    8338

    浏览量

    132275
  • GAP
    GAP
    +关注

    关注

    0

    文章

    15

    浏览量

    8291

原文标题:机器学习相关介绍(12)——支持向量机(原问题和对偶问题)

文章出处:【微信号:行业学习与研究,微信公众号:行业学习与研究】欢迎添加关注!文章转载请注明出处。

收藏 人收藏

    评论

    相关推荐

    #硬声创作季 人工智能入门课程:12. [2.7.1]--支持向量(原问题和对偶问题)

    向量人工智能机器学习
    Mr_haohao
    发布于 :2022年09月21日 11:11:05

    12. 2 7 支持向量(原问题和对偶问题) #硬声创作季

    机器学习
    充八万
    发布于 :2023年07月07日 01:27:18

    支持向量的SVM

    支持向量SVM
    发表于 05-20 10:21

    特征加权支持向量

    该文针对现有的加权支持向量(WSVM)和模糊支持向量(FSVM)只考虑样本重要性而没有考虑特
    发表于 11-21 11:15 15次下载

    基于改进支持向量的货币识别研究

    首先,预抽取支持向量以减少训练样本数量,大大缩减训练时间;然后,用缩减后的样本对改进后的分类支持向量进行货币识别,改进后的
    发表于 12-14 14:57 14次下载

    基于支持向量(SVM)的工业过程辨识

    支持向量应用到典型的时变、非线性工业过程 连续搅拌反应釜的辨识中, 并与BP 神经网络建模相比较, 仿真结果表明了支持向量
    发表于 03-30 16:12 42次下载
    基于<b class='flag-5'>支持</b><b class='flag-5'>向量</b><b class='flag-5'>机</b>(SVM)的工业过程辨识

    基于标准支持向量的阵列波束优化及实现

    为了考察基于支持向量算法的波束形成器在实际水声环境中的主瓣宽度、旁瓣级以及阵增益等性能,将标准支持向量
    发表于 11-10 11:03 13次下载
    基于标准<b class='flag-5'>支持</b><b class='flag-5'>向量</b><b class='flag-5'>机</b>的阵列波束优化及实现

    模糊支持向量的改进方法

    了基于同类中心和异类中心双参照点的噪声判别方法;分析了模糊支持向量求解对偶问题中参数与支持向量
    发表于 11-29 16:19 0次下载
    模糊<b class='flag-5'>支持</b><b class='flag-5'>向量</b><b class='flag-5'>机</b>的改进方法

    基于向量随机投影特征降维分类下降解决方案

    针对大型支持向量(SVM)经随机投影特征降维后分类精度下降的问题,结合对偶恢复理论,提出了面向大规模分类问题的基于对偶随机投影的线性核
    发表于 12-01 10:30 1次下载
    基于<b class='flag-5'>向量</b><b class='flag-5'>机</b>随机投影特征降维分类下降解决方案

    多分类孪生支持向量研究进展

    孪生支持向量因其简单的模型、快速的训练速度和优秀的性能而受到广泛关注.该算法最初是为解决二分类问题而提出的。不能直接用于解决现实生活中普遍存在的多分类问题.近来,学者们致力于将二分类孪生支持
    发表于 12-19 11:32 0次下载

    基于支持向量的测深激光信号处理

    针对浅海探测中激光回波噪声源多、信噪比低,传统非加权最小二乘支持向量和加权最小二乘支持向量
    发表于 12-21 13:46 0次下载

    支持向量的故障预测模型

    针对现有的故障预测技术无法从整体上反映系统性能下降趋势等问题,提出一种基于健康度分析的故障预测方法。首先,在支持向量回归算法基础上构造多输出支持
    发表于 12-29 11:24 0次下载

    关于支持向量(SVMs)

    支持向量(Support Vector Machine: SVM)是一种非常有用的监督式机器学习算法
    的头像 发表于 04-02 08:52 4149次阅读
    关于<b class='flag-5'>支持</b><b class='flag-5'>向量</b><b class='flag-5'>机</b>(SVMs)

    什么是支持向量 什么是支持向量

    支持向量,英文为Support Vector Machine,简称SV(论文中一般简称SVM)。它是一 种监督式学习的方法,它广泛的应用于统计分类以及回归分析中。
    发表于 01-28 16:01 2.2w次阅读
    什么是<b class='flag-5'>支持</b><b class='flag-5'>向量</b><b class='flag-5'>机</b> 什么是<b class='flag-5'>支持</b><b class='flag-5'>向量</b>

    支持向量(核函数的定义)

    根据机器学习相关介绍(10)——支持向量(低维到高维的映射),支持向量可通过引入φ(x)函数
    的头像 发表于 05-20 10:41 760次阅读
    <b class='flag-5'>支持</b><b class='flag-5'>向量</b><b class='flag-5'>机</b>(核函数的定义)