支持矩阵机
本文最后更新于421 天前,其中的信息可能已经过时,如有错误请发送邮件到blue16@email.swu.edu.cn

问题背景

脑电图、图像分类:输入的信息是矩阵。传统的支持向量机:会忽略结构信息。

为了利用这种结构信息,我们提出一种新的分类方法,我们称之为支持矩阵机(SMM)

SMM = Hinge Loss + spectral elastic net penalty

SMM问题:凸优化->采用ADMM算法

介绍

核心:试图利用数据矩阵的列或行之间的相关性(利用结构信息)。

Wolf et al (2007) proposed a rank-k SVM, which models the regression matrix as the sum of k rank-one orthogonal matrices. Pirsiavash et al (2009) devised a bilinear SVM by factorizing the regression matrix into two lowrank matrices. Cai et al (2006) proposed a similar bilinear framework called support tensor machines for text categorization.

之前的研究:rank-k SVM、

导致的问题:非凸优化问题

本篇论文的模型的创新点:

First, we consider the hinge loss due to its widely deployed ability in sparseness and robustness modeling. Second, we employ a spectral elastic net penalty for the regression matrix.

  • 损失函数:hinge loss
  • 惩罚项:spectral elastic net penalty(传统的:elastic net)

三种范数

弗罗贝尼乌斯范数(Frobenius norm)

有点类似于我们常见的距离的计算方法:平方开根号

核范数(Nuclear norm)

就是矩阵在奇异值分解(SVD)中矩阵Σ对角线上所有奇异值的和:

谱范数(Spectral norm)

矩阵的最大奇异值。

支持矩阵机(SMM)

暂无评论

发送评论 编辑评论


				
|´・ω・)ノ
ヾ(≧∇≦*)ゝ
(☆ω☆)
(╯‵□′)╯︵┴─┴
 ̄﹃ ̄
(/ω\)
∠( ᐛ 」∠)_
(๑•̀ㅁ•́ฅ)
→_→
୧(๑•̀⌄•́๑)૭
٩(ˊᗜˋ*)و
(ノ°ο°)ノ
(´இ皿இ`)
⌇●﹏●⌇
(ฅ´ω`ฅ)
(╯°A°)╯︵○○○
φ( ̄∇ ̄o)
ヾ(´・ ・`。)ノ"
( ง ᵒ̌皿ᵒ̌)ง⁼³₌₃
(ó﹏ò。)
Σ(っ °Д °;)っ
( ,,´・ω・)ノ"(´っω・`。)
╮(╯▽╰)╭
o(*////▽////*)q
>﹏<
( ๑´•ω•) "(ㆆᴗㆆ)
😂
😀
😅
😊
🙂
🙃
😌
😍
😘
😜
😝
😏
😒
🙄
😳
😡
😔
😫
😱
😭
💩
👻
🙌
🖕
👍
👫
👬
👭
🌚
🌝
🙈
💊
😶
🙏
🍦
🍉
😣
Source: github.com/k4yt3x/flowerhd
颜文字
Emoji
小恐龙
花!
上一篇
下一篇