游戏攻略网
当前位置: 首页 游戏攻略

r语言聚类分析数据太大(Petuum提出新型正则化方法)

时间:2023-07-31 作者: 小编 阅读量: 1 栏目名: 游戏攻略

第35届国际机器学习会议正在瑞典斯德哥尔摩举行。在很多机器学习问题中,都可以基于同一个协变量集预测出多种响应。不同的响应与协变量的不同子集相关。我们通过实验表明了这种正则化器的实际有效性。值得提及的是,单独使用L1或LDD都不足以降低重叠。中则使用了LDD-L1正则化器,这两个向量是稀疏的且接近正交。这种近端操作针对的是LDD-L1中的L1正则化器。

选自arXiv,作者:John Olafenwa,机器之心编译,参与:Geek AI、路。

第 35 届国际机器学习会议(ICML 2018)正在瑞典斯德哥尔摩举行。人工智能创业公司 Petuum 共有 5 篇论文入选,包含门控规划网络、变换自回归网络和无限可微分蒙特卡罗估计器等研究。本文将摘要介绍其中一篇论文《Nonoverlap-Promoting Variable Selection》,其中提出了一种有效的新型正则化方法,能够促进变量选择中的非重叠效应。

在评估模型质量的各种指标中,有两个比较常用:(1)在未曾见过的数据上的预测准确度;(2)对模型的解释。对于(2),科学家更喜欢更简单的模型,因为响应和协变量之间的关系更清晰。当预测量(predictor)的数量很大时,简约性问题就会变得尤其重要。当预测量的数量很大时,我们往往希望确定出一个能展现最强效果的小子集。

为了能在选择出重要因素的一个子集的同时得到准确的预测,研究者常常使用基于正则化的变量选择方法。其中最值得提及的是 L1 正则化(Tibshirani, 1996),这能促进模型系数变得稀疏。其变体包括 L1/L2 范数(Yuan & Lin, 2006),其中引入了组稀疏效应(group sparsity effect)和弹性网络(elastic net)(Zou & Hastie, 2005),这能强烈地促进大量预测量中互相相关的预测量共同进入或离开模型。

在很多机器学习问题中,都可以基于同一个协变量集预测出多种响应。比如,在多任务分类任务中,具有 m 个类别的分类器建立在一个共享的特征集之上,而且每个分类器都有一个类别特定的系数向量。在主题建模任务(Blei et al., 2003)中,可以在同一个词汇库上学习到多个主题,并且每个主题都有一个基于词的特有多项式分布。不同的响应与协变量的不同子集相关。比如,教育主题会与「学生」、「大学」和「教授」等词相关,而政治主题则会与「政府」、「总统」和「选举」等词相关。为了在执行变量选择时考虑到不同响应之间的差异,我们希望为不同响应选出的变量之间的重叠更少。

这个问题可用以下数学形式描述。设有 m 个响应共享 d 个协变量。每个响应都有一个特定的 d 维权重向量 w,其中每一维都对应于一个协变量。设

为 w 的支撑集,索引了一个响应的所选变量。对于任意两个响应 i 和 j,我们希望它们的所选变量 s(wi) 和 s(wj) 有更少的重叠,其重叠度的衡量方式为

。为了达到这个效果,我们提出了一种正则化器(regularizer),可同时促进不同的权重向量接近正交且每个向量变得稀疏,这能联合促使向量的支撑集的重叠更小。我们也通过实验表明:最小化该正则化器能够降低所选变量之间的重叠。

这项研究工作的主要贡献包括:

  • 我们提出了一种新型正则化方法,能够促进变量选择中的非重叠效应。
  • 我们将新提出的正则化器应用在了 4 种模型上:多类 logistic 回归、距离度量学习、稀疏编码和深度神经网络。
  • 我们导出了求解这些正则化问题的有效算法。尤其值得提及的是,我们为正则化稀疏编码开发了一种基于 ADMM 和坐标下降(coordinate descent)的算法。
  • 我们分析了新提出的正则化器能提升泛化性能的原因。
  • 我们通过实验表明了这种正则化器的实际有效性。

方法

在这一节,我们提出了一种非重叠促进型正则化器,并将其应用在了 4 种机器学习模型上。

1 非重叠促进型正则化

我们假设模型有 m 个响应,其中每一个都使用一个权重向量进行了参数化。对于向量 w,其支撑集 s(w) 定义为

——w 中非零项的索引。而且这个支撑集包含所选变量的索引。我们首先定义一个分数

来衡量两个响应的所选变量之间的重叠程度:

这是支撑集的 Jaccard 指数。越小,则两个所选变量的集合之间的重叠程度就越低。对于 m 个变量集,重叠分数则定义为各对分数之和:

这个分数函数不是平滑的,如果被用作正则化器会很难优化。我们则根据

提出了一个平滑的函数,并且可以实现与 o(W) 相近的效果。其基本思想是:为了促进重叠较小,我们可以让(1)每个向量有少量非零项,(2)向量之间的支撑集的交集较小。为了实现(1),我们使用一个 L1 正则化器来促使向量变得稀疏。为了实现(2),我们促使向量接近正交状态。对于两个稀疏向量,如果它们接近正交,那么它们的支撑集将会落在不同的位置。这样能让支撑集的交集较小。

我们遵循了(Xie et al., 2017b)提出的方法来促进正交性。为了让两个向量 wi 和 wj 接近正交,可让它们的 L2 范数

接近 1,让它们的内积

接近 0。基于此,就可通过促使这些向量的 Gram 矩阵

接近于一个单位矩阵 I 来促进一组向量之间的正交性。因为 G 和 I 各自的对角线上没有了

和 0,而分别是

和 1,所以要让 G 接近 I,本质上就是让

接近 0,让

接近 1。由此,就促使 wi 和 wj 接近正交了。(Xie et al., 2017b)提出的一种用于衡量两个矩阵之间的「接近度」的方法是使用对数行列式散度(LDD:log-determinant divergence)(Kulis et al., 2009)。两个 m×m 正定矩阵 X 和 Y 之间的 LDD 定义为

,其中 tr(·) 表示矩阵的迹。G 和 I 之间的接近度可以通过让它们的 LDD

更小来得到。

将正交促进型 LDD 正则化器与稀疏度促进型 L1 正则化器组合到一起,我们就得到了以下 LDD-L1 正则化器:

其中 γ 是这两个正则化器之间的权衡参数。我们的实验已经验证,这种正则化器可以有效地促进非重叠。对(3)式和(2)式之间的关系的形式分析留待未来研究。值得提及的是,单独使用 L1 或 LDD 都不足以降低重叠。如图 1 所示,其中 (a) 是仅使用了 L1 的情况——尽管这两个向量是稀疏的,但它们的支撑集完全重叠。在 (b) 中仅使用了 LDD——尽管这两个向量非常接近正交,但因为它们是密集的,所以它们的支撑集完全重叠。(c) 中则使用了 LDD-L1 正则化器,这两个向量是稀疏的且接近正交。因此,它们的支撑集不重叠。

图 1:(a) 使用 L1 正则化的情况,向量是稀疏的但它们的支撑集重叠;(b) 使用 LDD 正则化的情况,向量是正交的但它们的支撑集重叠;(c) 使用 LDD-L1 正则化的情况,向量稀疏且互相正交,它们的支撑集不重叠。

2 案例研究

我们将 LDD-L1 正则化器应用在了 4 种机器学习模型上:

  • 多类 logistic 回归(MLR)
  • 距离度量学习(DML)
  • 稀疏编码(SC)
  • 深度神经网络(DNN)

3 算法

对于 LDD-L1 正则化的 MLR、NN 和 DML 问题,我们使用近端梯度下降(Parikh & Boyd, 2014)求解它们。这种近端操作针对的是 LDD-L1 中的 L1 正则化器。算法会迭代地执行以下三个步骤,直到收敛:(1)计算

的梯度,其中 L(W) 是未正则化的机器学习模型的损失函数,

是 LDD-L1 中的 LDD 正则化器;(2)执行 W 的梯度下降更新;(3)将 L1 正则化器的近端算子应用于 W。

算法 1:求解 LDD-L1-SC 问题的算法

实验

表 2:在 20-News 和 RCV1 的测试集上的分类准确度,以及训练准确度和测试准确度之间的差距

表 4:在 PTB 测试集上的词级困惑度

表 5:在 CIFAR-10 测试集上的分类误差(%)

论文:非重叠促进型变量选择(Nonoverlap-Promoting Variable Selection)

论文地址:http://proceedings.mlr.press/v80/xie18b/xie18b.pdf

变量选择是机器学习(ML)领域内的一个经典问题,在寻找重要的解释因素以及提升机器学习模型的泛化能力和可解释性方面有广泛的应用。在这篇论文中,我们研究了要基于同一个协变量集预测多个响应的模型的变量选择。因为每个响应都与一个特定协变量子集有关,所以我们希望不同响应的所选变量之间有较小的重叠。我们提出了一种能同时促进正交性和稀疏性的正则化器,这两者能共同带来降低重叠的效果。我们将这种正则化器应用到了 4 种模型实例上,并开发了求解正则化问题的有效算法。我们对新提出的正则化器可以降低泛化误差的原因进行了形式分析。我们在仿真研究和真实世界数据集上都进行了实验,结果表明我们提出的正则化器在选择更少重叠的变量和提升泛化性能上是有效的。

    推荐阅读
  • steam棋牌游戏推荐(幸运之夜新版本亮相TGC)

    steam棋牌游戏推荐12月1日,2017腾讯游戏嘉年华正式在成都开幕,腾讯的VR社交游戏《幸运之夜》在现场发布了最新版本。VR《幸运之夜》在TGC2017上惊艳亮相《幸运之夜》新版本发布邀请好友一起游戏今年7月底,《幸运之夜》正式在Steam发布,并推出了首款游戏作品“德州扑克”。今年的TGC2017现场,《幸运之夜》全新版本便带来了对互动性方面的提升。

  • 儿童睡前故事卖火柴的小女孩大全(卖火柴的小女孩)

    在长发公主的故事里,兔子小姐变成了手持宝剑的骑士,穿过了山川和河流,战胜了地狱恶犬,最终救出了长着一头金黄色长发的熊猫先生。随着一阵空间的波动,熊猫先生和兔子小姐来到了冰天雪地的圣诞节。小女孩被这突如其来的变化惊呆了。熊猫先生没有回答,轻轻摸了摸小女孩的头。小女孩点燃了第二根火柴。熊猫先生和兔子小姐则来到壁炉前,商量起小女孩最后一个愿望。熊猫先生蹲下来,握起小女孩的手。

  • 怎样做ppr管快一点(PPR管安装方法及技巧)

    怎样做ppr管快一点PPR管安装方法及技巧首先准备好需要的材料:热熔机,小剪刀,ppr管,管件,手巾。一定要根据自己热熔ppr管的口径,准备相应的热熔头。清洁:清洁管材与管件的焊接段部位,建议用95%浓度酒精擦净。在熔接时间内迅速的将管材无旋转的垂直插入管件中,并维持5秒以上,然后按相应冷却时间冷却。热熔后做到横平竖直,美观大方。

  • 大托特包搭配技巧(大托特包搭配技巧简述)

    西装外套+托特包复古时尚的格子,由黑白交错的条纹形成,文艺而又端庄搭配撞色托特包,优雅而不失俏皮,让气场变得灵动起来内搭白色连帽卫衣,减龄又可爱,接下来我们就来聊聊关于大托特包搭配技巧?大托特包搭配技巧西装外套+托特包复古时尚的格子,由黑白交错的条纹形成,文艺而又端庄。衬衫+托特包白色的衬衫休闲慵懒,给人一种空灵的感觉以及干净纯粹的气质。

  • 刘涛电视剧口碑(电视剧景气指数第一)

    还记得3月份刘涛在和周渝民主演的《大宋宫词》中扮嫩出演少妇被很多观众吐槽。万万没想到时隔数月,刘涛带着她的新剧《星辰大海》杀回来了。目前主要的剧情线在刘涛饰演的女主简爱身上。因为小时候意外发现母亲出轨的事,得知真相的父亲激愤之下杀死母亲并自杀,简爱因此成为了一个孤女。逃出傻子家的简爱在与姑姑的争执中误伤姑姑,从此开启逃命生涯。简爱从面馆辞职走投无路,误打误撞进入大公司之后面临着同事的故意刁难。

  • 外墙装修材料有哪些 外墙装修材料有哪些类型

    外墙涂料具有装饰性良好、耐污染耐老化以及施工维修容易和价格合理的特点。一般来说釉面外墙砖有亚光面与无光面两大类。它的装饰的效果也不错,有柚木色、深灰色等等可供选择。由于它的表面的肌理很清晰,所以色泽漂亮且装饰性极强。本站,中国知名大型装修平台,装修领导品牌。

  • 世界上有哪些花(世界上有哪些花 名字)

    瓜叶菊、香豌豆、夏兰、石竹、石蒜、荷花、翠菊、睡莲、福禄考、晚香玉、万寿菊、千日红、建兰、铃兰、报岁兰、香堇、大岩桐、水仙、小草兰、瓜叶菊、蒲包花、免子花、入腊红、三色堇、百日草、鸡冠花、一串红。孔雀草、大波斯菊、金盏菊、非洲凤仙花、菊花、非洲菊、观赏凤梨类、射干、非洲紫罗兰、天堂鸟、炮竹红、菊花、康乃馨、红掌、满天星、星辰花、三角梅、虞美人。

  • 长歌行李长歌母亲是谁杀的(长歌行李长歌的简介)

    下面更多详细答案一起来看看吧!长歌行李长歌母亲是谁杀的《长歌行》李长歌母亲是自杀的。李长歌,太子李建成之女,生母则是回纥王族。父母手足均死于玄武门之变,满怀愤恨的长歌凭高超武艺逃出皇宫,并在追捕过程中制造“坠崖假死”而逃生,其后女扮男装隐瞒身份流落民间,一心只想为父母复仇,在家和国的利害冲突中,最后放弃复仇,和阿诗勒隼一起成为了民族和解的使者。

  • 什么时候喝蛋白粉增肌效果最好(什么时候喝蛋白粉增肌效果最好)

    从长远来看,这种方法被证明可以促使肌肉明显增长。如果摄入量超过一定的阈值,蛋白质的合成就会受限。如果是以乳清饮料的形式摄入乳清蛋白,运动者可以在运动结束后立即饮用。按每公斤体重1克的标准,在健身前后立即摄入以及在运动后1小时内摄入可快速吸收的碳水化合物,可以明显抑制肌肉分解,并大大促进肌肉快速和明显的增长。在这种情况下,大量分泌的胰岛素促进了氨基酸向工作中的肌肉运输,为蛋白质合成奠定基础。

  • 窦骁周冬雨山楂树之恋结局(周冬雨18岁第一次出演)

    周冬雨18岁第一次出演要说最近最火的电影,非《少年的你》莫属,上映14天,已经收获了12.45亿的票房成绩,成为现阶段最强的票房黑马而作为该片主演的周冬雨和易烊千玺,也凭借在该片中的精彩演出,演技得到大众的进一步认可作为“。