【NeurIPS100】NeurIPS 2019最佳论文:具有Massart噪声半空间的分布独立PAC学习

Distribution-Independent PAC Learning of Halfspaces with Massart Noise

论文作者:

Ilias Diakonikolas, Themis Gouleakis, Christos Tzamos(威斯康辛大学麦迪逊分校、马克斯普朗克计算机科学研究所)

论文链接:

https://www.aminer.cn/pub/5d1eb9d3da562961f0b0dc62/

开源地址:

https://papers.nips.cc/paper/8722-distribution-independent-pac-learning-of- halfspaces-with-massart-noise

前言

本文将对NeurIPS 2019最佳论文《Distribution-Independent PAC Learning of Halfspaces with Massart Noise》进行解读,该论文在半空间学习上取得了显著进展。作者研究了存在Massart噪声的半空间(halfspaces)分布独立的PAC学习问题。具体而言,给定从R^d+1上的分布D中提取的一组有标签样本(x, y),使无标记点x上的边缘分布是任意的,且标签y由未知半空间生成,该空间被噪声率为η<1/2的Massart噪声破坏。最终目标是找到一个分类器h,使错误分类误差

最小。对于具有错误分类误差η+ε的问题,作者给出了一个poly(d, 1/ε)时间算法。作者还证明了对算法的误差保证进行改进可能很难实现。在此工作之前,即使是析取类,在这个模型中也没有有效的弱学习方法(分布独立)。

研究现状

  • Massart 噪声与RCN

随机分类噪声(Random Classification Noise ,RCN)【1】是Massart噪声的特殊情况,其每个标签的翻转概率恰好为η<1/2。似乎Massart噪声比RCN更易于处理。但实际上,Massart对抗需要选择是否扰动给定的标签,如扰动,以何种概率进行,因此,在该模型中设计有效的算法具有很大挑战性。尤其是,RCN学习与统计查询(Statistical Query,SQ)模型【2】【3】之间的联系不再成立,即,作为SQ算法的性质已不能自动满足用Massart噪声进行噪声容忍学习(noise-tolerant learning)的需要。而【4】【5】中正是利用了RCN与SQ模型的关系,得到了用RCN学习半空间的多项式时间算法。

  • 相关工作介绍

Bylander【6】给出了多项式时间算法来学习带有RCN的大边界半空间(large margin halfspaces)(在附加的反集中假设下)。布鲁姆等人【7】给出了第一个多项式时间算法,用于在无任何边界假设情况下使用RCN对半空间进行与分布独立的学习。此后不久,Cohen【8】针对该问题给出了多项式时间适当的学习算法。随后,Dunagan和Vempala【9】提出了一种重缩放的感知器算法,用于求解线性规划,从而转化为更简单和快速的适当学习算法。

在这项工作之前,在分布独立的Massart噪声模型中,基本上没有具有非平凡误差保证的有效算法。应该注意的是,当未标记数据上的边界分布在单位球面上时,具有误差OPT +ε的多项式时间算法是已知的【10】【11】【12】。对于未标记数据来自各向同性对数凹分布的情况,【13】给出了

采样和时间算法。

方法

  • 相关基础

  • 带Massart噪声的半空间学习算法

  • 学习大边界半空间

  • 一般情况

主要结果

作者主要结果是以下定理:

D为(d + 1)维度的带标签样本在b-bit复杂度上的分布,由一个未知的半空间所产生,该空间被噪声率为η<1/2的Massart噪声破坏。算法2使用

个样本,运行时间为poly(d, 1/ε, b),最终以2/3的概率返回一个分类器h,且其误分类误差

总结

作者提出了首个在带Massart噪声的半空间(halfspaces)的分布独立的PAC学习的方法,即对具有错误分类误差η+ε的问题,给出了一个poly(d, 1/ε)时间算法。作者还证明对算法的错误保证而进行的改进可能很难实现。

参考文献:

【1】D. Angluin and P. Laird. Learning from noisy examples. Mach. Learn., 2(4):343–370,1988.

【2】M. J. Kearns. Efficient noise-tolerant learning from statistical queries. In Proceedings of the Twenty-Fifth Annual ACM Symposium on Theory of Computing, pages 392–401,1993.

【3】M. J. Kearns. Efficient noise-tolerant learning from statistical queries. Journal of the ACM, 45(6):983–1006, 1998.

【4】A. Blum, A. M. Frieze, R. Kannan, and S. Vempala. A polynomial-time algorithm for learning noisy linear threshold functions. In 37th Annual Symposium on Foundations of Computer Science, FOCS ’96, pages 330–338, 1996.

【5】A. Blum, A. Frieze, R. Kannan, and S. Vempala. A polynomial time algorithm for learning noisy linear threshold functions. Algorithmica, 22(1/2):35–52, 1997.

【6】T. Bylander. Learning linear threshold functions in the presence of classification noise.In Proceedings of the Seventh Annual ACM Conference on Computational Learning Theory, COLT 1994, pages 340–347, 1994.

【7】A. Blum, A. M. Frieze, R. Kannan, and S. Vempala. A polynomial-time algorithm for learning noisy linear threshold functions. In 37th Annual Symposium on Foundations of Computer Science, FOCS ’96, pages 330–338, 1996.

【8】E. Cohen. Learning noisy perceptrons by a perceptron in polynomial time. In Proceedings of the Thirty-Eighth Symposium on Foundations of Computer Science, pages 514–521,1997.

【9】J. Dunagan and S. Vempala. A simple polynomial-time rescaling algorithm for solving linear programs. In Proceedings of the 36th Annual ACM Symposium on Theory of Computing, pages 315–320, 2004

【10】P. Awasthi, M. F. Balcan, N. Haghtalab, and R. Urner. Efficient learning of linear separators under bounded noise. In Proceedings of The 28th Conference on Learning Theory, COLT 2015, pages 167–190, 2015.

【11】Y. Zhang, P. Liang, and M. Charikar. A hitting time analysis of stochastic gradient langevin dynamics. In Proceedings of the 30th Conference on Learning Theory, COLT 2017, pages 1980–2022, 2017.

【12】Y. Zhang, P. Liang, and M. Charikar. A hitting time analysis of stochastic gradient langevin dynamics. In Proceedings of the 30th Conference on Learning Theory, COLT 2017, pages 1980–2022, 2017.

【13】P. Awasthi, M. F. Balcan, N. Haghtalab, and H. Zhang. Learning and 1-bit compressed sensing under asymmetric noise. In Proceedings of the 29th Conference on Learning Theory, COLT 2016, pages 152–192, 2016.

【14】A. Dvoretzky, J. Kiefer, and J. Wolfowitz. Asymptotic minimax character of the sample distribution function and of the classical multinomial estimator. Ann. Mathematical Statistics, 27(3):642–669, 1956.

【15】J. Dunagan and S. Vempala. Optimal outlier removal in high-dimensional spaces. J.Computer & System Sciences, 68(2):335–373, 2004.

作者| Liyang

排版| 学术菠菜

校对| 学术青  会会

责编| 学术青  优学术

NeurIPS100计划是AMiner新推出的一个针对顶会人才和顶会论文的平台化的智能挖掘服务,其目的是对每个顶级会议的100位作者和讲者(人才)进行深度洞察,分析作者之间的关联关系,形成的研究派系、作者的成长路径以及未来的成长脉络预测、跳槽指数等;另外,我们还将针对会议高影响力的100篇重要论文进行深入解读。

(0)

相关推荐

  • sci论文能不能早点发表?

    sci收录的是国际权威刊物,发表的论文受认可度也是很高的,不过sci审稿效率是比较高的,作者要保障自己的论文质量,并且掌握sci投稿的技巧,那么论文也是可以早点发表的,下面学术顾问对此展开详细的介绍: ...

  • sci论文审稿人推荐有什么要求

    sci推荐审稿人 发表sci论文推荐审稿人是非常重要的一步,一个合格的审稿人能够给作者的论文提出非常客观的评价,那么sci论文审稿人推荐有什么要求?下面学术顾问对此展开介绍: 1.推荐sci审稿人需要 ...

  • 职称独著有加分,独著加分是多少

    独著,是评职称认可的学术成果,对评职称起着加分的作用.但因为学术成果不同,含金量不同,相应的加分也有差异.那么,独著加分是多少?具体要看职称单位给出的加分政策,常见的是16分左右. 独著评职称的申报条 ...

  • 【香樟推文2137】参加学术会议有用吗?有用的!

    图片来源:百度 原文信息: Fernanda Leite Lopez de Leon & Ben McQuillin (2020). The Role of Conferences on th ...

  • 参加学术会议必须要发论文吗

    近些年会议论文发表在国内的需求和认可度逐渐升高,很多作者选择会议论文发表来帮助自己的晋升或者其他个人发展,我们都知道会议论文是在学术会议上宣读的文章,参加学术会议必须要发论文吗?这个是不一定的,要看具 ...

  • 天文学家连发3篇论文质疑,金星有生命迹象是场大乌龙?

    2020-11-07 21:09 量子位 本文来自微信公众号:量子位(ID:QbitAI),作者:萧箫.鱼羊,原文标题:<NASA科学家联名求撤稿:金星有生命迹象是大乌龙,12阶多项式拟合不靠谱 ...

  • 会议刊是什么意思

    会议刊是什么意思?所谓会议刊也就是指的会议论文集,会议论文集是学术会议会出版的论文合集,这些论文是在学术会议上宣读的论文,会议论文集并不是任何一个学术会议都会出版,有些会议是不会出版论文集的. 近些年 ...

  • ICCV 2019 | Adobe 无需大量数据训练,内部学习机制实现更好的视频修补

    什么是内部学习?即网络在训练过程中完全不使用外部数据,对某一视频修补的过程就是一个仅利用该视频数据从头开始训练的过程. 该文作者信息: 作者来自斯坦福大学.Adobe研究院.萨里大学. 何为视频修补? ...

  • sci查重率多少合格

    sci期刊和国内普通期刊投稿是一样的,都会进行查重,重复率太高很可能论文被拒稿, sci查重率多少合格?其实sci论文查重标准并不是固定的,学术顾问建议大家将论文重复率控制在10%-15%以内,这也要 ...

  • 论文四作有用吗

    论文四作有用吗?四作就是第四作者,第四作者的署名位置自然是在第一.二.三作者之后的,说明第四作者在论文写作.发表过程中对文章的贡献是低于第一.二.三作者的,第四作者参与度贡献度有限,是不是就可以说第四 ...

  • cpci论文含金量高吗

    cpci论文含金量高吗?cpci论文是什么论文?cpci中文名称科学技术会议录索引,cpci也叫istp,既然是会议索引,cpci论文就是指会议论文了,会议论文含金量如何要看会议的水平和影响力. 眼下 ...

  • 查重率高会被认为学术不端吗

    查重率高会被认为学术不端吗?查重率是一个比率,如果这个比率没有达到一定标准,那就不会构成学术不端,如果达到了一定的标准,确实是会被认定为学术不端的,所以,引用他人文献需谨慎. 一般的查重率略高,是不会 ...