【他山之石】详解凸优化、图神经网络、强化学习、贝叶斯方法等四大主题

加入AI行业拿到高薪仅仅是职业生涯的开始。现阶段AI人才结构在不断升级,对AI人才的要求也不断升高,如果对自己没有很高的要求,其实很容易被快速发展的趋势所淘汰。

为了迎合时代的需求,我们去年推出了《机器学习高端训练营》班,由学院创始团队亲自授课,受到了广大学员的好评。在本期训练营(第四期)中我们对内容做了大幅度的更新,一方面新增了对前沿主题的讲解如图神经网络,另外一方面对核心部分(如凸优化、强化学习)加大了对理论层面上的深度目前在全网上应该找不到类似体系化的课程。课程仍然采用全程直播授课模式。

那什么样的人适合来参加高阶班呢?

  • 从事AI行业多年,但技术上总感觉不够深入,感觉在技术上遇到了瓶颈;

  • 停留在使用模型/工具上,很难基于业务场景来提出新的模型;

  • 对于机器学习背后的优化理论、前沿的技术不够深入;

  • 计划从事尖端的科研、研究工作、申请AI领域研究生、博士生;

  • 打算进入最顶尖的AI公司比如Google,Facebook,Amazon, 阿里,头条等;

  • 读ICML,IJCAI等会议文章比较吃力,似懂非懂感觉,无法把每个细节理解透;

01 课程大纲
第一部分:凸优化与机器学习
第一周:凸优化介绍
  • 从优化角度理解机器学习

  • 优化技术的重要性

  • 常见的凸优化问题

  • 线性规划以及Simplex Method

  • Two-Stage LP

  • 案例:运输问题讲解

第二周:凸函数讲解
  • 凸集的判断

  • First-Order Convexity

  • Second-order Convexity

  • Operations Preserve Convexity

  • 二次规划问题(QP)

  • 案例:最小二乘问题

  • 项目作业:股票投资组合优化

第三周:凸优化问题
  • 常见的凸优化问题类别

  • 半定规划问题

  • 几何规划问题

  • 非凸函数的优化

  • 松弛化(Relaxation)

  • 整数规划(Integer Programming)

  • 案例:打车中的匹配问题

第四周:对偶(Duality)
  • 拉格朗日对偶函数

  • 对偶的几何意义

  • Weak and Strong Duality

  • KKT条件

  • LP, QP, SDP的对偶问题

  • 案例:经典模型的对偶推导及实现

  • 对偶的其他应用

第五周:优化技术
  • 一阶与二阶优化技术

  • Gradient Descent

  • Subgradient Method

  • Proximal Gradient Descent

  • Projected Gradient Descent

  • SGD与收敛

  • Newton's Method

  • Quasi-Newton's Method

第二部分 图神经网络
第六周: 数学基础
  • 向量空间和图论基础

  • Inner Product, Hilbert Space

  • Eigenfunctions, Eigenvalue

  • 傅里叶变化

  • 卷积操作

  • Time Domain, Spectral Domain

  • Laplacian, Graph Laplacian

第七周:谱域的图神经网络
  • 卷积神经网络回归

  • 卷积操作的数学意义

  • Graph Convolution

  • Graph Filter

  • ChebNet

  • CayleyNet

  • GCN

  • Graph Pooling

  • 案例:基于GCN的推荐

第八周:空间域的图神经网络
  • Spatial Convolution

  • Mixture Model Network (MoNet)

  • 注意力机制

  • Graph Attention Network(GAT)

  • Edge Convolution

  • 空间域与谱域的比较

  • 项目作业:基于图神经网络的链路预测

第九周:图神经网络改进与应用
  • 拓展1:   Relative Position与图神经网络

  • 拓展2:融入Edge特征:Edge GCN

  • 拓展3:图神经网络与知识图谱: Knowledge GCN

  • 拓展4:姿势识别:ST-GCN

  • 案例:基于图的文本分类

  • 案例:基于图的阅读理解

第三部分 强化学习
第十周:强化学习基础
  • Markov Decision Process

  • Bellman Equation

  • 三种方法:Value,Policy,Model-Based

  • Value-Based Approach: Q-learning

  • Policy-Based Approach: SARSA

第十一周:Multi-Armed Bandits
  • Multi-Armed bandits

  • Epsilon-Greedy

  • Upper Confidence Bound (UCB)

  • Contextual UCB

  • LinUCB & Kernel UCB

  • 案例:Bandits在推荐系统的应用案例

第十二周:路径规划
  • Monte-Carlo Tree Search

  • N-step learning

  • Approximation

  • Reward Shaping

  • 结合深度学习:Deep RL

  • 项目作业:强化学习在游戏中的应用案例

第十三周: 自然语言处理中的RL
  • Seq2seq模型的问题

  • 结合Evaluation Metric的自定义loss

  • 结合aspect的自定义loss

  • 不同RL模型与seq2seq模型的结合

  • 案例:基于RL的文本生成

第四部分 贝叶斯方法

第十四周:贝叶斯方法论简介

  • 贝叶斯定理

  • 从MLE, MAP到贝叶斯估计

  • 集成模型与贝叶斯方法比较

  • 计算上的Intractiblity

  • MCMC与变分法简介

  • 贝叶斯线性回归

  • 贝叶斯神经网络

  • 案例:基于Bayesian-LSTM的命名实体识别

第十五周:主题模型

  • 生成模型与判别模型

  • 隐变量模型

  • 贝叶斯中Prior的重要性

  • 狄利克雷分布、多项式分布

  • LDA的生成过程

  • LDA中的参数与隐变量

  • Supervised LDA

  • Dynamic LDA

  • LDA的其他变种

  • 项目作业:LDA的基础上修改并搭建无监督情感分析模型

第十六周:MCMC方法
  • Detailed Balance

  • 对于LDA的吉布斯采样

  • 对于LDA的Collapsed吉布斯采样

  • Metropolis Hasting

  • Importance Sampling

  • Rejection Sampling

  • 大规模分布式MCMC

  • 大数据与SGLD

  • 案例:基于分布式的LDA训练

第十七周:变分法(Variational Method)
  • 变分法核心思想

  • KL散度与ELBo的推导

  • Mean-Field变分法

  • EM算法

  • LDA的变分法推导

  • 大数据与SVI

  • 变分法与MCMC的比较

  • Variational Autoencoder

  • Probabilistic Programming

  • 案例:使用概率编程工具来训练贝叶斯模型

(0)

相关推荐

  • 天才、疯子和普通人,大脑的秘密

    为什么我们是普通人?为什么爱因斯坦是天才?为什么有些疯子的话听起来那么像天才? 给你一个选择的机会,两个方案,就像是墨菲斯给尼奥的药丸,你选哪个? 红药丸:你有50%的概率成为天才,但是,还有50%的 ...

  • 运动想象系统中的特征提取算法和分类算法

    更多技术,第一时间送达 特征提取算法 (1)时域方法:这是比较早期的EEG信号处理方法,主要通过提取EEG的波形特征,比如振幅.方差.波峰等,对EEG信号进行分析: (2)频域方法:运动想象EEG信号 ...

  • 【AI100问(49)】什么是贝叶斯网络?

    简单地说,贝叶斯网络是描述事件之间概率关系的计算模型,是机器学习中最重要方法之一.很多重要的模型,包括高斯混合模型(GMM).隐马尔可夫模型(HMM).主成份分析(PCA).线性区分性分析(LDA)等 ...

  • 详解凸优化、图神经网络、强化学习、贝叶斯方法等四大主题

    加入AI行业拿到高薪仅仅是职业生涯的开始.现阶段AI人才结构在不断升级,这也意味着如果目前仍然停留在调用一些函数库,则在未来1-2年内很大概率上会失去核心竞争力的.几年前如果熟练使用TensorFlo ...

  • 详解凸优化、贝叶斯、MCMC、GCN

    几年前如果熟练使用TensorFlow,同时掌握基本的AI算法就可以很容易找到一份高薪的工作,但现在不一样了,AI岗位的要求越来越高,对知识的深度也提出了更高的要求. 如果现在一个面试官让你从零推导S ...

  • 为什么机器学习算法难以优化?一文详解算法优化内部机制

    作者|小舟 来源|机器之心 损失线性组合是正确的选择吗?这篇文章或许能够给你答案. 在机器学习中,损失的线性组合无处不在.虽然它们带有一些陷阱,但仍然被广泛用作标准方法.这些线性组合常常让算法难以调整 ...

  • 欧楷笔画详解,动态图演示,基本笔画字例

    传 授 决 每秉笔必在圆正,气力纵横重轻,凝思静虑.当审字势,四面停均,八边俱备:长短合度,粗细折中:心眼准程,疏密被正.最不可忙,忙则失势:次不可缓,缓则骨痴:又不可瘦,瘦当枯形,复不可肥,肥即质浊 ...

  • 景观鱼池管道如何设计铺排,鱼池过滤如何布局,详解附规划图

    前几天写的一篇文章:家庭景观鱼池管道该怎么设计,怎么预留空间和铺排才美观净水 很多鱼友留言说看不懂,不大理解.于是这期,我特意重新做图,每一个细节都规划出来,让大家仔细参考,可以方便自己做鱼池或者改造 ...

  • 操作箱防跳/开关防跳区别详解,看图即懂哦

    操作箱防跳/开关防跳区别详解 防跳回路的作用:防止因控制开关或自动装置的合闸接点未能及时返回(例如操作人员未松开手柄, 自动装置的合闸接点粘连) 而正好合闸在故障线路和设备上,造成断路器连续合切现象. ...

  • 宽松显瘦!法式泡泡袖刺绣公主连衣裙裁剪详解方法制版图纸样打板

    宽松显瘦!法式泡泡袖刺绣公主连衣裙裁剪详解方法制版图纸样打板

  • 横叉自我练习教程详解(动图教学版)

    前不久写了竖叉,很多人强烈建议写横叉. 横叉相对于竖叉来说练习的动作更简单,因为横叉涉及到的髋关节的活动方向就一个:髋关节外展.涉及到的髋关节活动方向越少,那么练习的方法就会越简单,只要针对这个方向练 ...

  • 山海经全部异兽图大全(附详解)【图】

    导读: 山海经异兽是<山海经>记载的奇异怪兽75种.<山海经>是先秦古籍,是一部富于神话传说的最古老的地理书.它主要记述古代地理.物产.神话.巫术.宗教等,也包括古史.医药.民 ...