这可能是你近 2 年发论文最好机会!

如果你准备发AI方向的论文,或准备从事科研工作或已在企业中担任AI算法岗的工作。那么我真诚的向大家推荐,贪心学院《机器学习高阶训练营》目前全网上应该找不到类似体系化的课程。课程精选了四大主题进行深入的剖析讲解,四个模块分别为凸优化、图神经网络、强化学习、贝叶斯模型。



适合什么样的人来参加呐?


  • 从事AI行业多年,但技术上感觉不够深入, 遇到了瓶颈; 
  • 停留在使用模型/工具上,很难基于业务场景来 提出新的模型;  
  • 对于机器学习背后的优化理论、前沿的 技术不够深入;
  • 计划从事尖端的科研、研究工作、 申请AI领域研究生、博士生; 
  • 打算进入顶尖的AI公司如Google,Facebook,Amazon, 阿里等;
  • 读ICML,IJCAI等会议文章比较吃力,似懂非懂, 无法把每个细节理解透


如果对课程感兴趣,请联系
添加课程顾问小姐姐微信
报名、课程咨询
👇👇👇



01 课程大纲

课程内容上做了 大幅度的更新 ,一方面新增了对 前沿主题的讲解如图神经网络(GCN,GAT等) ,对核心部分 (如凸优化、强化学习)加大了对理论层面上的深度。 除此之外,也会包含 科研方法论、元学习、解释性、Fair learning等系列主题。 课程采用 全程直播授课 模式。

第一部分:凸优化与机器学习

第一周:凸优化介绍
  • 从优化角度理解机器学习

  • 优化技术的重要性

  • 常见的凸优化问题

  • 线性规划以及Simplex Method

  • Two-Stage LP

  • 案例:运输问题讲解

 
第二周:凸函数讲解
  • 凸集的判断

  • First-Order Convexity

  • Second-order Convexity

  • Operations Preserve Convexity

  • 二次规划问题(QP)

  • 案例:最小二乘问题

  • 项目作业:股票投资组合优化


第三周:凸优化问题
  • 常见的凸优化问题类别

  • 半定规划问题

  • 几何规划问题

  • 非凸函数的优化

  • 松弛化(Relaxation)

  • 整数规划(Integer Programming)

  • 案例:打车中的匹配问题

 
第四周:对偶(Duality)
  • 拉格朗日对偶函数

  • 对偶的几何意义

  • Weak and Strong Duality

  • KKT条件

  • LP, QP, SDP的对偶问题

  • 案例:经典模型的对偶推导及实现

  • 对偶的其他应用


第五周:优化技术
  • 一阶与二阶优化技术

  • Gradient Descent

  • Subgradient Method

  • Proximal Gradient Descent

  • Projected Gradient Descent

  • SGD与收敛

  • Newton's Method

  • Quasi-Newton's Method



第二部分 图神经网络

第六周: 数学基础
  • 向量空间和图论基础

  • Inner Product, Hilbert Space

  • Eigenfunctions, Eigenvalue

  • 傅里叶变化

  • 卷积操作

  • Time Domain, Spectral Domain

  • Laplacian, Graph Laplacian

 
第七周:谱域的图神经网络
  • 卷积神经网络回归

  • 卷积操作的数学意义

  • Graph Convolution

  • Graph Filter

  • ChebNet

  • CayleyNet

  • GCN

  • Graph Pooling

  • 案例:基于GCN的推荐

 
第八周:空间域的图神经网络
  • Spatial Convolution

  • Mixture Model Network (MoNet)

  • 注意力机制

  • Graph Attention Network(GAT)

  • Edge Convolution

  • 空间域与谱域的比较

  • 项目作业:基于图神经网络的链路预测

 
第九周:图神经网络改进与应用
  • 拓展1:   Relative Position与图神经网络

  • 拓展2:融入Edge特征:Edge GCN

  • 拓展3:图神经网络与知识图谱: Knowledge GCN

  • 拓展4:姿势识别:ST-GCN

  • 案例:基于图的文本分类

  • 案例:基于图的阅读理解



第三部分 强化学习

第十周:强化学习基础
  • Markov Decision Process

  • Bellman Equation

  • 三种方法:Value,Policy,Model-Based

  • Value-Based Approach: Q-learning

  • Policy-Based Approach: SARSA


第十一周:Multi-A rmed Bandits
  • Multi-Armed bandits

  • Epsilon-Greedy

  • Upper Confidence Bound (UCB)

  • Contextual UCB

  • LinUCB & Kernel UCB

  • 案例:Bandits在推荐系统的应用案例

 
第十二周:路径规划
  • Monte-Carlo Tree Search

  • N-step learning

  • Approximation

  • Reward Shaping

  • 结合深度学习:Deep RL

  • 项目作业:强化学习在游戏中的应用案例

 
第十三周: 自然语言处理中的RL
  • Seq2seq模型的问题

  • 结合Evaluation Metric的自定义loss

  • 结合aspect的自定义loss

  • 不同RL模型与seq2seq模型的结合

  • 案例:基于RL的文本生成



第四部分 贝叶斯方法

第十四周:贝叶斯方法论简介

  • 贝叶斯定理

  • 从MLE, MAP到贝叶斯估计

  • 集成模型与贝叶斯方法比较

  • 计算上的Intractiblity

  • MCMC与变分法简介

  • 贝叶斯线性回归

  • 贝叶斯神经网络

  • 案例:基于Bayesian-LSTM的命名实体识别

 

第十五周:主题模型

  • 生成模型与判别模型

  • 隐变量模型

  • 贝叶斯中Prior的重要性

  • 狄利克雷分布、多项式分布

  • LDA的生成过程

  • LDA中的参数与隐变量

  • Supervised LDA

  • Dynamic LDA

  • LDA的其他变种

  • 项目作业:LDA的基础上修改并搭建无监督情感分析模型

 

第十六周:MCMC方法
  • Detailed Balance

  • 对于LDA的吉布斯采样

  • 对于LDA的Collapsed吉布斯采样

  • Metropolis Hasting

  • Importance Sampling

  • Rejection Sampling

  • 大规模分布式MCMC

  • 大数据与SGLD

  • 案例:基于分布式的LDA训练

 
第十七周:变分法(Variational Method)
  • 变分法核心思想

  • KL散度与ELBo的推导

  • Mean-Field变分法

  • EM算法

  • LDA的变分法推导

  • 大数据与SVI

  • 变分法与MCMC的比较

  • Variational Autoencoder

  • Probabilistic Programming

  • 案例:使用概率编程工具来训练贝叶斯模型



02 部分案例和项目
打车中的路径规划问题 :我们几乎每天都在使用打车软件或者外卖软件。对于这些应用来讲,核心算法应用就是乘客和车辆的匹配。

涉及到的知识点
  • Mixed Integer Linear Programming

  • 提供approximation bounds


    经典机器学习模型的对偶推导及实现: 通过此练习,更深入理解机器学习模型以及对偶的作用。

    涉及到的知识点:
    • SVM,LP等模型

    • 对偶技术

    • KKT条件


    基于图神经网络的文本分类:当使用语法分析工具处理文本之后,一段文本便可以成为一个图,接下来就可以使用图卷积神经网络来做后续的分类工作

    涉及到的知识点:
    • 语法分析

    • 图神经网络


    基于图神经网络的阅读理解一般的阅读需要让机器阅读多个文章并对提出的问题给出答案。在阅读理解中抽取关键的实体和关系变得很重要,这些实体和关系可以用来构造一个图。

    涉及到的知识点:
    • 命名识别,关系抽取

    • 图神经网络

    • Heterogeneous Graph


    Bandits在推荐系统的应用案例:Bandits应用在顺序决策问题的应用中有易于实现、计算效率高、解决冷启动问题、数据标注相对要求不高(一般只需部分标注作为reward,如用户点击)等优点。本案例讲解bandits如何应用在新闻推荐的系统中做基于内容的推荐。
        
        涉及到的知识点:
    • Exploration & Exploitation

    • Epsilon Greedy

    • Upper Confidential Bounder

    • LineUCB


    使用概率编程工具来训练贝叶斯模型:类似于Pytorch,Tensorflow,概率编程工具提供了对贝叶斯模型的自动学习,我们以LDA等模型为例来说明这些工具的使用。 

    涉及到的知识点:
    • 概率编程

    • 主题模型

    • MCMC和变分法


    股票投资组合优化:在投资组合优化中,我们需要根据用户的风险承受能力来设计并组合资产。在本项目中,我们试着在二次规划的框架下做一些必要的修改如加入必要的限制条件、必要的正则来控制组合的稀疏性、加入投资中的先验等信息,最后根据预先定义好的评估标准来引导模型的学习

    涉及到的知识点:
    • 二次规划

    • 不同的正则使用

    • 基于限制条件的优化

    • 先验的引入


    如果对课程感兴趣,请联系
    添加课程顾问小姐姐微信
    报名、课程咨询
    👇👇👇

    03 授课导师

    李文哲: 贪心科技创始人兼CEO,人工智能和知识图谱领域专家,曾任金融科技独角兽公司的首席科学家、美国亚马逊的高级工程师,先后负责过聊天机器人、量化交易、自适应教育、金融知识图谱等项目,并在AAAI、KDD、AISTATS等顶会上发表过15篇以上论文,并荣获IAAI,IPDPS的最佳论文奖,多次出席行业峰会发表演讲。
     
    杨栋: 香港城市大学博士, UC Merced博士后,主要从事于机器学习,图卷积,图嵌入的研究。先后在ECCV, Trans on Cybernetics, Trans on NSE, INDIN等国际顶会及期刊上发表过数篇论文。


    04直播授课,现场推导演示

    区别于劣质的PPT讲解,导师全程现场推导,让你在学习中有清晰的思路,深刻的理解算法模型背后推导的每个细节。更重要的是可以清晰地看到各种模型之间的关系!帮助你打通六脉!

    ▲源自:LDA模型讲解


    ▲源自:Convex Optimization 讲解
    ▲源自:Convergence Analysis 讲解


    05完整的项目实践文档

    以量化投资的项目为例,使用优化技术来解决。大概1个月的时间。只要按照文档里的步骤自己做就可以,但还是挺有挑战的,比如如何设计策略等等。最后的结果要求在真实的量化平台上去验证,并记录Sharp Ratio等指标,整体来讲项目很有意思,毕竟每个人都有AI炒股的梦吧!
    图1:详细的项目文档

    图2:详细的项目文档



    06 每周课程安排

    采用 直播的授课方式 ,每周3-4次直播教学,包含核心理论课、实战课、复习巩固课以及论文讲解课。教学模式上也参考了美国顶级院校的教学体系。以下为其中一周的课程安排,供参考。  



     

    07 入学标准

    1、 理工科专业相关本科生、硕士生、博士生。
    2、目前从事AI工作。
    3、具备良好的Python编程能力。
    4、具备一定机器学习基础,零基础学员不太适合。

    08 报名须知

    1、本课程为收费教学。
    2、本期仅招收剩余名额有限
    3、品质保障!学习不满意,可在开课后7天内,无条件全额退款。
    4、学习本课程需要具备一定的机器学习基础。


    ●●●
    《腾讯数据分析师认证课程
    专注于培养行业TOP10%的数据分析师
    长按识别,添加课程老师微信
    报名、课程咨询
    👇👇👇

    本文分享自微信公众号 - AI算法与图像处理(AI_study)。
    如有侵权,请联系 [email protected] 删除。
    本文参与“OSC源创计划”,欢迎正在阅读的你也加入,一起分享。

    發表評論
    所有評論
    還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
    相關文章