极市分享|高继扬 Temporal Action Proposal Generation and Detection
上期我们邀请到了悉尼大学孙书洋,为我们讲解CVPR 2018论文《OpticalFlow Guided Feature:...》光流导向特征在视频动作识别中的应用的主要内容,大家受益匪浅。本期嘉宾,南加州大学博士高继扬,将和大家分享Temporal Action Proposal Generation and Detection in Videos.(时序动作检测),欢迎大家踊跃参加,与嘉宾直接互动~
01
活动信息
主题:Temporal Action Proposal Generation and Detection in Videos.(时序动作检测)
时间:周六(7月14日)上午10:00~11:30
02
嘉宾信息
高继扬
2015年毕业于清华大学,目前南加州大学博士在读,指导老师为 Ram Nevatia。博士期间主要研究方向是视频中的时序分析与推理(Temporalperception and reasoning in videos),更多信息见个人主页https://jiyanggao.github.io。
03
关于分享
➤分享背景
本次分享的主题是关于时序动作检测的,也就是检测视频中动作的类别和起止时间。通常而言,这个任务分为proposal generation和action detection两步,类似于目标检测领域的 two-stage method。从CVPR16以来,有若干篇文章提出并验证过不同的方法。我会以我的四篇文章(2篇ICCV17,1篇BMVC2017 和1篇ECCV18)为主线,并结合其他文章,尝试梳理该问题的主要方法和扩展。
➤分享大纲
Proposal-based methods
Frame(snippet)-based methods
How to combine?
Beyond the fixed list of actions
分享涉及论文(嘉宾一作):
【1】CTAP: ComplementaryTemporal Action Proposal Generation,ECCV(2018)
预计本周挂出,敬请期待。
【2】TALL: Temporal Activity Localization via Language Query,ICCV(2017) https://arxiv.org/abs/1705.02101
【3】TURN TAP: Temporal UnitRegression Network for Temporal Action Proposals,ICCV(2017)
https://arxiv.org/abs/1703.06189
【4】Cascaded BoundaryRegression for Temporal Action Detection,BMVC(2017)
https://arxiv.org/abs/1705.01180
04
参与方式