关于NLP相关技术全部在这里:预训练模型、信息抽取、文本生成、知识图谱、对话系统

我们正处在信息爆炸的时代、面对每天铺天盖地的网络资源和论文、很多时候们面临的问题并不是缺资源,而是找准资源并高效学习。其次,即便网络上的资源非常多,学习是需要成本的,而且越有深度的内容越难找到好的学习资源。如果一门课程帮助你清晰地梳理知识体系,而且把有深度的知识点脉络讲清楚,这就是节省最大的成本。为了迎合大家学习的需求,我们这次重磅推出了《自然语言处理高阶研修》。

首先,全网不可能找得到另外一门系统性的训练营具备如此的深度和广度,这里包括国外的课程,所以从内容的角度来讲是非常稀缺的内容。

课程覆盖了从预训练模型、对话系统、信息抽取、知识图谱、文本生成所有必要的技术应用和学术前沿,30+项目案例帮助你在实战中学习成长。课程采用全程直播授课模式,博导级大咖全程辅导答疑、帮你告别疑难困惑。

适合什么样的人来参加呐?

  • 从事AI行业多年,但技术上感觉不够深入,遇到了瓶颈; 
  • 停留在使用模型/工具上,很难基于业务场景来提出新的模型;
  • 对于机器学习背后的优化理论、前沿的技术不够深入;
  • 计划从事尖端的科研、研究工作、申请AI领域研究生、博士生; 
  • 打算进入顶尖的AI公司如Google,Facebook,Amazon, 阿里等;
  • 读ICML,IJCAI等会议文章比较吃力,似懂非懂,无法把每个细节理解透。

如果对课程感兴趣,请联系

添加课程顾问小姐姐微信

报名、课程咨询

👇👇👇

01 课程大纲

课程内容上做了大幅度的更新,课程采用全程直播授课模式。带你全面掌握自然语言处理技术,能够灵活应用在自己的工作中;深入理解前沿的技术,为后续的科研打下基础;快速掌握理解预训练技术、对话技术、生成技术以及知识图谱的常用技术;通过完成一系列课题,有可能成为一个创业项目或者转换成你的科研论文。

模块一 预训练模型

第一章:预训练模型基础

| 预训练模型基础、语言模型回顾

| N-gram、Neural语言模型回顾

| 预训练方法的发展历程

| 预训练和transfer learning

| Pre-BERT时代的transfer learning

| word2vec,transfer learning in NER

| Post-BERT时代的transfer learning

| Pre-train fine-tune范式

第二章:ELmo与BERT

| Elmo、Transformer、BERT

| 更强的BERT:RoBERTa

| 基于Elmo和BERT的NLP下游任务

| Huggingface Transformers库介绍

| 构建基于BERT的情感分类器

 第三章: GPT系列模型

| GPT、GPT2、GPT3

| 基于GPT的fine-tuning

| 基于GPT的Zero-shot learning

| 基于GPT模型的文本生成实战

| Top-k + Top-p 采样

| 基于给定Prompt生成续写文本

第四章: Transformer-XL与XLNet

| 处理长文本

| Transformer-XL

| 相对位置编码

| Permutation Language Model

| Two-stream attention

| XLNet

| 更进阶的预训练任务:MPNet

第五章:其他前沿的预训练模型

| 考虑知识的预训练模型:ERINE

| 对话预训练模型:PLATO2, DialoGPT

| SpanBERT

| MASS,UniLM

| BART,T5

| 实现基于T5的文本分类模型

第六章: 低计算量下模型微调和对比学习

| 低计算量情况下的预训练模型微调

| Adapter-based fine-tuning,

| Prompt-search,P-tuning

| 基于对比学习的预训练

| 对比学习目标:Triplet Loss,InfoNCE Loss

| 对比学习在NLP中的前沿应用:SimCSE

第七章:多模态预训练和挑战

| 多模态预训练模型

| 多模态匹配模型:CLIP,文澜

| VQ-VAE

| 多模态生成模型:DALLE,CogView

| 预训练模型面临的挑战及其前沿进展

| 模型并行带来的挑战

| 对于Transformer的改进:Reformer

模块二 对话系统

第一章:对话系统综述

| 对话系统发展历程

| 对话系统的主要应用场景

| 常见的对话系统类别以及采用的技术

| 对话系统前沿的技术介绍

| 基础:语言模型

| 基础:基于神经网络的语言模型

第二章:对话系统综述

| 任务型对话系统的总体架构

| 案例:订票系统的搭建

| 自然语言理解模块简介

| 对话管理模块技术

| 对话生成模型技术

| 基于神经网络的文本分类和序列标注

第三章:自然语言处理理解模块

| 自然语言理解模块面临的挑战

| NLU模型中意图和槽位的联合识别

| 考虑长上下文的NLU

| NLU中的OOD检测

| NLU模型的可扩展性和少样本学习

| 少样本学习方法介绍

| 孪生网络、匹配网络、原型网络

第四章:对话管理和对话生成

| 对话状态追踪

| 对话策略详解

| POMDP技术

| 对话管理的最新研究进展

| 基于RL的对话管理

| 对话生成技术

| 端到端的对话系统

| 基于预训练模型的DST

第五章:闲聊对话系统

| 闲聊对话系统基础技术

| 基于检索的闲聊对话系统

| 基于生成的闲聊对话系统

| 融合检索和生成的闲聊对话系统

| Protoype rewriting, Retrieval augmented generation

| 闲聊对话系统的主要应用场景

| 闲聊对话系统技术所面临的主要挑战

| FAQ系统实战,实现一个自己的FAQ系统

| 基于RNN/Transformer/BERT的文本匹配模型

第六章:对话系统进阶

| 情感/共情对话系统

| 生成带情绪的回复

| 个性化对话生成

| 生成符合特定个性人设的回复

| 风格化对话生成

| 对话回复的多样性

| Label Smoothing, Adaptive label smoothing

| Top-K Sampling, Nuclear Sampling

| Non-autoregressive 算法在生成模型中的应用

| 基于Transformer的对话生成模型

| TransferTransfo

第七章:开源对话系统架构RASA详解

| RASA的主要架构

| 基于RASA搭建自己的对话系统

| 多模态对话、VQA

| 考虑图像模态的对话回复检索和生成

| 基于预训练模型的对话系统

| 基于GPT模型的对话模型

| Meena,PLA

模块三 信息抽取&知识图谱

第一章:知识图谱与图数据模型

| 知识图谱:搜索引擎,数据整合,AI

| 实体抽取、关系抽取、词向量

| graph embedding

| 图数据模型:RDF, Cyper

| 结构化数据的关系抽取

| 介绍关系抽取的基本方法

| 介绍结构化数据的信息过滤

第二章:知识图谱的设计

| RDF和Property graph的设计

| 创建KG:数据处理、文本和图像

| 推断用到的基本方法

| Path detection

| Centrality and community Detection

| 图结构嵌入方法

| 重要性的基本方法:node,edge

第三章:关系抽取和预测

| Hand-built patterns

| Bootstrapping methods

| Supervised methods

| Distant supervision

| Unsupervised methods

| 实体识别的基本方法

第四章:低资源信息抽取和推断

| Low-resource NER

| Low-resource structured models

| Learning multi-lingual Embeddings

| Deepath

| DIVA

| Generic Statistical Relational Entity Resolution in Knowledge Graphs

第五章:结构化预测模型

| Sequence labeling

| 结构化数据类别:Dependency,constituency

| Stack LSTM

| Stack RNNS

| Tree-structure LSTM

第六章:图挖掘的热门应用

| 基本图概念

| Link Prediction

| Recommendation system

| Anomaly detection

| Gated Graph Sequence Neural Networks

模块四 文本生成

第一章:Seq2Seq模型与机器翻译

| Seq2seq 模型与机器翻译任务

| 机器翻译中未登录词UNK与subword

| 文本生成coverage

| length normalization

| 低资源语言生成

| 多任务学习

| Tearch Force Model

第二章:文本摘要生成(1)

| 摘要生成技术类别

| 生成式摘要生成技术

| 抽取式摘要生成技术

| 基于CNN的文本生成

| 基于RNN的文本生成

第三章:文本摘要生成(2)

| Pointer Network 及其应用

| CopyNet 于工业界的落地

| Length Normalization

| Coverage Normalization

| Text summarization 前沿研究

第四章:Creative Writing

| 可控性文本生成

| Story Telling 与预先训练GPT

| 诗词,歌词,藏头诗等文本生成

| 创作性文本生成技巧

第五章:多模态文本生成

| ResNet

| Inception 等预训练图片特征抽取模型

| Image Caption 及其应用

| Table2text

| 图神经网络与文本生成

第六章:对抗式文本生成与NL2sql

| 对抗生成网络 GAN模型

| 强化学习基础

| 基于 Policy Gradient 的强化学习

| SeqGAN

| NL2sql :自然语言转SQL

02 部分案例和项目
学员可以选择每个模块完成我们提供的固定项目(以个人为单位),或者以小组为单位完成一个开放式项目(capstone),当然你也可以提出你自己的项目。从项目的立项、中期验收到最终答辩,在这个过程中我们的导师团队会给你建议、并辅助你完成课题, 该课题最终很有可能成为你的创业项目或科研论文!
(0)

相关推荐

  • [首藏作品](5696)把文本变成画作,AI对艺术“下手”了

    把文本变成画作,AI对艺术"下手"了图为人工智能系统 DALL·E根据文本"穿着芭蕾舞裙遛狗的小萝卜"绘制的图像图片来源:OpenAI官网自然语言处理与视觉处理 ...

  • 26亿参数,智源、清华开源中文大规模预训练模型

    机器之心报道 机器之心编辑部 近日,北京智源人工智能研究院和清华大学研究团队联合发布了以中文为核心的大规模预训练语言模型 CPM-LM,参数规模达 26 亿,预训练中文数据规模 100 GB. 自 2 ...

  • GPT-2:OpenAI的NLP商业化野望

    自然语言处理(NLP)技术正在生活的方方面面改变着我们的生活. 客厅的智能音箱在跟你每天的对话中飞速进步,甚至开始跟你"插科打诨"来适应你的爱好习惯. 电商客服总是能在第一时间回复 ...

  • 无法访问GPT-3?强大的克隆版GPT-J带着60亿参数来了

    编辑|核子可乐.钰莹 去年 9 月,微软宣布与 OpenAI 达成独家授权协议,称该公司将使用 GPT-3 来"创建新的解决方案,利用先进自然语言生成的惊人能力".这一安排不会阻止 ...

  • 宋睿华、万小军、黄民烈谈自然语言生成现状:关于创作、多样性和知识融合

    10月22日,在2020年中国计算机大会(CNCC)上,中国人民大学长聘副教授宋睿华.北京大学教授万小军与清华大学长聘副教授黄民烈围绕 "自然语言生成" 的主题进行了演讲. 尽管深 ...

  • 对话摘要简述

    作者:哈工大SCIR 冯夏冲 对话摘要任务在近两年得到了工业界和学术界的广泛关注.随着社会的发展和通讯技术的进步,对话数据日益增多,并且迸发出不同的形式:会议.邮件.闲聊.讨论.辩论等等.不同形式的对 ...

  • 知识增强的文本生成研究进展

    ©作者|李军毅 机构|中国人民大学高瓴人工智能学院 研究方向 | 自然语言生成与知识融合 本文梳理近些年在知识增强的文本生成领域的一系列研究进展,其主要内容参考以下这篇论文. A Survey of ...

  • 【年终总结】2019年有三AI NLP做了什么,明年要做什么?

    时间不紧不慢的,从2019年6月中旬有三AI公众号开始发布自然语言处理(NLP)相关的文章以来,已是半年有余. 回头看看,NLP系列文章基本维持在了一周一到两篇的更新频率,基本上覆盖了NLP所需要聊到 ...

  • 【追一科技】NLG技术:文本生成技术多样化应用的探索之路

    来自:追一科技 自然语言处理(NLP)技术通常可以分为两大类,分别是自然语言理解(NLU)和自然语言生成(NLG).其中NLU主要指常见的文本分类.序列标注.信息抽取等任务,而NLG则包括机器翻译.对 ...

  • 大模型时代的AI之变与开发之根

    自2018年谷歌发布Bert以来,预训练大模型以强大的算法效果,席卷了NLP为代表的各大AI榜单与测试数据集.随着产学研各界的深入研究,大模型在AI产学研各界的地位得到不断加强.到2021年,我们可以 ...

  • 这篇论文提出了一个文本<->知识图谱的格式转换器...

    Hello, 大家好,我是小花.今天给大家介绍一篇有野心的paper.为何如此说呢?因为该工作提出了一个知识的格式转换器,用于转换 无结构化的纯文本(Text)和结构化的知识图谱(KG) .换句话说, ...

  • “中文版GPT-3”来了:会算术、可续写红楼梦,用64张V100训练了3周

      磐创AI分享   来源 | 量子位(QbitAI) 编辑 | 晓查.发自.凹非寺 今年,OpenAI推出的自然语言模型GPT-3引起了巨大的轰动. 这是迄今为止最大的NLP模型,包含1750亿参数 ...

  • 自然语言处理高阶研修

    自然语言处理高阶研修 全面深度剖析机器学习领域四大前沿技术:预训练模型.对话系统.文本生成.知识图谱.信息抽取 简介:自然语言处理在过去几年取得了飞速的发展,涌现出很多新的技术和应用场景.对于学生,还 ...

  • 被捧上天的GPT-3,商业化之路怎么走?

    对于我个人来说,刚刚步入媒体圈,职业生涯就将遭遇一次非常严重的AI威胁. 因为GPT-3来了,而且在写文章.编故事的能力上面比上一代更能打了. 今年5月,已经得到微软Azure算力加持的OpenAI放 ...

  • ACL2020 | BART:为文本生成而生

    引言 大家好,我是卖铁观音的小男孩,今天分享给大家的是Facebook AI发表于ACL 2020的论文 BART: Denoising Sequence-to-Sequence Pre-traini ...