【课程特色】
1. 课上采用案例式教学,通俗易懂,课下一对一辅导强化训练,学与练交叉进行强化记忆,你所要做的就是认真听,勤于问,乐于练。
2. 清晰的知识结构,根据应用经验采用最优化授课模式。
3. 内容充沛、详略得当,前后呼应。
4. 讲师资历丰富,具有丰富的实践经验。
5. 知识讲授+贴身案例+场景故事+互动讨论+现场演练+落地跟踪
【课程对象】相关人员
【课程时长】1天(6小时/天)
【课程大纲】
第一部分 处理文本的机器
第1章 NLP概述
1.1 自然语言与编程语言
1.2 神奇的魔法
1.3 实际应用
1.4 计算机“眼”中的语言
1.5 超空间简述
1.6 词序和语法
1.7 聊天机器人的自然语言流水线
1.8 深度处理
1.9 自然语言智商
第 2章 构建自己的词汇表——分词
2.1 挑战(词干还原预览)
2.2 利用分词器构建词汇表
2.3 情感
2.3.1 VADER:一个基于规则的情感分析器
2.3.2 朴素贝叶斯
第3章 词中的数学
3.1 词袋
3.2 向量化
3.3 齐普夫定律
3.4 主题建模
第4章 词频背后的语义
4.1 从词频到主题得分
4.2 潜在语义分析
4.3 奇异值分解
4.4 主成分分析
4.5 潜在狄利克雷分布(LDiA)
4.6 距离和相似度
4.7 反馈及改进
4.8 主题向量的威力
第二部分 深度学习(神经网络)
第5章 神经网络初步(感知机与反向传播)
第6章 词向量推理(Word2vec)
6.1 语义查询与类比
6.2 词向量
第7章 卷积神经网络(CNN)
7.1 语义理解
7.2 工具包
7.3 卷积神经网络
7.4 狭窄的窗口
7.4.1 Keras实现:准备数据
7.4.2 卷积神经网络架构
7.4.3 池化
7.4.4 dropout
7.4.5 输出层
第8章 循环神经网络(RNN)
8.1 循环网络的记忆功能
8.1.1 随时间反向传播算法
8.1.2 不同时刻的权重更新
8.1.3 利用Keras实现循环神经网络
8.2 整合各个部分
8.3 自我学习
8.4 超参数
8.5 预测
第9章 改进记忆力:长短期记忆网络(LSTM)
9.1 长短期记忆(LSTM)
9.1.1 随时间反向传播
9.1.2 模型的使用
9.1.3 脏数据
9.1.4 “未知”词条的处理
9.1.5 字符级建模
9.1.6 生成聊天文字
9.1.7 进一步生成文本
9.1.8 文本生成的问题:内容不受控
9.1.9 其他记忆机制
9.1.10 更深的网络
第 10章 序列到序列建模和注意力机制
10.1 编码-解码架构
10.1.1 解码思想
10.1.2 似曾相识?
10.1.3 序列到序列对话
10.1.4 回顾LSTM
10.2 组装一个序列到序列的流水线
10.3 训练序列到序列网络
10.4 使用序列到序列网络构建一个聊天机器人
10.4.1 为训练准备语料库
10.4.2 建立字符字典
10.4.3 生成独热编码训练集
10.4.4 训练序列到序列聊天机器人
10.4.5 组装序列生成模型
10.4.6 预测输出序列
10.4.7 生成回复
10.4.8 与聊天机器人交谈
10.5 增强
10.6 实际应用
第三部分 进入现实世界(现实中的NLP挑战)
第 11章 信息提取(命名实体识别与问答系统)
11.1 命名实体与关系
11.2 正则模式
11.3 值得提取的信息
11.4 提取人物关系(事物关系)
11.5 现实世界的信息提取
第 12章 开始聊天(对话引擎)
12.1 语言技能
12.2 模式匹配方法
12.2.1 基于AIML的模式匹配聊天机器人
12.2.2 模式匹配的网络视图
12.3 知识方法
12.4 检索(搜索)方法
12.5 生成式方法
12.5.1 聊聊NLPIA
12.5.2 每种方法的利弊
12.6 四轮驱动
12.7 设计过程
12.8 技巧
12.8.1 用带有可预测答案的问题提问
12.8.2 要有趣
12.8.3 当其他所有方法都失败时,搜索
12.8.4 变得受欢迎
12.8.5 成为连接器
12.8.6 变得有情感
12.9 现实世界
第 13章 可扩展性(优化、并行化和批处理)
13.1 太多(数据)未必是好事
13.2 优化NLP算法
13.3 常数级内存算法
13.4 并行化NLP计算
13.5 减少模型训练期间的内存占用
13.6 使用TensorBoard了解模型