机器人与人工智能爱好者论坛

标题: 斯坦福大学深度学习与自然语言处理第四讲:词窗口分类和神经网络 [打印本页]

作者: morinson    时间: 2015-12-2 14:44
标题: 斯坦福大学深度学习与自然语言处理第四讲:词窗口分类和神经网络
斯坦福大学深度学习与自然语言处理第四讲:词窗口分类和神经网络

发表于 2015年06月4号 由 52nlp 授权转载

原文链接地址:斯坦福大学深度学习与自然语言处理第四讲:词窗口分类和神经网络

斯坦福大学在三月份开设了一门“深度学习与自然语言处理”的课程:CS224d: Deep Learning for Natural Language Processing,授课老师是青年才俊 Richard Socher,以下为相关的课程笔记。
第四讲:词窗口分类和神经网络(Word Window Classification and Neural Networks)
推荐阅读材料:
以下是第四讲的相关笔记,主要参考自课程的slides,视频和其他相关资料。

本讲概览
分类问题定义


分类问题直窥


分类问题符号定义


分类问题:正则化


机器学习优化问题


引入词向量

重新训练词向量会丧失泛化能力

重新训练词向量会丧失泛化能力续

词向量概念回顾


窗口分类
简单的窗口分类器: Softmax
更新拼接的词向量:Tips
提示2:懂得链式法则(chain rule)并且记住在哪些变量中含有其他变量
提示3:对于softmax中求导的部分:首先对fc当c=y(正确的类别)求导,然后对fc当c≠y(其他所有非正确类别)求导提示4:当你尝试对f中的一个元素求导时,试试能不能在最后获得一个梯度包含的所有的偏导数
提示5:为了你之后的处理不会发疯,想象你所有的结果处理都是向量之间的操作,所以你应该定义一些新的,单索引结构的向量
提示6:当你开始使用链式法则时,首先进行显示的求和(符号),然后再考虑偏导数,例如xi or Wij的偏导数
提示7:为了避免之后更复杂的函数(形式),确保知道变量的维度,同时将其简化为矩阵符号运算形式
提示8:如果你觉得公式不清晰的话,把它写成完整的加和形式
更新拼接的词向量
在训练窗口向量时丢失了什么信息?
矩阵实现的一些注解
softmax(=逻辑回归)并不是强有力的
神经网络更胜一筹
从逻辑回归到神经网络–神经网络解密
一个神经元本质上是一个二元逻辑回归单元
一个神经网络等价于同时运行了很多逻辑回归单元
神经网络中单层的矩阵符号表示
为什么需要非线性的f
一个更牛的窗口分类器
总结:前馈网络计算
下一讲

注:原创文章,转载请注明出处及保留链接“我爱自然语言处理”:http://www.52nlp.cn










欢迎光临 机器人与人工智能爱好者论坛 (http://www.robot-ai.org/) Powered by Discuz! X3.2