AI/ML/DL相关|【笔记】Week4(神经网络的模型表示及背景,应用,多类分类问题 (Machine Learning))
吐槽:有个quiz的题目还挺坑的,记录一下哈。。顺便笔记。。
正文:
1,神经网络的模型表示及背景
背景:脑中的一个神经元是一个计算单元。神经元的dendrite(树突(位于神经元末端的细分支,接收其他神经元传来的信号))是输入电线,axon(轴突(神经细胞的突起,将信号发送到其他细胞))是输出电线。
单一神经元的模型:逻辑单元,也就是h(x) = 1 / (1+e^(-thetaTx))(h(x)称sigmoid(logistic)激活函数)。
【AI/ML/DL相关|【笔记】Week4(神经网络的模型表示及背景,应用,多类分类问题 (Machine Learning))】神经网络模型:举例的是层次为3的神经网络,其中layer1为输入层,layer2为隐藏层,layer3为输出层。
其表示:a^(j)_(i)表示在 j 层次上的 i 单元的激活,theta^(j)表示控制从 j 层到 (j+1) 层权重的矩阵,z^(j)_i表示theta(j-1) * a^(j-1)_i,a^(j)_i表示g(z^(j)_i),其中a^(1) = x向量。(重点:如果网络在 j 层次上有sj个单元,在 (j+1) 层次上有s_(j+1) 个单元,则theta^(j) 的维度将为s_(j+1) * (sj + 1))
向前传播的向量实现:z^(j)_i表示theta(j-1) * a^(j-1)_i,a^(j)_i表示g(z^(j)_i),其中a^(1) = x向量。
2,应用
非线性分类的简单例子(简单神经元):AND(如theta1 = [-30;
20;
20]),OR(如theta1 = [-10;
20;
20]),NOT(如theta1 = [10;
-20]),(NOT x1) AND (NOT x2) (如theta1 = [10;
-20;
-20]) 。
非线性分类的复杂例子(神经网络):XOR/XNOR(需要隐藏层来实现,其中a^(2)_(1)为AND的theta1,a^(2)_(2)为(NOT x1) AND (NOT x2)的theta1,a^(3)_(1)为OR的theta1),顺便:所有的逻辑函数都可以用神经网络表示,只要这个网络够复杂,就可能实现相当复杂的逻辑函数(复制于:https://blog.csdn.net/sinat_39805237/article/details/78712838)。
其他例子(多类分类):手写数字分类。
3,多类分类问题
一对多的举例:层次很多且存在不止一层的隐藏层,h(x) = [1;
0;
0;
0]为行人,h(x) = [0;
1;
0;
0]为车,h(x) = [0;
0;
1;
0]为摩托车,h(x) = [0;
0;
0;
1]为卡车,h(x^(i)) = y^(i)。
需要注意quiz的一个问题(https://blog.csdn.net/sinat_39805237/article/details/78712838,第一题的B):确实是与theta的设置有关,我一开始选错了,是我觉得所有的可能性之和必然为1,但是忽略了这个模型他没说是不是正确的,所以如果不正确的话确实应该与theta设置有关。。= =
推荐阅读
- 宽容谁
- 我要做大厨
- EffectiveObjective-C2.0|EffectiveObjective-C2.0 笔记 - 第二部分
- 增长黑客的海盗法则
- 画画吗()
- 2019-02-13——今天谈梦想()
- 远去的风筝
- 三十年后的广场舞大爷
- 叙述作文
- 20190302|20190302 复盘翻盘