【吴恩达深度学习】【神经网络和深度学习】 第三章 第四节 多个例子中的向量化
一、为什么能够向量化
大部分原因和前面blog中描述是一致的,这里又有了一点心得思考。
如果我们在后面要进行梯度下降法或者别的什么方法进行回归计算或者别的深度学习的时候,我们总是要对整个神经网络的参数进行调整的,那么这个调整的过程需要确定两件事,调整谁,调多少,以及想明白一件事,为什么要调。
显然,这个问题过于复杂,而且即使想出来了也没有太多的意义,毕竟神经网络中的某个神经元的意义没有过多的价值。
而在向量化之后,我们处理的是所有参数和在一起形成的向量,就不需要考虑单个向量的问题了,也就一定程度上规避了上述的问题。
不过我还是保留之前的主要看法,向量化方便了机器运算。
二、不同视频中w的一些问题
在不同的视频中,w往往有两层含义。其一是表示一个具体的实数作为参数,其二是多个前者形成的参数列向量。而不知为何,在不同的视频中基本上都是使用了一个简单的w,或许有大小写的区别,但真的看不清。希望看到这边blog的同学在看视频的时候可以留意这一点,不要再关键问题的理解上出现偏差。