北京物流信息联盟

斯坦福CS231N深度学习与计算机视觉第四弹:最优化与随机梯度下降

2021-03-13 11:05:41

本文为斯坦福大学CS231N课程的中文版内容笔记,已获得斯坦福大学课程Andrej Karpathy教授的授权翻译与发表。大数据文摘作品,未经授权禁止转载,转载具体要求见文末。

报名啦

机器学习培训报名开始啦!
顶级讲师课程设计
理论结合实际
更有五大福利提供
点击文末“阅读原文”查看详细内容

翻译:寒小阳&龙心尘


编者按:本期文章是我们为读者带来斯坦福课程文章第二个系列的【斯坦福深度学习与计算机视觉课程】专题第三期和第四期。文章内容为斯坦福CS231N系列,供有兴趣的读者感受、学习。

本课程的视频翻译也在同时进行,将在近期发布,敬请期待!

大数据文摘将陆续发布译文和视频,免费分享给各位读者。


我们欢迎更多感兴趣的志愿者加入我们,一起交流学习。所有译者均为志愿者,如果你和我们一样,是有能力、愿分享的朋友,请加入我们。在大数据文摘后台回复“志愿者”,了解更多。


斯坦福大学CS231N课程是深度学习与计算机视觉方面的经典教程,业界评价很高。之前也有国内朋友做一些零星的翻译,为了与更多读者分享高品质内容,大数据文摘对其进行了系统全面的翻译,后续内容将陆续推出。


由于微信后台的代码编辑无法实现,我们采用了图片插入的方式展示代码,点击图片可查看更清晰的图片。


同时,大数据文摘之前已获得授权的斯坦福课程第一个系列斯坦福大学CS224d课程【机器学习与自然语言处理】已经完成了八 个课时,我们将在每个周三继续推送后续笔记及课程视频,敬请关注。

回复“斯坦福”下载CS231N第三期和第四期笔记PDF版本

同时获得斯坦福另一个系列课程CS224d深度学习与自然语言处理的相关资料



此外,对于有兴趣进一步学习交流的读者,我们将通过QQ群(鉴于微信人数限制问题)组织进行学习交流。


长按以下二维码将直接跳转至QQ加群

或者通过群号码564538990进群


 ◆ 

1.引言


上一节深度学习与计算机视觉系列(3)_线性SVM与SoftMax分类器 (由于微信编辑长度问题,第三期内容在此只提供概要,请回复斯坦福下载第三期笔记内容) 中提到两个对图像识别至关重要的概念:


1、用于把原始像素信息映射到不同类别得分的得分函数/score function

2、用于评估参数W效果(评估该参数下每类得分和实际得分的吻合度)的损失函数/loss function


其中对于线性SVM,我们有:


在取到合适的参数W的情况下,我们根据原始像素计算得到的预测结果和实际结果吻合度非常高,这时候损失函数得到的值就很小。

这节我们就讲讲,怎么得到这个合适的参数W,使得损失函数取值最小化。也就是最优化的过程。


 ◆ 

2. 损失函数可视化


我们在计算机视觉中看到的损失函数,通常都是定义在非常高维的空间里的(比如CIFAR-10的例子里一个线性分类器的权重矩阵W是10 x 3073维的,总共有30730个参数 -_-||),人要直接『看到』它的形状/变化是非常困难的。但是机智的同学们,总是能想出一些办法,把损失函数在某种程度上可视化的。比如说,我们可以把高维投射到一个向量/方向(1维)或者一个面(2维)上,从而能直观地『观察』到一些变化。


举个例子说,我们可以对一个权重矩阵W(例如CIFAR-10中是30730个参数),可以找到W维度空间中的一条直线,然后沿着这条线,计算一下损失函数值的变化情况。具体一点说,就是我们找到一个向量W1(维度要和W一样,这样W1才能表示W的维度空间的一个方向),然后我们给不同的a值,计算L(W+aW1),这样,如果a取得足够密,其实我们就能够在一定程度上描绘出损失函数沿着这个方向的变化了。


同样,如果我们给两个方向W1和W3,那么我们可以确定一个平面,我们再取不同值的a和b,计算L(W+aW1+bW2)的值,那么我们就可以大致绘出在这个平面上,损失函数的变化情况了。


根据上面的方法,我们画出了下面3个图。最上面的图是调整a的不同取值,绘出的损失函数变化曲线(越高值越大);中间和最后一个图是调整a与b的取值,绘出的损失函数变化图(蓝色表示损失小,红色表示损失大),中间是在一个图片样本上计算的损失结果,最下图为100张图片上计算的损失结果的一个平均。显然沿着直线方向得到的曲线底端为最小的损失值点,而曲面呈现的碗状图形碗底为损失函数取值最小处。 


 



我们从数学的角度,来尝试解释一下,上面的凹曲线是怎么出来的。对于第i个样本,我们知道它的损失函数值为: 



所有的样本上的损失函数值,是它们损失函数值(max(0,-),因此最小值为0)的平均值。为了更好理解,我们假定训练集里面有3个样本,都是1维的,同时总共有3个类别。所以SVM损失(暂时不考虑正则化项)可以表示为如下的式子:




 ◆ 

3. 最优化


在我们现在这个问题中,所谓的『最优化』其实指的就是找到能让损失函数最小的参数。如果大家看过或者了解凸优化的话,我们下面介绍的方法,对你而言可能太简单了,有点原始,但是大家别忘了,我们后期要处理的是神经网络的损失函数,那可不是一个凸函数哦,所以我们还是一步步来一起看看,如果去实现最优化问题。


3.1 策略1:随机搜寻(不太实用)


以一个笨方法开始,我们知道,当我们手头上有参数后,我们是可以计算损失函数,评估参数合适程度的。所以最直接粗暴的方法就是,我们尽量多地去试参数,然后从里面选那个让损失函数最小的,作为最后的。代码当然很简单,如下:

  1. # 假设 X_train 是训练集 (例如. 3073 x 50,000)

  2. # 假设 Y_train 是类别结果 (例如. 1D array of 50,000)

  3. bestloss = float("inf") # 初始化一个最大的float值

  4. for num in xrange(1000):

  5.  W = np.random.randn(10, 3073) * 0.0001 # 随机生成一组参数

  6.  loss = L(X_train, Y_train, W) # 计算损失函数

  7.  if loss < bestloss: # 比对已搜寻中最好的结果

  8.    bestloss = loss

  9.    bestW = W

  10.  print 'in attempt %d the loss was %f, best %f' % (num, loss, bestloss)

  11. # prints:

  12. # in attempt 0 the loss was 9.401632, best 9.401632

  13. # in attempt 1 the loss was 8.959668, best 8.959668

  14. # in attempt 2 the loss was 9.044034, best 8.959668

  15. # in attempt 3 the loss was 9.278948, best 8.959668

  16. # in attempt 4 the loss was 8.857370, best 8.857370

  17. # in attempt 5 the loss was 8.943151, best 8.857370

  18. # in attempt 6 the loss was 8.605604, best 8.605604

  19. # ... (trunctated: continues for 1000 lines)

一通随机试验和搜寻之后,我们会拿到试验结果中最好的参数W, 然后在测试集上看看效果:


  1. # 假定 X_test 为 [3073 x 10000], Y_test 为 [10000 x 1]

  2. scores = Wbest.dot(Xte_cols) # 10 x 10000, 计算类别得分

  3. # 找到最高得分作为结果

  4. Yte_predict = np.argmax(scores, axis = 0)

  5. # 计算准确度

  6. np.mean(Yte_predict == Yte)

  7. # 返回 0.1555

随机搜寻得到的参数W,在测试集上的准确率为15.5%,总共10各类别,我们不做任何预测只是随机猜的结果应该是10%,好像稍高一点,但是...大家也看到了...这个准确率...实在是没办法在实际应用中使用。


3.2 策略2:随机局部搜索

上一个策略完全就是盲搜,要想找到全局最优的那个结果基本是不可能的。它最大的缺点,就在于下一次搜索完全是随机进行的,没有一个指引方向。那我们多想想,就能想出一个在上个策略的基础上,优化的版本,叫做『随机局部搜索』。


这个策略的意思是,我们不每次都随机产生一个参数矩阵W了,而是在现有的参数W基础上,搜寻一下周边临近的参数,有没有比现在参数更好的W, 然后我们用新的W替换现在的W, 接着在周围继续小范围搜寻。这个过程呢,可以想象成,我们在一座山上,现在要下山,然后我们每次都伸脚探一探周边,找一个比现在的位置下降一些的位置,然后迈一步,接着在新的位置上做同样的操作,一步步直至下山。


从代码实现的角度看,以上的过程,实际上就是对于一个当前W,我们每次实验和添加W,然后看看损失函数是否比当前要低,如果是,就替换掉当前的W,代码如下:

  1. W = np.random.randn(10, 3073) * 0.001 # 初始化权重矩阵W

  2. bestloss = float("inf")

  3. for i in xrange(1000):

  4.  step_size = 0.0001

  5.  Wtry = W + np.random.randn(10, 3073) * step_size

  6.  loss = L(Xtr_cols, Ytr, Wtry)

  7.  if loss < bestloss:

  8.    W = Wtry

  9.    bestloss = loss

  10.  print 'iter %d loss is %f' % (i, bestloss)

我们做了这么个小小的修正之后,我们再拿刚才一样的测试集来测一下效果,结果发现准确率提升至21.4%,虽然离实际应用差很远,但只是比刚才要进步一点点了。


但是还是有个问题,我们每次测试周边点的损失函数,是一件非常耗时的事情。我们有没有办法能够直接找到我们应该迭代的方向呢?


3.3 策略3:顺着梯度下滑


刚才的策略,我们说了,最大的缺点是非常耗时,且计算量也很大。我们一直在做的事情,就是在当前的位置基础上,想找到一个最合适的下降方向。我们依旧回到我们假设的那个情境,如果我们在山顶,要以最快的方式下山,我们会怎么做?我们可能会环顾四周,然后找到最陡的方向,迈一小步,然后再找当前位置最陡的下山方向,再迈一小步...


而这里提到的最陡的方向,其实对应的就是数学里『梯度』的概念,也就是说,其实我们无需『伸脚试探』周边的陡峭程度,而是可以通过计算损失函数的梯度,直接取得这个方向。


我们知道在1个变量的函数里,某点的斜率/导数代表其变化率最大的方向。而对于多元的情况,梯度是上面情况的一个扩展,只不过这时候的变量不再是一个,而是多个,同时我们计算得到的『梯度方向』也是一个多维的向量。大家都知道数学上计算1维/元函数『梯度/导数』的表达式如下: 


对于多元的情况,这个时候我们需要求的东西扩展成每个方向的『偏导数』,然后把它们合在一块组成我们的梯度向量。

我们用几张图来说明这个过程: 



 



 ◆ 

4. 计算梯度


有两种计算梯度的方法:

  1. 慢一些但是简单一些的数值梯度/numerical gradient

  2. 速度快但是更容易出错的解析梯度/analytic gradient


4.1 数值梯度


根据上面提到的导数求解公式,我们可以得到数值梯度计算法。下面是一段简单的代码,对于一个给定的函数f和一个向量x,求解这个点上的梯度:

  1. def eval_numerical_gradient(f, x):

  2.  """

  3.  一个最基本的计算x点上f的梯度的算法

  4.  - f 为参数为x的函数

  5.  - x 是一个numpy的vector

  6.  """

  7.  fx = f(x) # 计算原始点上函数值

  8.  grad = np.zeros(x.shape)

  9.  h = 0.00001

  10.  # 对x的每个维度都计算一遍

  11.  it = np.nditer(x, flags=['multi_index'], op_flags=['readwrite'])

  12.  while not it.finished:

  13.    # 计算x+h处的函数值

  14.    ix = it.multi_index

  15.    old_value = x[ix]

  16.    x[ix] = old_value + h # 加h

  17.    fxh = f(x) # 计算f(x + h)

  18.    x[ix] = old_value # 存储之前的函数值

  19.    # 计算偏导数

  20.    grad[ix] = (fxh - fx) / h # 斜率

  21.    it.iternext() # 开始下一个维度上的偏导计算

  22.  return grad

代码的方法很简单,对每个维度,都在原始值上加上一个很小的h,然后计算这个维度/方向上的偏导,最后组在一起得到梯度grad。


4.1.1 实际计算中的提示


我们仔细看看导数求解的公式,会发现数学定义上h是要趋于0的,但实际我们计算的时候我们只要取一个足够小的数(比如1e-5)作为h就行了,所以我们要精准计算偏导的话,要尽量取到不会带来数值计算问题,同时又能很小的h。另外,其实实际计算中,我们用另外一个公式用得更多


下面我们用上面的公式在CIFAR-10数据集上,试一试吧:

  1. def CIFAR10_loss_fun(W):

  2.  return L(X_train, Y_train, W)

  3. W = np.random.rand(10, 3073) * 0.001 # 随机权重向量

  4. df = eval_numerical_gradient(CIFAR10_loss_fun, W) # 计算梯度


计算到的梯度(准确地说,梯度的方向是函数增大方向,负梯度才是下降方向)告诉我们,我们应该『下山』的方向是啥,接着我们就沿着它小步迈进:

  1. loss_original = CIFAR10_loss_fun(W) # 原始点上的损失

  2. print 'original loss: %f' % (loss_original, )

  3. # 多大步伐迈进好呢?我们选一些步长试试

  4. for step_size_log in [-10, -9, -8, -7, -6, -5,-4,-3,-2,-1]:

  5.  step_size = 10 ** step_size_log

  6.  W_new = W - step_size * df # 新的权重

  7.  loss_new = CIFAR10_loss_fun(W_new)

  8.  print 'for step size %f new loss: %f' % (step_size, loss_new)

  9. # 输出:

  10. # original loss: 2.200718

  11. # for step size 1.000000e-10 new loss: 2.200652

  12. # for step size 1.000000e-09 new loss: 2.200057

  13. # for step size 1.000000e-08 new loss: 2.194116

  14. # for step size 1.000000e-07 new loss: 2.135493

  15. # for step size 1.000000e-06 new loss: 1.647802

  16. # for step size 1.000000e-05 new loss: 2.844355

  17. # for step size 1.000000e-04 new loss: 25.558142

  18. # for step size 1.000000e-03 new loss: 254.086573

  19. # for step size 1.000000e-02 new loss: 2539.370888

  20. # for step size 1.000000e-01 new loss: 25392.214036

4.1.2 关于迭代的细节


如果大家仔细看上述代码的话,会发现我们step_size设的都是负的,确实我们每次update权重W的时候,是用原来的W减掉梯度方向的一个较小的值,这样损失函数才能减小。


4.1.3 关于迭代的步长

我们计算得到梯度之后,就确定了幅度变化最快(负梯度是下降方向)的方向,但是它并没有告诉我们,我朝着这个方向,应该迈进多远啊。之后的章节会提到,选择正确的迭代步长(有时候我们也把它叫做学习速率)是训练过程中最重要(也是最让人头疼)的一个待设定参数。就像我想以最快的速度下山,我们能感知到最陡的方向,却不知道应该迈多大的步子。如果我们小步迈进,那确实每一步都能比上一步下降一些,但是速度太慢了亲!!但是如果我们以非常非常大的步伐迈进(假如腿巨长 -_-||),那你猜怎么着,你一不小心可能就迈过山脚迈到另一座山山腰上了...


下图是对以上情况的一个描述和解释: 


 


4.1.4 效率问题

如果你再回过头去看看上面计算数值梯度的程序,你会发现,这个计算方法的复杂度,基本是和我们的参数个数成线性关系的。这意味着什么呢?在我们的CIFAR-10例子中,我们总共有30730个参数,因此我们单次迭代总共就需要计算30731次损失函数。这个问题在之后会提到的神经网络中更为严重,很可能两层神经元之间就有百万级别的参数权重,所以,计算机算起来都很耗时...人也要等结果等到哭瞎...


4.2 解析法计算梯度


数值梯度发非常容易实现,但是从公式里面我们就看得出来,梯度实际上是一个近似(毕竟你没办法把h取到非常小),同时这也是一个计算非常耗时的算法。第二种计算梯度的方法是解析法,它可以让我们直接得到梯度的一个公式(代入就可以计算,非常快),但是呢,不像数值梯度法,这种方法更容易出现错误。so,聪明的同学们,就想了一个办法,我们可以先计算解析梯度和数值梯度,然后比对结果和校正,在确定我们解析梯度实现正确之后,我们就可以大胆地进行解析法计算了(这个过程叫做梯度检查/检测)



我们拿一个样本点的SVM损失函数举例: 




一旦得到梯度的表达式,那计算梯度和调整权重就变得非常直接和简单。熟练掌握如何在loss expression下计算梯度是非常重要的一个技巧,贯穿整个神经网络的训练实现过程,关于这个内容,下次会详细讲到。


 ◆ 

5. 梯度下降


在我们有办法计算得到梯度之后,使用梯度去更新已有权重参数的过程叫做『梯度下降』,伪代码其实就是如下的样子:


  1. while True:

  2.  weights_grad = evaluate_gradient(loss_fun, data, weights)

  3.  weights += - step_size * weights_grad # 梯度下降更新参数

这个简单的循环实质上就是很多神经网络库的核心。当然,我们也有其他的方式去实现最优化(比如说L-BFGS),但是梯度下降确实是当前使用最广泛,也相对最稳定的神经网络损失函数最优化方法。


5.1 Mini-batch gradient descent


在大型的应用当中(比如ILSVRC),训练数据可能是百万千万级别的。因此,对整个训练数据集的样本都算一遍损失函数,以完成参数迭代是一件非常耗时的事情,一个我们通常会用到的替代方法是,采样出一个子集在其上计算梯度。现在比较前沿的神经网络结构基本都是这么做的,例如ConvNets是每256张作为一个batch去完成参数的更新。参数更新的代码如下:

  1. while True:

  2.  data_batch = sample_training_data(data, 256) # 抽样256个样本作为一个batch

  3.  weights_grad = evaluate_gradient(loss_fun, data_batch, weights)

  4.  weights += - step_size * weights_grad # 参数更新

之所以可以这么做,是因为训练数据之间其实是关联的。我们简化一下这个问题,你想想,如果ILSVRC中的120w图片,如果只是1000张不同的图片,一直复制1200次得到的。那么其实我们在这1000张图片上算得的损失函数和120w的平均其实是一致的。当然,当然,在实际场景中,我们肯定很少遇到这种多次重复的情况,但是原数据的一个子集(mini-batch)上的梯度,其实也是对整体数据上梯度的一个很好的近似。因此,只在mini-batch上计算和更新参数,会有快得多的收敛速度。


上述算法的一个极端的情况是,如果我们的一个mini-batch里面只有一张图片。那这个过程就变成『随机梯度下降/Stochastic Gradient Descent (SGD)』,说起来,这个其实在实际应用中倒也没那么常见,原因是向量化之后,一次计算100张图片,其实比计算一张图片100次,要快得多。所以即使从定义上来说,SGD表示我们用一张图片上的梯度近似全局梯度,但是很多时候人们提到SGD的时候,其实他们指的是mini-batch梯度下降,也就是说,我们把一个batch当做1份了。额,还要稍微提一句的是,有些同学可能会问,这个batch size本身不是一个需要实验的参数吗,取多大的batch size好啊?但实际应用中,我们倒很少会用cross-validation去选择这个参数。这么说吧,我们一般是基于我们内存限制去取这个值的,比如设成100左右。


 ◆ 

6. 总结


  • 把损失函数在各参数上的取值,想象成我们所在山峰的高度。那么我们要最小化损失函数,实际上就是『要想办法下山』。

  • 我们采取的下山策略是,一次迈一小步,只要每次都往下走了,那么最后就会到山底

  • 梯度对应函数变化最快的方向,负梯度的方向就是我们下山,环顾四周之后,发现最陡的下山路方向。

  • 我们的步长(也叫学习率),会影响我们的收敛速度(下山速度),如果步伐特别特别大,甚至可能跃过最低点,跑到另外一个高值位置了。

  • 我们用mini-batch的方式,用一小部分的样本子集,计算和更新参数,减少计算量,加快收敛速度。


关于转载
如需转载,请在开篇显著位置注明作者和出处(转自:大数据文摘|bigdatadigest),并在文章结尾放置大数据文摘醒目二维码。无原创标识文章请按照转载要求编辑,可直接转载,转载后请将转载链接发送给我们;有原创标识文章,请发送【文章名称-待授权公众号名称及ID】给我们申请白名单授权。未经许可的转载以及改编者,我们将依法追究其法律责任。联系邮箱:zz@bigdatadigest.cn。



◆ 
◆ 

大数据文章斯坦福深度学习课程

大数据文摘后台回复“志愿者”,了解如何加入我们


专栏主编


项目管理


内容运营:魏子敏

统筹:汪德诚


往期精彩文章推荐,点击图片可阅读


【又一重磅】再获翻译授权,斯坦福CS231N深度学习与计算机视



斯坦福深度学习课程第七弹:RNN,GRU与LSTM



斯坦福CS231N深度学习与计算机视觉第二弹:图像分类与KNN



友情链接

Copyright © 2023 All Rights Reserved 版权所有 北京物流信息联盟