机器人与人工智能爱好者论坛

 找回密码
 立即注册
查看: 15881|回复: 0
打印 上一主题 下一主题

机器学习实战之——支持向量机算法学习总结

[复制链接]

8

主题

21

帖子

149

积分

版主

Rank: 7Rank: 7Rank: 7

积分
149
跳转到指定楼层
楼主
发表于 2016-1-17 02:17:14 | 只看该作者 |只看大图 回帖奖励 |倒序浏览 |阅读模式
本帖最后由 小谢 于 2016-1-17 02:16 编辑

                         机器学习实战之——支持向量机算法学习总结
本章概况:
首先介绍了如何求解数据集的最佳分割线,然后实现了一个简化版的SMO算法,简化版算法的运行是没有什么问题的,但是在更大的数据集上运行速度就会变慢,接着又实现了一个完整版的SMO算法,这两个版本中alpha的更改和代数运算的优化环节一模一样,只是在选择alpha的时候方式不同,但是却大大提高了运行速度。然后又采用核函数实现了复杂数据的分类,最后通过手写识别的例子验证了基于核函数的SMO算法。

寻找最大间隔:

BCD三条直线都能将数据集分割开,但哪条是最好的呢?引申的问题是:如何求解数据集的最佳分割直线?

在求解数据集的最佳分割直线之前,先来了解几个概念:
1、点到分割面的距离称为间隔
2、支持向量就是离分割超平面最近的那些点
3、分割超平面的形式可以写成
4、如下图,要计算点A到分割超平面的距离,就必须给出点到分割面的法线或垂线的长度,该值为

利用海维赛德阶跃函数对 作用得到 ,其中当u<0f(u)输出-1,反之则输出+1
间隔通过 来计算,如果数据点处于正上方并且离分割超平面很远的位置时, 会得到一个很大的证书,同时 也会是一个很大正数。而如果数据点处于负方向并且离分割面很远的位置时,由于类别标签为-1,则 仍然是一个很大的正数。

前面提到支持向量就是离分割超平面最近的那些点,也就是最小间隔。对最小间隔最大化可以写作:

上述优化问题中,给定了一些约束条件然后求最优值。这里的约束条件是: 然后通过拉格朗日乘子法求解,于是优化目标函数可以写成:
其约束条件为:
但是这里有个假设,就是数据必须100%线性可分,但我们知道几乎所有数据都不那么干净。这时可以通过松弛变量来允许有些数据点可以处于分割面的错误一端。
此时约束条件为:
常数C用于控制最大化间隔和保证大部分点的函数间隔小于1.0,在优化算法的实现代码中,常数C是一个参数,通过调节该参数得到不同的结果。一旦求出所有的alpha,那么分割超平面就可以通过这些alpha来表达。

SMO算法:
SMO表示序列最小化。SMO算法是将最大优化问题分解为多个小优化问题来求解的。这些小优化问题往往很容易求解,并且将它们进行顺序求解的结果与将它们作为整体求解的结果是完全一致的。
SMO的目标是求出一系列alphab,一旦求出这些alpha,就很容易求出权重向量w并得到分割超平面。
SMO算法的工作原理是:每次循环中选择两个alpha进行优化处理。一旦找到一对合适的alpha,那么就增大其中一个同时减少另一个。是否合适需要满足两个条件:一,这两个alpha必须要再间隔边界之外,二,这两个alpha还没有进行过区间化处理或者不在边界上。

SMO的代码实现,首先构建一个辅助函数,用于在某个区间范围内随机选择一个整数。
SMO简化版python代码如下:
  1. #函数的作用是打开文件并进行逐行解析,从而得到每行的类标签和整个数据矩阵
  2. def loadDataSet(fileName):
  3.      dataMat= [];labelMat=[]
  4.      fr = open(fileName)
  5.      for line in fr.readlines():
  6.           lineArr = line.strip().split('\t')
  7.          dataMat.append([float(lineArr[0]),float(lineArr[1])])
  8.          labelMat.append(float(lineArr[2]))
  9.     return dataMat,labelMat
复制代码


  1. #辅助函数,用于在某个区间范围内随机选择一个整数
  2. def selectJrand(i,m):
  3.       j=i
  4.       while (j==i):
  5.              j=int(random.uniform(0,m))
  6.      return j
复制代码
  1. #辅助函数,用于调整大于H或小于L的alpha的值
  2. def clipAlpha(aj,H,L):
  3.      if aj > H:
  4.        aj = H
  5.      if L > aj:
  6.        aj = L
  7.      return aj
复制代码


  1. #简化版SMO算法
  2. #终于把这个超长的方法敲完了,下面来好好理解下吧
  3. #五个参数,分别是:数据集、类别标签、常数C、容错率和退出前最大的循环次数
  4. def smoSimple(dataMatIn,classLabels,C,toler,maxIter):
  5.      # 转化为numpy矩阵;转置类别标签
  6.      dataMatrix = mat(dataMatIn);labelMat = mat(classLabels).transpose()
  7.      b = 0; m,n = shape(dataMatrix)
  8.      # 构建alpha列矩阵,矩阵中元素都初始化为0
  9.      alphas = mat(zeROS((m,1)))
  10.      iter = 0
  11.      while (iter < maxIter):
  12.            alphaPairsChanged = 0  #该变量用于记录alphas是否已经进行优化
  13.            for i in range(m):
  14.                 #计算预测类别fXi
  15.                 fXi = float(multiply(alphas,labelMat).T*(dataMatrix*dataMatrix[i,:].T)) + b
  16.                #与真实结果比对,求得误差Ei
  17.                Ei = fXi - float(labelMat)
  18.               #如果误差很大,可以对数据实例所对应的alpha值进行优化
  19.               #不管是正间隔还是负间隔都会被测试,同时检查alphas保证其不能等于0或C(因为后面alpha小于0或大于C时被调整为0或C,所以一旦在该if语句中它们等于这两个值的话,它们就已经在边 界上了,因而不能再减少或增大)
  20.              if((labelMat*Ei < -toler) and (alphas < C)) or ((labelMat*Ei > toler) and (alphas > 0)):
  21.                       #利用辅助函数来随机选择第二个alpha值                              
  22.                       j = selectJrand(i,m)
  23.                       fXj = float(multiply(alphas,labelMat).T*(dataMatrix*dataMatrix[j,:].T)) + b
  24.                       Ej = fXj - float(labelMat[j])
  25.                       alphaIold = alphas.copy();
  26.                       alphaJold = alphas[j].copy();
  27.                       #计算L和H,用于将alpha[j]调整到0到C之间,如果L==H就不做任何改变
  28.                       if (labelMat != labelMat[j]):
  29.                             L = max(0,alphas[j] - alphas)
  30.                             H = min(C,C + alphas[j] - alphas)
  31.                       else:
  32.                             L = max(0,alphas[j] + alphas - C)
  33.                             H = min(C,alphas[j] + alphas)
  34.                       if L == H:print "L==H";continue
  35.                       #eta是alpha[j]的最优修改量
  36.                       eta = 2.0 * dataMatrix[i,:]*dataMatrix[j,:].T - dataMatrix[i,:]*dataMatrix[i,:].T - dataMatrix[j,:]*dataMatrix[j,:].T
  37.                       # 如果eta为0则退出当前迭代过程
  38.                       if eta >=0: print "eta>=0";continue
  39.                       alphas[j] -=labelMat[j]*(Ei - Ej)/eta
  40.                       alphas[j] = clipAlpha(alphas[j],H,L)
  41.                       if (abs(alphas[j] - alphaJold) <0.00001): print "j not moving enough"; continue
  42.                       alphas +=labelMat[j]*labelMat*(alphaJold - alphas[j])
  43.                       #对alpha和alpha[j]进行优化之后,给这两个alpha值设置一个常数项b
  44.                       b1 = b - Ei - labelMat * (alphas - alphaIold)*dataMatrix[i,:]*dataMatrix[i,:].T - labelMat[j]*(alphas[j]-alphaJold)*dataMatrix[i,:]*dataMatrix[j,:].T
  45.                       b2 = b - Ej - labelMat *(alphas-alphaIold)*dataMatrix[i,:]*dataMatrix[j,:].T-labelMat[j]*(alphas[j]-alphaJold)*dataMatrix[j,:]*dataMatrix[j,:].T
  46.                       if (0 <alphas) and (C > alphas):b = b1
  47.                       elif (0 < alphas[j]) and (C > alphas[j]) : b = b2
  48.                       else : b =(b1+b2)/2.0
  49.                       alphaPairsChanged +=1
  50.                       print "iter : %d i:%d, pairs changed %d"%(iter,i,alphaPairsChanged)
  51.             if (alphaPairsChanged == 0):iter += 1
  52.             else: iter = 0
  53.             print "iteration number: %d"% iter
  54.        return b,alphas
复制代码


运行简化版SMO算法
       $ python
            >>> b,alphas=svmMLiA.smoSimple(dataArr,labelArr,0.6,0.001,40)
            >>> b
            >>> alphas[alphas>0]
                    matrix([[  1.19116082e-01,   2.60208521e-18,   2.28573383e-01,
                              1.30104261e-18,   3.46288170e-03,   3.44226583e-01]])

得到那些数据点是支持向量
          >>> for i in range(100):
          ...     if alphas>0.0:print dataArr,labelArr
          ...
                [4.658191, 3.507396] -1.0
                [7.286357, 0.251077] 1.0
                [3.457096, -0.082216] -1.0
                [6.960661, -0.245353] 1.0
                [5.286862, -2.358286] 1.0
                [6.080573, 0.418886] 1.0


SMO完整版算法python
  1. #完整版SMO的支持函数
  2. class optStructk:
  3.         def __init__(self,dataMatIn,classLabels,C,toler):
  4.              self.X = dataMatIn
  5.              self.labelMat=classLabels
  6.              self.C =C
  7.              self.tol = toler
  8.              self.m = shape(dataMatIn)[0]
  9.              self.alphas = mat(zeros((self.m,1)))
  10.              self.b = 0
  11.             #设置误差缓存
  12.             self.eCache = mat(zeros((self.m,2)))
复制代码

  1. #内循环中的启发式方法
  2. def calcEkk(oS,k):
  3.      fXk = float(multiply(oS.alphas,oS.labelMat).T*(oS.X*oS.X[k,:].T)) + oS.b
  4.      Ek = fXk - float(oS.labelMat[k])
  5.      return Ek   
复制代码


  1. def selectJk(i,oS,Ei):
  2.       maxK = -1;maxDeltaE = 0;Ej =0
  3.       #将输入值Ei在缓存中设置成为有效的
  4.       oS.eCache = [1,Ei]
  5.       #构建一个非零列表为目录的alpha值,该列表包含以输入列表为目标的列表值
  6.       validEcacheList = nonzero(oS.eCache[:,0].A)[0]
  7.       if (len(validEcacheList))>1:
  8.            for k in validEcacheList:
  9.                 if k==i:continue
  10.                 Ek = calcEkk(oS,k)
  11.                 deltaE = abs(Ei - Ek)
  12.                 if (deltaE > maxDeltaE):
  13.                      # 选择具有最大步长的j
  14.                      maxK=k;maxDeltaE=deltaE;Ej=Ek
  15.           return maxK,Ej
  16.    else:
  17.          j=selectJrand(i,oS.m)
  18.          Ej= calcEkk(oS,j)
  19.         return j,Ej
复制代码

  1. def updateEkk(oS,k):
  2.      Ek = calcEkk(oS,k)
  3.      oS.eCache[k] = [1,Ek]
复制代码


  1. # SMO算法中的优化例程
  2. def innerLk(i,oS):
  3.      Ei=calcEkk(oS,i)
  4.      if((oS.labelMat*Ei < -oS.tol) and (oS.alphas < oS.C)) or ((oS.labelMat*Ei > oS.tol) and (oS.alphas >0)):
  5.           j,Ej = selectJk(i,oS,Ei)
  6.           alphaIold = oS.alphas.copy(); alphaJold = oS.alphas[j].copy();
  7.           if (oS.labelMat != oS.labelMat[j]):
  8.               L = max(0,oS.alphas[j] - oS.alphas)
  9.               H = min(oS.C,oS.C + oS.alphas[j] - oS.alphas)
  10.          else:
  11.               L = max(0,oS.alphas[j]+oS.alphas - oS.C)
  12.               H = min(oS.C,oS.alphas[j] +oS.alphas)
  13.          if L==H:print "L==H"; return 0
  14.          eta = 2.0 * oS.X[i,:]*oS.X[j,:].T - oS.X[i,:]*oS.X[i,:].T - oS.X[j,:]*oS.X[j,:].T
  15.          if eta >=0: print "eta>=0"; return 0
  16.          oS.alphas[j] -=oS.labelMat[j]*(Ei-Ej)/eta
  17.          oS.alphas[j] = clipAlpha(oS.alphas[j],H,L)
  18.          updateEkk(oS,j) #更新误差缓存
  19.          if(abs(oS.alphas[j] - alphaJold) < 0.00001):
  20.          print "j not moving enough"; return 0
  21.          oS.alphas +=oS.labelMat[j]*oS.labelMat*(alphaJold - oS.alphas[j])
  22.          updateEkk(oS,i) #更新误差缓存
  23.          b1 = oS.b - Ei -oS.labelMat*(oS.alphas-alphaIold)*oS.X[i,:]*oS.X[i,:].T -oS.labelMat[j]*(oS.alphas[j]-alphaJold)*oS.X[i,:]*oS.X[j,:].T
  24.          b2 = oS.b - Ei -oS.labelMat*(oS.alphas-alphaIold)*oS.X[i,:]*oS.X[j,:].T -oS.labelMat[j]*(oS.alphas[j]-alphaJold)*oS.X[j,:]*oS.X[j,:].T
  25.          if(0 < oS.alphas) and (oS.C > oS.alphas):oS.b = b1
  26.          elif(0 <oS.alphas[j]) and (oS.C > oS.alphas[j]):oS.b =b2
  27.          else : oS.b = (b1+b2)/2.0
  28.          return 1
  29.      else: return 0
复制代码
  1. #SMO完整版
  2. #完整版与简陋版的区别
  3. #简化版是通过随机的方式选择alpha对(这种方式虽然也可以工作但效果不如完整版的好),完整办覆盖了整个数据集
  4. def smoPk(dataMatIn,classLabels,C,toler,maxIter,kTup=('lin',0)):
  5.       oS = optStructk(mat(dataMatIn),mat(classLabels).transpose(),C,toler)
  6.       iter =0
  7.       entireSet = True; alphaPairsChanged = 0
  8.       while (iter < maxIter) and ((alphaPairsChanged>0) or (entireSet)):
  9.               alphaPairsChanged = 0
  10.               if entireSet:
  11.                     for i in range(oS.m):
  12.                          alphaPairsChanged +=innerLk(i,oS)
  13.                     print "fullSet, iter: %d i:%d,pairs changed %d"%(iter,i,alphaPairsChanged)
  14.                     iter +=1
  15.               else :
  16.                     nonBoundIs = nonzero((oS.alphas.A>0) * (oS.alphas.A < C))[0]
  17.                     for i in nonBoundIs:
  18.                          alphaPairsChanged += innerLk(i,oS)
  19.                          print "non-bound,iter:%d i %d,pairs changed %d" %(iter,i,alphaPairsChanged)
  20.                     iter +=1
  21.              if entireSet : entireSet =False
  22.              elif (alphaPairsChanged == 0) : entireSet =True
  23.              print "iteration number:%d" % iter
  24.     return oS.b,oS.alphas
复制代码


测试分类器效果
          >>> ws=svmMLiA.calcWs(laphas,dataArr,labelArr)
          >>> ws
                  array([[ 0.7282993 ],
                  [-0.15563093]])

对第一个数据分类,如果该值的结果大于0,那么其属于1类,如果该值小于0,那么属于-1类,对于数据点0,应该得到的类别标签是-1
          >>> from numpy import *
          >>> dataMat = mat(dataArr)
          >>> dataMat[0]*mat(ws) +b
                   matrix([[-0.92555695]])

验证结果的正确性:
          >>> labelArr[0]
                  -1.0



核函数:
利用核函数将如下非线性可分的数据转换成分类器理解的形式。对圆中的数据进行某种形式的转换,从而得到某些新的变量来表示数据,这种表示更容易得到大于0或小于0的测试结果。这就需要将数据从一种特征空间转换到另一种特征空间即映射。
SVM优化一个特别好的地方就是,所有的运算都可以写成内积内积的形式,可以把内积替换成核函数。

python代码如下:
  1. #核转换函数
  2. #X描述所有核函数类型的一个字符串
  3. def kernelTrans(X,A,kTup):
  4.       m,n = shape(X)
  5.       K = mat(zeros((m,1)))
  6.       if kTup[0]=='lin' : K=X * A.T
  7.       elif kTup[0]=='rbf':
  8.            for j in range(m):
  9.                 deltaRow = X[j,:] - A
  10.                 K[j] = deltaRow * deltaRow.T
  11.            K = exp(K /(-1*kTup[1]**2))
  12.      else : raise NameError('Houston We have a Problem -- That Kernel is not recognized')
  13.      return K
复制代码

  1. class optStruct:
  2.         # kTup是一个包含核函数信息的元组
  3.         def __init__(self,dataMatIn,classLabels,C,toler,kTup):
  4.              self.X=dataMatIn
  5.              self.labelMat = classLabels
  6.              self.C = C
  7.              self.tol = toler
  8.              self.m = shape(dataMatIn)[0]
  9.              self.alphas = mat(zeros((self.m,1)))
  10.              self.b = 0
  11.              self.eCache = mat(zeros((self.m,2)))
  12.              self.K = mat(zeros((self.m,self.m)))
  13.              for i in range(self.m):
  14.                   self.K[:,i] = kernelTrans(self.X,self.X[i,:],kTup)        
复制代码

  1. #核函数内循环中的启发式方法
  2. def calcEk(oS,k):
  3.       fXk = float(multiply(oS.alphas,oS.labelMat).T*oS.K[:,k] + oS.b)
  4.       Ek = fXk - float(oS.labelMat[k])
  5.       return Ek
复制代码

  1. def selectJ(i,oS,Ei):
  2.       maxK = -1;maxDeltaE = 0;Ej =0
  3.       #将输入值Ei在缓存中设置成为有效的
  4.       oS.eCache[i] = [1,Ei]
  5.       #构建一个非零列表为目录的alpha值,该列表包含以输入列表为目标的列表值
  6.        validEcacheList = nonzero(oS.eCache[:,0].A)[0]
  7.        if (len(validEcacheList))>1:
  8.               for k in validEcacheList:
  9.                    if k==i:continue
  10.                    Ek = calcEk(oS,k)
  11.                    deltaE = abs(Ei - Ek)
  12.                    if (deltaE > maxDeltaE):
  13.                         # 选择具有最大步长的j
  14.                         maxK=k;maxDeltaE=deltaE;Ej=Ek
  15.             return maxK,Ej
  16.      else:
  17.            j=selectJrand(i,oS.m)
  18.            Ej= calcEk(oS,j)
  19.         return j,Ej
复制代码
  1. def updateEk(oS,k):
  2.       Ek = calcEk(oS,k)
  3.       oS.eCache[k] = [1,Ek]
复制代码
  1. # SMO算法中的优化例程
  2. def innerL(i,oS):
  3.       Ei=calcEk(oS,i)
  4.       if((oS.labelMat[i]*Ei < -oS.tol) and (oS.alphas[i] < oS.C)) or ((oS.labelMat[i]*Ei > oS.tol) and (oS.alphas[i] >0)):
  5.              j,Ej = selectJ(i,oS,Ei)
  6.              alphaIold = oS.alphas[i].copy(); alphaJold = oS.alphas[j].copy();
  7.              if (oS.labelMat[i] != oS.labelMat[j]):
  8.                    L = max(0,oS.alphas[j] - oS.alphas[i])
  9.                   H = min(oS.C,oS.C + oS.alphas[j] - oS.alphas[i])
  10.              else:
  11.                   L = max(0,oS.alphas[j]+oS.alphas[i] - oS.C)
  12.                   H = min(oS.C,oS.alphas[j] +oS.alphas[i])
  13.              if L==H:print "L==H"; return 0
  14.              eta = 2.0 * oS.K[i,j] -oS.K[i,i] - oS.K[j,j]
  15.              if eta >=0: print "eta>=0"; return 0
  16.              oS.alphas[j] -=oS.labelMat[j]*(Ei-Ej)/eta
  17.              oS.alphas[j] = clipAlpha(oS.alphas[j],H,L)
  18.              updateEk(oS,j) #更新误差缓存
  19.              if(abs(oS.alphas[j] - alphaJold) < 0.00001):
  20.                       print "j not moving enough"; return 0
  21.              oS.alphas[i] +=oS.labelMat[j]*oS.labelMat[i]*(alphaJold - oS.alphas[j])
  22.              updateEk(oS,i) #更新误差缓存
  23.              b1 = oS.b - Ei -oS.labelMat[i]*(oS.alphas[i] - alphaIold)*oS.K[i,i] - oS.labelMat[j]*(oS.alphas[j]-alphaJold)*oS.K[i,j]
  24.              b2 = oS.b - Ei -oS.labelMat[i]*(oS.alphas[i] - alphaIold)*oS.K[i,j] - oS.labelMat[j]*(oS.alphas[j]-alphaJold)*oS.K[j,j]
  25.              if(0 < oS.alphas[i]) and (oS.C > oS.alphas[i]):oS.b = b1
  26.              elif(0 <oS.alphas[j]) and (oS.C > oS.alphas[j]):oS.b =b2
  27.              else : oS.b = (b1+b2)/2.0
  28.              return 1
  29.   else: return 0
复制代码
  1. #SMO核函数
  2. def smoP(dataMatIn,classLabels,C,toler,maxIter,kTup=('lin',0)):
  3.       oS = optStruct(mat(dataMatIn),mat(classLabels).transpose(),C,toler,kTup)
  4.       iter =0
  5.       entireSet = True; alphaPairsChanged = 0
  6.       while (iter < maxIter) and ((alphaPairsChanged>0) or (entireSet)):
  7.               alphaPairsChanged = 0
  8.               if entireSet:
  9.                   for i in range(oS.m):
  10.                        alphaPairsChanged +=innerL(i,oS)
  11.                   print "fullSet, iter: %d i:%d,pairs changed %d"%(iter,i,alphaPairsChanged)
  12.                   iter +=1
  13.               else :
  14.                   nonBoundIs = nonzero((oS.alphas.A>0) * (oS.alphas.A < C))[0]
  15.                   for i in nonBoundIs:
  16.                        alphaPairsChanged += innerL(i,oS)
  17.                        print "non-bound,iter:%d i %d,pairs changed %d" %(iter,i,alphaPairsChanged)
  18.                   iter +=1
  19.               if entireSet : entireSet =False
  20.              elif (alphaPairsChanged == 0) : entireSet =True
  21.              print "iteration number:%d" % iter
  22.       return oS.b,oS.alphas        
复制代码
  1. # 计算W
  2. def calcWs(alphas,dataArr,classLabels):
  3.       X = mat(dataArr);labelMat = mat(classLabels).transpose()
  4.       m,n = shape(X)
  5.       w = zeros((n,1))
  6.       for i in range(m):
  7.            w += multiply(alphas[i]*labelMat[i],X[i,:].T)
  8.       return w
复制代码
  1. #核函数测试方法
  2. def testRbf(k1=1.3):
  3.        dataArr,labelArr = loadDataSet('testSetRBF.txt')
  4.        b,alphas = smoP(dataArr,labelArr,200,0.0001,10000,('rbf',k1))
  5.        datMat=mat(dataArr);labelMat = mat(labelArr).transpose()
  6.        svInd=nonzero(alphas.A>0)[0]
  7.        sVs = datMat[svInd]
  8.        labelSV=labelMat[svInd];
  9.        print "there are %d Support Vectors "% shape(sVs)[0]
  10.        m,n=shape(datMat)
  11.        errorCount = 0
  12.        for i in range(m):
  13.             # 对数据进行核转换
  14.             kernelEval = kernelTrans(sVs,datMat[i,:],('rbf',k1))
  15.             #核转换后的数据与前面的alpha及类别标签值求积
  16.             predict=kernelEval.T * multiply(labelSV,alphas[svInd]) + b
  17.             if sign(predict)!=sign(labelArr[i]):errorCount +=1
  18.        print "the training error rate is: %f" % (float(errorCount)/m)
  19.        dataArr,labelArr = loadDataSet('testSetRBF2.txt')
  20.        errorCount = 0
  21.        datMat=mat(dataArr);labelMat = mat(labelArr).transpose()
  22.        m,n = shape(datMat)
  23.        for i in range(m):
  24.             kernelEval = kernelTrans(sVs,datMat[i,:],('rbf',k1))
  25.             predict = kernelEval.T * multiply(labelSV,alphas[svInd]) +b
  26.             if sign(predict) != sign(labelArr[i]) : errorCount +=1
  27.        print "the test error rate is:%f"%(float(errorCount)/m)        
复制代码


测试核函数
       >>> svmMLiA.testRbf()

               



手写识别问题回顾:

python代码如下:

  1. # 手写识别问题回顾
  2. def img2vector(filename):
  3.       returnVect = zeros((1,1024))
  4.       # print("filename",filename)
  5.       fr = open(filename)
  6.       for i in range(32):
  7.            lineStr=fr.readline()
  8.            for j in range(32):
  9.                 returnVect[0,32*i+j] = int(lineStr[j])
  10.       return returnVect
复制代码

  1. def loadImages(dirName):
  2.       from os import listdir
  3.       hwLabels = []
  4.       trainingFileList = listdir(dirName)
  5.       m = len(trainingFileList)
  6.       trainingMat = zeros((m,1024))
  7.       for i in range(m):
  8.            fileNameStr = trainingFileList[i]
  9.            fileStr = fileNameStr.split('.')[0]
  10.            classNumStr = int(fileStr.split('_')[0])
  11.            if classNumStr == 9 : hwLabels.append(-1)
  12.            else:hwLabels.append(1)
  13.            trainingMat[i,:] = img2vector('%s/%s' % (dirName,fileNameStr))
  14.       return trainingMat,hwLabels
复制代码

  1. def testDigits(kTup=('rbf',10)):
  2.       dataArr,labelArr = loadImages('trainingDigits')
  3.       b,alphas= smoPK(dataArr,labelArr,200,0.0001,10000,kTup)
  4.       datMat=mat(dataArr);labelMat=mat(labelArr).transpose()
  5.       svInd=nonzero(alphas.A>0)[0]
  6.       sVs=datMat[svInd]        
  7.       labelSV = labelMat[svInd];
  8.       print "there are %d Support Vectors"%shape(sVs)[0]
  9.       m,n = shape(datMat)
  10.       errorCount = 0
  11.       for i in range(m):
  12.            kernelEval = kernelTrans(sVs,datMat[i,:],kTup)
  13.            predict=kernelEval.T * multiply(labelSV,alphas[svInd]) + b
  14.            if sign(predict) !=sign(labelArr[i]):errorCount +=1
  15.       print "the training error rate is: %f" %(float(errorCount)/m)
  16.       dataArr,labelArr = loadImages('testDigits')
  17.       errorCount = 0
  18.       datMat = mat(dataArr);labelMat = mat(labelArr).transpose()
  19.       m,n = shape(datMat)
  20.       for i in range(m):
  21.            kernelEval = kernelTrans(sVs,datMat[i,:],kTup)
  22.            predict=kernelEval.T * multiply(labelSV,alphas[svInd]) + b
  23.            if sign(predict) != sign(labelArr[i]):errorCount +=1
  24.       print "the test error rate is: %f" %(float(errorCount)/m)  
复制代码


运行代码:
       >>> svmMLiA.testDigits(('rbf',20))
               

svmMLiA.rar

230.98 KB, 下载次数: 1, 下载积分: 金钱 -1

回复

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

关闭

站长推荐上一条 /1 下一条

QQ|Archiver|手机版|小黑屋|陕ICP备15012670号-1    

GMT+8, 2024-5-7 22:47 , Processed in 0.069100 second(s), 27 queries .

Powered by Discuz! X3.2

© 2001-2013 Comsenz Inc.

快速回复 返回顶部 返回列表