SVM

特点:

优势:

  • 在高维空间中很有效
  • 在数据的维度高于样本数量的情况下依然有效
  • 使用数据集中的部分点来构建模型(支持向量),因此消耗内存少
  • 通用性,针对不同的情景,可以设置不同的核函数

    劣势

  • 当数据的维度远超数据数量时,分类器的表现很差
  • SVM不直接提供概率密度估计,而是通过5折交叉验证进行计算

SVC in sklearn

函数原型:

SVC(C=1.0, kernel='rbf', degree=3, gamma='auto', coef0=0.0, shrinking=True, probability=False, tol=0.001, cache_size=200, class_weight=None, verbose=False, max_iter=-1, decision_function_shape=None, random_state=None)[source]

参数设置

  • C: 误差项的罚项

  • kernel: 内置内核有'linear','poly','rbf','sigmoid','precomputed'

  • degree 只适用于poly内核

  • gamma:

results matching ""

    No results matching ""