SVM
特点:
优势:
- 在高维空间中很有效
- 在数据的维度高于样本数量的情况下依然有效
- 使用数据集中的部分点来构建模型(支持向量),因此消耗内存少
通用性,针对不同的情景,可以设置不同的核函数
劣势
- 当数据的维度远超数据数量时,分类器的表现很差
- SVM不直接提供概率密度估计,而是通过5折交叉验证进行计算
SVC in sklearn
函数原型:
SVC(C=1.0, kernel='rbf', degree=3, gamma='auto', coef0=0.0, shrinking=True, probability=False, tol=0.001, cache_size=200, class_weight=None, verbose=False, max_iter=-1, decision_function_shape=None, random_state=None)[source]
参数设置
C: 误差项的罚项
kernel: 内置内核有'linear','poly','rbf','sigmoid','precomputed'
degree 只适用于poly内核
gamma: