机器学习专题研究:SVM算法选股以及Adaboost增强
摘要: 支持向量机算法支持向量机的最大特点是改变了传统的经验风险最小化原则,而是针对结构风险最小化原则提出的,因此具有很好的泛化能力。同时,支持向量机在处理非线性问题时,通过将非线性问题转化为高维空间的线性问
支持向量机算法
支持向量机的最大特点是改变了传统的经验风险最小化原则,而是针对结构风险最小化原则提出的,因此具有很好的泛化能力。同时,支持向量机在处理非线性问题时,通过将非线性问题转化为高维空间的线性问题,利用核函数替代高维空间中的内积运算,从而巧妙的解决了复杂计算问题,并且有效的克服了维数灾难以及局部极小问题。
在不考虑非线性分类的情况下,12个月的样本数据滚动回测结果显示出较好的分类效果。强势组合能够显著的跑赢弱势组合。
Adaboost-SVM组合算法
从Adaboost的角度出发,我们认为利用Adaboost对于每个月的数据的SVM分类算法进行增强,可以有效的提高SVM分类的效果。
从线性SVM分类结果来看,利用12层数据的Adaboost组合相比单月SVM效果显著增强,多空组合收益能够明显的区分开。但对比前述的传统SVM方法,其多空策略的净值收益并没有显著增加,传统的SVM模型整体优于Adaboost算法下的SVM分类。
非线性分类
在前一篇报告中我们对于非线性分类的处理主要通过对因子的多档概率统计完成,也具有显著的效果。为了使SVM模型与之更具有可比性,我们考虑SVM的非线性模型。
将非线性因素考虑进来之后,模型的超额收益显著高于无SVM的Adaboost算法。多空组合的区分度明显,5年的胜率在58%的水平。效果的增强,除了证明我们之前的猜想:弱分类器的选择可能增加Adaboost算法的效果之外,也从侧面反映了多因子模型中,因子与收益间的非线性关系。
从结果上看,Adaboost的效果仍然不如单独的SVM算法效果,理论上考虑,Adaboost的增强效果是需要建立在弱分类器的基础上的。SVM算法本身的显著分类可能对Adaboost算法造成影响。因此,对比概率统计的Adaboost分类,Adaboost-SVM具有显著的提高,但更优的分类方法是非线性的SVM分类。
SVM,分类,Adaboost,算法,非线性