选择遗忘|线性和二次判别分析( 三 )
个维度空间的降维工具 。
通过投影到线性子空间
上 , 我们可以进一步将维数减少到一个选定的
, 从而使投影后的
的方差最大化(实际上为了实现转换类均值
, 我们正在做某种形式的 PCA) 。这里的
对应于 discriminant_analysis.LinearDiscriminantAnalysis.transform 方法中使用的 n_components 参数 。详情参考参考文献 [3]。
1.2.4. 收缩收缩是一种在训练样本数量相比特征而言很小的情况下 , 提升的协方差矩阵预测准确性的工具 。在这种情景中 , 经验样本协方差是一个很差的预测器 。 收缩 LDA 可以通过设置 discriminant_analysis.LinearDiscriminantAnalysis 类的 shrinkage 参数为 ‘auto’ 来实现 。 这将根据 Ledoit 和 Wolf 引入的引理 [4] , 以解析的方式自动确定最佳收缩参数 。 值得注意的是 , 当前的收缩仅仅在solver参数为 lsqr 或 eigen 时才会起作用 。
shrinkage 参数的值同样也可以手动被设置为 0-1 之间 。 特别地 , 0 值对应着没有收缩(这意味着经验协方差矩阵将会被使用) , 而 1 值则对应着完全使用收缩(意味着方差的对角矩阵将被当作协方差矩阵的估计) 。 将此参数设置为这两个极值之间的值将估计协方差矩阵的一个收缩版本 。
1.2.5. 预估算法默认的 solver 是 ‘svd’ 。 它可以进行分类)以及转换 , 而且它不会依赖于协方差矩阵的计算结果 。 这在特征数量特别大的时候十分具有优势 。 然而 , ’svd’ 解决器无法与收缩同时使用 。
‘lsqr’ 解决器则是一个高效的算法 , 它仅用于分类问题 。 它支持收缩 。
‘eigen’ 解决器是基于类散度与类内离散率之间的优化 。它可以被用于分类以及转换 , 此外它还同时支持收缩 。 然而该解决方案需要计算协方差矩阵 , 因此它可能不适用于具有大量特征的情况 。
示例:
[Normal and Shrinkage Linear Discriminant Analysis for classification](#sphx-glr-auto-examples-classification-plot-lda-py:有收缩和无收缩LDA分类器的比较 。
参考资料:
3(1,2) “The Elements of Statistical Learning”, Hastie T., Tibshirani R., Friedman J., Section 4.3, p.106-119, 2008.[4] Ledoit O, Wolf M. Honey, I Shrunk the Sample Covariance Matrix. The Journal of Portfolio Management 30(4), 110-119, 2004.
最后 , 小编想说:我是一名python开发工程师 ,
推荐阅读
- 地史食堂|未必需要开凿克拉运河,泰国还有第二选择,和新加坡竞争
- 王者MrPoker|到底有多难打?,不会根据局势来选择出装
- 特朗普|最新美国大选民调结果!52%的人选择拜登,领先特朗普10个点
- 行车视线|颜值惊艳 提供两种动力选择,起亚全新K5凯酷将于今日上市
- Java|计算机专业的本科生,该选择学习Java技术体系还是.NET技术体系
- 百二关河|为何选择策反钟会,他真的有复国的可能吗,姜维在蜀汉灭亡后
- 老靳行色|也要从撤离中国,而中不但不生气反而选择谅解,宁愿自损160亿
- 游戏攻略|《我的勇士》世界boss辅助选什么?世界boss辅助选择推荐
- 加拿大必读|领先特朗普10个点,最新美国大选民调结果!52%的人选择拜登
- ZAKER|高净值人群想要规避风险?海外房产或是一个不可多得的选择!
