选择遗忘|线性和二次判别分析( 三 )


选择遗忘|线性和二次判别分析个维度空间的降维工具 。
通过投影到线性子空间
选择遗忘|线性和二次判别分析上 , 我们可以进一步将维数减少到一个选定的
选择遗忘|线性和二次判别分析, 从而使投影后的
选择遗忘|线性和二次判别分析的方差最大化(实际上为了实现转换类均值
选择遗忘|线性和二次判别分析, 我们正在做某种形式的 PCA) 。这里的
选择遗忘|线性和二次判别分析对应于 discriminant_analysis.LinearDiscriminantAnalysis.transform 方法中使用的 n_components 参数 。详情参考参考文献 [3]。
1.2.4. 收缩收缩是一种在训练样本数量相比特征而言很小的情况下 , 提升的协方差矩阵预测准确性的工具 。在这种情景中 , 经验样本协方差是一个很差的预测器 。 收缩 LDA 可以通过设置 discriminant_analysis.LinearDiscriminantAnalysis 类的 shrinkage 参数为 ‘auto’ 来实现 。 这将根据 Ledoit 和 Wolf 引入的引理 [4] , 以解析的方式自动确定最佳收缩参数 。 值得注意的是 , 当前的收缩仅仅在solver参数为 lsqr 或 eigen 时才会起作用 。
shrinkage 参数的值同样也可以手动被设置为 0-1 之间 。 特别地 , 0 值对应着没有收缩(这意味着经验协方差矩阵将会被使用) , 而 1 值则对应着完全使用收缩(意味着方差的对角矩阵将被当作协方差矩阵的估计) 。 将此参数设置为这两个极值之间的值将估计协方差矩阵的一个收缩版本 。
选择遗忘|线性和二次判别分析1.2.5. 预估算法默认的 solver 是 ‘svd’ 。 它可以进行分类)以及转换 , 而且它不会依赖于协方差矩阵的计算结果 。 这在特征数量特别大的时候十分具有优势 。 然而 , ’svd’ 解决器无法与收缩同时使用 。
‘lsqr’ 解决器则是一个高效的算法 , 它仅用于分类问题 。 它支持收缩 。
‘eigen’ 解决器是基于类散度与类内离散率之间的优化 。它可以被用于分类以及转换 , 此外它还同时支持收缩 。 然而该解决方案需要计算协方差矩阵 , 因此它可能不适用于具有大量特征的情况 。
示例:
[Normal and Shrinkage Linear Discriminant Analysis for classification](#sphx-glr-auto-examples-classification-plot-lda-py:有收缩和无收缩LDA分类器的比较 。
参考资料:
3(1,2) “The Elements of Statistical Learning”, Hastie T., Tibshirani R., Friedman J., Section 4.3, p.106-119, 2008.[4] Ledoit O, Wolf M. Honey, I Shrunk the Sample Covariance Matrix. The Journal of Portfolio Management 30(4), 110-119, 2004.
选择遗忘|线性和二次判别分析最后 , 小编想说:我是一名python开发工程师 ,


推荐阅读