发布网友
共2个回答
懂视网
l1和l2正则化的区别是:
1、L1是模型各个参数的绝对值之和。L2是模型各个参数的平方和的开方值。
2、L1会趋向于产生少量的特征,而其他的特征都是0,因为最优的参数值很大概率出现在坐标轴上,这样就会导致某一维的权重为0 ,产生稀疏权重矩阵。L2会选择更多的特征,这些特征都会接近于0。
3、最优的参数值很小概率出现在坐标轴上,因此每一维的参数都不会是0。当最小化||w||时,就会使每一项趋近于0。
热心网友
正则化(regularization),是指在线性代数理论中,不适定问题通常是由一组线性代数方程定义的,而且这组方程组通常来源于有着很大的条件数的不适定反问题。大条件数意味着舍入误差或其它误差会严重地影响问题的结果。