从理论到应用——浅析lasso模型.doc

  1. 1、本文档共13页,可阅读全部内容。
  2. 2、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
  3. 3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  4. 4、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
查看更多
本科生学年论文 题目:从理论到应用——浅谈lasso模型 指导教师: 学院: 姓名: 学号: 班级: 从理论到应用——浅谈lasso模型 【摘要】 回归模型是我们在处理数据中常用的方法。其中,Lasso模型是一种适用于多重共线性问题,能够在参数估计的同时实现变量的选择的回归方法。本文从lasso模型的概念谈起,对其起源、思想、与岭回归的比较、通过lar的算法实现等方面进行了探究。另外还使用R语言对简单案例进行lasso模型的应用。最后简述了lasso模型的研究现状。 【abstract】 Regression model is our commonly used method in processing data. Lasso model is a kind of regression method for multiple linear problems, which can be used to achieve parameter estimationvariable selection at the same time. This paper starts from the concept of the lasso model, including its origin, ideas, and the comparison of ridge regression, through lar algorithm implementation, etc. In addition, using R language to solve a simple case through lasso. At last, the research status of lasso model is introduced. 【关键词】 Lasso 岭回归 最小角回归 R语言 【key words】 Lasso ridge regression lar R language 目录 一、 定义及基本信息 4 二、 起源与原理 4 三、 模型的思想 4 四、 Lasso与岭回归 5 1、 岭回归的概念 5 2、 Lasso与岭回归的比较 5 五、 Lasso的算法步骤 6 1、 lasso算法实现的背景 6 2、 最小角回归 7 3、 用lar实现lasso 7 六、 案例分析 8 1、 问题描述 8 2、 简单线性回归求解 9 3、 利用lasso求解 11 七、 应用与研究现状 12 八、 参考资料 13 定义及基本信息 Lasso模型是由Robert Tibshirani在1996年JRSSB上的一篇文章Regression shrinkage and selection via the lasso所提出的一种能够实现指标集合精简的估计方法。在参数估计的同时实现变量的选择(可以解决回归分析中的多重共线性问题)。 全称:Least Absolute Shrinkage and Selection Operator 读音[l?‵su:] 而不是[l?so] Robert Tibshirani 简介:生于1956年7月10日the Departments of Statistics and Health Research and Policy的教授。1985-1998年担任多伦多大学的教授分析统计 Generalized Additive Models, An Introduction to the Bootstrap, and The Elements of Statistical Learning三本书中都有他的编著。[1] 起源与原理 在常规的回归分析中,假设我们有一组(xi,yi),i=1,2,...,N,其中xi=(xi1,...,xip)T,yi是第i维观测值的回归量的数据。普通最小二乘(OLS)通过最小化残差平方和来进行估计。它对数据的分析不那么令人满意通常有两个原因。一是预测精度:OLS往往偏差较低但方差大;预测精度有时可以用缩小或设置一些系数为0的方法来提高。通过这样做,我们牺牲一点偏差减少预测的方差值,因此可以提高整体预测准确性。第二个原因是可解

文档评论(0)

文档分享 + 关注
实名认证
内容提供者

该用户很懒,什么也没介绍

1亿VIP精品文档

相关文档