楼主: lanfeng0924
7392 20

数据挖掘领域相关丛书系列之一:Computational Methods of Feature Selection [推广有奖]

  • 0关注
  • 13粉丝

Data Mining & OR

教授

61%

还不是VIP/贵宾

-

威望
1
论坛币
27548 个
通用积分
17.8440
学术水平
43 点
热心指数
59 点
信用等级
41 点
经验
55356 点
帖子
761
精华
2
在线时间
1249 小时
注册时间
2007-12-3
最后登录
2024-3-5
毕业学校
大连理工大学

相似文件 换一批

+2 论坛币
k人 参与回答

经管之家送您一份

应届毕业生专属福利!

求职就业群
赵安豆老师微信:zhaoandou666

经管之家联合CDA

送您一个全额奖学金名额~ !

感谢您参与论坛问题回答

经管之家送您两个论坛币!

+2 论坛币
近期,将陆续更新一批数据挖掘相关领域的丛书,请大家予以关注。
今天发的图书是Computational Methods of Feature Selection,简介如下:

Computational Methods of Feature Selection (Chapman & Hall/Crc Data Mining and Knowledge Discovery Series)

Computational Methods of Feature Selection (Chapman & Hall/Crc Data Mining and Knowledge Discovery Series)
By Huan Liu, Hiroshi Motoda

Publisher:   Chapman & Hall/CRC
Number Of Pages:   440
Publication Date:   2007-10-29
ISBN-10 / ASIN:   1584888784
ISBN-13 / EAN:   9781584888789
Binding:   Hardcover

Due to increasing demands for dimensionality reduction, research on feature selection has deeply and widely expanded into many fields, including computational statistics, pattern recognition, machine learning, data mining, and knowledge discovery. Highlighting current research issues, Computational Methods of Feature Selection introduces the basic concepts and principles, state-of-the-art algorithms, and novel applications of this tool.
The book begins by exploring unsupervised, randomized, and causal feature selection. It then reports on some recent results of empowering feature selection, including active feature selection, decision-border estimate, the use of ensembles with independent probes, and incremental feature selection. This is followed by discussions of weighting and local methods, such as the ReliefF family, k-means clustering, local feature relevance, and a new interpretation of Relief. The book subsequently covers text classification, a new feature selection score, and both constraint-guided and aggressive feature selection. The final section examines applications of feature selection in bioinformatics, including feature construction as well as redundancy-, ensemble-, and penalty-based feature selection.
Through a clear, concise, and coherent presentation of topics, this volume systematically covers the key concepts, underlying principles, and inventive applications of feature selection, illustrating how this powerful tool can efficiently harness massive, high-dimensional data and turn it into valuable, reliable information.


Computational+methods+of+feature+selection[1].LiuH.Taylor+2008.pdf (3.09 MB, 需要: 1 个论坛币)

论坛币设为1,象征性收费。

————————————————————————————————————————————————————————
数据挖掘领域相关丛书系列导航:
之一:Computational Methods of Feature Selection
http://www.pinggu.org/bbs/thread-580906-1-1.html
之二:Encyclopedia Of Data Warehousing and Mining(2nd edition)
http://www.pinggu.org/bbs/thread-581974-1-1.html
之三:Pattern Recognition and Machine Learning
http://www.pinggu.org/bbs/thread-584359-1-1.html
之四:Clustering
http://www.pinggu.org/bbs/thread-472052-1-1.html
二维码

扫码加我 拉你入群

请注明:姓名-公司-职位

以便审核进群资格,未注明则拒绝

关键词:Computation Selection Election Methods feature Methods 领域 丛书 Selection feature

已有 3 人评分论坛币 学术水平 热心指数 信用等级 收起 理由
lengmw + 1 + 1 thanks!
420948492 + 40 + 1 精彩帖子,继续能力,大大的奖励
j2hu + 1 + 1 + 1 精彩帖子

总评分: 论坛币 + 40  学术水平 + 3  热心指数 + 2  信用等级 + 1   查看全部评分

本帖被以下文库推荐

研究兴趣:数据挖掘,决策分析
沙发
wq830808 发表于 2009-10-12 09:41:47 |只看作者 |坛友微信交流群
好书,很便宜。

使用道具

藤椅
j2hu 发表于 2009-10-12 09:45:58 |只看作者 |坛友微信交流群
好书,支持一下。

使用道具

板凳
foxiaowo 发表于 2009-10-12 16:37:29 |只看作者 |坛友微信交流群
谢谢楼主,这样的书希望越多越好

使用道具

报纸
luhuidal 发表于 2009-10-12 16:58:36 |只看作者 |坛友微信交流群
楼主贡献新书的精神实在可嘉,值得我们学习.
不过,本书的实际项目应用的参考价值不太大,全书基本上是两个研讨会上的论文汇总,每章的作者各不相同,全书的思路比较散,更重要的是从数据挖掘的项目实战来说,借鉴性不强.
本书的所有feature selection的方法基本上都是新的,探索性质的,这从另一个角度来说,就是跟目前成熟的方法有很大的区别,而我们在项目实战中当然要应用目前主流的成熟的方法了哟.
那什么是目前主流的成熟的变量挑选的方法呢?我之前写过一篇日志,在此抛砖引玉,欢迎大家批评指正:
数据挖掘交流谈论(17,关于预测模型的输入变量挑选的讨论)
背景介绍:有网友“莫小贝”来信,希望谈谈预测模型的输入变量的挑选甄别的问题,“请问博主,在预测模型的建设过程中,面对几十、上百甚至更多的变量,究竟哪些可以作为输入变量,又有哪些是应该不与考虑的,有没有什么系统性的方法论或经验总结?希望可以得到你的指点,谢谢!”。
我的回复:莫小贝你好,这个问题是数据挖掘中的重要问题和核心问题之一,适当的输入变量挑选是一项比较复杂、耗时的工作,更是直接影响预测模型的最终效果和准确程度,所以这个工作怎么强调都不过分。我之前也一直没有机会作些总结,正好借此机会,尝试作个汇总,有不准确之处,在所难免,欢迎指正。
为什么要挑选输入变量?是因为预测模型的需要:一方面,输入变量之间应该尽量不要有大的关联(否则就有共线性co linearity的危害,相互强关联的输入变量对于预测模型来说是多余的有害的,使模型预测效果大大降低);另一方面,输入变量跟目标变量之间应该有大的关联,即所挑选出的自变量应该具有相当的预测的功能和性能;
具体来说,对于输入变量的挑选目前有一系列成熟的方法和工具算法,分为统计分析技术和业务经验参考,下面分别阐述。
第一,        最先想到的是基于相关业务背景的常识可以去掉一些明显的跟目标变量没有相关性的变量;另外,顺便提一下,当对于类别型变量转化成哑元时,通常的做法是当一个变量有N种离散值时(N一般小于10,否则要另外处理),所对应产生的哑元变量数量为N-1。
第二,        利用R square 指标和chi- square指标分别判断。在回归算法中,基于stepwise、forward、backward三种挑选输入变量的方法,主要通过对于R square(Coefficient of Multiple Determination)的提升效率的判断,来挑选甄别输入变量,而R square这个指标在回归中的含义通俗讲就是指各个自变量在多大程度上可以解释目标变量的可变性的。对于chi-square技术来说,通俗讲,chi- square分析主要是评价希望值和实际值的差异的,公式等于两者差的平方除以希望值。当chi- square的值大时,相对应的P-Value就很小,而P-Value代表的是上述差异发生的偶然性的可能性。所以,通常讲,小于0.01的P-Value值,同时chi-square比较大时,该变量被认为是值得输入模型的。基本上主流的分析挖掘软件都有这些判断的功能,在SAS中,利用proc logistic(针对连续型变量)和proc freq(针对类别型变量)这些小程序都可以比较容易得出结论的。
第三,        从回归模型的结论中,对于各个变量的系数所对应的显著性(Significant)和方差的观察,也可以作出对于变量的重要性判断的(看对应的Pr>T的值,以及Pr>F的值,如果小于0.01的话,说明对应的变量有较好的预测性,可以考虑放入预测模型中作为输入变量)。在实践中,这种方法是先将一些认为不错的变量放入回归模型,然后根据这些结论指标做相应的增减变量的调整,重新做回归模拟,直到比较合理的变量经过权衡之后被确定为止。
第四,        另外,在SAS EM中,有两个专门的节点工具(tree node, variable selection node)用于输入变量的挑选,其中variable selection节点所采用的两种不同的挑选变量的算法就是分别对应上述的R square 指标和chi- square指标。不过在SAS EM中,基于回归的方法只给出了stepwise的这种计算方式,这也可以看出,stepwise这种方法是相对来说最常用也比较有效的方法。
第五,        另外,常用的主成分分析和因子分析也可以有效降低输入变量的个数,这是另外一个大话题,以后再详细讨论。
第六,        从业务经验参考来讲,业务专家因为熟悉业务,潜意识里对于模型里面因变量和自变量的相互之间的关系比较有直觉有判断,所以对于业务专家的建议,如果积极沟通交流采纳的话,也可以明显提升变量挑选的速度和质量以及效率的。当然了,业务专家的建议到底是否合理,最终还是要通过模型以及相关的指标做最后的判断的。
第七,        最后,从项目实践的角度考虑,限于时间、成本、目标的特定需要,有时候个别变量尽管很重要,但是有可能被排除在外,比如这些变量的收集要花费太长的时间、太多的精力,这样权衡下来,有可能将它排除在外,尽管在理论上它非常重要。
没有哪种方法是万能的,项目实践中推荐的做法是尽可能多的尝试不同的变量评估方法,相互比较权衡后,最终决定合适的输入变量。
以上个人看法,挂一漏万,欢迎批评指教!

本日志选自本人数据挖掘应用专业博客的日志,
http://shzxqdj.blog.163.com/
我喜欢并身体力行着数据挖掘的营销应用,
上述的观点和思路欢迎大家拍砖,\指正,在数据挖掘实战应用中结识朋友,人生一大乐也

再次向楼主致意!
已有 1 人评分论坛币 学术水平 收起 理由
420948492 + 40 + 1 很好

总评分: 论坛币 + 40  学术水平 + 1   查看全部评分

使用道具

地板
420948492 发表于 2009-10-13 01:23:48 |只看作者 |坛友微信交流群
不错,很有意思
有人的地方就有江湖

使用道具

7
420948492 发表于 2009-10-13 01:26:36 |只看作者 |坛友微信交流群
其实新的方法提出来对于编程好的人就是一个更好的选择
一般新方法提出来有两种途径
一、对旧方法的改进,或者是参数选取的改进,或者是运算量的改进
二、是完全的新思路,这种就有意思
论文中必定通过实例验证,不能凭空拍脑袋,因此我觉得接触一些新方法会有很大好处
有人的地方就有江湖

使用道具

8
hr1230 发表于 2009-10-13 11:23:35 |只看作者 |坛友微信交流群
顶一下,谢谢。
aaa

使用道具

9
lanfeng0924 发表于 2009-10-13 12:17:30 |只看作者 |坛友微信交流群
luhuidal 发表于 2009-10-12 16:58
楼主贡献新书的精神实在可嘉,值得我们学习.
不过,本书的实际项目应用的参考价值不太大,全书基本上是两个研讨会上的论文汇总,每章的作者各不相同,全书的思路比较散,更重要的是从数据挖掘的项目实战来说,借鉴性不强.
本书的所有feature selection的方法基本上都是新的,探索性质的,这从另一个角度来说,就是跟目前成熟的方法有很大的区别,而我们在项目实战中当然要应用目前主流的成熟的方法了哟.
那什么是目前主流的成熟的变量挑选的方法呢?我之前写过一篇日志,在此抛砖引玉,欢迎大家批评指正:
数据挖掘交流谈论(17,关于预测模型的输入变量挑选的讨论)
背景介绍:有网友“莫小贝”来信,希望谈谈预测模型的输入变量的挑选甄别的问题,“请问博主,在预测模型的建设过程中,面对几十、上百甚至更多的变量,究竟哪些可以作为输入变量,又有哪些是应该不与考虑的,有没有什么系统性的方法论或经验总结?希望可以得到你的指点,谢谢!”。
我的回复:莫小贝你好,这个问题是数据挖掘中的重要问题和核心问题之一,适当的输入变量挑选是一项比较复杂、耗时的工作,更是直接影响预测模型的最终效果和准确程度,所以这个工作怎么强调都不过分。我之前也一直没有机会作些总结,正好借此机会,尝试作个汇总,有不准确之处,在所难免,欢迎指正。
为什么要挑选输入变量?是因为预测模型的需要:一方面,输入变量之间应该尽量不要有大的关联(否则就有共线性co linearity的危害,相互强关联的输入变量对于预测模型来说是多余的有害的,使模型预测效果大大降低);另一方面,输入变量跟目标变量之间应该有大的关联,即所挑选出的自变量应该具有相当的预测的功能和性能;
具体来说,对于输入变量的挑选目前有一系列成熟的方法和工具算法,分为统计分析技术和业务经验参考,下面分别阐述。
第一,        最先想到的是基于相关业务背景的常识可以去掉一些明显的跟目标变量没有相关性的变量;另外,顺便提一下,当对于类别型变量转化成哑元时,通常的做法是当一个变量有N种离散值时(N一般小于10,否则要另外处理),所对应产生的哑元变量数量为N-1。
第二,        利用R square 指标和chi- square指标分别判断。在回归算法中,基于stepwise、forward、backward三种挑选输入变量的方法,主要通过对于R square(Coefficient of Multiple Determination)的提升效率的判断,来挑选甄别输入变量,而R square这个指标在回归中的含义通俗讲就是指各个自变量在多大程度上可以解释目标变量的可变性的。对于chi-square技术来说,通俗讲,chi- square分析主要是评价希望值和实际值的差异的,公式等于两者差的平方除以希望值。当chi- square的值大时,相对应的P-Value就很小,而P-Value代表的是上述差异发生的偶然性的可能性。所以,通常讲,小于0.01的P-Value值,同时chi-square比较大时,该变量被认为是值得输入模型的。基本上主流的分析挖掘软件都有这些判断的功能,在SAS中,利用proc logistic(针对连续型变量)和proc freq(针对类别型变量)这些小程序都可以比较容易得出结论的。
第三,        从回归模型的结论中,对于各个变量的系数所对应的显著性(Significant)和方差的观察,也可以作出对于变量的重要性判断的(看对应的Pr>T的值,以及Pr>F的值,如果小于0.01的话,说明对应的变量有较好的预测性,可以考虑放入预测模型中作为输入变量)。在实践中,这种方法是先将一些认为不错的变量放入回归模型,然后根据这些结论指标做相应的增减变量的调整,重新做回归模拟,直到比较合理的变量经过权衡之后被确定为止。
第四,        另外,在SAS EM中,有两个专门的节点工具(tree node, variable selection node)用于输入变量的挑选,其中variable selection节点所采用的两种不同的挑选变量的算法就是分别对应上述的R square 指标和chi- square指标。不过在SAS EM中,基于回归的方法只给出了stepwise的这种计算方式,这也可以看出,stepwise这种方法是相对来说最常用也比较有效的方法。
第五,        另外,常用的主成分分析和因子分析也可以有效降低输入变量的个数,这是另外一个大话题,以后再详细讨论。
第六,        从业务经验参考来讲,业务专家因为熟悉业务,潜意识里对于模型里面因变量和自变量的相互之间的关系比较有直觉有判断,所以对于业务专家的建议,如果积极沟通交流采纳的话,也可以明显提升变量挑选的速度和质量以及效率的。当然了,业务专家的建议到底是否合理,最终还是要通过模型以及相关的指标做最后的判断的。
第七,        最后,从项目实践的角度考虑,限于时间、成本、目标的特定需要,有时候个别变量尽管很重要,但是有可能被排除在外,比如这些变量的收集要花费太长的时间、太多的精力,这样权衡下来,有可能将它排除在外,尽管在理论上它非常重要。
没有哪种方法是万能的,项目实践中推荐的做法是尽可能多的尝试不同的变量评估方法,相互比较权衡后,最终决定合适的输入变量。
以上个人看法,挂一漏万,欢迎批评指教!

本日志选自本人数据挖掘应用专业博客的日志,
http://shzxqdj.blog.163.com/
我喜欢并身体力行着数据挖掘的营销应用,
上述的观点和思路欢迎大家拍砖,\指正,在数据挖掘实战应用中结识朋友,人生一大乐也

再次向楼主致意!
欢迎交流
研究兴趣:数据挖掘,决策分析

使用道具

10
hr1230 发表于 2009-10-13 14:08:32 |只看作者 |坛友微信交流群
顶一下,看看。
aaa

使用道具

您需要登录后才可以回帖 登录 | 我要注册

本版微信群
加好友,备注cda
拉您进交流群

京ICP备16021002-2号 京B2-20170662号 京公网安备 11010802022788号 论坛法律顾问:王进律师 知识产权保护声明   免责及隐私声明

GMT+8, 2024-5-6 14:45