专家vs专家推荐-专家11
机器学习专家与统计学家观点上有哪些不同
不太能同意那一大段英文翻译来的对统计的解释。怎么说呢,搞机器学习的在业界用的火,统计理论比较严谨,在学术界的人多一些。在业界混久了,难免“能吹”,在学术界混久了难免对严谨性有过高的苛求。
对于这句话:统计学家更关心模型的可解释性,而机器学习专家更关心模型的预测能力。
我想大部分统计学家不能同意吧。统计学家不是更关心模型的可解释性,统计学家更加注重构建和解释统计模型时的严谨性。
比如说,机器学习的说,我预测明天下雨的概率是0.8,统计学家就会说,我预测明天 95%的可能性下雨的概率落在0.7,0.9之间。我们给出置信区间,不是单为了给一个区间,而是要告诉看结论的人,我给你的这个预测,以多大的程度可信。怎样给出这个可信性呢,用到的就是probability (概率论)。概率论是统计的基础,但是比统计更接近数学,比统计更严谨。食物链顶端的数学为什么鄙视统计?因为统计里已经有很多不严谨的东西了,统计里也涉及了很多直觉。
预测(prediction)也是大部分时候我们构建一个统计模型的目的,借助已有的数据和事实,作为输入,输入到统计模型里,加入对相应的randomness 的刻画,输出对未来的预测。世界不是一个function,世界是一个function+实现这个function的时候发生的很多随机性。
齐鹏前辈答案里用这个梗来说统计学家否定机器学习模型其实是不对的,他觉得统计学家这么看待机器学习模型的结论: “如果你的markov模型输入都是历史股价,那如果第二天政府颁布了新法案禁止X行业发展,你在X行业历史利好基础上做出的判断就白瞎了;”
我觉得做统计的人不会这样否定你的模型的,我们做统计的会把“ 第二天政府颁布了新法案禁止X行业发展” 这个因素,考虑成randomness,用这个markov model predict的值,是以90%的可信度可信的,因为政府有10%的可能 颁布了新法案禁止X行业发展。
有一个小故事是我在系(IE系)里听一个统计学家 J. S. Marron (Prof of UNC-Chapel Hill )的seminar的时候,他们几个教授打趣道,:"those machine learning people are making predictions without probability! "当时大家哄堂大笑。自古文人相轻,估计学术界的鄙视链环环相扣,自古有之了吧。
没有深入了解过机器学习,我更希望在这个问题里看到机器学习的优势是什么,而不是因为搞统计理论的人都比较低调(在知乎上没怎么发现啊。。。),就用业界的吹牛技能来打压经典统计学。统计大牛们你们都在哪
又想起来一个梗,最近“大数据时代”这本书不是比较火嘛,翻了两眼,有一句话是“谷歌公司为了测试这些检索词条,共处理了4.5亿个不同的数学模型。在将得出的预测与2007 年、2008年美国疾病控制中心记录的实际流感病例对比后,他们的预测与官方数据的相关性高达97%”。被 4.5亿吓哭了。。。我猜是做了4.5亿次step wise的回归筛选解释变量?相关性高达97%,我猜是解释变量用了n多个,导致R方=97%?在业界混的人,果然都比较“能吹”。。。
刚看了问题评论里的一个链接,里面有句话啊,我来附一下吧:
人工智能机器学习统计学数据挖掘之间有什么区别?
Brendan O’Connor的博文 Statistics vs. Machine Learning, fight!,初稿是08年写的,或许和作者的机器学习背景有关,他在初稿中主要是贬低了统计学,思想和[1]有点类似,认为机器学习比统计学多了些Algorithm Modeling方面内容,比如SVM的Max-margin,决策树等,此外他认为机器学习更偏实际。但09年十月的时候他转而放弃自己原来的观点,认为统计才是real deal: Statistics, not machine learning, is the real deal, but unfortunately suffers from bad marketing.
补充:评价里有人对这句话:“统计学家更关心模型的可解释性,而机器学习专家更关心模型的预测能力。”存疑。
我第一次读这句话时是不能同意的,大致读了一下前面答主 Talking machine talk的内容。按照我现在对机器学习的理解(当然我了解不多),我觉得这句话应该这么说:
统计学家通过建立严谨的统计模型来做预测,所以它能给出预测的可信性,置信区间。但是因为世界的复杂性导致很多问题我们不能构建严谨的统计模型,也不知道一个复杂事物背后的模型或者function是什么,所以统计模型解决不了人脸识别的问题。
而机器学习有一部分内容,只关心模型的预测能力,换句话说,我不管我中间的黑匣子里的那个原理是什么,我用很多很多参数,通过人工暴力调参的方法,直到我得到一个可以很好的区分男女人脸的模型为止。然后我就可以拿着这个模型去用啦~~但是我不能在理论上告诉你这个模型有多可靠。
为什么机器学习可以做到这一点?我个人猜测:在暴力调参的过程中,加入了人脑的直觉和认知推理功能,而人脑的功能是比计算机强大很多的。在建立一个learning model的时候,加入了人的learning的过程。(对机器学习了解不多,此段仅为个人脑洞。。)
当然复杂的问题里也是有一些能建立function的部分的,这时候就可以把能建function的部分建出来,condition on这个已知的部分,对剩下的未知部分进行暴力调参?(I guess)
补充2 机器学习对于暴力调参我了解不多,但是评论里@小活泼说的我觉得应该客观概括了machine learning调参的过程,方便学习我搬运一下[我是大牛思想的搬运工~~~]
“grid search啊,grid search就是自动暴力调参,设置好要跑的参数让程序自动跑,跑一晚上第二天起来看哪个参数组合得到的结果最好。
可能对机器学习之所以有暴力调参的印象,多是由于deep learning的原因,这个现在很火,但绝大部分人没办法弄懂原理,什么ReLU,Dropout,BatchNormalization,估计没几个知道这些为什么会有用,看上去像拍脑袋想出来的,但反正是有用,想用好就只能凭感觉调参数了。
但是其他更成熟的模型,比如svm,ensemble,他们准确率高是有理论的,有统计的理论支撑他们为什么比linear classifier准确率更高,有最优化的理论使他们能得到近似解,有计算机的理论使他们能实际应用。”
声明:本站所有文章资源内容,如无特殊说明或标注,均为采集网络资源。如若本站内容侵犯了原著者的合法权益,可联系本站删除。