那些美好的东西

昨天我们的微博帐号 @好东西传送门 出了点问题,忙了半夜试图解决问题。新浪的很多从未唔面的朋友,很热心地帮助看系统内部的数据,找到问题的根源,告诉我解决的途径。也有很多新浪外的朋友主动帮我联系从第一线工程师到高级主管,今天北京一上班都开始忙,很快就解决了问题。真的衷心感谢他们。

团队一起努力,好东西传送门做了三个月,机器学习日报做了一个月,总用户数其实并不算大,一万多人。这次事件从正面看,是发现确实有一批很喜欢我们的用户。我们有了困难,他们会很主动地来帮我们想办法,解决问题。这让我非常开心。大部分这些人是以前从来不认识的,因为共同的兴趣才在这里形成了一个社区。一个小的社区的内核形成了,我相信这是进一步扩张的基础。而且建设这个社区的经验,是可以复制到以后的社区去的。现在这个一万多人的社区,他们和其他社区有很多交集,从这些交集出发,很有希望形成新的社区内核,实现新的增长。这使我非常有信心。

read more

Boosting和香农信道编码定理

今天看了:周志华教授特邀报告PPT: BOOSTING 25年 http://vdisk.weibo.com/s/FcILTUAi9m111

有个想法(发在微博上):

我觉得Boosting和香农信道编码定理很像,都是讲一个很烂的(信道/分类器)如何通过冗余来得到精确的效果.读书少,想必有人已经做过比较和证明了.[有噪信道编码定理的证明是统计上最杰出的证明之一]

这里展开再说几句思路

从信息论的角度,一个分类器的训练过程本质上就是一个信道,它的噪声就是错误.把很多个有错误的分类器组合起来得到一个错误率任意低的分类器,这本质上就和反复使用一个有噪信道,得到一个误码率任意低的信道,可能是一个原理.

read more