◇◇新语丝(www.xys.org)(xys4.dxiong.com)(www.xysforum.org)(xys2.dropin.org)◇◇   杰出青年、长江学者周志华教授问题之我见   作者:不必执着   开场白是献给正反双方的一副歪联,上联:人生在世,不可执着,但求心安 快乐顺自然;下联:面对挫折,愈要乐观,成大事者也需择手段;横批:江湖险 恶。   首先,正方(周)到底有没有问题?回答是肯定的,自己承认了三个问题: 中英两发(不同杂志)、一稿两发(都是英文杂志)、省略不太相关的引用;反 方指出两个问题:有意抄袭、窃据一作。我不是该领域的权威专家,但也在学术 界混日子多年,基本规则还是清楚的,周承认的前三个问题不至于影响他的前程, 但后面的一个也不能认,承认就等于game over(此文对周意义重大)。作为一 个不同领域的学人,该相信谁呢?我想申请作为一个863课题立项,但专家组不 同意,建议举行网球友谊赛来决出胜负。   我们先来看看事情的经过:   论文的中文版是2000年9月出版的,按照当时《计算机研究发展》的周期, 至少应在2000年3月投稿(当时快的话3个月后录用,再排队3个月出版也算快的 了)。照这样算,2000年3月提出GASEN投往《计算机研究发展》,2001年6月才 投IJCAI,时间上差了15个月。为什么研究时间的问题,这是有原因的,按周自 述这个成果的重要性是很高的,那么常识就是应该尽快在高水平国际会议上发表, 按照周投往IJCAI01的版本(文字润色并增加了2个对比数据集),以周的水平几 天内搞定足矣,那为什么等这么久呢?难道是偏要发单年才有的IJCAI?这个推 论不合常理,这期间AAAI、ICML、NIPS 都可以投啊,这些会议并不比IJCAI差, 按照周当时的资历,上述任意一个会都可将他提升一个档次,但偏偏就等了15个 月(这期间周发其它低档会议多篇)。此中原因,还需结合下面的分析才能明晰, 但天平已经向举报者倾斜了,正方(周)和反方(举报人)的比分变成了0:1。   再说抄袭是否有意的问题,周提出的理由是版面问题导致IJCAI01省略了并 不太相关的Perrone的文献,但一年前的中文版只有12篇参考文献,IJCAI01却有 20篇,常识告诉我们这个理由站不住脚。除非2000年周认为Perrone文献的相关 性大于1/12,一年后却又认为相关性小于 1/20,在文章内容基本相同的情况下, Perrone文献的相关性不应该变化,既然周提出的“版面原因”不成立,那么周 承认的“引用省略”就应该定性为 “有意省略引用”,为什么周有意省略这篇 文献呢,稍后自明,但正方和反方的比分变成了0:2。   再来看作者问题,这个问题可不简单,要有点综合分析能力(也可以叫集成 学习能力,呵呵)才能想通。吴是中文版的第一作者,当时硕一,周是中文版的 第二作者,当时博二,两人合作(周说协助指导吴)提出GASEN,吴为第一作者, 周为第二发往《计算机研究发展》,原因是什么?周在博客上含糊提到“博士生 不能决定”,意思是内幕重重,自己含冤。我觉得该理由太离奇,如果吴是周的 导师或是什么高官还说得过去,吴在硕一还没有毕业问题(就算要毕业,公开发 表一篇论文太容易了,也不用《计算机研究发展》),吴既无身份,又不急需, 为什么吴成了第一呢?“拍案而起”只发现了问题,没有分析原因,让大家浮想 联翩,这种风格不值得提倡。运用综合分析能力,我推断当时是周和吴共同完成 了GASEN,但周认为不太重要,就让吴作第一发给《计算机研究发展》了,这也 解释了上面提到的为什么该文搁置15个月的原因;当然又出现了一个问题,周在 15个月后为何发现该文重要了呢?合理的推导是周2001年6月急于成名(博三了, 有压力啊),把过去一篇不太重要的文章技术处理一下(不仅仅是翻译),其中 重要一项处理就是省略Perrone文献,这样才能使该文脱胎换骨(此即上面提到 周有意省略的原因)。对于这样的处理,吴当然自愧不如,周对该文的贡献有了 质的飞跃,于是顺理成章排名第一(并未窃据)。这种综合分析有点靠谱,正方 和反方的比分变成了0:3。   有人也许会问,省略一个引用就能有这么大的作用?当然不是那么简单,周 在IJCAI01的摘要及结论中均增加了一项贡献,英文版摘要、结论均提到:“本 文对...进行理论分析,并证明了many is better than all(后面简称MBTA); 然后提出一种基于遗传算法的GASEN”。中文版却只是说:“提出一种基于遗传 算法的选择性神经网络集成构造方法”(具体见后面附上的两篇摘要)。大家都 知道摘要、结论的重要性,在添加这样的语句后,再把Perrone文献省略,在同 一个比较实验中增加了2个数据集(这点无关紧要,但对于防查重有用,值得借 鉴),于是IJCAI01大功告成,周说是一文两版,并非事实,经此处理,文章品 相焕然一新,硕一的吴哪有如此水平,自然甘居第二。以上摘要、结论的对比使 得周的“有意”痕迹过于明显,因而继续处于劣势,比分变成0:4。   周在辩解中一直声称该文最大的贡献是证明了MBTA,但中文版摘要、结论均 无此意(当时还不算太过分),当然,中文的公式11-14及后面文字提到“这证 明了MBTA”,但还不敢明目张胆说是自己证明的,只是说公式11-14证明的,至 于11-14的归属,反正前面提到Perrone文献得出了公式10,就让审稿人去猜11 -14的姓氏吧。难道当时周没有意识到这个贡献的重要性,所以没写进摘要?我 们先不急于下结论,再看英文版17-20(对应中文版的 11-14),但英文版由 于没有提16(中文版10)的归属,使得14-20一气呵成,再无Perrone的牵挂, 终于到了前无古人的境界。那么各位肯定要问,英文版17-20(中文版的11-14) 到底属于谁啊?“一个知耻的人”用专业的数学变换将Perrone文献12页的唯一 公式变换成了英文版的 20,于是真像大白,学好了高数及线代的小本也能看懂 “知耻”的推导,但还是要感谢“知耻”的贡献,一般人不会这样去仔细研究。 既然周声称英文版17-20是自己的东西,但却出现在 Perrone文献的第12页,17 -20证明的MBTA肯定就另有归属了。既然英文版核心公式20(中文14)证实不属 于周,周的劣势迅速扩大,比分变成0:5(这个得分很关键,再得1分反方就可以 取胜了)。   分析到这里,读者都会明白前面两个困扰大家问题的原因了,周在IJCAI01 选择性不引Perrone文献是为了剽窃Perrone文献12页的公式及相关推导,而周在 IJCAI01取代吴成为一作是因为运用乾坤大挪移神功将中文版本脱胎换骨,因而 贡献由第二变成了第一。周的铁杆粉丝可能会说,周排第一,并不代表他具体实 施了乾坤大挪移,说不定是吴干的,吴为了文章好发所以才将“协导”周博挂在 第一。这个理由确实可能帮周的忙,反正吴在国外,管你国内怎么猜,默不作声 就OK,但是周在接到举报后自己写了回复文章(此文只有一个作者),明确声明 英文版公式17-20是他的贡献,这个理由又无效了。周并非无知,为什么还要争 这个MBTA呢,看看周的发家史就明白了,没有这个MBTA及在此基础上的GASEN, 周29岁能当杰青,32岁就成长江?所以兹事体大,只好硬拼了,“知耻”事先能 料到周必辩解,也无非如此而已。但周的反击使得局面失控,劣势加剧,比分变 成0:6。   本来按规则,周应该告负了,但这时周的超级铁杆粉丝(Wei Huang、shy等) 可能还有异议:我看不懂“知耻”的推导(纯外行也可以成为周的粉丝?看来头 顶光环很重要),但我认为周学风严谨,“知耻”是谁啊,我不认识,周在明处, “知耻”、“拍案”又不亮字号,因此我相信英文版公式17-20属于周。由于拥 有这种无知粉丝的难度较高,周劣势大为扭转,比分变成 6:6,比赛拖入抢七局。   到底谁会赢得比赛的胜利呢?“海外学人”站了出来,说:“我是XX国际期 刊编委,我有发言权,我认为反方获胜,比分应该是6:7”。周及粉丝都不同意: 你说你是国际期刊编委,我还可以说我是IJCAI01审稿专家兼IEEE Fellow,证据 呢?于是比赛只好继续进行,这时有人在旁边突然喊了一声:“周志华,南大叫 你回去讲课!”于是,一方运动员退场,比赛中止,没有人胜利,但有人只好回 去讲课。   我的讲解也被迫结束,虽然意犹未尽,但只要让各位度过了轻松一刻,我的 目的也就达到了。(“知耻”的行文不够生动,理论推导过多,读起来太累,周 的回复就更不用说了,不符合大众化的标准,这类投稿建议方先生今后可以退回 修改后再发,呵呵。)   [1]、“知耻”的推导请参见: http://xys4.dxiong.com/xys/ebooks/others/science/dajia10/zhouzhihua6.txt   [2]、《计算机研究发展》的中文版摘要:   “提出一种选择性神经网络集成构造方法, 在训练出个体神经网络之后, 使 用遗传算法选择部分网络来组成神经网络集成. 理论分析和实验结果表明, 与传 统的使用所有个体网络的方法相比, 该方法能够取得更好的效果.”   [3]、IJCAI01的英文版摘要:   "...In this paper, the relationship between the generalization ability of the neural network ensemble and the correlation of the individual neural networks is analyzed, which reveals that ensembling a selective subset of individual networks is superior to ensembling all the individual networks in some cases. Therefore an approach named GASEN is proposed, which trains several individual neural networks and then employs genetic algorithm to select an optimum subset of individual networks to constitute an ensemble. Experimental results..." (XYS20091025) ◇◇新语丝(www.xys.org)(xys4.dxiong.com)(www.xysforum.org)(xys2.dropin.org)◇◇