欢迎来到加倍考研网! 北京 上海 广州 深圳 天津
微信二维码
在线客服 40004-98986
推荐适合你的在职研究生专业及院校
五大顶尖企业研究院的116篇论文ICLR2018录用论文,七大趋势全解读势用

五大顶尖企业研究院的116篇论文ICLR2018录用论文,七大趋势全解读

雷锋网 AI 科技评论按:时间过得好快,Yann LeCun 仿佛刚刚在 Twitter 上感慨 ICLR 2018 的参会人数比 2017 年再次翻倍,而现在 ICLR 2018 已经于加拿大当地时间 5 月 3 日结束了。谷歌、DeepMind、Facebook、OpenAI、微软,这 5 个雷锋网 AI 科技评论重点关注的科技公司在今年 ICLR 中共贡献了 9 篇 oral(口头报告)论文和 107 篇 poster(海报展示)论文,在会议接受论文总数的 23 篇 oral、314 篇 poster 中已经占据了接近半壁江山。(谷歌、FB、微软重点在于其中的人工智能研究机构:谷歌大脑/谷歌 AI,Facebook 人工智能研究院,微软研究院)每家机构的数量方面,DeepMind 22 篇、谷歌 47 篇、Facebook 25 篇、OpenAI 7 篇、微软 15 篇。谷歌和 DeepMind 加起来就占了会议总接收论文的 20%,可以说是具有绝对的影响力了。我们翻阅了这 5 家机构的共 116 篇 ICLR 2018 接受论文,尝试梳理其中体现出的整个领域近期的研究内容和研究风格要点。需要说明的是,接受论文的结果是研究机构的论文作者们和会议审稿人们共同决定的;另一方面我们翻阅的论文也只是全部 ICLR 2018 接受论文的一部分,所以依据这些论文做出的评判不一定全面。我们发现:强化学习是今年一大研究热点不仅 DeepMind 依旧把强化学习作为重要研究对象,其它研究机构也在强化学习方面有许多研究,以及把强化学习作为工具,研究其它领域的问题。这 106 篇论文中有 20 篇左右是关于强化学习的。去年火热的 GANs 今年则热度有所下降。另一方面,与语言相关的论文也有 22 篇之多,涵盖的内容包括对语言演进的探索、弱监督/无监督翻译、阅读理解、问答等。必不可少的是对各种现有方法的深度探究并做出改进来自谷歌的 oral 论文《Boosting the Actor with Dual Critic》基于大家熟悉的 actor-critic 模式算法继续做出了改进;同样来自谷歌的《On the Convergence of Adam and Beyond》比较了 Adam 等常用优化算法,发现其中存在的问题并提出改进。这篇论文也获得了今年的最佳论文奖。《Sensitivity and Generalization in Neural Networks: An Empirical Study》 实际使用中人们发现大规模的、参数数目过多的网络实际上比小规模的网络有更好的泛化性,这似乎和我们对函数复杂度的经典认知相悖。这篇论文就探究了这个问题。来自 Facebook 的《Resial Connections Encourage Iterative Inference》分析+实证地研究了 ResNet 能够带来良好表现的原因,以及如何避免某些使用方式下会出现的过拟合问题。除了针对深度学习领域本身的已有问题做深入发掘之外,有越来越多论文以深度学习为工具,研究和验证人类学习、人类语言演进等方面的假说。DeepMind 这篇 oral 论文《Emergence of linguistic communication from referential games with symbolic and pixel input》,在像素构成的环境中训练强化学习智能体,用语言进化学的思路,以紧急状况沟通任务为环境,研究算法交流模式的进化和学习。同样来自 DeepMind 的《Compositional obverter communication learning from raw visual input》和《Emergent communication through negotiation》两篇也是类似地以深度学习方法研究人类语言的演进。Facebook 也以另一种思路探究了智能体学习语言的方式,在《Mastering the Dungeon: Grounded Language Learning by Mechanical Turker Descent》,他们提出了有趣的 Mechanical Turker Descent 的交互式学习方法,让众包参与实验的人类在竞争和合作中训练智能体处理文字探险游戏中的自然语言内容,交互式的学习也给智能体提供了动态变化的、符合它们当前水平的训练数据。另一篇来自 Facebook 的《Emergent Translation in Multi-Agent Communication》研究的是当下热门的无平行语料的翻译问题,他们的环境设置是让两个说不同语言的智能体玩挑图游戏,在游戏过程中学习翻译对方的语言。这种设置不仅和直接学习一个无监督的翻译器不同,而且还更像是在研究许多人都困惑已久的「两个语言不通的人如何沟通」、「最早学习某种外语的人是如何学习的」这种问题。逻辑、抽象概念学习也出现越来越多的成果DeepMind 《SCAN: Learning hierarchical compositional visual concepts》,雷锋网 AI 科技评论做过解读 DeepMind提出SCAN:仅需五对样本,学会新的视觉概念!。另一篇《Can neural networks understand logical entailment?》针对模型捕捉、运用逻辑表达式的能力提出了新的模型和数据集优化方法仍在讨论和快速进步即便在大数据和计算能力已经不是问题的今天,模型的优化方法也仍然是很多研究者关心的课题,谷歌尤其在这方面有多篇论文。降低分布式训练的带宽需求《Deep Gradient Compression: Recing the Communication Bandwidth for Distributed Training》、Hinton 的分布式在线蒸馏《Large Scale Distributed Neural Network Training Through Online Distillation》,雷锋网 AI 科技评论解读文章见这里)、学习率和批大小之间的关系如何《Don't Decay the Learning Rate, Increase the Batch Size》、新提出的优化算法《Neumann Optimizer: A Practical Optimization Algorithm for Deep Neural Networks》,以及前文提到过的《On the Convergence of Adam and Beyond》,都展现了谷歌的研究人员们对这类问题的重视。微软的 oral 论文《On the insufficiency of existing momentum schemes for Stochastic Optimization》探究了现有带动量的随机优化算法的问题,《Training GANs with Optimism》则为训练 Wasserstein GANs 带来了新的方法。实际上,百度也有一篇论文《Mixed Precision Training》讨论了在网络训练中使用半精度浮点数而不是一般的单精度浮点数,在缩减超大规模网络所需存储和计算需求的同时还保持足够的网络表现。尝试开拓深度学习的新领域来自微软的《Deep Complex Networks》为复数值的深度神经网络提供了更多基础组件,包括复数神经网络的复数批量标准化、复数权值初始化策略等。来自谷歌的《Graph Attention Networks》提出了运行在图结构的数据上的新的神经网络架构 GAT,它同时还具有掩蔽自我注意力层,以改善以往的基于图卷积及其近似的模型的缺点。另外值得一提的是,三篇 ICLR 2018 最佳论文中的《Spherical CNNs》也是开拓新领域的精彩的尝试。有不少研究安全的论文,但方向较为集中来自谷歌 Nicolas Papernot 等人的《Scalable Private Learning with PATE》继续研究了深度学习中的隐私问题,实际上 Nicolas Papernot 去年就作为第一作者以《Semi-supervised Knowledge Transfer for Deep Learning from Private Training Data》提出了 PATE 框架获得了 ICLR 2017 的最佳论文奖,雷锋网 AI 科技评论也翻译了获奖演讲,详见 ICLR-17最佳论文作者Nicolas Papernot现场演讲:如何用PATE框架有效保护隐私训练数据?除此之外的研究安全性的论文基本都是对抗性样本、超出原分布的样本的检测和防御。各位读者如果有认为出彩的、值得注意的论文,也欢迎在评论区留言补充讨论。今年 ICLR 2018 的会议投递情况和最佳论文介绍还可以参见这里和这里。明年 ICLR 2019 我们不见不散。谷歌论文列表:DeepMind 论文列表:Facebook 论文列表:OpenAI:微软论文检索:&content-type=publications&research_area=13556雷锋网 AI 科技评论报道

忘其肝胆

硕士论文与专业不符 台湾一高校研究所遭勒令停止招生

新华社台北12月3日电(记者查文晔 吴济海)台湾中州科技大学机械与自动化工程系工程技术硕士班,被举报部分学位论文与专业不符,出现命理、夜市、教师幽默感教学等题目。台当局教育主管部门邀学者专家检视,认定确有偏离专业领域,日前提报私立学校咨询会讨论后,决定该所从2020学年起停招。这是台高校研究所因论文偏题不符教学专业而被停招的首宗案例。台湾私校工会理事长尤荣辉日前揭露,中州科大机械与自动化工程系工程技术硕士班,2013年后,167位硕士的毕业论文有超过100篇的主题与工程技术无关,而是跟命理、夜市、消防或休闲有关。台教育主管部门官员杨玉惠对媒体表示,经学者专家检视中州科大相关论文后,发现有高比例不符合教学目标与核心能力,学校也坦承未能善尽论文品质管控之责,因此决定停止该所2020学年招生名额共40名。该案例给各校带来警惕,教授要负责起把关学生论文的责任。中州科大校方则强调不会推卸责任,校长黄思伦、副校长柴云清、机械与自动化工程系前主任因督导不周,记大过1次,该系现任主任调离现职。未来也会针对所有研究所的开题流程进行调整,重建新的教学系统,确保不再发生论文与所学专业偏离情形。有台湾学者认为,这次事件凸显教育主管部门教学质量监督机制废弛,根本没有发挥作用。东方设计大学代理校长赖鼎铭受访表示,台湾面临严重“少子化”问题,许多私校为了生存下去,抱持“有学生就好”的观念,学生论文想写什么,学校也尽量配合。台湾高教发展成这样,真是悲哀。尤荣辉对媒体表示,台湾私校工会抽查多间大学的博硕士论文,类似中州科大论文偏离系所教学目标,或毕业论文主题与指导教师专业领域不符的情形不算少数。这些高校为了生存不惜“放水”,恐让台湾高教面临“野鸡大学化”,学校沦为贩卖文凭的学店。台湾私校工会要求教育主管部门进一步针对各校进行普查,同时要求各校落实教学质量监督机制,并针对指导教授提出惩处办法,以遏止这种歪风。(完)

或使

日本著名研究所曝出论文造假丑闻

科技日报北京1月23日电(记者刘霞)日本京都大学官网22日发布公告称,该大学iPS细胞研究与应用中心(CiRA)研究人员去年3月发表的一篇论文存在造假行为,CiRA负责人、诺贝尔奖得主山中伸弥为此召开记者会致歉。 京都大学一个调查学术不端行为的委员会22日公布的调查结果认定,以CiRA特聘助理教授山水康平为第一作者的研究小组,在2017年3月14日发表于美国《干细胞报告》杂志网络版上的一篇论文中,多处捏造和篡改数据,论文中6个主要数据全部造假,而6个补充数据中有5个造假。 去年7月就有内部人员对上述论文提出疑义,CiRA随即向京都大学报告此事。京都大学科研诚信调查委员会决定于2017年8月24日进行全面调查,调查时间为2017年9月11日至2018年1月9日。目前,京都大学正在审议惩罚措施,山水康平本人已承认造假行为,并向期刊提出了撤回论文的要求。 CiRA是日本乃至世界iPS细胞研究的重要机构,这是研究所首次认定其研究人员有论文造假行为。据悉,日本多家媒体在23日的报道中指出,这一论文造假丑闻将损害日本iPS细胞研究这块“金字招牌”的信誉。 山中伸弥在22日召开的记者会上表示,他对此感到非常后悔,深刻反省,并对日本国民和支持其研究的人表示由衷道歉。但这一造假论文与现在正在开展或计划中的iPS细胞有关临床研究和治疗完全无关。他表示不排除会辞去CiRA负责人一职。

边防站

研究论文的万能框架 架构你的学术之路!

在学术的道路上,避不开研究型的学术论文。其实绝大部分的研究型学术论文,都遵循了这样一个框架“前言/背景介绍→文献回顾→研究方法/设计→研究结果→讨论”。所以我们在写学术研究论文的时候,就可以参考这个框架,再往这个框架中加入自己的论文内容。1.前言/背景介绍 本次研究的社会背景和具体相关的研究问题,整个研究的社会背景是什么,和这次研究对某一领域有什么实践和政策方面的意义。2.文献回顾 对比奔驰研究问题在相关领域有什么最新的研究发现,讨论研究对象的相关理论。提出这种研究问题遇到不同的研究方法可能会出现一些什么局限性。之前的研究有什么可取之处和不足之处。3.研究方法 研究的方法我们从为什么要展开此次研究,整个研究的过程和执行步骤那有哪些。如果定性研究只是研究所采取的混合研究方法(mixed methods)的一个组成部分,那么在文章中应尽早明确这一点。描述研究者的价值判断或者所持观点和立场,包括可能会影响到研究过程和结果的研究者的个人特征和背景。4.结果或发现 结果(或研究发现)部分应该呈现从分析中提炼出来的主题,换言之,这部分的内容不应只是简单的描述性内容,而应挖掘现象背后的东西,如:检验不同研究主题之间的关系,讨论某些现象之间的规律,而非简单地报告一系列主题。此外,应考虑是否能找到某些理论来帮助解释研究发现。指出研究发现之间的可能存在的复杂性,如果有可能,还应指出那些意想不到的研究发现。必要的话,可加入能更好地帮助读者理解研究的图表。但是,这些图标不应该重复文本可以表达清楚的内容,而应该用于帮助阐明那些靠文本很难完全描述的某个概念或某种关系。这些图表应该清楚易懂,作者应清楚地标注图例或注释来帮助读者理解图表。5.讨论 总结研究发现,并将这些发现跟研究问题联系起来。阐述研究发现如何有助于丰富社会工作相关实践知识,或对发展相关政策起到的影响或贡献作用。解释研究发现可以应用到社会工作相关实践、研究或者公共政策领域的方法。描述研究发现是如何丰富和贡献相关领域知识,即描述研究发现是否与以往相关文献或理论相符合,或者对现有的知识或理论进行了补充。

红草滩

深睿研究院8篇论文入选CVPR2019,图像识别与医学影像分析等技术实现了创新性突破

2019年6月16日-6月20日,全球计算机视觉与模式识别顶级会议(IEEE CVPR 2019)将在美国长滩拉开帷幕,本次会议论文收录工作已经结束。CVPR( Conference on Computer Vision and Pattern Recognition)作为行业最顶级的研究型会议,每年被收录的论文均来自计算机视觉领域顶级团队,代表着国际最前沿的科研技术,并指引着计算机视觉领域未来的研究方向。本届CVPR总共录取来自全球顶级学术论文1299篇,中国团队表现不俗。深睿 AI LAB 8篇论文入选CVPR 2019根据CVPR 2019官网显示,共提交了7144篇论文,其中5165篇为有效投递论文,比去年CVPR2018增加了56%,最终录取了1299篇。这些录取的最新科研成果,涵盖了计算机视觉领域各项前沿工作。2019年深睿医疗有8篇论文被本届CVPR大会接收,跻身中国论文发布数量排名前列的科技公司之一。深睿研究院CVPR2019录取论文在以下领域实现了创新性突破:医学影像微小病灶检测、细粒度图像分类、基于弱监督的显著性检测、图像与自然语言的综合理解,统计理论与深度学习相结合,采用“异常检测”新思路准确检测医学图像中富于变化的弱信号等前沿技术。这些全球领先的计算机视觉算法显示了深睿研究院在计算机视觉领域强大的核心人才储备、科研文化底蕴和技术创新能力。深睿研究院独创的算法已被应用于深睿医疗现有医疗AI产品中,同时对未来产品研发提供有力的技术支撑。对于自研算法在智慧医疗领域的应用,研究院本次被录取了一篇文章题目为《基于级联生成式与判别式学习的乳腺钼靶微钙化检测(Cascaded Generative and Discriminative Learning for Microcalcification Detection in Breast Mammograms)》的论文。论文针对乳腺钼钯中的微钙化(直径<=1cm)检出问题提出了结合生成式和判别式模型的新思路。钙化检测对于乳腺癌的早期诊断十分关键,根据美国放射学院第五版BI-RADS标准,可疑恶性钙化点通常直径在1cm以内。因此,研究微钙化的检出算法具有重要的临床意义。(论文中配图)钼靶影像的微钙化点通常不到10个像素,且形态多变,再加上正常组织背景变化较复杂且样本量极大,仅使用判别式分类器很难提取到有效的特征。本篇论文设计了一个生成式模型“异常分离网络”,与判别式模型相结合,在公开和私有数据集上均超越了当前钙化检出的先进水平。深睿医疗2018年发布的一款基于乳腺钼靶的人工智能辅助诊断系统的产品,主要应用于乳腺癌的早期筛查和诊断,这篇论文中的算法已经在深睿这款产品上得到应用。另外一篇入选论文《为自底向上细粒度图像分类服务的弱监督互补部件模型(Weakly Supervised Complementary Parts Models for Fine-Grained Image Classification from the Bottom Up)》提出了一种新颖且有效的框架—弱监督互补部件模型,来完成细粒度图像分类任务。(论文中配图)作者首先通过基于弱监督学习的物体检测和实例分割提取粗糙的物体实例,然后在尽可能保持多样性的原则下,对每个物体实例的最佳组成部件进行估计和搜索。实验表明本文提出的框架在一些常用的为细粒度图像分类服务的公开标准测试集上大幅度地超越了当前最先进的算法。俞益洲教授领衔的深睿研究院,在2018年的科研攻坚战取得了阶段性的成果。俞教授本人在2018年度入选2019 IEEE Fellow以及2018ACM杰出科学,获得两项殊荣,并带领团队完成了7款医疗AI 领域的人工智能产品的研发。俞教授坦言成立深睿研究院的初衷就是为了可以集中企业最核心的技术力量,探索前瞻性的技术,为医疗AI提供领先的技术,为医疗机构提供优质的临床痛点的解决方案,同时培养优秀的医疗AI科技人才。目前深睿医疗已经和10多家国内外顶级学术机构建立长期学术科研合作,20多家顶级三甲医院建立长期临床科研合作。医疗AI任重道远,需要更多的科研人员投身其中,要有克服困难的决心,也要有进行长期技术积累的耐心。深睿研究院CVPR2019收录论文列表如下:[1] “Cascaded Generative and Discriminative Learning for Microcalcification Detection in Breast Mammograms”Fandong Zhang, Ling Luo, Xinwei Sun, Zhen Zhou, Xiuli Li, Yizhou Wang, Yizhou Yu, IEEE Computer Society Conference on Computer Vision and Pattern Recognition (CVPR), Long Beach, June 16-20, 2019.[2] “Towards Accurate Task Accomplishment with Low-Cost Robotic Arms”Yiming Zuo, Weichao Qiu, Lingxi Xie, Fangwei Zhong, Yizhou Wang, Alan Yuille, IEEE Computer Society Conference on Computer Vision and Pattern Recognition (CVPR), Long Beach, June 16-20, 2019.[3] “Convolutional Spatial Fusion for Multi-Agent Trajectory Prediction”Tianyang Zhao, Yifei Xu, Mathew Monfort, Wongun Choi, Chris Baker, Yibiao Zhao, Yizhou Wang, Yingnian Wu, IEEE Computer Society Conference on Computer Vision and Pattern Recognition (CVPR), Long Beach, June 16-20, 2019.[4] “Completeness Modeling and Context Separation for Weakly Supervised Temporal Action Localization”Daochang Liu, Tingting Jiang, Yizhou Wang, IEEE Computer Society Conference on Computer Vision and Pattern Recognition (CVPR), Long Beach, June 16-20, 2019.[5] “Cross-Modal Relationship Inference for Grounding Referring Expressions ”Sibei Yang, Guanbin Li, Yizhou Yu, IEEE Conference on Computer Vision and Pattern Recognition (CVPR), 2019.[6] “Weakly Supervised Complementary Parts Models for Fine-Grained Image Classification from the Bottom Up ”Weifeng Ge, Xiangru Lin, Yizhou Yu, IEEE Conference on Computer Vision and Pattern Recognition (CVPR), 2019.[7] “Multi-Source Weak Supervision for Saliency Detection”Yu Zeng, Huchuan Lu, Lihe Zhang, Yun Zhuge, Mingyang Qian, Yizhou Yu, IEEE Conference on Computer Vision and Pattern Recognition (CVPR), 2019.[8] “Towards Rich Feature Discovery with Class Activation Maps Augmentation for Person Re-Identification”Wenjie Yang,Houjing Huang,Zhang Zhang,Xiaotang Chen,Kaiqi Huang,Shu Zhang. IEEE Conference on Computer Vision and Pattern Recognition (CVPR), 2019.来源:中国网

齿如齐贝

研究生毕业论文的研究对象可以是自己?

本文为募格学术原创,转载请在【后台】留言作者:我最厉害最近,台湾艺人徐若瑄又一次成为了热点,原因是她的硕士毕业论文的研究对象是自己。网友对此议论纷纷,有嘲亦有赞。有人认为研究对象是自己,绝对原创,这种行为so cool;也有人认为这或许又是娱乐圈另一起“翟天临”事件。我们先来看看徐若瑄的硕士论文里写了什么吧。徐若瑄的方向是公共关系及广告学系,毕业论文题目是《互联网时代艺人转型策略之初探性研究——以徐若瑄为例》。其摘要如下所示:她以自己出道近30年的自我观察为基础,实证如何转型追求进化,结合广告主的数位行销策略借力使力创造双赢,并专访两个合作品牌提出市场观察反馈。并得出来三点结论,第三点结论“流量不是绝对”,后面那个感叹号“!”仿佛有了自己的灵魂。这种以自己为研究对象的论文并非孤证,著名运动员们的毕业论文也常以自己为研究对象,如陈一冰体育运动心理学方向的毕业论文《陈一冰重大比赛心理准备与应用研究》,孙杨毕业论文也是研究自己,即《第三十一届奥运会男子200米自由泳冠军比赛技术分析》等。能不能以自己为研究对象,这是一个值得探讨的问题。基于事实可知,以自己为研究对象的多数是名人,普通人有这种想法的,只能在这种想法前加“如果”二字。如果论文的研究对象是自己的话,会研究些什么呢?说实话,有时候我也非常想撬开自己的小脑袋瓜看看里面装了些啥,或许是水,或许是垃圾,或许是你(有nei土味儿了)。如果研究对象是自己,研究范围或许涉及学术、感情、日常生活诸方面。一、研究对象:自己;研究范围:学术;关键词:拖延症、“摸鱼”、焦虑、兴趣、论文数量、拒稿心态、deadline、垃圾、毕业等。学术与拖延症:《莫比乌斯带——拖延症的不可治愈性及其影响下的论文写作》;学术与“摸鱼”:《论文写作中“摸鱼”的108种方式》《“划水”的正确姿势及其在组会中的适用性研究》学术与焦虑:《影响的焦虑——同学太牛我太菜的体验》《当代女研究生面对学术的应激反应及创伤修复过程》学术与兴趣:《兴趣的起源——除论文外的其他事情为何有趣的原因探析》《解构与祛魅——当代研究生学术热情的幻灭》学术与论文数量:《当代研究生脱发程度与学术成果之间线性与非线性关系》学术与拒稿心态:《从人格结构理论分析论文被拒稿的心路历程》学术与deadline:《ddl前研究生能量爆发曲线分析》学术与垃圾:《论学术垃圾的成份、成因及处理——以自己为例》学术与毕业:《当代博士生延毕原因分析———以本人为例》二、研究对象:自己;研究范围:感情;关键词:心理、追星、社会、实验。感情与心理:《单身至今的心理活动与恋爱行动》《母胎solo对女性性格的影响》《性取向的不可逆性》《生气的边缘——女朋友她为何那样》《多学科角度分析“我为何找不到对象”》感情与追星:《关于嗑CP的多种性格养成与实践操作》《CP文化的心理学分析》《论我能娶到刘亦菲的可行性研究》感情与社会:《当代社会的结构性单身成因探析》感情与数学:《基于贝叶斯推理的理工科单身狗情感状况预测》《基于深度强化学习的大龄男博士脱单决策研究》《实验室师妹与不同师兄间的好感度建模分析》三、研究对象:自己;研究范围:日常生活;关键词:睡眠、体质、饮食、减肥、仙女、自信、落差、运气日常生活与睡眠:《人类睡眠时长的极限——以xxx寒假的睡眠时长统计为例》日常生活与体质:《多领域“干啥啥不行体质研究》日常生活与饮食:《乳糖不耐与奶茶饥渴的矛盾与自洽》《人类食量的潜能——以本人吃火锅为例》日常生活与减肥:《“美腿”与A4腰时代下肥胖女孩生存策略研究——以本人郝肚腩为例》日常生活与仙女:《自我认知障碍的实证研究——以自我时常声称自己“仙女”为例》日常生活与自信:《从玻璃心到厚脸皮——论本人自信心的建构、修炼与膨胀》日常生活与落差:《从“天选之子”到“平庸凡人”——论本人自我认知的逐步清晰》《褒义词与贬义词的转化——如何从“别人家的孩子”到“别人家的孩子”》日常生活与运气:《好运与霉运的分布——论本人在本命年的遭遇》自己到底能不能成为正经的论文研究对象?若要回答这个问题,可能得从论文的本质说起(导师严肃脸·jpg)。论文中的研究对象一般应该在相关领域具有研究价值,那么研究自己能否对该领域做出贡献呢?换言之,真要以自己为研究对象的话,可能还得想想自己“配不配”被研究。也因此,现在能看到的许多以自己为研究对象的例子都是各行各业的名人,在他们所研究的范畴内,他们本人都具有比较强的代表性,对自己的研究所获得的成果,很可能对他人而言具有重要的参考价值。毕竟,论文不同于日常聊天,其严谨的表述方式与较大的信息量更容易被业内的专业人士接受。而对于普通人来说,仅研究自己则没有那么强的代表性:游泳运动员里比孙杨技术高的没几个人,艺人里比徐若瑄名气大的没几个人,而和你一样有拖延症、难以毕业、没有对象、爱喝奶茶的博士生们则有千千万万。如果真的要做类似的研究,恐怕需要很多的样本调查然后分析得出结论,只写自己的话大概开题就会被毙掉了。而如果论文的研究对象是自己的话,那由自己来研究也是再合适不过的——自己研究自己,数据极易获取,方法合适与否由自己拿捏,并且能够在此领域保证绝对权威,毕竟Nobody knows me better than myself.至于有人担心研究自己可能造成的学术不端问题,如果论文公开发表,自然会受到同行与大众的关注,只要研究者本人能回应得起质疑就无需职责。而且除了研究对象以外,论文的研究方法也是很重要的部分,就算是研究自己,只要方法原创并且恰当,得到的结论有意义,便不失为一项有意义的研究。

漂疽疥臃

上研究生的人都在干什么,写论文搞研究吗?

简单的说说硕士研究的三年研究生生活,可能并不是很多大学生所想的那样,每天都忙碌中写论文、学术研究中,不可能三年都是这样过来的。由于我是人文社科类的硕士研究生,所以详细说说我们这些文科的研究生在读研期间主要是干什么?或许你会发现和你上大学也没有什么不同的地方。先从研一开始,说说研究生的那些事儿。研一其实非常的简单,几乎是和大学一个模式,任务只有一个那就是安静的、按时的上课,包括专业课、选修课、公共课,这是研一主要做的事情。当然,在这个过程中需要顺利的通过各科的考试,有的科目是闭卷考试,有的是开卷考试,有的是写一篇课程论文,考试的方式多众多样,难度也各有高低。但是其中的英语课是所有研一学生最为关注的一门课程,也是最容易挂科的。同时,研一的我们还会积极的参加研究生学生会组织的一些活动,有的学生还需要参加英语四六级考试,不要认为硕士研究生英语四六级都通过了,因为有大量的硕士研究生读研期间都忙于四六级考试。此外,在研一这一段时间也是和自己的硕士导师相互磨合的一个时间段,不管是学生对导师还是导师对学生都需要注意一个时期,互相的了解,时不时的探讨一下学术动态,聊聊未来的规划等。不过值得一提的是,一般高校的硕士研究生课程在每年的5月中旬左右就基本结课了,也就是你研究生的全部理论课程已经结束。所以在暑假之前,我们有一个硕士学位论文选题的事情需要开始积极地准备了。再来看看研二的我们,在忙些什么?研二最重要的事情是:硕士学位论文定题目、开题报考、中期考核。研二一开学也就是一般在每年的10月份左右开始硕士研究生的开题报告的相关工作,这是硕士学位论文撰写非常重要的一个环节,毕竟只有开题顺利,才能够更大概率的写出一篇比较好的硕士学位论文。因此在正式的开题之前需要和自己的硕士导师详细的演剧自己开题报告的国内外研究现状、论文提纲、参考文献等等,只有前期将这些内容准备的足够充分才能够保障我们顺利的开题,并且帮助我们顺利的完成硕士学位论文的撰写。只是开题之前,你需要看很多篇文献、需要看很多本专著、需要经过无数次的修改,需要经受硕士导师无数次的责怪,只有经历了这些你才能够写出一个令所有硕士导师满意的开题报告,所以说真心不容易。之后更多的研究生会选择不断的给自己“充电”,有的开始每天按时定点的到图书馆看自己硕士学位论文需要的各种资料,有的开始积极的向一些核心期刊投稿,开始不断的接收被拒绝的消息,然后不断的修改,不断的被杂志社的编辑压迫,直到顺利的发表。因为高校对于硕士研究生的毕业要求有一条是必须在读研期间发表一篇或者是几篇的专业领域内的小论文,所以写论文几乎是所有的硕士研究生都需要做的一件事情,还有的研究生为了能够获得比较高额的奖学金会发大量的小论文,这些都是在研二期间完成的事情。到了研二下学期,最重要的事情就是中期考核,因为这距离研究生开题报告已经有一段的时间里了,所以为了检查研究生硕士学位论文的写作情况会举行中期考核,主要是查看每一个硕士研究的学位论文的进度,一般要求要完成整篇论文的三分之一,同时在写作中出现的各种问题也要在这次考核中集中解答,例如是否还能继续写下去?是否需要重新开题?以及硕士导师就学生论文提出一些有建设性的建议。还有一件事情就是读博,研二的我们必须对此有一个明确大答案。如果决定了要读博,那么便需要做很多相关的准备。例如选择目标院校、联系博士导师、是统考还是申请-考核?以及目标院校对于申请-考核的学生有哪些方面的要求?然后根据这些要求争取在研二这一年全部做到,这样就能够保证自己在研三的时候获得博导的名额,在硕士毕业的时候顺利的拿到博士研究生录取通知书。除此之外,这一年也是很多学生频繁参加各种学术论坛的时间,会有大量的研究生参加985高校举办的专业领域内的学术论坛,这样也是为了能够丰富自己的学术经历,在以后的读博和就业中也有一定的积极作用。于是很多研究生在不断的创造,因为只有你写的论文被主办方认可了,才能够获得参加学术论坛的机会。最后再看看研三的我们,或许你就真的知道研究生的不容易了。研三最重要的事情就是硕士学位论文的找工作、预答辩、外审、正式答辩、毕业季。这时候各高校的春招陆续开始,所以即将毕业的硕士研究生必然是穿梭在各大校园招聘会现场,不断的寻找适合自己的工作,每天频繁的参加用人单位的宣讲会,不断的投递自己的建立,争取拿到一家比较好的公司的offer。同时在寒假一结束,也就是3月或者是4月份的时候,各个学院的硕士研究生学位论文的答辩工作开始有条不紊的进行了,这是很多硕士研究生比较重视的一件事情。因为如果预答辩没有通过学院答辩委员会的审核,那么导师也就不能给你的硕士学位论文签字,随之便是不能送外审,最终的结果就是延期毕业。因此研三的研究生非诚重视预答辩,尽管会在预答辩的过程中被很多的硕士导师怼的怀疑人生,可能自己都已经开始质疑自己写的硕士学位论文难道真的非常的垃圾吗?然而,这其实是硕士导师为了你能够顺利的通过外审而及其认真的给你修改建议,这是非常难得的,所以预答辩结束之后,还需要根据各位导师给的建议不断的修改。预答辩结束后,在5月份的时候研究生院会把所有毕业生的硕士学位论文送往外审,从此研究生便开始了提心吊胆的生活,期待自己的硕士学位论文能够顺利的通过外审,一般20天左右的时候会出外审的结果,如果你外审的成绩不到60分,那么结果就是延期毕业;如果你的硕士学位论文的外审成绩是60分到70分之间,那么还会进行二次送往外审。因此所有的研究生都希望自己的最中成绩只要70分以上就可以。接下来便是各学院组织的正式答辩了,一般来说这个环节还是比较轻松的,因为很多高校只要学生的外审通过率,那么在正式答辩时一般都不会为难学生的,当然也会给一些修改的建议,这样也是为了能够进一步的完善学位论文,所以研究生对这一环节并不是很在意,甚至还有一部分研究生对于导师提出的修改意见已经是左耳朵进,右耳朵出的状态。不过有一个令很多即将毕业的硕士研究生比较开心的事情,那就是向学院报销自己读研期间的一些费用,当然额度有限,一般来说是2000元到3000元,这笔费用也就是我们常说的硕士研究生培养经费,可以报销读研期间的路费、资料费、发表论文的费用,所以对于在读的研究生来说不要忘记将自己的火车票扔掉,因为是可以报销的哦。在最后的最后就是毕业季了,一般来说都是那些老套路,拍毕业照、毕业晚会、谢师宴等等,然后在7月份左右正式的走向工作岗位或者是开启博士研究生的生活。以上便是研究生三年期间比较重要的事情,并不是将时间都放在了学术上,但是看完这些相信很多人都会发现,研二和研三才是硕士研究生最重要的时间段,所以一定要把握好,保证自己顺利的毕业。

不忠者

ICLR 2020丨微软亚洲研究院精选论文解读

本文为大家介绍的是微软亚洲研究院入选 ICLR 2020的 4 篇精选论文,研究主题分别为BERT 在机器翻译中的应用,有理论保障的对抗样本防御模型 MACER,一种新的基于自我博弈的文本生成对抗网络(GAN)训练算法,以及可广泛应用于视觉-语言任务的预训练通用特征表示 VL-BERT。作者 | 微软亚院编辑 | 丛 末1、BERT 在神经机器翻译中的应用论文链接:https://arxiv.org/pdf/2002.06823.pdfBERT 在自然语言理解任务如文本分类、阅读理解上取得了巨大的成功,然而在机器翻译等文本生成任务上的应用仍缺乏足够的探索。本篇论文研究了如何有效地将 BERT 应用到神经机器翻译(NMT)中。在文本分类任务中, 通常有两种方法利用预训练模型;一种是利用 BERT 初始化下游任务的模型权重;另一种是让预训练模型给下游任务模型提供 contextual embedding。在初步尝试中,我们发现:(1)用 BERT 初始化 NMT 模型不能给机器翻译带来显著提升;(2)利用 BERT 提供 contextual embedding,在机器翻译上这个任务上更加有效。结果见表1。因此,本文将探索重点放在第二类方法上。表1:利用预训练的不同方式在 IWSTL14 英德翻译的结果我们提出的模型如下:先将源语言句子输入 BERT 模型进行编码,得到输入序列的 BERT 模型特征。Transformer 的编码器和译码器的每一层都引入一个额外的注意力机制,让编码器和译码器去主动地去选取 BERT 模型特征中有用的信息。这种处理方式有效地解决了BERT 模型和机器翻译模型的分词方式不同产生的矛盾,也让 BERT 提取的特征更加有效、完全地融合到机器翻译这个任务中去。另外,我们还提出了 drop-net 的 trick,随机丢弃 Transformer 中原有的注意力分支或引入的额外注意力分支,能够有效地提高模型的泛化能力,提升机器翻译的效果。模型框架如图1所示。图1:模型框架我们将该方法作用到有监督翻译(句子级别翻译和文档翻译)、半监督机器翻译、无监督机器翻译中,都得到了显著的结果提升,在多个任务上都取得了 SOTA 的结果,说明了该方法的有效性。我们的算法在 WMT14 英德翻译和英法翻译的结果见表2。表2:我们的算法在 WMT14 英德和英法翻译任务的结果。2、有理论保障的对抗样本防御模型论文链接:https://openreview.net/pdf?id=rJx1Na4Fwr深度神经网络在很多领域都取得了成功,但它有一个致命的弱点:无法承受对抗样本的攻击。例如给定一张狗的图片,一个神经网络可以准确地将其分类为狗。但攻击者可以给这张图片加一个人类难以察觉的特殊噪音,使得神经网络把它分类成猫、树、车及任何其它物体。这样加过噪音的图片被称为对抗样本。这个弱点使得神经网络难以被应用到注重安全的领域,例如自动驾驶中。如何防御对抗样本一直是研究人员关心的话题。目前最主流的防御方法是对抗训练,即在训练的每一次迭代中,先在线地生成对抗样本,再在这些对抗样本上训练神经网络。这样训练出来的网络可以一定程度地防御对抗样本的攻击。然而,对抗训练有两个缺点:一,这种防御是没有理论保证的,即我们不知道攻击者能否设计更聪明的攻击方法绕开这种防御;二,因为生成对抗样本很慢,所以对抗训练非常慢。本文设计了一种算法去训练有理论保证的防御模型,能保证任何攻击都无法绕开这种防御。我们首先引入防御半径的概念。一个图片的可防御半径指的是半径内任何一个图片的预测都不发生变化。对于光滑模型,我们可以用高效的计算方法得到该半径的一个下界。而我们提出的算法 MACER(MAximize the Certified Radius)正是通过最大化该半径来学习有理论保证的防御模型。图2:样本的可防御半径MACER 算法的思路非常简单,设计却相当具有挑战性。第一个挑战是设计优化目标函数。我们通过数学推导将目标函数定为模型准确度和模型防御成功率的结合,并证明它是防御效果的上界;第二,我们提出了梯度软随机光滑化,这个变体可以提供可导的损失函数;第三,我们通过巧妙地设计损失函数,避免梯度爆炸问题。实验表明 MACER 可以取得比目前主流可验证防御算法更大的平均验证半径,且训练速度有数倍的提升。表3:实验结果对比MACER 算法主要带给我们两个启发:一是 MACER 完全与攻击无关,这不仅使得 MACER 运行相当快,而且可以让模型有效地防御任何攻击;二是 MACER 是一个有理论保证的防御算法,能够让实际应用有可靠的保障。3、基于 Self-Play 的文本生成对抗网络(GAN)模型论文链接:https://openreview.net/pdf?id=B1l8L6EtDS本文介绍了一种新的基于自我博弈的文本生成对抗网络(GAN)训练算法。目前大多数文本生成任务,如机器翻译、文本摘要、对话系统等,都采用序列到序列模型(seq2seq),并通过最大似然估计(MLE)进行模型训练。这种训练方式存在 exposure bias 的问题,使得模型在训练和推断时单词的分布不一致,因此会影响生成质量。此前的工作如 SeqGAN 等,尝试通过 GAN 来训练文本生成模型。GAN 在文本生成中的应用主要受限于两个问题,一是奖励稀疏(reward sparsity),即训练中判别器往往远强于生成器,因此生成器在训练过程中得到的奖励信号通常很低;二是模式崩溃(mode collapse),即生成的文本通常较为单一。本文中我们借鉴深度强化学习中常用的自我博弈(self-play)机制,提出了自对抗学习(SAL)范式来改进文本 GAN 的训练。图3:自对抗学习中基于比较的判别器训练示意图与传统的 GAN 中判别器对于给定样本输出其真/假标签不同,自对抗学习中采用一种新的基于比较的判别器,其输入是两个样本 A 和 B,输出标签包含三类,分别对应样本 A 的质量比 B 优(>),差(<),和无法区分(~=)。基于比较的判别器的训练过程如图3所示。和 SeqGAN、LeakGAN 等文本 GAN 模型一样,SAL 通过 REINFORCE 算法对生成器进行训练。在训练期间,SAL 通过比较判别器,将生成器当前生成的样本与其自身先前生成的样本进行比较。当发现其当前生成的样本比其先前的样本质量更高时,赋予生成器正奖励,反之则奖励为负,两者质量无法区分时奖励为0。奖励的具体计算公式如图4公式所示。图4:自对抗学习奖励计算公式在文本生成 GAN 的早期训练阶段,当生成的样本质量远远低于真实样本的质量时,SAL 的自我对抗机制使得生成器不需要成功欺骗判别器、使其误将生成样本判断为真实样本才能获得奖励。相反的,SAL 会在生成器成功生成比之前更好的样本时就赋予其奖励信号,这种自我对抗的奖励机制使生成器更易于接收非稀疏奖励,从而有效缓解了奖励稀疏性问题。而在训练后期,SAL 可以防止开始高频出现的模式继续获得较高的奖励,因为包含这些经常出现的模式的句子经常会和相似的句子进行比较,因此在自我对抗中取胜也将变得越来越困难,从而防止生成器塌缩到有限的模式中。自对抗学习的示意和算法流程分别如图5和表4所示:图5 : 自对抗学习(SAL)与传统 GAN 的对比表4:自对抗学习(SAL)算法流程本文在模拟数据集(Synthetic Dataset)和真实数据集(COCO & EMNLP WMT17)上进行了文本生成的实验,并与之前的文本生成 GAN 模型的效果进行比较,结果如表5、6所示。可以看到,本文提出的 SAL 算法在反应生成文本的质量和多样性的众多指标上比此前的文本 GAN 模型都有显著的提升。在未来,我们希望探索 SAL 训练机制在图像生成 GAN 领域的应用。表5:不同文本 GAN 模型在模拟数据集上的表现比较表6:不同文本 GAN 模型在真实数据集上的表现比较4、VL-BERT:通用的视觉-语言预训练模型论文地址:https://openreview.net/forum?id=SygXPaEYvH适用于下游任务的通用特征表示预训练是深度网络成功的标志之一。在计算机视觉领域,深度网络在 ImageNet 数据集进行图像分类的预训练过程,被发现可广泛提高多种图像识别任务的效果。在自然语言处理领域中,Transformer 模型在大规模语料库中使用语言模型进行预训练的过程,也被证明可广泛提高多种自然语言处理任务的效果。但对于计算机视觉和自然语言处理领域交叉的任务,例如图像标题生成、视觉问答、视觉常识推理等,缺少这种预训练的通用多模态特征表示。一般来说,此前的视觉-语言模型分别使用计算机视觉或自然语言处理领域中的预训练模型进行初始化,但如果目标任务数据量不足,模型容易过拟合从而损失性能。并且对于不同的视觉-语言任务,其网络架构一般是经过特殊设计的,因此很难通过视觉-语言联合预训练的过程帮助下游任务。本文提出了一种可广泛应用于视觉-语言任务的预训练通用特征表示,称为 Visual-Linguistic BERT,简称 VL-BERT,其架构如下图所示:图6:VL-BERT 模型架构VL-BERT 的主干网络使用 Transformer Attention 模块,并将视觉与语言嵌入特征作为输入,其中输入的每个元素是来自句中单词或图像中的感兴趣区域(Region of Interests,简称 RoIs)。在模型训练的过程中,每个元素均可以根据其内容、位置、类别等信息自适应地聚合来自所有其他元素的信息。在堆叠多层 Transformer Attention 模块后,其特征表示即具有更为丰富的聚合、对齐视觉和语言线索的能力。为了更好地建模通用的视觉-语言表示,本文在大规模视觉-语言语料库中对 VL-BERT进行了预训练。采用的预训练数据集为图像标题生成数据集 Conceptual Captions,其中包含了大约330万个图像-标题对。在预训练结束后,使用微调来进行下游任务的训练。实验证明此预训练过程可以显著提高下游的视觉-语言任务的效果,包括视觉常识推理(Visual Commonsense Reasoning)、视觉问答(Visual Question Answering)与引用表达式理解(Referring Expression Comprehension)。ICLR 2020 系列论文解读0、ICLR 2020 会议动态报道疫情严重,ICLR2020 将举办虚拟会议,非洲首次 AI 国际顶会就此泡汤疫情影响,ICLR 突然改为线上模式,2020年将成为顶会变革之年吗?火爆的图机器学习,ICLR 2020上有哪些研究趋势?1、直播回放 | 华为诺亚方舟ICLR满分论文:基于强化学习的因果发现2、论文解读01. 一种镜像生成式机器翻译模型:MGNMT02. 额外高斯先验目标,缓解负多样性无知03. 引入额外门控运算,LSTM稍做修改,性能便堪比Transformer-XL04. 并行蒙卡树搜索,性能无损,线性加速,勇闯「消消乐」1000关!05. 元强化学习迎来一盆冷水:不比元Q学习好多少06. 用群卷积建立深度、等变的胶囊网络07. | 谷歌推出分布式强化学习框架SEED,性能“完爆”IMPALA,可扩展数千台机器,还很便宜08. Reformer ,一种高效的Transformer09. 基于值函数的规划和强化学习的控制架构(视频直播)10. 北大图灵班满分论文:基于计算约束下有用信息的信息论11. 使用GAN进行高保真语音合成12. 模型参数这么多,泛化能力为什么还能这么强?13. 公平与精确同样重要!CMU提出学习公平表征方法,实现算法公平14. 组合泛化能力太差?用深度学习融合组合求解器试试15. 加速NAS,仅用0.1秒完成搜索16. 华盛顿大学:图像分类中对可实现攻击的防御(视频解读)17. 超越传统,基于图神经网络的归纳矩阵补全18. 受启诺奖研究,利用格网细胞学习多尺度表达(视频解读)19. 神经正切,5行代码打造无限宽的神经网络模型20. 华为诺亚:巧妙思想,NAS与「对抗」结合,速率提高11倍21. 抛开卷积,多头自注意力能够表达任何卷积操作22. NAS 太难了,搜索结果堪比随机采样!华为给出 6 条建议23. 清华提 NExT 框架,用「神经元执行树」学习可解释性24. 谷歌最新研究:用“复合散度”量化模型合成泛化能力25. 完胜 BERT,谷歌最佳 NLP 预训练模型开源,单卡训练仅需 4 天26. FSNet:利用卷积核概要进行深度卷积神经网络的压缩27. "同步平均教学"框架为无监督学习提供更鲁棒的伪标签28. 快速神经网络自适应技术28. 引入随机扰动,提高智能体泛化能力30. Deformable Kernels,创意满满的可变形卷积核AI 科技评论系列直播 1、ACL 2020 - 复旦大学系列解读直播主题:不同粒度的抽取式文本摘要系统主讲人:王丹青、钟鸣直播时间:4月 25 日,(周一晚) 20:00整。直播主题:结合词典的中文命名实体识别【ACL 2020 - 复旦大学系列解读之(二)】主讲人:马若恬, 李孝男直播时间:4月 26 日,(周一晚) 20:00整。直播主题:ACL 2020 | 基于对抗样本的依存句法模型鲁棒性分析【ACL 2020 - 复旦大学系列解读之(三)】主讲人:曾捷航直播时间:4月 27 日,(周一晚) 20:00整。2、ICLR 2020 系列直播直播主题:ICLR 2020丨Action Semantics Network: Considering the Effects of Actions in Multiagent Systems主讲人:王维埙回放链接:http://mooc.yanxishe.com/open/course/793直播主题:ICLR 2020丨通过负采样从专家数据中学习自我纠正的策略和价值函数主讲人:罗雨屏回放链接:http://mooc.yanxishe.com/open/course/802(回放时间:4月25日上午10点)直播主题:ICLR 2020丨分段线性激活函数塑造了神经网络损失曲面主讲人:何凤翔直播时间:4月24日 (周五晚) 20:00整如何加入?

美味男

我院应用数学研究所赵环宇在国际顶级期刊TKDE上发表论文

我院应用数学研究所赵环宇高级工程师担任第一作者的论文《An Optimal Online Semi-connected PLA Algorithm with Maximum Error Bound》(具有最大误差界的最优在线半连续PLA算法)被数据挖掘与知识工程领域国际顶级杂志《IEEE Transactions on Knowledge and Data Engineering(TKDE)》录用并在线发表。TKDE是中国计算机学会推荐的A类期刊,主要刊登计算机科学、人工智能、电子工程、计算机工程等领域在知识与数据工程方向的学术论文。中国计算机学会(CCF)制定发布的《中国计算机学会推荐国际学术会议和期刊目录》是计算机学界认可的标准,其推荐目录分为A、B、C三档。A类指国际上极少数的顶级刊物和会议,鼓励我国学者去突破。针对1991年Guibas等人提出的“如何在时域空间下寻找最优化的PLA解”问题,文章首次引入了“半连接”的概念实现了在最大误差条件下最优化的PLA算法,解决了该问题。该算法比发表于ICDE 2015(CCF A类,计算机数据库/数据挖掘/内容检索领域顶级会议)的基于转换空间的算法具有更高的时间和空间执行效率,是目前针对该问题的唯一的基于时域空间的最优算法,得到了TKDE主编和审稿人的高度评价。该论文由河北省科学院应用数学研究所、浙大宁波理工学院、墨尔本大学、昆士兰大学、皇家墨尔本理工大学、麦考瑞大学等学者共同完成。我院赵环宇高级工程师以第一作者在国际著名期刊上发表文章,并且通信作者单位亦为我院,是我院近年来人才引进、培养工作的重要成果之一,也是我院开展国际合作工作的重要成果之一。附论文链接:https://ieeexplore.ieee.org/document/9039677(院科技处、数学所供稿)【来源:河北省科学院】声明:转载此文是出于传递更多信息之目的。若有来源标注错误或侵犯了您的合法权益,请作者持权属证明与本网联系,我们将及时更正、删除,谢谢。 邮箱地址:newmedia@xxcb.cn

天府

《星礼研究所》:在游戏中写论文,你是认真的吗?

#2019百度APP游戏年度盛典#来星礼研究所已经27天11小时24分56秒,我的屁股离开了温热的自行车坐垫,前面是研究所的大门。我叫阿红,我是个光头,也是个研究生。导师发了短信让我来找他聊论文的事,心跳有点快,红细胞没带够氧气就冲到了脑瓜儿里,我昏了过去。迷迷糊糊中,我看到了一个人,她长得和我一模一样,但是她有一头秀发。她在自己头上薅了一下,几根头发被薅了下来。她的手就像穿越了空间的阻碍,排在了我的天灵盖上,“送你了。”醒来后,面前是导师的办公室门,头上,是五根靓丽的毛。——米甸沃·夏卞德《硕之初,头本秃》就像我上面的这段脑补一样,《星礼研究所/Sighchology Research Lab》的开头就是这么简单、直接又荒诞。作者在游戏的名字上玩了个谐音梗,将“心理”谐音改成“星礼”,“Psychology”谐音变成“Sighchology”,让人一读游戏名就有种心领神会的感觉。而作为一名心理学在读硕士的阿红,也就是游戏的主角,在拿到来自“另一个时间的自己”给予的5根头发之后,就开始了自己硕士论文的写作工作。就像作者在简介中说的那样,这款游戏可以让心理学爱好者深入理解、掌握整个心理学论文的生产流程,过一把科研瘾。随着游戏的推进,形象可怖的导师会给主角阿红安排各种工作,这些工作就是生产论文中必经的过程:寻找文献由于图书室空调漏水,使得一些书架上的书会被打湿,查文献的速度就会变慢,必须找到没有漏水的书架才能更快找到文献。查看文献阅读室就更惨了,连盏灯都没有,只能靠那一束阳光来看文献,做一个真正的“追光者”。寻找被测试者参与自己的实验每个人的时间都是宝贵的,即使他们在闲逛。而招揽被试的诀窍就是用最热(chuan)情(xiao)的语速来打消被试的疑惑,而在实验时更是需要全程注意回答被试提出的问题。分析结果数据分析室的电脑配置实在是低,打开电脑要半天,用软件分析数据也是个漫长的过程,等待的时间甚至都能够修几个软件bug了。写论文在写论文的过程中会不断消耗之前找到的文献、查阅过的文献、得到的结果以及一根根宝贵的头发,当然这日以继夜的工作还需要和睡眠对抗。在游戏流程设计上,作者按照现实中的情况将查阅文献和实验实践分为了两条线。查阅文献是始终贯穿着论文生产过程的,玩家们既可以一次性查完看完所有相关文献,也可以边做实验边查阅文献来补充自己的知识。另一条线的寻找被试—做实验—分析数据则有着比较严格的流程,必须在有被试的情况下才能展开实验,只有在有实验数据的情况下才能分析数据,如何安排自己的工作需要玩家来自己取舍,再加上游戏中每间房间都有着各自的开放时间,玩家就更加需要合理分配“时间”这个资源,究竟是一整晚都待在聊天室里招被试,还是按照顺序招一些被试就做一部分实验。在游戏中,玩家可以操控阿红用25根“头发”来换取一杯咖啡,咖啡的效果能使时间变慢,可以查更多文献、读更多文献、做更多实验,很有些现实中狂灌咖啡熬夜猛肝然后脱发一片的感觉(然而24小时不休息地熬夜却不会脱发,让人有点感到失落)。除了能换取咖啡之外,“头发”在游戏中还有不少其他的用处,是“时间”之外的另一种资源。比如说每天20点至次日4点,黑市就会开放,在黑市中可以使用头发向那些进行论文买卖的“朋友”购买一条龙服务,从最初的寻找文献和查看文献,到显著结果乃至成品论文,这些“朋友”都有办法搞到。总结起来整个游戏的玩家就是合理利用“时间”和“头发”这两个资源,来更快更好更有效率地产出论文并发表,整个流程非常简单和直观,以经营模拟游戏的标准来看待《星礼研究所/Sighchology Research Lab》的话,它的内容太少,系统不够多,资源过于简单,并不是一款成熟的可以商业化的游戏,因此作者也在游戏开头就提供了免费下载的途径。“这款游戏是不是有点无聊?”我也有这样的感觉,或者说这就是作者想要传达的。从游戏中埋下的种种细节,我们不难猜测作者正是一位心理学硕士,而《星礼研究所/Sighchology Research Lab》就是他/她数年硕士生涯的感受——枯燥,乏味,折磨。在很多不了解心理学的人看来,心理学就是读心术,就是弗洛伊德的俄狄浦斯情结,但事实上随着医学的发展,近现代的心理学已经被归入到了科学的范畴中,讲究严格的变量控制,真实的实验记录和严谨的数据分析,所以生产一篇合格的心理学论文和生产其他理科论文并没有本质上的区别。从庞大的文献库中寻找自己需要的文献,就像沙中淘金一般,容不得半点马虎。当然,人总是会犯错,有时候找到的文献里难免会掺杂一些无关的甚至是垃圾的文献,而花费精力看完一篇垃圾文献的感觉,除了“喂屎”之外我甚至找不到第二个形容词。另外,相比于传统理科,由于心理学的研究对象是人,因此想要做实验更加麻烦——在化学研究生动动手指从厂家那边订购化学试剂的时候,心理学研究生还需要发招募公告、去大街广场上像传销一样招揽被试,如果被试酬劳较高有七八十乃至上百元,那么招揽被试会比较轻松,但如果酬劳只是二三十甚至想要找到免费的被试,那就要做好被连续拒绝的准备。招到了被试,然后准备试题,进行实验,统计、筛选、分析数据,最终成稿,其中艰辛相信也不用我多说了。写完一篇论文并不意味着就大功告成,如果杂志社拒绝发表,那么等于前面所做的一切都化为了无用功,而想要顺利毕业拿到硕士学位,并不只是发表一篇论文就够的。即使辛辛苦苦凭本事写完论文并发表了,看到身边那些进行论文买卖的“好朋友”,心中难免还会生出一些不忿。除了学术上的压力,还有来自生活的重担。游戏里作者加入了一个房间可以打电话,这是阿红从外界获得信息的唯一渠道——父亲病重危在旦夕,她没法回去看看父亲;男友分手,她面对着“异地恋”这道天堑,说不出挽回的话;听到读硕士的好友因为抑郁症而自杀的惨状,阿红甚至无力去感伤。“学术之路充满了艰辛,你还决定考研吗?”这应该是作者对每一个想要考研,正在读研的人发出的问题。根据中国研究生招生信息网发布的报告显示,在近几年全国硕士研究生的报考人数一直在以比较快的速度增长,在2019年增长到了290万人。而在这些人当中,有多少人真正做好准备去面对学术路上的枯燥与乏味,有信心从科研中汲取力量和快乐?古希腊著名哲学家芝诺有一句经典名言:“人的知识就好比一个圆圈,圆圈里面是已知的,圆圈外面是未知的。你知道得越多,圆圈也就越大,你不知道的也就越多。”如果说从小学、中学到大学的过程是我们将自己的知识范围向这个圆圈靠近的过程,那么硕士就是尝试着去触碰圆圈,博士则是开始拓展这个圆圈的边界,与自然对话,向宇宙探求。这其中有人会失败,有人会成功,而无一例外的,探求真理的过程是孤独而枯燥的。枯燥但又有趣,这是阿红最让我动容的笑因为游戏名字的原因,购买《星礼研究所/Sighchology Research Lab》的大部分玩家要么就是想要考研,要么就是正在读研,不然就是已经硕士毕业,对于作者所描绘的心理学研究生的生活是最有发言权的:作者在游戏中夸大了学术的艰辛。导师并不都是像游戏中那样不管不顾,面目可憎,相反大多数的导师总是乐于回答自己学生的问题,给予生活和学术上的指点;学术造假固然存在,但大多数的研究生都是在勤勤恳恳地查论文、做实验、做分析;生活的确忙碌,但并不会将人压榨得像游戏中这样007,不论是踏青旅游,还是呼朋引伴,亦或者宅在宿舍打游戏,都是非常正常的休闲放松。就像游戏中的幻境,是“另一个阿红”做出来给自己找乐子的,这款游戏或许也是作者在读研过程中一点点拼凑起来,作为自己生活的乐趣所在吧,不论生活的毒打有多么痛,打着打着也就习惯了。