首先,研究生阶段的教育以培养高端应用型人才和创新型人才为主,所以硕士研究生的毕业论文一定要体现出一定的创新性,不论是从理论知识体系的角度来看,还是从行业应用的角度来看,都要有自己的创新点。计算机硕士研究生在进行毕业论文答辩创新本身有很多维度,在当前产业结构升级的大背景下,研究生的创新点也非常多,以计算机专业为例,在当前传统企业纷纷实现网络化、智能化的大背景下,选择一个创新点还是相对比较容易的。计算机专业对于新技术是比较敏感的,新的技术领域也会有更多的创新机会,比如当前在大数据、人工智能领域就有比较多的创新点。大数据和人工智能领域的诸多创新往往都离不开算法的设计、实现、训练、验证等等,所以当前很多硕士研究生都从算法入手来寻找自己的创新点。由于当前算法设计的创新空间相对比较大,所以基于算法设计来实现创新也会相对容易一些。硕士研究生的毕业论文不能脱离自己的课题,脱离课题进行创新也会遇到各种困难,比如实验场景支持等等。要想基于课题来实现自己的创新,要跟自己的导师进行深入的沟通,让导师给自己一个方向,然后基于这个方向来准备相关的资料(文章)等等。硕士研究生在进行创新的过程中,一定要注重与导师和同课题组的同学(师哥、师姐)进行沟通,沟通的过程也是学习的过程。最后,对于“专硕”来说,可以跟自己的行业导师沟通,争取在行业领域寻找创新点,这个过程也会积累一定的行业知识,为未来的就业奠定基础。我从事互联网行业多年,目前也在带计算机专业的研究生,主要的研究方向集中在大数据和人工智能领域,我会陆续写一些关于互联网技术方面的文章,感兴趣的朋友可以关注我,相信一定会有所收获。如果有互联网、大数据、人工智能等方面的问题,或者是考研方面的问题,都可以在评论区留言,或者私信我!
机器之心报道机器之心编辑部2017 年,斯坦福大学的一篇《深度学习通过面部识别判断性取向超越人类》曾引发了极大争议,其通过 AI 算法仅需「看面相」即可判断一个人是不是同性恋的方法让众人感到一丝恐慌,也让技术研究者们对于算法的偏见提出了很多意见。最近,来自南非比勒陀利亚大学的 John Leuner 在自己的硕士论文中再次尝试了 AI 识别同性恋的方法,并获得了「更为严谨」的结果。这项技术可以无视人类的服装、化妆、拍摄角度等变量,实现男性 63%、女性 72% 的准确率。准确率比人类更好,并不再受到受试者种族、国籍的干扰。现在,乔装打扮也不会让你变得更 Gay 了。各种人工智能对于面相的判断,不知道图灵若是知道了会怎么想……(图片来源 The Verge)与此前斯坦福大学的研究不同,在社交网络上人们对于这篇新论文的看法也有不少正面评价:其在判断性取向的时候考虑了人的年龄和种族等其他因素,从而排除了 AI 算法陷入错误认知的问题。当然,对此研究本身,依然存在着质疑。如 Reddit 用户 PK_thundr 浏览完文章表示,「他们的『5 像素』分类器对高度模糊面部的判断几乎和实际面部一样好。所以,我并不信服从面部图像预测性取向的结论。」「机器学习预测性取向」一直是一个较为「敏感」的话题。这篇论文的发布,如同 2017 年斯坦福的研究一样也在 reddit 上引起了大家广泛的讨论,感兴趣的同学可查看 Reddit 原帖:帖子链接:https://www.reddit.com/r/MachineLearning/comments/b0nkeo/r_a_replication_study_machine_learning_models_are/其实不只是根据面部图像预测性取向的研究,近年来随着人工智能的火热,我们看到了越来越多「匪夷所思」的应用,包括「AI 相面」、「基于面部图像的犯罪概率判断」等等……这引发了人们对隐私、研究可靠性的担忧。对此话题感兴趣的读者,可在此文章下留言探讨。接下来,机器之心编译介绍了这篇研究论文的相关技术内容,重点介绍了数据集与机器学习模型。原理这篇论文遵从前人的思路,试图探索深度学习观察人类面部判断性取向的原理。Ag¨uera y Arcas 等人对此前斯坦福大学 Yilun Wang&Michal Kosinski 的研究做出了回应,并为他们的发现提供了其它解释。他们没有将根据人脸图像检测性取向的能力与生物起源联系起来,而是认为机器学习模型是根据隐藏在显眼处的表面特征来学习的。通过检查 W&K 发布的同性恋和异性恋男女的合成图像,他们注意到以下明显差异:合成的异性恋女性面部有眼影,而女同性恋没有。男同女同脸部图像上都有眼镜,而异性恋者没有。直男面部毛发又多又黑。合成的男同脸部比直男更鲜亮,而直女的脸部比女同的更鲜亮。发型和化妆对于判断一个人是否为同性恋虽然有一定的参考价值,但显然背离了「看面相识别性取向」的原则。这种识别方法明显存在一定偏见。模型为了实现更准确的判断,研究人员改进了斯坦福大学研究中的计算机视觉模型,以获得更好的效果。他们提出的模型包含 VGG 和 Face++两种方法。其中的一部分使用 VGGFace(一个预训练的深度学习神经网络)来提取人脸照片的特征,然后根据这些特征训练了一个 logistic 回归模型来预测目标图像的性取向。VGGFace 是用来从人脸图像中识别个体的卷积神经网络。它是在一百万张照片上训练的,这些照片来自 2622 个不同的名人。虽然该神经网络最初是为了从人脸图像中识别个体而开发的,但去掉网络的最后一层之后,我们就能获得模型用于其最终分类层的面部特征。这些由深度神经网络产生的特征对人类来说通常是不可解释的,但可被视为一张人脸的数字表示。该模型获得的输入信息是由 Face++模型提取的面部器官裁剪图像,这些图像会按比例缩小为 224×224 像素分辨率。模型的另一部分就是 Face++(可作为服务访问的外部模型)来为每张人脸图像提取面部「标记」。然后利用根据这些标记得出的距离来训练 logistic 回归模型,以预测目标图像的性取向。这些标记是描述面部特征位置的面部度量。Face++为每张脸返回固定数量的标记点。标记分为几部分:图 1.2:面部形态机器模型用作输入的面部形态「标记」。上图展示了算法对于人类面部器官的识别点,每个器官由十个或更多点组成,整个面部总共有 83 个点。随后,算法会为每个面部器官建立逻辑回归分类器,并为整个面部的所有器官创建分类。为了预测每个图像中个体的性取向,研究人员使用主成分作为自变量和性取向标记作为因变量训练逻辑回归模型。下面重点来了,为了减少深度学习的「偏见」,此研究试图探索肤色是否会影响计算机对性取向的判断。为了实现目标,模型会将输入的面部图像简化为 5×5 像素的模糊图,进而进行逻辑回归预测,男性和女性分别建模。数据集为训练模型,研究人员总共检索了 50 万张照片并建立了数据集。表 4.1 列出了从每个数据源中下载的每种照片的数量。表 4.1:从每个数据源检索到的每种照片的数量本文贡献本文对社会心理学领域的贡献:本文复制了先前利用机器学习技术根据人脸照片预测性取向的研究。研究表明,根据约会档案中的照片进行训练的深度学习分类器和面部形态分类器都能够预测性取向,而且做得比人类更好。该模型利用了不受种族或国家限制的新数据集。本文引入了新的机器学习模型,用于测试能否对高度模糊的人脸照片进行性取向预测。结果表明,根据高度模糊的人脸照片中面部和背景的主要颜色信息能够预测性取向。研究表明,故意改变一个人的外表以迎合同性恋和异性恋的刻板印象并不会改变由机器学习模型生成的性取向标签。研究表明,头部姿态与性取向无关。研究表明,不管添加或是去除面部毛发和眼镜,模型都能预测性取向。论文:A Replication Study: Machine Learning Models Are Capable of Predicting Sexual Orientation From Facial Images论文链接:https://arxiv.org/abs/1902.10739摘要:最近的研究使用机器学习方法根据人脸照片来预测一个人的性取向。为了验证这个结果,我们重新做了其中的两个模型:一个基于深度神经网络(DNN),一个是基于面部形态学(FM)。使用来自约会网站的 20910 张照片组成的全新数据集,确认了两个模型预测性取向的能力:DNN 预测男性性取向的准确率为 68%,女性 77%;FM 预测男性性取向的准确率为 62%,女性 72%。为了调查亮度、主要颜色这样的面部特征是否会影响性取向的预测,我们创造了一种基于高度模糊面部图像的全新模型。这个模型也能够预测性取向(男性 63% 准确率,女性 72%)。当主体刻意化妆、戴眼镜、面部毛发遮挡、变换面部拍照角度时,测试发现模型对这些变化保持稳定。这说明,拍照角度与性取向判断无关。同时证明,约会简照包含丰富的性取向信息,这引起的一个问题是:预测结果有多少是由面部形态决定的,有多少是由衣饰、展示角度和生活方式决定的。新技术的出现让我们能够以这种方式检测性取向,而这可能对同性恋者的隐私与安全产生极大影响。本文为机器之心报道,转载请联系本公众号获得授权。
一、三点建议:1、论文需有原创性2、论文排版格式正确3、论文正文部分不得少于20页二、网络设计论文(一)所拟题目一般如下格式(XX代表某企业具体名称):1、XX企业网络的设计与部署2、中小企业局域网的设计3、校园网的设计与组建4、XX企业内部网接入方案的设计5、XX医院内部网络的规划6、应用网络连接技术及管理功能研究7、XX学校网络服务器的规划与实现8、防火墙技术在XX企业网络中的应用9、网络安全与数字签名技术的分析与研究10、网络安全问题及对策11、基于linux的进程通信机制的研究与设计12、校园无线网络组网方案的设计13、IPv6与IPv4的互连技术探讨与实现14、物联网组网与互联技术研究15、校园网综合布线系统的设计16、基于snort的网络入侵检测机制的研究17、基于 IPSec 的 VPN安全的研究18、在网络中数据的安全与加密技术的研究19、局域网内ARP攻击与防护技术的研究20、网络安全技术的研究(二)大纲(结构)大致如下(只写一级大纲,二、三级大纲自己根据需要自拟),仅做参考:一、绪论(或称为引言,本章主要起点题作用)二、相关技术及理论(本章主要是介绍在设计及部署过程中会用到的技术及理论,这样避免在各章节在配置前都要做个介绍)三、需求分析(本章主要是针对你的选题,不管是企业局域网还是校园网,对其功能需求、性能需求等等需求进行分析,了解需求才能有目的的去设计部署)四、总体设计(本章是根据需求分析去做,如网络拓扑结构设计、IP规划等等)五、设备选型(本章针对所设计方案,准备选用哪些设备组网,介绍设备的性能特点)六、系统配置(本章是对设计方案中的交换机、路由器、防火墙等网络设备进行具体配置)七、服务器配置(本章是针对方案中有哪些服务,怎么部署的,写出详细配置步骤,图文结合)八、总结(本章是对所设计的方案进行归纳,如性能如何、有何特点等等,千万别写成心得体会)致谢(此处应该不用多说,对你的论文有过帮助的人都可以去写)参考文献(应该按照格式去整理,并且为近5年的文献)[序号] 作者.论著名称[M].出版社,出版时间如:[1] 张三.计算机网络技术[M].清华大学出版社,2016.8这个“.”建议复制
选自Stanford机器之心编译参与:路雪、蒋思源韩松,2017 年斯坦福大学电子工程系博士毕业,师从 NVIDIA 首席科学家 Bill Dally 教授。他的研究也广泛涉足深度学习和计算机体系结构,他提出的 Deep Compression 模型压缩技术曾获得 ICLR'16 最佳论文,ESE 稀疏神经网络推理引擎获得 FPGA'17 最佳论文,对业界影响深远。他的研究成果在 NVIDIA、Google、Facebook 得到广泛应用,博士期间创立了深鉴科技,2018 年将任职 MIT 助理教授。本文对韩松博士的毕业论文做了介绍。第一章 引言本文,我们协同设计了适合深度学习的算法和硬件,使之运行更快更节能。我们提出的技术能够使深度学习的工作负载更加高效、紧密,然后我们设计了适合优化 DNN 工作负载的硬件架构。图 1.1 展示了本文的设计方法。打破算法和硬件栈之间的界限创造了更大的设计空间(design space),研究者获得之前从未有过的自由度,这使得深度学习能够实现更好的优化。在算法方面,我们研究如何简化和压缩 DNN 模型,以减少计算量和内存的占用。在 ImageNet 上,我们在不损失预测准确度的情况下将 DNN 压缩了 49 倍 [25,26]。我们还发现模型压缩算法能够去除冗余、防止过拟合,可以作为合适的正则化方法 [27]。在硬件方面,压缩后的模型具备提速和降低能耗的极大潜力,因为它所需的算力和内存减少。然而,模型压缩算法使计算模式变的非常规,很难并行化。因此,我们为压缩后的模型设计了一种定制化硬件,设计模型压缩的数据结构和控制流程。该硬件加速器的能量效率比 GPU 高出 3400 倍,比之前的加速器高出一个数量级 [28]。该架构的原型在 FPGA 上,且已用于加速语音识别系统 [29]。图 1.1:本文重点是协同设计适合深度学习的算法和硬件。本文回答了两个问题:哪些方法可以使深度学习算法更加高效,哪些硬件架构最适合这类算法。图 1.2:论文主题贡献:正则化训练、模型压缩、加速推理第二章 背景本章首先介绍什么是深度学习以及它的工作原理和应用;然后介绍我们实验所用的神经网络架构、数据集、在数据集上训练架构的框架。之后,我们介绍压缩、正则化和加速方面之前的研究。第三章 神经网络剪枝现代深度神经网络使用非常多的参数以提供足够强大的模型,因此这种方法在计算量和内存上都需要足够的资源。此外,传统的神经网络需要在训练前确定与修正架构,因此训练过程并不会提升架构的性能。而若直接选择复杂的架构,那么过多的参数又会产生过拟合问题。因此,选择适当容量(capacity)的模型和消除冗余对计算效率和准确度的提升至关重要。为了解决这些问题,我们发展了一种剪枝方法(pruning method)来移除冗余并保证神经网络连接的有效性,这种方法能降低计算量和内存的要求以提升推断的效果。这种方法关键的挑战是如何在模型剪枝后还保留原来的预测准确度。我们的剪枝方法移除了冗余连接,并仅通过重要的连接学习(下图 3.1)。在该图的案例中,共有三层神经网络,剪枝前第 i 层和 i+1 层间的连接为密集型连接,剪枝后第 i 层和 i+1 层间的连接为稀疏连接。当所有与神经元相联结的突触都被移除掉,那么该神经元也将移除。神经网络剪枝将密集型神经网络转化为稀疏型神经网络,并且在减少了参数与计算量的情况下完全保留预测准确度。剪枝不仅提高了推断速度,同时还降低了运行大型网络所需要的计算资源与能源,因此它可以在电池受限的移动设备上使用。剪枝同样有利于将深度神经网络储存并传递到移动应用中。图 3.1:对深度神经网络的神经元与突触进行剪枝。在初始化训练阶段后,我们通过移除权重低于阈值的连接而实现 DNN 模型的剪枝,这种剪枝将密集层转化为稀疏层。第一阶段需要学习神经网络的拓扑结构,并关注重要的连接而移除不重要的连接。然后我们重新训练稀疏网络,以便剩余的连接能补偿移除的连接。剪枝和再训练的阶段可以重复迭代地进行以减少神经网络复杂度。实际上,这种训练过程除了可以学习神经网络的权重外,还可以学习神经元间的连通性。这与人类大脑的发育过程 [109] [110] 十分相似,因为生命前几个月所形成的多余突触会被「剪枝」掉,神经元会移除不重要的连接而保留功能上重要的连接。在 ImageNet 数据集中,剪枝方法可以将 AlexNet 的参数数量减少 9 倍(6100 万降低为 670 万)而没有准确度上的损失。VGG-16 同样有类似的现象,参数总量可以减少 13 倍左右(1.38 亿降低为 1.03 千万)而完全没有准确度损失。我们还试验了更多高效的全卷积神经网络:GoogleNet(Inception-V1)、SqueezeNet 和 ResNet-50,它们不具有或有很少的全连接层。在这些实验中,我们发现在准确度降低前它们有相似的剪枝率,即 70% 左右的全卷积神经网络参数可以被剪枝。GoogleNet 从 700 万参数降低到 200 万参数,SqueezeNet 从 120 万参数降低到 38 万参数,而 ResNet-50 从 2550 万参数降低到 747 万参数,这些网络在 ImageNet Top-1 和 Top-5 准确度上都完全没有损失。在本章节以下部分中,我们提供了如何剪枝神经网络和再训练模型以保留预测准确度的方法。我们还展示了剪枝后模型在商业化硬件上运行所产生的速度与能源效率提升。第四章 量化训练与深度压缩本章节介绍了用于压缩深度神经网络的量化训练(trained quantization)技术,但它与前一章所介绍的剪枝技术相结合时,我们就能构建「深度压缩」[26],即一种深度神经网络的模型压缩流程。深度压缩(Deep Compression)由剪枝、量化训练和可变长度编码(variable-length coding)组成,它可以压缩深度神经网络数个量级而没有什么预测准确度损失。这种大型压缩能使机器学习在移动设备上运行。「深度压缩」是一种三阶段流程(图 4.1),它可以在保留原始准确度的情况下减小深度神经网络的模型大小。首先我们可以移除冗余连接而剪枝网络,这一过程只需要保留提供最多信息的连接(如第三章所述)。下一步需要量化权重,并令多个连接共享相同的权重。因此只有 codebook(有效权重)和索引需要储存,且每个参数只需要较少的位就能表示。最后,我们可以应用可变长度编码(Huffman 编码)来利用有效权重的不均匀分布,并在没有训练准确度损失情况下使用可变长度编码表征权重。我们最重要的观点是,剪枝与量化训练可以在不相互影响的情况下压缩神经网络,因此可以产生惊人的高压缩率。深度压缩令存储需求变得很小(兆字节空间),所有的权重都可以在芯片上缓存而不需要芯片外的 DRAM。而动态随机储存器不仅慢同时能耗还比较高,因此深度压缩可以令模型更加高效。深度压缩是第六章高效推断机(efficient inference engine/EIE)的基础,其通过压缩模型实现了显著的速度和能源效率提升。图 4.1:深度压缩的流程:剪枝、量化学习和可变长度编码表 4.1:深度压缩在没有准确度损失的情况下节约了 17 倍到 49 倍的参数存储需求。表 4.9:使用不同更新方法比较均匀量化和非均匀量化的结果。-c 仅更新形心(centroid),-c+1 同时更新形心和标签。ResNet-50 的基线准确度分别为 76.15% 和 92.87%。所有结果都经过再训练。图 4.10:非均匀量化的表现要好于均匀量化。图 4.10 和表 4.9 比较了均匀量化和非均匀量化的性能。非均匀量化指的是相邻编码的距离不为常数。量化训练是非均匀量化的一种形式,因为其不同编码的距离并不相同。对于非均匀量化(本研究),基线 ResNet-50 所有层级的参数可以压缩为 4 比特而没有准确度损失。然而对于均匀量化,基线 ResNet 所有层的参数只能压缩到 8 比特而没有准确度损失(压缩到 4 比特会产生 1.6% 的 Top-1 准确度损失)。非均匀量化可以很好的捕捉到权重的不均匀分布,而均匀量化不能很好的实现这一点。第五章 DSD: Dense-Sparse-Dense Training现代高性能硬件的出现使得训练复杂、模型容量巨大的 DNN 模型变得更加简单。复杂模型的优势是它们对数据的表达能力很强并且能捕捉到特征和输出之间的高度非线性的关系。而复杂模型的劣势在于,比起训练数据中所需要的模式,它们更容易捕捉到噪声。这些噪声并不会在测试数据中生成,从而使模型产生过拟合和高方差。然而,只是简单的减少模型容量会导致另一个极端:欠拟合和高偏差(机器学习系统不能准确捕捉特征和输出之间的关系)。所以,偏差和方差很难同时优化。为了解决这个问题,我们提出了 dense-sparse-dense(DSD)训练流,以正则化深度神经网络,防止过拟合并达到更高的准确度。传统的训练方法通常是同时训练所有的参数,而 DSD 训练法会周期性的修剪和恢复神经连接,训练过程中的有效连接数量是动态变化的。剪枝连接允许在低维空间中进行优化,捕捉到鲁棒性特征;恢复连接允许增大模型的容量。传统的训练方法只在训练开始的时候将所有权重初始化一次,而 DSD 训练法允许连接在周期性剪枝和恢复的中有多于一次的机会执行初始化。DSD 的一个优势是最后的神经网络仍然拥有和初始的密集模型同样的架构和维度,因此 DSD 训练不会产生任何额外的推断成本。使用 DSD 模型进行推断不需要指定专门的硬件或专门的深度学习框架。实验证明 DSD 可以可以提高多种 CNN、RNN 和 LSTM 在图像分类、生成文字描述和语音识别任务的性能。在 ImageNet 上,DSD 提升了 GoogleNet Top-1 准确度 1.1%、VGG-16 Top-1 准确度 4.3%、ResNet-18 Top-1 准确度 1.2%、ResNet-50 Top-1 准确度 1.1%。在 WSJ』93 数据集上,DSD 把 DeepSpeech 和 DeepSpeech2 的错误率(WER)分别降低了 2.0% 和 1.1%。在 Flickr-8K 数据集上,DSD 将 NeuralTalk BLEU 的分数提高了 1.7 以上。图 5:DSD(Dense-Sparse-Dense)训练法中迭代进行剪枝和恢复权重的过程。第六章 EIE:用于稀疏神经网络的高效推断机6.1 介绍第三、四、五章介绍了三种提高深度学习效率的方法,本章着重介绍高效实现这些方法的硬件,「高效推断机」(EIE)[28]。该机器可以在稀疏的压缩模型上直接执行推断,节省内存带宽,实现大幅加速和能耗节约。通过剪枝和量化训练 [25] [26] 实现的深度压缩能够大幅降低模型大小和读取深度神经网络参数的内存带宽。但是,在硬件中利用压缩的 DNN 模型是一项具有挑战性的任务。尽管压缩减少了运算的总数,但是它引起的计算不规则性对高效加速带来阻碍。例如,剪枝导致的权重稀疏使并行变的困难,也使优秀的密集型线性代数库无法正常实现。此外,稀疏性激活值依赖于上一层的计算输出,这只有在算法实施时才能知道。为了解决这些问题,实现在稀疏的压缩 DNN 模型上高效地运行,我们开发了一种专门的硬件加速器 EIE,它通过共享权重执行自定义的稀疏矩阵乘法,从而减少内存占用,并在执行推断时实现大幅加速和能耗节约。EIE 是处理单元(processing element/PE)的一种可扩展数组(scalable array)。它通过在处理单元上交织(interleave)矩阵的行来分配稀疏矩阵并实现并行计算。每个处理单元在 SRAM 中存储一个网络分区,与子网络共同执行计算。EIE 利用了静态权重稀疏性、动态激活向量稀疏性、相对索引(relative indexing)、共享权重和极窄权重(4 比特/extremely narrow weights)。图 6.1:压缩 DNN 模型在 EIE 上运行。EIE 架构如图 6.1 所示。EIE 以压缩稀疏列(compressed sparse column,CSC)格式存储权重不为零的稀疏权重矩阵 W。EIE 只在权重和激活值都不为零的情况下执行乘法。EIE 以游程编码(run-length encoded)格式存储每个权重的地址索引。在量化训练和共享权重之后,每个权重只占用 4 比特,它们可访问由 16 个寄存器实现的查找表以解码成 16 比特权重。为评估 EIE 的性能,我们创建了行为级仿真和 RTL 模型,然后将 RTL 模型综合、布局布线,以提取准确的能量和时钟频率。将 EIE 在九个 DNN 基准上进行评估,它的速度分别是未压缩 DNN 的 CPU 和 GPU 实现的 189 和 13 倍。EIE 在稀疏网络上的处理能力为 102 GOPS/s,相当于在同等准确度的稠密网络上 3 TOPS/s 的处理能力,且仅耗散 600mW 的能量消耗。EIE 的能耗分别比 CPU 和 GPU 少了 24,000 倍和 3,400 倍。EIE 的贡献如下:稀疏权重:EIE 是第一个用于稀疏和压缩深度神经网络的加速器。直接在稀疏压缩模型上运行可使神经网络的权重适应芯片上 SRAM,比访问外部 DRAM 节省 120 倍的能耗。通过跳过零权重,EIE 节省了 10 倍的计算周期。稀疏激活值:EIE 利用激活函数的动态稀疏性来节约算力和内存。EIE 通过避免在 70% 的激活函数上的计算节约了 65.16% 的能量,这些激活函数在典型深度学习应用中的值为零。权重编码:EIE 是第一个用非统一量化、极窄权重(每个权重 4 比特)利用查找表执行推断的加速器。与 32 比特浮点相比,它获取权重节约了 8 倍的内存占用,与 int-8 相比,它节约了 2 倍的内存占用。并行化:EIE 引入了在多个处理单元上分配存储和算力的方法,以并行化稀疏层。EIE 还引入架构改变以达到负载平衡和优秀的扩展性。第七章 结论深度神经网络改变了大量 AI 应用,也正在改变我们的生活。但是,深度神经网络需要大量的计算量和内存。因此,它们很难部署到计算资源和能源预算有限的嵌入式系统中。为了解决该问题,我们提出了改善深度学习效率的方法和硬件。图 7.1:论文总结本文从三方面研究如何提高深度学习的效率:利用深度压缩实现更小的模型大小、利用 DSD 正则化实现更高的预测准确度,以及利用 EIE 加速实现快速、能耗低的推断(图 7.1)。这三个方面遵循相同的原则:利用神经网络的稀疏性进行压缩、正则化和加速。论文地址:https://stacks.stanford.e/file/druid:qf934gh3708/EFFICIENT%20METHODS%20AND%20HARDWARE%20FOR%20DEEP%20LEARNING-augmented.pdf百度AI实战营·深圳站将于 10 月 19 日在深圳科兴科学园国际会议中心举行,AI 开发者与希望进入 AI 领域的技术从业者请点击「阅读原文」报名,与百度共同开创人工智能时代。
机器之心转载作者:陈天奇陈天奇是机器学习领域著名的青年华人学者之一,本科毕业于上海交通大学ACM班,博士毕业于华盛顿大学计算机系,研究方向为大规模机器学习。上个月,陈天奇在Twitter上宣布自己将于2020年秋季加入CMU任助理教授,成为加入CMU的年轻华人学者之一。在本文中,陈天奇回顾了自己做机器学习科研的十年。十年前,MSRA 的夏天,刚开始尝试机器学习研究的我面对科研巨大的不确定性,感到最多的是困惑和迷茫。十年之后,即将跨出下一步的时候,未来依然是如此不确定,但是期待又更多了一些。这其中的变化也带着这十年经历的影子。起始: 科研是什么我从大三开始进入交大 APEX 实验室,有幸随着戴文渊学长做机器学习,当时的我觉得「机器学习」这个名字十分高大上然后选择了这个方向,但是做了一年之后依然摸不着头脑,心中十分向往可以做科研,独立写论文的生活,却总是不知道如何下手。文渊在我进实验室的一年后去了百度。当时还没有得到学长真传的我,开始了我科研的第一阶段,从大四到硕士的第二年,期间一直自己摸索,不断地问自己「科研是什么」。和课程作业不同,学术研究没有具体的问题,具体的方法,具体的答案。文渊的离开让我一下子不知道该怎么做,当时的我的想法很简单,快点寻找一个具体的方向,完成一篇论文。因为 ACM 班的机会暑假在 MSRA 的短暂实习,虽然学会了很多东西,但并没有给我答案。MSRA 回来之后,在实验室薛老师的建议下,我选择了一个现在看来正确而又错误的方向 -- 深度学习。那是 AlexNet 出现之前两年,深度学习的主流热点是非监督学习和限制玻尔兹曼机。没有导师的指导,没有工具,当时我靠着实验室的两块显卡和自己写的 CUDA 代码开始了死磕深度学习的两年半。实验室的学长问我,你准备要干啥,我说:「我要用卷积 RBM 去提升 ImageNet 的分类效率。」这一个回答开启了图书馆和实验室的无数个日日夜夜,为了给实验室的老机器多带一块高功率的显卡,我们打开了一台机器的机箱,在外面多塞了一个外接电源。我的生活就持续在调参的循环中:可视化权重的图片, 看上去那么有点像人脸,但是精度却总是提不上来,再来一遍。从一开始 hack 显卡代码的兴奋,到一年之后的焦虑,再到时不时在树下踱步想如何加旋转不变的模型的尝试,在这个方向上,我花费了本科四年级到硕士一年半的所有时间,直到最后还是一无所获。现在看来,当时的我犯了一个非常明显的错误 -- 常见的科学研究要么是问题驱动,比如「如何解决 ImageNet 分类问题」;要么是方法驱动,如「RBM 可以用来干什么」。当时的我同时锁死了要解决的问题和用来解决问题的方案,成功的可能性自然不高。如果我在多看一看当时整个领域的各种思路,比如 Lecun 在很早的时候就已经做 end to end,或许结局会不那么一样吧。当然没有如果,赌上了两年半的时间的我留下的只是何时能够发表论文的紧张心情。焦虑的我开始打算换一个方向,因为 RBM 当时有一个比较经典的文章应用在了推荐系统上,我开始接触推荐系统和 kddcup。比较幸运的是,这一次我并没有把 RBM 作为唯一的一个方法,而是更加广泛地去看了推荐系统中的矩阵分解类的算法,并且在实验室搭建了一个比较泛用的矩阵分解系统。推荐系统方向的耕耘逐渐有了收获,我们在两年 KDDCup11 中获得了不错的成绩。KDD12 在北京,放弃了一个过年的时间,我完成了第一篇关于基于特征的分布式矩阵分解论文,并且非常兴奋地投到了 KDD。四月底的时候,我们收到了 KDD 的提前拒搞通知 -- 论文连第一轮评审都没有过。收到拒搞通知时候的我的心情无比沮丧,因为这是第一篇自己大部分独立推动完成的文章。转折在五月,KDDCup12 封榜,我们拿到了第一个 track 的冠军,我依然还记得拿到 KDDCup12 冠军的那一个瞬间,我在状态里面中二地打了 excalibur,仿佛硕士期间的所有阴霾一扫而尽。那时候的我依然还不完全知道科研是什么,但是隐隐之中觉得似乎可以继续试试。第零年: 可以做什么我对于科研看法的第一个转折,在于我硕士临近毕业的时候。李航老师来到我们实验室给了关于机器学习和信息检索的报告,并且和我们座谈。在报告的过程中,我异常兴奋,甚至时不时地想要跳起来,因为发现我似乎已经知道如何可以解决这么多有趣问题的方法,但是之前却从来没有想过自己可以做这些问题。联系了李航老师之后,在同一年的夏天,我有幸到香港跟随李航和杨强老师实习。实验室的不少学长们曾经去香港和杨强老师工作,他们回来之后都仿佛开了光似地在科研上面突飞猛进。去香港之后,我开始明白其中的原因 -- 研究视野。经过几年的磨练,那时候的我或许已经知道如何去解决一个已有的问题,但是却缺乏其他一些必要的技能 -- 如何选择一个新颖的研究问题,如何在结果不尽人意的时候转变方向寻找新的突破点,如何知道整个领域的问题之间的关系等等。「你香港回来以后升级了嘛。」-- 来自某大侠的评论。这也许是对于我三个月香港实习的最好概括的吧。香港实习结束的时候我收获了第一篇正式的一作会议论文 (在当年的 ICML)。因为 KDDCup 的缘故,我认识了我现在博士导师 Carlos 的 postdoc Danny,Danny 把我推荐给了 Carlos(UW) 和 Alex(CMU)。我在申请的时候幸运地拿到了 UW 和 CMU 的 offer。在 CMU visit 的时候我见到了传说中的大神学长李沐,他和我感叹,现在正是大数据大火的时候,但是等到我们毕业的时候,不知道时代会是如何,不过又反过来说总可以去做更重要的东西。现在想起这段对话依然依然唏嘘不已。我最后选择了 UW 开始了我六年的博士生活。感谢博士之前在 APEX 实验室和香港的经历,在博士开始的时候我似乎已经不再担心自己可以做什么了。第一年: 意外可以收获什么如果给我在 UW 的第一年一个主题的话,或许是「意外」。在交大时候因为兴趣的关系一直去蹭系统生物研究员敖平老师的组会探讨随机过程和马尔可夫链。到 UW 的第一个学期,我无意看到一篇探讨如何用 Lagevin 过程做采样的文章,我想这不就是之前组会上探讨过的东西么,原来这些方法也可以用到机器学习上。我直接借用了原来的交大学会的知识完成了第一篇高效采样 HMC 的文章。我后来并没有继续在这个方向上面耕耘下去,不过另外一位同在组会的学弟继续基于这个方向完成了他的博士论文。同样的在这一年,我和导师开始「质疑深度学习」-- 如果别的的机器学习模型,有足够大的模型容量和数据,是否可以获得和深度学习一样的效果呢?当时 Carlos 看好 kernel methods,而我因为过去的一些经历决定尝试 Tree Boosting。虽然最后在 vision 领域依然被卷积网络打败而尝试挑战失败,但是为了挑战这一假说而实现高效 Tree boosting 的系统经过小伙伴建议开源成为了后来的 XGBoost。在第一年暑假结束的时候,因为偶然的原因,我开始对 quantile sketch 算法感兴趣。这里主要的问题是如何设计一个近似的可以合并的数据结构用来查找 quantile。这个方向有一个经典的方案 GK-sketch 的论文,但是只能够解决数据点没有权重的情况。经过一两天的推导,我在一次去爬山的路上终于把结论推广到了有权重的情况。有趣的是新的证明比起原来的证明看起来简单很多。这个结论没有单独发表,但是后来意想不到地被用到了分布式 XGBoost 算法中,证明也收录在了 XGboost 文章的附录中。研究并不是一朝一夕,做想做的事情把它做好,开始的时候兴趣使然,而在几年之后意想不到的地方获得的收获,这样的感觉走非常不错。第二年和第三年: 选择做什么在新生聚会上,Carlos 对我说,你已经有论文的发表经历了,接下来要静下心来做发大的,「只做 best paper 水平的研究」。和很多 nice 的导师不同,Carlos 对于学生的要求非常严格,说话也是非常直白甚至于「尖刻「。很多的老师不论我们提出什么样的想法,总会先肯定一番,而 Carlos 则会非常直接地提出质疑。一开始的时候会非常不习惯,感觉到信心受到了打击,但是慢慢习惯之后开始习惯这样风格。到现在看来,诚实的反馈的确是我收益最大的东西。我进入博士的一年之后,主要在想的问题是做什么样的问题,可以值得自己深入付出,做扎实有影响力的工作。在博士的第三年,Carlos 在建议我把 XGBoost 写成论文,用他的话说:「写一篇让读者可以学到东西的文章」。和传统的写法不同,我们在文章的每一个章节插入了实验结果验证当章节提出的观点。而他对于做图的处理也成为了我现在的习惯,直接在图里面插入箭头注释,减少读者的阅读负担。经过几次打磨论文终于成为了我们想要的模样。博士前对于深度学习遗憾让我又逐渐把目光转回到深度学习。这个时候,我选择了不再一个人作战,在博士的第二年和第三年,我和兴趣使然的小伙伴们合作,一起开始了 MXNet 的项目。项目从零开始,在短短的一年时间里面做出完整的架构。我第一次看到集合了大家的力量齐心协力可以创造出什么样的东西。研究的乐趣不光是发表论文,更多还是可以给别人带来什么,或者更加大胆地说 -- 如何一起改变世界。博士第二年暑假,我在小伙伴的介绍下进入 Google Brain 跟随 Ian Goodfellow 实习。当时 GAN 的论文刚刚发表,我也有幸在成为 Ian 的第一个实习生。实习的开始,我们讨论需要做的问题,Ian 和我把可能要做的项目画在一个风险和回报的曲线上,让我选择。到最后我选择了自己提出的一个课题,在这个曲线里面风险最高,回报也最高。我一直有一个理想,希望可以构建一个终身学习的机器学习系统,并且解决其中可能出现的问题。这个理想过于模糊,但是我们想办法拿出其中的一个可能小的目标 -- 知识迁移。如果一个机器学习系统要终生学习,那么在不断收集数据之后必然需要扩充模型的规模来学习更广或者更深,按照现在的做法我们在模型改变之后只能抛弃原来的模型重新训练,这显然是不够高效的。是否有一个方法可以从已经训练好的网络上面进行知识迁移也就成为了一个重要的问题。我先花了一个半月的时间尝试了比较显然的 Knowledge distillation 的方法一直没有得到正面的结果。在最后的一个月,我改变了思路。实习结束的前一个星期,我打开 Tensorborard 上最近一组实验的结果:实验表明新的思路正面的效果。这最后几步的幸运也让我的这一个冒险之旅有了一个相对圆满的结果。这篇论文最后被发表在了 ICLR 上,也是我最喜欢的结果之一。博士的第三年,我和小伙伴们开发了一种可以用低于线性复杂度就可以训练更深模型的内存优化算法。当时我非常兴奋地把这一结果写下来然后把稿子后给导师看。他和我说:Hmm, 这个结果如果投到 NeurIPS 的话或许可以中一篇 poster,但是这并不是特别有意思。在我沉默之后他又补充了一句:论文并非越多越好,相反你可能要尝试优化你的论文里面最低质量的那一篇。最后我们只是把这篇论文挂在了 Arxiv 上。Carlos 的说法或许比较极端(这篇论文依然影响了不少后面的工作),但也的确是对的,用李沐之前说过的一句话概括,保证每一篇论文的质量接近单调提升,已经是一件难以做到但是又值得最求的事情。选择做什么眼光和做出好结果的能力一样重要,眼界决定了工作影响力的上界,能力决定了到底是否到达那个上界。交大时敖平老师曾经和我说过,一个人做一件简单的事情和困难的事情其实是要花费一样多的时间。因为即使再简单的问题也有很多琐碎的地方。要想拿到一些东西,就必然意味着要放弃一些其他东西,既然如此,为什么不一直选择跳出舒适区,选一个最让自己兴奋的问题呢。第四年之后: 坚持做什么博士第三年,我和小伙伴们参加 GTC,结束后老黄 party 的角落里,我一个人在发呆。深度学习的框架发展已经铺开,可接下来应该做什么,我一下子感到迷茫。第三年的暑假我没有去实习,而是决定一个人在学校尝试开发脑海中显现的抽象概念 -- 深度学习中间表示。暑假结束之后,我完成了第一个版本,可以比较灵活地支持深度学习系统里面的计算图内存优化。但是总是觉得还缺少着什么 -- 系统的瓶颈依然在更接近底层的算子实现上。暑假之后在去加州的飞机上,我尝试在纸上画出为了优化矩阵乘法可能的循环变换,回来之后,我们决定推动一个更加大胆的项目 -- 尝试用自动编译生成的方式优化机器学习的底层代码。这个项目早在之前我也有一些想法,但是一直没有敢去吃这个螃蟹。原因是它的两个特点:从零开始,横跨多领域。因为要做底层代码生成和想要支持新的硬件,我们需要重新重新搞清楚很多在之前被现有的操作系统和驱动隐藏掉的问题,这就好象是在一个荒岛上一无所有重新搭建起一个城堡一样。而这里面也涉及了系统,程序语言,体系结构和机器学习等领域。这让我想起之前在 ACM 班时候重头搭建编译器和 MIPS 处理器并且连接起来的经历。也是那段经历让我觉得为了解决问题去吃多个领域的螃蟹是个让人兴奋的事情。那段经历给我留下的第二个印记是理解了合作和传承的重要性。这门课程设计有一个传统,每一门课程的老师都由上一届学长担任。每一届的同学都会在之前的基础上有所改进。我也曾经为这门课做过一些微小的贡献。演化到现在,这门课程已经从只做简单的答辩,到现在已经有在线评测的 OJ。大家一起的合作塑造了这个课程。推动新的机器学习系统和塑造这门课程一行,需要各个团队的同学合作,足够时间的耐心关注和不断地改进。我的合作者们也被「卷入」到了这个项目中。我的体系结构合作者一直想要设计新的 AI 硬件,我在雏形完成之后花了大量的时间讨论如何协同设计新的硬件的问题。我们开始讨论怎么管理片上内存,怎么可以比较容易地生成指令集,甚至怎么调度内存读写和计算并行的问题都暴露出来。有一天,我和合作者说我们需要引入虚拟线程的概念来隐藏内存读写开销,然后他很快和我说,这是体系结构里面经典的超线程技术,发明人正是我们的系主任 Hank。我们也在不断地重新发现经典的问题的解决方法在新场景的应用,让我觉得上了一堂最好的体系结构课程。两年间的不少关键技术问题的突破都是在有趣的时候发生的。我在排队参观西雅图艺术博物馆的 infinity mirror 展览的途中把加速器内存拷贝支持的第一个方案写在了一张星巴克的餐巾纸上。到后来是程序语言方向的同学们也继续参与进来。我们争论最多的是如何如何平衡函数式语言和经典计算图做让大家都可以搞懂的中间表达,这一讨论还在不断继续。经过大家的努力,TVM 的第一篇论文在项目开始的两年之后终于发表。两年间参与项目的同学也从两个人,到一个团队,再到一个新的 lab 和一个社区,这两年也是我博士期间最充实的两年。因为做了不少「跨界」的工作,我常被问起你到底属于哪个领域。过去半年一直在各地给报告,报告这样开头:算法突破,数据的爆发,计算硬件的提升三者支撑了机器学习的变革,而整合这三者的,则是机器学习系统。这也是为什么我要做机器学习系统的原因。曾经一个教授问我这样的问题,如果明天有一样新的化学反应过程可能带来机器学习的变革,你会怎么做。我答道:「我投入会去学习研究这个化学过程」。虽然我不知道遥远的未来会需要什么,到底是系统,算法,还是化学,从问题出发,用尽所有可能的方法去最好地解决机器学习问题,应该这就是我想要坚持的研究风格吧。总结在写这篇总结的时候,心中有不少感叹。我常想,如果我在焦虑死磕深度学习的时候我多开窍一些会发生什么,如果我并没有在实习结束的时候完成当时的实验,又会是什么。但现在看来,很多困难和无助都是随机的涨落的一部分,付出足够多的时间和耐心,随机过程总会收敛到和付出相对的稳态。每个人的研究道路都各不相同,我的经历应该也是千万条道路中其中一条罢了。博士的经历就好像是用五年多时间作为筹码投资给自己,去突破自己做自己原来想不到的事情。中不管坎坷曲折都是无可替代的一部分。科研从来不是一个人的事情,对于我来说特别是如此。我在交大的时候和一群年轻的同学一起摸索推荐系统的算法,而在博士期间搭建的每一个系统都包含了很多合作者一起的努力。也正是大家一起的努力才带来了现在的成果。我个人在这十年间受到了不少老师,同学,家人的鼓励和帮助,感谢他们他们给予了我这无比珍贵的十年时光。原文链接:https://zhuanlan.hu.com/p/74249758?utm_source=wechat_session&utm_medium=social&utm_oi=36286488379392&from=timeline&s_s_i=0Adl1SNt%2FB3gEe0APUZZYAVRCRw%2F801frkyc0v%2BsfIo%3D&s_r=1
今天看到一篇文章《读研要“使巧劲”》,如下:每年有研究生进课题组,我都会给他们讲一些注意事项,但难免挂一漏万。在以后的日子里,各种事情时有发生。因此,我想还是写篇文章,提醒后来人。在我看来,很多研究生很实诚,也很努力,却得不到理想的效果,用史蒂芬·柯维博士的话说,“许多人爬到了梯子的顶端,却发现梯子架错了墙”。课程学习:不要死读书。硕士生最好在第一学期“咬紧牙关”把培养方案上要求的课都修完,这样学生在第二学期能全身心地做实验。但是有的学生把要求修读的课程分配在两个学期,每个学期都忙于上课、自习。要知道,最终决定研究生能否毕业的是科研和论文,而不是上课。研究生在选课之前必须和导师商量,并向高年级学生咨询拟选课程的内容、考核方式和难易度。博士生必须修读一门英语课,于是我的一位博士生没有和我商量就修读了“英美文学欣赏”,而我认为他应该修读学术英语写作课——选的课最好能和自己从事的科研以及写论文“配套”。其实这种看法也并不一定正确。有些科研课题与所要上的课程密切相关,而且跟不止一门课程相关,而是和好几门课程都息息相关。例如,要做一个复杂的生物统计网络,肯定不是本科只要学了生物专业就能完成的,还需要研究生阶段学习数值分析、统计学、计算机网络等交叉学科的课程,才有可能对所要做的科研课题稍微算入了门。但是,就算学完了这些课程,也只是刚入门,离自己有独立处理复杂的科学问题还有很多路要走。如果一开始,这些息息相关的课程都不用心,不学扎实,就开始做所谓的课题。可以想象,做出来是一种什么成果,无非就是水几篇高不成低不就的论文,没什么价值和意义。而只有学完了所需的课程,掌握所需的基础课程,才有可能发现更深层次的问题,才有可能做出原创性成果。当然,研究生也不能只为了考试,而应该把这些息息相关的课程更加深入的学习,有目的性地学习,要知道是为了将来做出原创性成果而学习的,这样才有可能学得更深入,将来才能走得更远。所以,这个马教授说的,只是看到选修了一些跟他课题无关的课程,而不知道现在研究生学分也提高了很多,换位思考一下,他们有时候是身不由己去选择一些容易混的课程,这样做其实也是为了留出更多时间投入到自己的课题,这样做难道有错吗?
大数据时代的尴尬大数据背后的尴尬随着中国网络流媒体的爆发性增长,中国已经成为全球上网用户最多的国家,特别是移动网络的快速发展,让信息传媒的速度变得更加快速和及时,然而在大数据时代的背后却有很多尴尬,例如,商家利用大数据进行杀熟,同样的产品曾现给客户是两种不同的价格,曾经的微商和传销组织被曝光的速度加快,实名制的电商邮寄服务,让个人隐私安全成为全社会关注的问题,在科研学术方面,中国学术造假由于网络的不断曝光,已经起到了约束的作用,从翟天临式的造假博士被网络曝光,越来越多的学术造假被网络大数据挖出来,最近网络曝光了复旦大学硕士研究生抄袭华中科技大学硕士研究生论文的丑闻,而且更为恶劣的是,两篇硕士论文从摘要,目录,正文,参考文献几乎一模一样。由于两名硕士研究生毕业答辩时间相差一年,基本判定为复旦大学硕士研究生抄袭华中科技大学研究生毕业论文!复旦大学躺枪从天津大学到复旦大学的丑闻虽然网络曝光后,复旦大学官方回复正在核查,但是有言论说这名抄袭论文的复旦大学毕业生并不是本校的学子,属于在北京学习的在职研究生,这和2018年天津大学建筑工程学院建筑与土木工程2008届硕士毕业生李瑞锋抄袭内蒙古农业大学武欣慧的硕士学位论文《基于人工神经网络的普通混凝土强度预测的研究》有相似之处,由于天津大学和内蒙古农业大学的两篇硕士论文从目录到正文内容都高度雷同,74条参考文献从书名、出版时间到引用的页码都毫无差别。这名天津大学抄袭的硕士也被曝光为在职研究生,但是不论在职研究生水平如何,既然高校给予发放学位证书,就应该为学生的学术道德负责,在职研究生也是拿着名校的学历。作为天津大学的硕士居然靠抄袭普通高校的硕士毕业论文照样毕业,也就是天津大学和普通高校学术水平并无差异,复旦大学学术相对较好,要抄袭也需要抄袭一所实力相差不多高校的毕业论文,2018年在美国USNes学科排名,华中科技大学计算机科学位居全球高校第6,也说明复旦大学作为名校学子很有眼光,抄袭论文也需要找高标准论文抄袭!高校人才培养质量全国第三高校学术实力不进则退随着中国教育部推出的建设双一流高校的目标,中国各大高校之间的差距出现分化,有一些高校改革力度大,很早就提升师资人才队伍,搭建优秀的科研平台,促进学科发展,因此最近几年中国高校排行榜发生巨大变化,一些进步大的高校在各项数据上纷纷超越传统老校,例如2000年由四大工学院之首的华中理工和百年同济医合并的华中科技大学,经过学科合并,华中科技大学综合实力非常强,在工科和医学排名中名列前茅,甚至在综合学科排名中也可以进入榜单前十,特别是严谨的学风饱受热议,全国最早施行本科降级制,只要本科努力,直接会以985的高考分数线,毕业后只能拿专科毕业证,这也是华科大在一流大学建设高校人才质量排名中高居第三的重要原因,这也是华中科技大学硕士毕业论文会被老牌名校复旦大学硕士生抄袭的重要原因之一
北京时间今天凌晨,第31届计算机视觉和模式识别大会(Conference on Computer Vision and Pattern Recognition, CVPR)在美国盐湖城召开。据统计,本届大会有超过3300篇大会论文投稿,接收979篇论文,比2017年多出了25%。本届CVPR大会介绍据了解,本届大会的获奖情况有来自斯坦福大学和 UC Berkeley 的 Amir R. Zamir 等人获得 CVPR2018的最佳论文(Best Paper Award);来自卡内基梅隆大学的 Hanbyul Joo 等人获得最佳学生论文奖(Best Student Paper Award)。此外,Tübingen 大学教授 Andreas Geiger 与 FAIR 研究科学家何恺明获得本届大会的 PAMI 年轻学者奖。最佳论文方面:CVPR2018的最佳论文(Best Paper Award)由斯坦福大学和 UC Berkeley 的 Amir R. Zamir 等人获得。最佳论文题目为《Taskonomy: Disentangling Task Transfer Learning》,论文地址:http://openaccess.thecvf.com/content_cvpr_2018/papers/Zamir_Taskonomy_Disentangling_Task_CVPR_2018_paper.pdf最佳学生论文:
金色财经讯,近日,创新工场对外宣布将于2019年8月上线高性能区块链系统Monoxide的测试网络,供开发者做技术评估。创新工场执行董事王嘉平介绍,Monoxide网络是一个并发的多链系统,每一个链称为"共识组"是其精髓所在。2018年12月,计算机网络顶级学术会议NSDI宣布录用由王嘉平博士及汪浩博士撰写的区块链研究论文,该论文提出名为异步共识组Monoxide的区块链扩容方案,可以在由4.8万个全球节点组成的测试环境中,实现比比特币网络高出1000倍的每秒事务处理量,以及2000倍的状态内存容量,有望打破“不可能三角”这个长期困扰区块链性能的瓶颈。论文的两名作者,王嘉平博士与汪浩博士均毕业于中国科院计算所,中科院计算所也是这篇论文的联合署名单位之一。据悉,这是中国区块链论文首次入选计算机网络顶级学术会议NSDI。王嘉平现任现任创新工场执行董事,投资方向为区块链和人工智能,曾主导了对比特大陆的首轮机构投资,成为其首轮三大主要投资方之一。在媒体沟通会上,王嘉平表示云服务时代规则是计算中最核心的,基于服务器的计算范式规则是不透明的,区块链的计算范式是让系统中的规则在全网公开透明、不可篡改,从而赋予了这个范式独特的能力,接力计算的是技术的本质,高性能区块链系统未来在很多场景中会有应用,但未必是目前我们看到的这些。区块链技术的独特能力是在业务场景能够完备的形式化、数字化情况下,可以建构公开透明、不可篡改并能够得到严格执行的规则。这一能力使区块链技术不可取代,并将会成为未来很多业务与场景的支撑。根据区块链特性,未来可能会由区块链技术支撑的新业务有三个思路:用计算构建信任而不是找背书站台,例如当下的供应链金融与溯源业务;用计算保证执行不扯皮无空子可钻,例如当下的征信、税务业务;用计算自证清白规避风险明晰责任,例如医疗卫生、智慧城市等与个人相关的公共服务。此外,王嘉平还表示吞吐量与状态容量是两个非常重要的区块链性能指标,在业务层面TPS流量与活跃度,状态容量定义了用户量的天花板。此前都是单机状态容量,在此次Monoxide测试中随着计算机数量的加入,理论上验证了其上限可以支撑支付宝的业务。“区块链性能和容量要与互联网齐平,才有意义。”此外,王嘉平还分享了区块链技术应用的三大思路:区块链技术的独特能力是在业务场景能够完备的形式化、数字化情况下,可以建构公开透明、不可篡改并能够得到严格执行的规则。这一能力使区块链技术不可取代,并将会成为未来很多业务与场景的支撑。根据区块链特性,未来可能会由区块链技术支撑的新业务有三个思路:用计算构建信任而不是找背书站台,例如当下的供应链金融与溯源业务;用计算保证执行不扯皮无空子可钻,例如当下的征信、税务业务;用计算自证清白规避风险明晰责任,例如医疗卫生、智慧城市等与个人相关的公共服务。责任编辑:王瑜琨 / 作者:王瑜琨
高校学术不端事件再添一例。这次是被列入“世界一流大学建设”B类高校的湖南大学的一篇硕士学位论文被举报涉嫌大面积抄袭华东师范大学一篇硕士学位论文。这两篇论文分别是湖南大学软件学院软件工程专业2016届硕士毕业生曹律的工程硕士学位论文《基于云计算的在线学习平台的设计与实现》(以下简称“曹律论文”)与华东师范大学信息科学技术学院计算机应用技术专业2013届硕士毕业生武秀萍的硕士学位论文《基于云计算的在线学习平台的设计与实现》(以下简称“武秀萍论文”)。武秀萍论文完成于2013年4月,曹律论文完成于2016年5月。从时间上看,曹律论文比武秀萍论文完成时间晚了3年。华东师范大学武秀萍的硕士学位论文封面湖南大学曹律硕士学位论文的封面澎湃新闻记者从中国知网上下载了上述两篇论文。比对后发现,这两篇论文不仅题目一字不差,摘要和正文也高度相似,多个段落几乎一字不差。针对此事,4月13日上午,澎湃新闻联系到湖南大学软件学院,该学院学位管理办公室的一名工作人员解释称,软件工程专业硕士招生是由软件学院来做,但会根据不同的专业研究方向,由本院或者其他学院的教师来对学生进行培养和指导,“按你说的情况,这名同学是复合型硕士,他的学位论文质量把关由其指导教师具体负责”。这名工作人员同时透露,湖南大学软件学院软件工程专业已经于2016年年底停止招生。因曹律论文的研究方向是传媒管理,指导教师陈竹系湖南大学新闻传播与影视艺术学院副教授。澎湃新闻随后又致电了湖南大学新闻传播与影视艺术学院。该院行政办的工作人员回复澎湃新闻记者时称,硕士研究生的学位论文确实由其具体的培养学院负责,但此前未接到关于曹律论文抄袭的相关举报,待了解后再做进一步核查。湖南大学研究生院学位与学科建设办公室的相关负责人则对澎湃新闻表示,学校一直以来都非常重视学术不端问题,但对此事还不知情,会在掌握较为具体的抄袭证据后,启动相关调查。论文题目一字不差澎湃新闻比对两篇论文后发现,两篇论文均以一个在线学习平台的设计与实现为研究对象。武秀萍论文的题目是“基于云计算的在线学习平台的设计与实现”,一共18个字。曹律论文的题目是“基于云计算的在线学习平台的设计与实现”,也是18个字,与武秀萍论文题目完全一样。两篇论文的摘要部分也高度雷同。武秀萍论文的中文摘要曹律论文的中文摘要比如,武秀萍论文的中文摘要的第一段内容为:“在线学习(E-learning)是通过在网上建立教育平台供学习者学习的一种方式。它实现了学习者能随时随地接受教育的要求,打破了传统教学中对时间和空间的限制。随着在线学习方式的深度普及,其主要支撑环境——在线学习平台逐渐曝露出平台建设各自为政、区域教育信息化资源分布不均、学习平台间存在信息孤岛等问题。云计算的出现为有效地解决这些问题提供了一条可能的途径。”曹律论文在其中文摘要的第一段也写道:“在线学习(E-Learning)是通过在网上建立教育平台供学习者学习的一种方式。它实现了学习者能随时随地接受教育的要求,打破了传统教学中对时间和空间的限制。随着在线学习方式的深度普及,其主要支撑环境在线学习平台逐渐曝露出平台建设各自为政、区域教育信息化资源分布不均、学习平台间存在信息孤岛等问题。云计算的出现为有效地解决这些问题提供了一条可能的途径。”以上两段内容,曹律论文除了将“Learning”一词中的“L”变成大写,并去掉一个破折号之外,其他内容均与武秀萍论文相同。武秀萍论文的关键词有4个,即在线学习、云计算、在线学习平台和Google App Engine,曹律论文的关键一共5个,分别是在线学习、云计算、在线学习平台、Google App Engine和Java Web,后者只比前者多一个Java Web,其他完全一样。正文内容高度雷同再看两篇论文的正文部分,虽然两篇论文的整体结构设置不完全一样,武秀萍论文共分为五章,而曹律论文则分为六章,比武秀萍论文多出一章“系统测试”,但两篇论文正文的大部分内容都高度雷同。以第一章为例,两篇论文的第一章都是“绪论”,主要介绍论文的研究背景和研究内容。武秀萍论文第一章部分内容截图曹律论文第一章部分内容截图武秀萍论文在第一章第三小节“本文研究内容”中写道:“论文的工作内容主要分为以下三个部分:1)介绍相关的理论技术:对当前在线学习的特点与现状以及云计算的涵义、特征、优势进行分析讨论,并以Google云计算平台为例介绍云计算的关键技术、Google App Engine(GAE)的整体架构、开发环境以及提供的服务API等。2)研究分析云学习平台的体系结构和功能需求:针对当前在线学习平台构建中存在的不足,提出基于云计算构建在线学习平台的研究方案;结合云计算的三层服务形式以及当前在线学习系统的现实需求,对整个云学习平台的体系结构和功能模块进行分析与设计。3)基于GAE平台实现在线学习系统主要功能模块:利用Google App Engine开发平台、Eclipse集成环境、Java web技术开发了在线学习系统的主要功能模块(用户管理、学习资源管理以及互动交流等),并对系统功能界面、业务逻辑、数据持久化和系统安全等细节的具体实现进行分析和阐述。”曹律论文也在第一章的“本文研究内容”小节中写道:“论文主要工作内容主要分为以下三个部分:(1)介绍相关的理论技术:对当前在线学习的特点与现状以及云计算的涵义、特征、优势进行分析讨论,并以Google云计算平台为例介绍云计算的关键技术、Google App Engine(GAE)的整体架构、开发环境以及提供的服务API等。(2)研究分析云学习平台的体系结构和功能需求:针对当前在线学习平台构建中存在的不足,提出基于云计算构建在线学习平台的研究方案;结合云计算的三层服务形式以及当前在线学习系统的现实需求,对整个云学习平台的体系结构和功能模块进行分析与设计。(3)基于GAE平台实现在线学习系统主要功能模块:利用Google App Engine开发平台、Eclipse集成环境、Java Web技术开发了在线学习系统的主要功能模块(用户管理、学习资源管理以及互动交流等),并对系统功能界面、业务逻辑、数据持久化和系统安全等细节的具体实现进行分析和阐述。”以上两段核心内容,曹律论文除多了“主要”两个字以外,其他内容均可在武秀萍论文中找到相同表述。再比如第二章,两篇论文的标题都是“相关理论介绍”,在这一章的开头都介绍了在线学习的概念与特点。武秀萍论文第二章部分内容截图曹律论文第二章部分内容截图武秀萍论文在“在线学习的概念与特点”一节的具体表述为:“在线学习是指以网络技术和多媒体技术为基础,通过互联网进行的学习和教学活动。它充分利用现代信息技术所提供的方便快捷的沟通机制和资源丰富的学习环境,为信息时代的学习者提供了一种全新的学习模式。这种学习模式改变了传统教学中教师对所有学生进行统一授课的教学模式,并利用互联网资源共享性的特点消除了传统教学中学习者知识来源单一的弊端。它具有网络化、个性化和可跟踪三大特点。”曹律论文也写道:“在线学习是指以网络技术和多媒体技术为基础,通过互联网进行的学习和教学活动。它充分利用现代信息技术所提供的方便快捷的沟通机制和资源丰富的学习环境,为信息时代的学习者提供了一种全新的学习模式。在线学习模式改变了传统教学中教师对所有学生进行统一授课的教学模式,并利用互联网资源共享性的特点消除了传统教学中学习者知识来源单一的弊端。它具有网络化、个性化和可跟踪三大特点。”对比发现,虽然曹律论文将在线学习的概念和特点分成两段写,但具体内容包括后面对网络化、个性化和可跟踪三个特点的表述,均与武秀萍论文完全一致。再看两篇论文的第三章,武秀萍论文第三章的标题是“基于云计算的在线学习平台架构的分析与设计”,其中一小节的标题是“需求分析”,而曹律论文第三章的大标题是“需求分析”。这一章中的多个段落都存在雷同的情况。武秀萍论文第三章部分内容截图曹律论文第三章部分内容截图比如,武秀萍论文在阐述“系统功能需求”时写道:“本文将从不同用户的角度来分析整个在线学习系统的功能需求。系统用户主要包括学生、教师和管理员”。然后在具体阐述“学生功能需求分析”时又写道:“学生用户登录系统后,进行在线学习相关功能。详细介绍如下:在线学习:可以根据自己的学习进度选择课程相关学习资料进行在线学习,浏览站点上的课件内容,学习新知识,复习旧知识。公告浏览:学生用户可以浏览站点上发布的公告、新闻。下载资料:学生用户可以在站点下载自己需要的学习资料,如课程相关软件、学习视频、教案PPT及试题等。在线测试:学生可以通过在线测试定期检查自己知识点掌握水平,主要以考卷的形式提交到系统,系统会自动阅卷,并将测试分数反馈给学生。文件上传:学生用户也可以将自己整理的资料或作业等文件上传到服务器上。学习交互:学生可以通过邮件、论坛或即时聊天工具与他人进行交流。个人信息维护:学生具有修改自己个人信息的权限。”曹律论文在“云计算在线学习平台的功能需求”小节写道:“本文将从不同用户的角度来分析整个在线学习系统的功能需求。系统用户主要包括学生、教师和管理员”。随后也具体分析了学生功能需求,曹律论文是这样表述的:“学生用户登录系统后,进行在线学习相关功能。详细介绍如下:1.在线学习:可以根据自己的学习进度选择课程相关学习资料进行在线学习,浏览站点上的课件内容,学习新知识,复习旧知识。2.公告浏览:学生用户可以浏览站点上发布的公告、新闻。3.下载资料:学生用户可以在站点下载自己需要的学习资料,如课程相关软件、学习视频、教案PPT及试题等。在线测试:学生可以通过在线测试定期检查自己知识点掌握水平,主要以考卷的形式提交到系统,系统会自动阅卷,并将测试分数反馈给学生。文件上传:学生用户也可以将自己整理的资料或作业等文件上传到服务器上。学习交互:学生可以通过邮件、论坛或即时聊天工具与他人进行交流。个人信息维护:学生具有修改自己个人信息的权限。”以上两段内容,一字不差。武秀萍论文关于在线学习平台架构的论述曹律论文关于在线学习平台结构的论述内容曹律论文的第四章内容也可以在武秀萍论文的第三章中找到相同表述。比如,武秀萍论文在第三章“基于云计算的在线学习平台架构的提出”一节开头写道:“随着在线学习模式的不断普及,越来越多的教育单位利用计算机技术和网络技术开发自己功能完善、各具特色的在线学习平台。而这些系统大多采用传统的三层架构B/S模式(即浏览器和服务器模式)来实现,如图3.1所示。这种模式的在线学习系统结构包括WEB服务层、应用服务层、数据服务层。WEB服务层提供面向用户的在线学习系统接口,其主要表现形式是通过Internet浏览器结合在线学习系统应用的操作系统为用户提供服务。应用服务层基于各类应用服务器为用户及管理人员提供对第三层数据服务层的各类操作。数据服务层则为整个在线学习系统提供数据服务。当用户通过PC或移动设备访问在线学习门户网站,进行注册、登录、学习以及资源检索等操作时,WEB服务层解析、规范用户需求信息并将用户需求发送到中间应用层服务器上,应用层服务器根据用户需求对系统数据库进行操作,获取用户需求信息,为在线学习用户提供服务。各教育机构通过这种模式纷纷构建各自的在线学习平台满足其在线学习的需求,各具特色的网络学习平台星星点点的涌现,从而使得我国教育信息化呈现‘梅花桩’的现象。”曹律论文在第四章“系统设计”中的第一小节“云计算在线学习平台的结构”写道:“随着在线学习模式的不断普及,越来越多的教育单位利用计算机技术和网络技术开发自己功能完善、各具特色的在线学习平台。而这些系统大多采用传统的三层架构B/S模式(即浏览器和服务器模式)来实现,如图4.1所示。这种模式的在线学习系统结构包括Web服务层、应用服务层、数据服务层。Web服务层提供面向用户的在线学系统接口,其主要表现形式是通过Internet浏览器结合在线学习系统应用的操作系统为用户提供服务。应用服务层基于各类应用服务器为用户及管理人员提供对第三层数据服务层的各类操作。数据服务层则为整个在线学习系统提供数据服务。当用户通过PC或移动设备访问在线学习门户网站,进行注册、登录、学习以及资源检索等操作时,Web服务层解析、规范用户需求信息并将用户需求发送到中间应用层服务器上,应用层服务器根据用户需求对系统数据库进行操作,获取用户需求信息,为在线学习用户提供服务。各教育机构通过这种模式纷纷构建各自的在线学习平台满足其在线学习的需求,各具特色的网络学习平台星星点点的涌现,从而使得我国教育信息化呈现‘梅花桩’的现象。”比对以上两段内容发现,曹律论文除了漏写一个“习”字,并将“WEB”改成“Web”,其他内容均于武秀萍论文一模一样。武秀萍论文关于“系统安全实现”的论述内容曹律论文关于“系统安全实现”内容的表述再比如,武秀萍论文第四章关于“系统安全实现”一节的一段内容为:“本应用属于多用户系统,为了保证系统的安全性,在用户请求服务时就需要对用户身份进行验证以确保用户操作的合法性。本课题使用servlet过滤器对各个页面请求进行预处理,使得不同身份的用户只能访问不同文件夹下的页面。Servlet过滤器是一个实现java.servlet.Filter接口的程序类,支持servlet和JSP页面的基本请求处理功能,但是会比这些请求优先运行在服务器上,主要用来检查进入servlet或JSP页面的请求是否合法并对非法请求进行拦截。Servlet过滤器通常是利用session对象实现权限验证的。当访问Web应用程序时,系统会为每个用户生成一个单独session对象用于存储用户的状态信息,直到用户离开web站点时对应的session才会消失。利用session对象的特点,servlet过滤器从发送请求到用户session中取得用户信息,从而判定请求操作是否被允许。”曹律论文的第五章“系统实现”中有一小节论述“系统安全实现”,其内容表述为:“本应用属于多用户系统,为了保证系统的安全性,在用户请求服务时就需要针对用户的具体身份执行验证来保证用户操作合法性。本文在线学习平台采用servlet过滤器来针对页面请求执行预处理操作,不同身份的用户群体访问不同文件夹所辖页面。Servlet过滤器本质上是一个实现java.servlet.Filter接口的一个具体程序类,支持servlet和JSP网页页面处理请求功能,会比处理请求优先在服务器上运行,主要用于检查进入servlet或JSP页面请求是否合法并对非法请求进行拦截操作。Servlet过滤器应用Session对象实现权限验证操作。当访问Web应用程序时,系统会为每位用户生成独立的Session对象用来存储具体的用户状态信息,直到用户离开Web站点时对应Session才能消失。利用Session对象特点,Servlet过滤器从发送请求用户Session中获取用户具体信息,从而进行判定请求操作能否允许。”比对以上两对发现,曹律论文和武秀萍论文的区别是非常细微的,曹律论文除了将“进行”换成了“执行”,将“才会”换成“才能”,将“是否被”换成“能否”等之外,其文字核心与武秀萍论文完全一致。武秀萍论文“总结与展望”的部分内容截图曹律论文“总结与展望”部分内容截图此外,两篇论文的“总结与展望”部分也几乎完全一致。比如,武秀萍论文在归纳完成的工作时总结了5个方面:“1.分析讨论了云计算平台,包括云计算的涵义、特征、优势以及Google云计算实现的关键技术;对Google推出的云计算应用开发平台Google App Engine做了深入了解,并在Windows XP操作系统下搭建了Google App Engine开发环境,从而加深了对Google云计算平台的理解。2.通过对当前在线学习平台构建模式的现状分析,指出系统构建各自为政、区域教育信息化资源配置不均、学习平台间存在信息孤岛等问题;针对当前在线学习平台构建中存在的不足,结合云计算的服务与特点,提出基于云计算构建在线学习系统的研究方案。3.分析讨论了基于云计算的在线学习平台的体系结构的划分,并结合云计算的三层服务形式从上而下逐层分析了各层的职责。4.结合当前在线学习系统的现实需求,对在线学习系统的各个功能模块的数据模型、业务流程等进行详细的分析与设计。5.利用Google App Engine开发平台、Eclipse集成环境、Java web技术开发了在线学习系统的主要功能模块,包括用户管理、学习资源管理以及互动交流等模块,并对系统界面、业务逻辑、数据持久化和系统安全等细节的具体实现进行分析和阐述。”曹律论文关于论文完成工作的总结的具体表述为:“(1)分析讨论了云计算平台,包括云计算的涵义、特征、优势以及Google云计算实现的关键技术;对Google推出的云计算应用开发平台Google App Engine做了深入了解,并在Windows XP操作系统下搭建了Google App Engine开发环境,从而加深了对Google云计算平台的理解。(2)通过对当前在线学习平台构建模式的现状分析,指出系统构建各自为政、区域教育信息化资源配置不均、学习平台间存在信息孤岛等问题;针对当前在线学习平台构建中存在的不足,结合云计算的服务与特点,提出基于云计算构建在线学习系统的研究方案。(3)分析讨论了基于云计算的在线学习平台的体系结构的划分,并结合云计算的三层服务形式从上而下逐层分析了各层的职责。(4)结合当前在线学习系统的现实需求,对在线学习系统的各个功能模块的数据模型、业务流程等进行详细的分析与设计。(5)利用Google App Engine开发平台、Eclipse集成环境、Java web技术开发了在线学习系统的主要功能模块,包括用户管理、学习资源管理以及互动交流等模块,并对系统界面、业务逻辑、数据持久化和系统安全等细节的具体实现进行分析和阐述。”以上两段内容一字不差。湖大回应:此前未接到举报,掌握证据后启动核查虽然曹律论文和武秀萍论文有超大面积的雷同内容,但两篇硕士学位论文均有《原创性声明》。两篇论文的作者均表示,自己的硕士学位论文是在导师指导下,独立进行研究工作所取得的成果。除已注明引用和致谢的地方外,不包含其他人已经发表或撰写过的研究成果。两篇《原创性声明》中均带有作者的个人签名和日期。由于论文完成时间上,曹律论文比武秀萍论文晚了3年,完成于2016年5月的曹律论文涉嫌抄袭武秀萍论文。澎湃新闻从湖南大学研究生院官网了解到,为维护学术道德,严明学术纪律,规范学术行为,提高研究生培养质量,维护学校学术声誉,该院2015年5月发布了《湖南大学研究生学术道德规范实施细则》(以下简称“《细则》”)。《细则》明确,“在撰写学位论文及进行其它学术活动时,应充分检索相关文献,了解他人的研究成果,承认并尊重他人的知识产权,不抄袭、剽窃他人的研究成果”。《细则》还规定,严重违反学术道德、影响恶劣者,学校视情节给予警告、严重警告、记过、留校察看、开除学籍处分。已经授予学位者,学校将撤销所授予的学位,并刊登撤销学位公告。研究生指导教师是研究生学位论文审查的第一责任人,一般为论文的通讯联系人,要以高度的责任心切实履行审查责任,做到实事求是,科学求真,为人师表,在科学研究和学术活动中加强自律,加强对研究生的学术道德教育。导师对研究生管理失职,致使研究生违反学术道德规范,学校将视情节给予导师通报批评、暂停招生三年、取消导师资格等处理。来自湖南大学研究生院官网的另一则通知显示,2015年6月,为进一步加强湖南大学研究生学位论文质量的管理工作,营造良好的学术环境,促进学术诚信,研究生院引进使用万方数据“相似性检测”系统。其中,这份通知明确,硕士学位论文检测由各学院负责,含研究生秘书签名并加盖学院公章后再由导师签名(复制比在5%以下的可不签名)确认的万方数据学位论文检测报告单首页(纯外文撰写的学位论文可不检测)作为附件放入学位申请材料袋中。文字复制比较高的硕士学位论文将列入校硕士学位论文抽检重点抽查范围。在湖南大学出台多个文件严把研究生学位论文质量关之后,湖南大学软件学院软件工程专业2016届硕士毕业生曹律的硕士学位论文还是被举报涉嫌大面积抄袭。针对曹律论文涉嫌抄袭一事,澎湃新闻先后联系了湖南大学软件学院、新闻传播与影视艺术学院,以及研究生院学位与学科建设办公室。湖南大学软件学院和新闻传播与影视艺术学院相关办公室的工作人员均向澎湃新闻记者明确,硕士研究生的学位论文质量由其指导教师直接负责,将对此事做进一步了解。湖南大学研究生院学位与学科建设办公室的相关负责人则对澎湃新闻表示,此前从未接到过关于曹律硕士学位论文抄袭的举报,会在掌握较为具体的抄袭证据后,启动相关调查。