又是一年毕业季,又到一年开题时。各大高校的研究生都在开题答辩中度过这短暂的一个月。不知你的选题到了什么阶段,今天就来聊聊那些选题中不可错过的关键点。研究生学习阶段,做论文将占据大部分时间。毫不夸张的讲,我们将论文比作万里长征,这万里长征的第一步就是选题了。选题比实际的写作耗时更多。从课题的研究角度出发,硕士论文的目的就是为做博士论文练兵。选题是论文工作中最重要亦是最困难的部分,好的论文题目不仅能够表达个人观点,而且可以作为与同行交流的媒介。不仅如此,极大可能我们毕业所从事的工作领域与我们的课题研究有很大关联,因此一个好的题目一定要同时具备及时性、有效性、可行性。01明确要求,一招制胜硕士论文除了要检验自己的掌握水平,另外一个关键点就是你所做的研究要对该领域有所贡献,比如你提出一种新的想法,可能还未找到解决方法。那这个想法可能带给前沿学者一些启示,从而应用到实际的工作中。从长远的角度看,这类文章一定会在毕业答辩时顺利通过。02从长计议,稳中求胜选择题目必须是自己愿意倾注热情与时间的,终极目标是愿意作为一位研究者的理由。或许你想把人类从计算机的愚蠢使用中拯救出来,或许你想展示万物都是统一的,或许你想在太空发现新生命。表面看,这对于一个硕士来讲这是不切实际的。其实不然。终极目标虽然是比较大的,但是可以朝着那个方向努力,把这个远景分解成几个目的性明确的基础点,而我们的论文研究则只负责其中某一个研究点。将这个研究点缩减至可解决的水平,同时规模又足以做一篇论文。比如,你的目标是一个五十年的工程,那么合理的十年工程是什么,一年的工程又是什么,最核心的技术是什么,如何最大程度的了解核心技术,这些研究点都可以深入展开你的论文研究。03选对中心,事倍功半好的论文选题要有一个中心部分,首先,这个中心部分是你确信肯定可以完成,并且导师认为这个中心部分完全可以满足毕业要求。其次,这个中心必须要包含创新点,有的论文题目很新奇,有的则很普通。前者开创了新领域,探索了以前未曾研究过的现象,或者为很难描述的问题提供了有效的解决方法,后者则完美地解决了定义的问题。两种论文都是有价值的,选择哪一种论文,取决于个人风格。有的人擅长搞创新,在大学曾参加过好几届创新创业项目,而有的人适合总结、陈述,那选后者更靠谱。但无论你选哪种,毕业论文的中心必须包含几个创新点。04追求自我、谨慎对待如果你只对某个领域感兴趣,这样选题范围就狭窄得多。有时候,你会发现系里的老师没有一个人能够指导你感兴趣的领域,如果是这样,那你就要小心了。靠自己一个人的力量在一个感兴趣却没有深入了解的领域想做出一些成绩,况且也没有专业人士给予指导,这将会在毕业之时给你带来延期危机。这时,不妨大量阅读相关文献,找出一些能与导师研究领域相近、同时也可以将你感兴趣的方向融合的文章,深入研究一定会发现新大陆。05持之以恒,处变不惊选题是一个循序渐进的过程,会持续到完成开题答辩的那一刻。举个例子,一名研究生三年级的学生,论文的方向是某领域的环境体系评价,题目是在研一7月开始思考,一直到11月开题,才把论文题目定下来。而如今题目定下来,研究的内容还是不断地在调整,与当初预期的效果并不是完全一样。也就是说,选题是贯穿论文始与终的。无论选什么样的题目,必须是前人未曾做过的。但有一种情况是,读了别人的论文后感觉很惊慌,好像这已经把你的问题解决了。实际上这往往只是表面类似,这时把论文拿给你的导师看看,看他有什么看法,相信你的导师吧,他可是万能的,比如在此基础上对于某种参数的修正、某种算法的改进,亦或是对于已有算法的比较,提出最优解。做论文是研究生最重要的事情,一个好的题目可以引领我们顺利到达毕业的珠峰,可以成为我们就业的敲门砖。希望这篇文章对大家的研究生论文选题有所帮助。
众所周知,学术论文的写作是非常重要的,它既可用以提供学术会议上宣读、交流、讨论或学术刊物上发表,也可衡量出一个人的学术水平和科研能力。因此,蓝译编译认为,进行课题研究及学术论文写作,科研者至少应当具备选择研究方向能力、设计研究方案能力、查找文献资料能力、调查统计分析能力、写作文章的能力。一、选择研究方向能力。俗话说,良好的开端是成功的起点,同样,科研者进行科学研究和论文写作,选择一个好的研究方向是成功的开始。科学研究的实践也证明,只有选择了有意义的课题研究方向,才有可能收到较好的研究成果,写出较有价值的学术论文。如果研究的方向没有选好,申报的课题成功不了,文章也不好发。所以,科研者科研能力和论文写作的首要因素就是如何如何选择有价值的研究方向。一般来说,科研者要进行科学研究,就必须关注该学科要闻,了解相关研究的最新动态,结合自身工作研究新情况、新问题。二、设计研究方案能力。设计研究方案就是课题或者论文在提出问题后,进一步论证课题的研究目的,主要的研究内容以及采用什么方式去研究,从而和前面的提出问题相适应。以科研者科研能力为例,课题研究主要遵循“是什么,为什么,做什么,如何做"的思路,围绕什么是科研者的科研能力、为什么要把科研者的科研能力作为研究对象、其中在研究中要做什么以及如何做的系统思路进行展开论述。三、查找文献资料能力。查找文献资料能力就是要及时关注自己研究的领域以及前人在本研究领域的成果。查找文献资料能力是科研者在从事科学研究中,对信息的查找、整理、采用过程的能力,可以说查找文献的能力是科研者最基础的科研能力。科研者做好科研工作,一方面结合自己的工作,反思工作中的经验教训,成文成书,另一方面要结合新时期最新的信息特点,结合前人的研究,反思自己工作的创新。四、调查统计分析能力。调查统计分析能力是对研究的领域进行统计调研,以量化的标准保证科研的准确性和可比性,从而达到定量和定性的统一。调查研究和统计分析能力是科研者具备的科研能力之一,既要求科研者需要具备一定的理论基础,同时还需要掌握一定的统计分析知识,调查研究和统计分析的基础手段,用统计的方式和方法来解决所研究的问题。五、写作文章的能力。进行科学研究最直接的结果就是能不能以文字或者报告的形式展示出来,毋庸置疑,科研者写作能力是其科研能力的核心要素。科研者进行科学研究,其结果需要通过论文、专著、调研报告等形式来体现出来,这些成果的展示需要科研者具有一定的文字写作能力。因此,科研者在平时的工作中,就要注意写作的积累。例如,平常工作中的工作总结、工作计划等就是很好的积累方式。
【能源人都在看,点击右上角加'关注'】点击上方蓝字,关注我们为了集中展示我国“新型燃烧技术研究”专题科研成果,小编整理了《洁净煤技术》近几年该领域的论文,欢迎品读。1. 燃煤sCO2布雷顿循环及其工质传热特性研究进展吴柯,鲍中凯,段伦博,等.燃煤sCO2布雷顿循环及其工质传热特性研究进展[J].洁净煤技术,2020,26(1):9-21.2. 煤粉富氧燃烧着火温度预测的优化随机森林(GA-RF)模型彭潮,兰彦冰,邹春,等.煤粉富氧燃烧着火温度预测的优化随机森林(GA-RF)模型[J].洁净煤技术,2020,26(1):71-76.3. 纳米CaO-Fe(Cp)2复合催化剂对烟煤燃烧性能的影响闫小川,张宝军,王调妮,等.纳米CaO-Fe(Cp)2复合催化剂对烟煤燃烧性能的影响[J].洁净煤技术,2019,25(6):126-131.4. O2/CO2气氛下烟气物性参数对燃煤锅炉对流传热影响的模拟研究张恬,闫凯,乌晓江,等.O2/CO2气氛下烟气物性参数对燃煤锅炉对流传热影响的模拟研究[J].洁净煤技术,2019,25(1):123-130.5. 气化细渣基础燃烧特性试验研究杜杰,戴高峰,李帅帅,等.气化细渣基础燃烧特性试验研究[J].洁净煤技术,2019,25(2):83-88.6. 五彩湾煤在O2/CO2燃烧条件下的积灰特性段晓丽,张彦迪,朱晨钊,等.五彩湾煤在O2/CO2燃烧条件下的积灰特性[J].洁净煤技术,2019,25(2):53-61.7. 煤粉热解气化耦合燃烧超低氮燃烧技术进展刘兴,和宇,卢旭超,等.煤粉热解气化耦合燃烧超低氮燃烧技术进展[J].洁净煤技术,2019,25(2):32-37.8. 生物质预处理制成型燃料研究进展曹忠耀,张守玉,黄小河,等.生物质预处理制成型燃料研究进展[J].洁净煤技术,2019,25(1):12-20.9. O2和水蒸气对煤粉MILD燃烧影响的数值模拟祝鑫阳,张立麒,罗俊伟,等.O2和水蒸气对煤粉MILD燃烧影响的数值模拟[J].洁净煤技术,2018,24(3):68-74.免责声明:图片来自网络,版权归作者所有,如有侵权,请联系删除。联系我们:电话:010-84262927邮箱:jjmjs@263.net网址:www.jjmjs.com.cn微信客服:xrcz1217免责声明:以上内容转载自洁净煤技术,所发内容不代表本平台立场。全国能源信息平台联系电话:010-65367702,邮箱:hz@people-energy.com.cn,地址:北京市朝阳区金台西路2号人民日报社
科学研究中的研究内容和方式是不尽相同的,有的是通过实验来发现新现象、寻找科学规律或验证某种理论假说,实验结果的科学记录和总结可作为研究成果;有的是先提出某种假说,然后进行数学推导、逻辑推理或用实验结果进行检验,往往以论述或论证为中心,提出新理论,或补充和发展原理论,或否定原理论;有的研究对象属于自然科学或工程技术范畴,采用的论述方式却类似于社会科学的表述方式,即用调查研究所得的可信事实或数据来论证新的观点。赛恩斯编译依据经验,科技论文按研究方式和论述内容可分为:一、实验性论文。这类论文主要针对科技领域的一个学科或专题,有目的地进行调查与考察,实验与分析,或进行相应的模拟研究,得到系统的观测现象,实验数据或效果等较为重要的原始资料和分析结论,准确与齐备的原始资料往往使其成为进一步深入研究的依据与基础,它不同于一般的实验报告,其写作重点应放在研究上,追求的是可靠的理论依据、先进的实验方案、适用的测试手段、准确的数据处理及严密的分析论证。二、发现型论文。这类论文主要用来记述被发现事物的背景、现象、本质、特性、运动变化规律以及人类使用这种发现的前景。发明型论文是发现型论文的特殊形态,主要用来阐述所发明的装备、系统、工具、材料、工艺、配方等功效、性能、特点、原理及使用条件等。三、计算型论文。这类论文主要用来提出和讨论不同类型(包括不同边界和初始条件)数学物理方程的数值计算方法,数列或数字运算方法,计算机辅助设计方法,计算机在不同领域的应用原理、数据结构、操作方法,或进行收敛性、稳定性、精度分析等。这种论文往往是计算机软件进一步开发的基础。四、理论性论文。这类论文可分为推导型论文、分析型论文和论证型论文等。1.推导型论文。这类论文主要是对所提出的新假说由数字推导和逻辑推理来得到新理论(包括定理、定律和法则)。写作要求是:数学推导要科学准确,逻辑推理要严谨严密,定义和概念的使用要准确可靠,力求得到无懈可击的结论。2.分析型论文。这类论文主要是对新的设想、原理、模型、机构、材料、工艺、样品等进行理论分析,对过去的理论分析,对过去的理论分析加以完善、补充或修正。写作要求是:论证分析要严谨,数学运算要正确,资料数据要可靠,结论要准确并经过实验验证。3.论证型论文。这类论文主要是对基础科学命题进行论述与证明,如对数学、物理、化学、天文、地理、生物等基础学科及其他众多应用性学科的公里、定理、原理、原则或假设的建立、论证及其适用范围、使用条件进行讨论。五、设计型论文。这类论文一般用来对某些工程、技术和管理问题进行计算机程序设计,对某些系统、工程方案、机构、产品等进行计算机辅助和优化设计,对某些过程进行计算机模拟和仿真,对某些原材料等进行调制、配制。写作要求是:内容要新,模型的建立和参数的选择要合理,编制的程序能正常运行,计算结果要合理准确,设计的产品要经过实验和生产证实,调制、配制的物质要经过使用考核。六、专题型论文。这类论文用来对某一领域、学科或某项工作等发表议论(包括立论和驳论),通过分析论证,对其发展的战略决策、方向等提出新的见解。七、综述性论文。这类论文是在综合分析和评价已有相关文献的基础上,提出在特定时期内有关专业课题的演变规律和发展趋势。它要求作者在博览群书的基础上,综合介绍、分析、评述特定学科和专业领域内最新研究成果和发展趋势,表明作者自己的观点,对发展作出科学预测,并提出比较中肯的建设性意见和建议。综述类论文的写作要求相对较高,一般要求:资料新而全,作者立足点高、眼光远,问题综合恰当、分析在理,意见、建议较为中肯;题目一般较为笼统,篇幅允许稍长。通常有两种写法,一种是以汇集文献资料为主,辅以注释,客观而少评述;另一种是着重评述,通过回顾、观察和展望提出合乎逻辑、具有启迪性的看法和建议。除了以上这些论文类型,按研究方式和论述内容,科技论文还应有其他类型,这里不再列举。
#毕业论文#受疫情的影响全国各高校都延迟了开学,但一些学校为了不影响毕业,已经远程开展毕业论文相关工作。一说写论文,很多同学脑子里空落落的,不知道写什么主题?也不知道怎么写?或者说不知道什么主题是当下值得研究的?如何选定论文题目?如何开展论文,并搜集资料?如何确定毕业论文研究框架?如何阅读文献?如何写文献综述?如何写论文正文?查重?毕业论文答辩?等等全文较长,建议先收藏再看。1.如何选定论文题目?(1)相关主题的方向来源?方法一:学科专业相关的主题(看文献找灵感)方法二:导师研究方向的领域(和导师沟通)方法三:自己平时感兴趣的专业领域主题(兴趣)(2)怎么找到该主题?方法一:泡期刊文献图书馆去自己学院(有所学领域相关的期刊)图书馆,花1-3天沉浸式泡文献。按照该领域最权威的顶级期刊标准去看看大牛们最近都在研究什么?你对哪些专业名词感兴趣?标注你感兴趣的文章和作者信息等(做好记录)、多家期刊对比看看该主题是否是你研究领域的热点和有价值点、形成文档(备注细节)。方法二:知网找主题怎么找?结合目前的实际情况拟定尽量新颖的题目和方向。下文示范(以经济管理为例)方法三:参加各类专业领域的主题会议、研讨会、专题讨论会等找主题方法四:关注对应专业的期刊、高校的研究生网站、杂志官网等找主题课题的研究项目衍生出来的主题,很多学者会分享他们发掘新颖新研究领域的好玩地方;方法五:导师给定主题(真香)方法六:去学校打印店看看有木有想法可能角落里有草稿!(别听我瞎说,我也是道听途说)举个例子笔者研究的是经济管理领域,那么针对经管类的期刊,我要找新的研究主题,那我会直接去图书馆找一年内的:中文期刊:经济研究、管理世界、南开管理评论、中国工业经济、管理科学学报、会计研究、金融研究、研究与发展管理等等等期刊。英文期刊:Academy of Management Review、Administrative Science Quarterly……逐一翻阅做笔记(我喜欢纸质版本记录,但电子档更有助于后续增改),每天做个总结。从看的文献中发散思维,寻求变量的联系,思考你可以研究什么主题,选出三个自己感兴趣的主题。接着,将该主题输入输入到知网里搜索,看看该主题研究趋势,年限、篇数以及谁在研究,找到源头和是否具有学术价值和实践价值。反复操作,大概1-3天,整理出你觉得感兴趣且算是新颖的主题去找导师沟通,让老师从专业领域提供意见,将主题联系起来且提出专业的方向意见。如果自己导师不是很“靠谱”,你可以寻求对应领域的授课老师的帮助。一般老师人都是很好的,热情礼貌多互动,说明来意寻求帮助,一般老师不会拒绝“好学”学生。2.如何开展论文,并搜集资料?(1)查找文献的网站?常用中文:知网、维普、万方、百度学术、谷歌学术;常用英文:谷歌学术、Sci-Hub、百度学术、IEEE;常用图书:知网、读秀、图书馆。关于英文文献免费下载sci-hub最好用DOI法,找到需下载的文献,然后复制该文献的DOI粘贴到sci-hub搜索框中,即可下载,非常精准。(2)如何寻找代表性文献?请教导师当然是最简单、有效的途径。方法一:首先查找并阅读发表在一流刊物上的文章方法二:查找权威教科书及其提到的某领域的经典文献方法三:查找学术权威发表的研究成果,著名学者的文章和研究3.如何确定论文结构如何确定文章的结构?没有千篇一律的规定,但本着研究科学的严谨和规范,必要的研究框架必须具备。脑海中要清晰自己的研究脉络和思路,若求快的话,可先打好框架,然后填入必要的内容。论文框架具体内容要细化到各自研究领域中去,没有统一的标准。个人建议:找到专业领域内自己研究方向的几篇优秀论文,仔细研读论文行文框架、研究方法、数据收集和分析思路以及可获得性的难度情况。寻找到行业标杆的论文,根据自己的研究创新点突破一下,模仿中创新。4.怎样阅读文献?根据文献的贡献大小, 采用不同的方法来阅读。(1)读摘要和结论很多经验研究文献有较大的重复性,量表、研究方法都没有改进或改进较少,写作的主要目的是测试不同情境下的理论适用性,有时结论大同小异。对于这类学术价值不大的文献,读摘要和结论即可。(2)读摘要、引言、发现和结论大部分文献在方法、模型构建或者样本选择方面会有一些独到之处。对于这些文献,应该认真阅读介绍文章主要贡献的摘要、引言、发现和结论四个部分。在阅读过程中,要重点思考文章的创新之处与我们自己的综述对象之间的关系 。(3)通读全文上述两种方法主要用来阅读次要文献。对于我们在前面提及的代表性文献 , 就应该认真阅读全文,包括引言、方法、数据、发现、结论各个部分。这类文献通常是经典文献,有时字字珠玑 , 需要认真体会 、揣摩作者的观点及其提出的过程。阅读文献时应该做好读书笔记,把篇名、作者、出处、发表时间、页码等信息记录下来。笔记应包括以下两方面的内容:一是对文章观点、方法等方面的总结 ,二是自己的感受和思考。读完足够多的文献,对笔记进行分类、汇总、分析、删减和组合以后就可以得到文献综述的基本素材,并且能够列出相应的参考文献 。5.如何写文献综述?对于要研究的问题,我们必须弄清:前人是否说过前人说过什么前人是怎么说的何人、何时、何地说过如果我们能够在文献综述的过程中回答好以上四个方面的问题,那么就可以基本确定我们要做的研究或要写的论文的创新点、主要思路和拟采用的方法。可以说,做好文献综述,研究工作就完成了一大半,剩下的问卷设计、实地调查、数据分析、论文写作等工作便水到渠成。写文献综述的方法?(1)按照综述对象的不同构成部分。(2)按照综述对象自身的发生、发展顺序。(3)按照主要的研究范式、学术流派、研究视角或观点。(4)按照研究阶段(时期),还有一些文献综述类文章以主要人物、研究方法等为线索来进行综述。写好文献综述有几点建议和注意事项:(1)切忌只述不评(2)确保准确 、清晰(3)组织好材料 , 避免罗列 、堆砌(4)缩小范围 , 突出重点,认真读文献6.如何撰写论文正文?到论文正文撰写时,我建议你先把之前所整理的优秀论文从头到尾再读一遍,然后再根据自己的论文框架开始分章节撰写。从引言开始,你就进入到每一个章节的撰写了,不会写?没关系,打开那些优秀论文,只看他论文的引言章节,看20篇你就会发现,原来大家都大同小异,只是研究内容不同,而逻辑和叙述的逻辑顺序都是有章可循的,所以,你只要根据这个规律进行行文,在格式范围内加入自己的想法,这就会省心多了。然后就是第1章到第6章。其中国内外研究现状、研究意义、论文结构等,你只要读过50篇以上的论文,你就会发现,原来也都是大同小异的,所以,恭喜你,国内外研究现状、研究意义和论文结构等各个章节你都已经搞定了。最困难的就是中间的3.4.5章节了,这些章节是真的需要你根据自己的内容进行定制的,这没有办法,多花点时间,把自己的内容套用在别人的通用结构上,先不求辞藻多么华丽,先完成再完美,先保证基础的骨架结构的完整程度。在撰写3.4.5章节的时候,一定要有自己的实验数据,也就是说你的论文一定要有数据支撑,如果没有,那么你就需要去寻求导师的帮助,或者去寻求往届师姐师兄、同届同学的帮助,如果你是做的实证分析,一定要有理有据,如果你是做的系统实现,一定要有实现了的系统,当然以你的情况来看,可能没有时间去做系统了,但是也要求助互联网,找到类似的源码,跑一跑,按照自己的设计,重新设计下封面,实在不行,你试试Photoshop或者电脑上的F12键,总之,要把论文所需要的系统截图、数据分析结果等内容,完完整整的展示出来。当以上章节都完成后,再回过头来,把摘要和第6章的总结和展望写完,方法套路与上文类似,不要怕不会写,不会写的时候就停下来,读优秀论文,没有什么不会写是10篇优秀论文解决不了的,不行就20篇,直到你写出自己的论文为止,不要担心不会写,当你认真读完20篇相关论文之后,你一定会写,你要相信我,实在还不会,你可以找我。7.关于查重修改好文章是改出来的,尤其是对于论文,更是这样,论文写完之后一定要修改,这里的修改分为两步。第一步是行文修改,比如错别字、不通顺的语句、不学术的表达方式,这些可以找导师、同学一起修改。这里要记住一些点,比如论文中不要出现“我”,如果非要出现,请使用“本文”来代替,论文要多用陈述句,避免感叹号、疑问句。引用别人的部分,一定要规范化标记,这样在最后查重的时候少很多麻烦事,不过个人不建议过多引用,因为你在引用过程中会造成重复,在查重的时候如果你引用不规范,就会被算作是重复率当中,所以,一定要谨慎引用。然后就是第二步修改了。如果说第一步修改是主动地,那么第二步修改就完全是被动修改了,你要把你的论文放到知网等查重系统上去查重,查重完之后,会有一份详细的查重报告,把其中重复了的段落和句子,用自己的话再重新说一遍。注意:需要明确自己学校采用的查重系统是用哪个?要根据同一系统给的报告降重。
编者按:一篇论文的写作凝聚了作者的辛勤付出。在一篇看似普通的论文背后我们往往没有深入的研究它是如何产生,当前处于什么样的现状,未来的研究方向又是什么?鉴于当前学术之路学术稿件来源较少,又特别需要一些普通学子的学术探索去呈现我们常人的学习、研究状态,经学术之路学术评审小组提议,赵广开主编同意,我们决定去深入“批判与分析”其论文的全部内容,欢迎大家积极加入到批判(或商榷)的队伍。限于篇幅及有利于进行学术评议考量,我们特将全部材料按照1000-2000字的篇幅分开单篇推送,欢迎持续关注。论文题目选定一个好的论文题目对于一篇文章的作用是不言而喻,如何去构思与润色论文选题也是本文写作过程中比较纠结的事情。我关于刑民交叉问题研究的兴趣点始于本科阶段。当时在本科阶段我的毕业论文选题为合同诈骗罪研究,围绕着这一选题就刑民交叉的部分问题进行了研究学习。当时选题的大致过程为:2013年的时候需要确定毕业论文的选题,作为一名本科生只是决定自己未来想学习刑法,应该选定一个刑法的选题,翻看一些论文之后并没有给自己多少启发。然后我就换了一个思路,就是查阅一些知名期刊的年度征文主题,这样就在无意中看到了刑民交叉这样一个选题。但是当时对于何谓刑民交叉并没有清晰的认识,而且在报给老师后面对何谓刑民交叉,这是不是一个病句的,自己也不能很好的回应。最终考虑到本科生的基本能力,结合自己对刑民交叉的初浅了解,选定合同诈骗罪这一主题进行研究。由于刑民交叉的主题对我有足够的吸引力,于是研究生阶段结合研究的主要领域选定主题为“非法集资案件中刑民交叉实体问题研究”的毕业论文。在研究生阶段我发现我所研读图书的主题或者核心关联点正在越来越紧密。刑民交叉的课题涉及面广,领域众多,牵涉刑法、民法、经济法、行政法、诉讼法、金融法、政策等多学科知识,仅仅从某一学科去研究总是给人无从下手的感觉,但是随着阅读的深入我发现刑民交叉问题的核心最终还要归结到刑罚的正当性与合理性、实体与程序的衔接、刑法的局限性上面。从政策的角度去考量研究的范围会给人一种豁然开朗的感觉,特别是国家治理体系与治理能力现代化理念的提出,对于非法集资等问题的解决具有重要的现实与理论指导意义。我发现非法集资等刑民交叉问题集中的领域并不是由于其他法律未规定,而是规定的不明确,人们关于非法集资刑事规制的很多疑问需要从行政法、经济法上面找原因,而不仅仅是刑法问题。上面是我关于选定这一主题的基本来龙去脉。当然在具体选定这一主题的标题是还是存在不小的挫折的,一方面是刑民交叉是什么的困惑,另一方面是非法集资是不是全部是刑事犯罪的疑惑,这两个问题不管是哪一个在面对时都是一个不小的困难。而且我思考后认为当前刑民交叉的问题包含实体方面的问题与程序方面的问题,关于程序方面的问题研究可谓五花八门,深感直接研究这些问题,主题就偏了,因此果断放弃,只研究实体方面的问题。于是最终选定“非法集资案件中刑民交叉实体问题研究”。当然关于这一选题也是存在诸多不同意见的,而且在不断研究的过程中有很多新的思考与探索,上文只是简单介绍一下选题的来龙去脉。
Proposal写好了,等于整个research就成功了一半,下面我讲下自己怎么写proposal的。通常无论是作为平时的练习作业还是毕业论文的研究计划,我都根据老师的建议习惯把一篇proposal分成这下面几个部分。Proposal Title(研究标题):在这里我会把自己即将进行的研究及时书面报告的完整标题呈现,表明我研究的主题和内容。Abstract(摘要):万字左右的论文,200词左右的摘要差不多了,简要介绍研究的目的,主题,方法,可能的研究发现等Introction(引言):和abstract有点类似,不过这部分通常交代一下研究topic的背景和本proposal的主要内容和目的。Research Significance(研究意义):这部分主要是表明即将开展的研究是有意义的,或是弥补了前人尚未研究完善或未研究彻底的课题,或是出现了新的问题需要本研究来解决等,总之不管在理论还是实践上都必须有价值,否则研究毫无意义。Research Background(研究背景):这里可以交代一下这个研究问题、目前学术界的研究进展,研究条件等。Research Objectives and Research Question(研究目标和研究问题):这部分尤为关键,是整个研究的核心,没有研究目标和亟待回答的研究问题,研究就会没了方向,好比一艘船没了掌舵的,这样的研究是难以进行的。Literature Review(文献综述): 这个部分的作用是对所研究领域或专业的课题,问题或研究专题搜集大量相关资料;通过分析,阅读,整理,提炼当前课题,问题或研究专题的最新进展,学术见解或建议,做出综合性介绍和阐述。自己的研究需要相对于前人的研究有所补充或发展。Methodology(方法论):这部分包括研究设计(research design),具体研究方法(research methods),数据收集(data collection),抽样(sampling)和数据分析(data analysis)。methodology简单规划了研究是以何种方式进行的。Timescale(时间规划):这部分相当于是对研究的每个部分所花时间,每个时间段做什么,整体进度,整体截止日期等的一个计划。Budget(预算):一些研究步骤是需要花费一定金钱才能完成的,预算一般包含personnel services,travel expenses,technology cost等。另外,有些研究还需要做访谈,问卷调查等来获取数据,这个时候,proposal里面还需要以appendix(附录)形式附上访谈的问题或者问卷的items,加上这些,才能算是一份完整的研究计划。Contact:EssayBirdEssay/Assignment/Paper/Report/Dissertation/留学文书等辅导、写作
01 如何确定研究方向和选题?不管是研究型硕士还是专业型硕士,如何确定一个好的论文选题恐怕是几乎所有研究生都或多或少困惑过的事情。记得当年自己读硕士时,为确定论文研究题目和内容绞尽脑汁,最后选中了指数基金业绩评价的话题。基金业当时(2000年)在我国刚刚兴起,而指数基金更是一个新生事物。由于指数基金不以超越市场收益为目的,引起了国人的很多争论,但在美国以指数基金为载体的被动投资已经相当流行。应该说这个选题相当新颖,也有一定的研究价值。可惜囿于文献和资料的欠缺(当时互联网还很不普及,无法查阅国外的相关研究成果),我感觉论文在创新方面做的还很不够,一直引为憾事,但硕士论文写作给我的感觉是创新并不难。在澳大利亚读博士时,导师鼓励我研究中国证券市场的相关问题。我博士论文的题目是:关联交易和公司业绩:中国的掏空和支持证据。这一论文题目最终得以确定,除了我一直关注中国证券市场的热点问题,还因为我看到了中国证监会和国资委2003年8月联合下发的文件:《关于规范上市公司与关联方资金往来及上市公司对外担保若干问题的通知》。除了选题上的帮助,该通知还对我论文中核心变量(掏空和支持)的计量起到了重要的参考作用。可以说,政府部门发布的法律、规章和制度等监管文件绝对是我们研究方向和选题可以借鉴的宝库,大家一点要重视。实际上,大家如果阅读本专业重要期刊上发表的文章,也会发现这些文章具有上述特点。最近引起广泛社会争议的吴英案,应该说对我们经管法专业方研究生来说就是非常好的一个选题。关注政府部门所关注的,除了保证选题比较新颖外,论文的实际应用价值也比较好。在中国这样一个新兴市场大国,各种新生事物层出不穷,各种社会热点数不胜数,我的上述经验说明,只要大家关注本专业领域的热点和难点问题,是不愁找到好的选题,并做出相应创新的。论文选题是有捷径的。现在,国家大力提倡社会科学研究,全国哲学和社会科学规划办公室每一年都发布如《国家社科基金指南》等国家最关心、最希望解决的重大理论与实践问题。教育部、科技部等部门也会发布类似的项目指南。研究生确定研究方向、论文选题要瞄准国家社会最关心的重大理论与实践问题。尤其像我们这样的经管法专业,一定要有现实意识、问题意识,才能使研究真正有价值。大家可以在研究这些指南的基础上,把相关问题细化为自己的研究方向和选题,这一方面可以顺利通过开题,少走弯路;另一方面,相关的研究成果也比较容易发表。总之,研究工作只有适应国家重大理论和实践需要才有前途,才容易创新和创造价值。我去年能够在前期成果较少的情况下,中标自科面上项目,其主要原因是选题新,契合了人民币汇率改革以及中国企业走出去等国家关注的问题,有相当的实用价值。当然,中信泰富澳元投机导致巨亏的事件也给我很大的启发。近年来,我们学校不少老师中了国家自然科学基金、国家社科基金和教育部等不同部门和不同层次的课题,研究生如果能够主动借鉴和参与导师的研究课题,一方面能够尽快确定研究方向和选题,导师指导起来也得心应手;另一方面,也能够在和老师一起做课题的过程密切关系,研学相长;合作的研究成果一旦发表,对研究生本人的学术生涯也会带来积极的影响。即使自己的导师暂时没有主持相关课题,也往往有他们专注和擅长的研究领域。在结合自己的个人兴趣和专业特长的基础上,研究生如果能够从中挖掘值得研究的方向和选题,对导师和学生来说都是双赢的局面。研究生确定研究方向和选题要尽可能与自己的本科专业、过去的工作实践、就读院校的学术优势联系起来考虑。要热爱和立足于自己所学的专业方向,努力实现研究生学习与自己以往的知识和行业实践的最佳结合,发挥自己的优长,在大量积累地基础上早出成果。除非特殊需要,一般来讲,不要去搞自己不懂或不熟悉的东西,也不要见异思迁,远离自己所学的专业方向。如果将来要考博士,就要尽可能将自己的研究方向和选题与考博的专业方向、博士生导师的研究方向相接近,以便捷足先登。如果要去机关或者企业,就要有意识地将自己的研究方向和选题与就业方向挂钩,对专业学位的研究生尤其如此。选题除要有时代特色和学术前沿性外,选题更要明确,切记论文选题不能等同于导师的课题。选题应明确所要研究的一个问题,如果涉及面过于宽泛,包含问题过多,研究将难以顺利进行和完成。选题范围要适度。一般应在硕士学位水平范围内尽可能缩小研究范围,要“小题大做”,写深写透;不要“大题小做”,宽泛无物。这主要是因为研究生三年的学习时间有限,硕士学位论文的容量也有限,论文里能够将一两个问题论述清楚,有一定新意,就很不错了。02 如何进行学术创新?关于创新,其实一点都不难,但切忌为创新而创新。几乎所有的学术文章最后都会指出文章不足以及未来的研究方向,这就是很好的创新切入点。创新有大有小,从思想上来说,大家一定不要盲从,一定要问个为什么,特别是那些想在学术领域做出成就的人来说,尤其如此。其次,创新离不开对前人研究成果的学习和借鉴,特别是发达国家学者的研究思路、方法和手段。因此,研究生一定要及时关注专业内最新的外文文献。由于国外正式期刊上的文章往往是两三年前写好的,所以要跟踪比较新的东西,可以参考国外研究者写作的工作论文(working paper)。大家可以通过在www.ssrn.com、scholar.google.com(谷歌学者)以及国外大学网站上通过关键词来直接搜索。创新也可以从小处入手,如变量代理和测度,变量多样性,样本跨度和广度,计量方法改进等等。另外,在论文写作中,大家要把自己有特色的地方、与以往研究不同的地方详尽描述出来,使自己的创新得以体现。处处留心皆学问,广大研究生一方面不能等、靠、要,要做一个有心人,平时多阅读相关专业文献,多参加各种学术会议和讲座,多思考,多动笔。另一方面,要多与自己的导师及师兄师姐交流,努力学习他们的经验,不断增长创新能力,等待合适的机会厚积薄发。虽然由于专业的限制,我的建议不可能关注到非经管以外的学科,但是基于中国这样一个转型国家的特点,应该说每一个学科值得研究的问题都很多。广大研究生要做的,就是睁开双眼,多看、多想、多写就可以了。最后,祝全体研究生身心健康,学有所成。
编译 | 陈彩娴、Barack编辑 | 陈彩娴ECCV 2020已圆满落幕。会议收到了1360篇论文投稿,其中包含104篇Oral论文、160篇Spotlight论文和1096篇Poster论文。为了更好地了解ECCV 2020的会议内容,来自深度学习专业的博士生Yassine Ouali整理了论文投稿的数据,并从以下五大主题总结了一些取得突破性成就的论文,对其进行了简要概述:识别、检测、分割和姿态估计半监督、无监督、迁移、表征和小样本学习3D计算机视觉与机器人图像和视频合成视觉和语言与2018年相比,近两年ECCV的论文投稿数量一直保持两倍的增长,与CVPR 2020的论文投稿数量接近。随着论文投稿量的增长,审稿人数和论文审核的领域也在持续增加。ECCV有效论文投稿数量如下表:不出所料,大多数通过审核的投稿论文是围绕深度学习、识别、检测和理解等话题展开。此外,投稿论文也逐渐关注一些新兴领域,如标签高效方法(label-efficient methods,比如无监督学习)和低级视觉(low-level vision)等。与今年的ICML相似,在论文投稿机构方面,Google排名第一(180位投稿作者),其次是香港中文大学(140位投稿作者)和北京大学(110位投稿作者):接下来,本文将为大家一一介绍上述五大主题的亮点论文:1识别、检测、分割和姿态估计1、End-to-End Object Detection with Transformers论文链接:https://arxiv.org/abs/2005.12872目标检测任务指的是,给定一张输入图像,然后对图像内的可见物体进行定位和分类。目标检测的主要框架是:预定义一组框(比如一组几何先验,锚或候选区域),对其进行分类,接着进行回归,以调整预定义框的尺寸 ,然后执行后期处理步骤,以删除重复的预测。但是,这种方法要求选择一个候选框的子集进行分类,且这种分类通常不是端到端可微的。在这篇论文中,作者提出了DETR框架。DETR是一种没有几何先验的端到端完全可微分方法。下图是从该论文作者的展示中截取的一张PPT,其中对DETR和Faster R-CNN的管道进行了比较,全面体现了DETR方法的整体性。DETR基于编码器-解码器Transformer架构。该模型由三部分组成:CNN特征提取器、编码器和解码器。首先,一张给定的图像通过特征提取器,获得图像特征。接着,将使用不同频率的正弦曲线生成的位置编码添加到特征中,以保留图像的2D结构。然后,生成的特征通过Transformer编码器,汇总各个特征的信息,并分离目标实例。为了进行解码,目标查询将传递给具有编码特征的解码器,从而生成输出特征向量。这些目标查询是一组固定的学习嵌入,能够随机初始化,在训练过程中学习,然后在评估阶段固定。目标查询的数量指的是模型能够检测到的目标数量的上限。最后,输出特征向量通过(共享的)全连接的层馈送,以预测每个查询的类别和边框。为了计算损失并训练模型,该方法使用了Hungarian算法将输出与ground truth进行一对一的匹配。2、MutualNet: Adaptive ConvNet via Mutual Learning from Network Width and Resolution论文链接:https://arxiv.org/abs/1909.12978传统的神经网络只能算力达到一定程度时才能有效果,而且,如果不满足资源约束条件,则该模型将无法使用,这会限制模型的实际应用。比方说,如果模型用于移动设备推理,那么计算约束会一直随着负载和设备的电量而变化。解决上述问题的一个简单方法,是在设备上保留几个大小不同的模型,然后每次使用具有相应约束的模型。但这也需要大量的内存,且无法扩展到不同的约束。最新的一些方法,诸如S-Net和US-Net,在训练期间对子网络进行了采样,这样模型就可以在部署期间以不同的宽度应用。但由于约束非常低,模型的性能也急剧下降。这篇论文提出,可以同时利用网络规模(network scale)和输入规模(input scale),在准确率和计算效率之间找到一个好的平衡点。如上图所示,针对给定的训练迭代,对四个子网络进行采样,其中包括一个完整的子网,和三个宽度变动的子网络。整个网络基于尺寸不变的、带有ground truth标签的图像,使用了标准的交叉熵损失进行训练,而其余子网络则使用它们的输出和整个网络的输出之间的KL散度损失(即蒸馏损失 distillation loss)对输入图像的随机缩放版本进行训练。通过这样的方式,每个子网络都能够从输入规模和网络规模中学会多比例表示(multi-scale representations)。在部署期间,给定特定资源约束,则可以选择最佳的网络规模和输入规模组合进行推理。3、Gradient Centralization: A New Optimization Technique for Deep Neural Networks论文链接:https://arxiv.org/abs/2004.01461在优化过程中使用二阶统计量(例如平均值和方差)对激活或网络权重进行某种形式的标准化(例如批归一化或权重归一化),已成为神经网络训练的重要组成部分。梯度集中化(Gradient Centralization,GC)无需使用额外的归一化模块对权重或激活进行操作,而是直接操作梯度,集中梯度向量,获得零均值,从而平滑和加速神经网络的训练过程,甚至改善模型的泛化性表现。给定已计算好的梯度,GC算符首先计算计算梯度向量的平均值(如上图所示),然后减去这些向量的平均值。一般情况下,对于梯度为的权重向量,GC算符被定义为:4、Smooth-AP: Smoothing the Path Towards Large-Scale Image Retrieval论文链接:https://arxiv.org/abs/2007.12163图像检索(image retrieval)的目标是从大量图像中检索与查询图像类别相同的图像。图像检索与图像分类的区别在于:在图像分类中,在测试中遇到的分类在训练时已明确;而在图像检索中,我们可能会检索到一张类别全新的图像,并需要抓取与之相似的图像,比如开集(open set)问题。图像检索的一般流程包括:提取用于查询图像的嵌入,以及使用CNN特征提取器来获得图像集的嵌入,计算每对图像的余弦相似度,然后基于相似度对集合中的图像进行排序。接着,特征提取器经过训练,以获得好的排名。排名表现由平均精度(Average Precision,AP)来衡量,计算每个阳性样本的排名与其在整个图像集上的排名之和。但是,对给定图像的排名计算涉及到使用Heaviside阶跃函数(Heaviside step function),从而使得阈值操作不可微,因此我们无法进行端到端的模型训练来直接优化排名。为了解决这个问题,该论文的作者提出用一个平滑的温控Sigmoid函数来取代Heaviside阶跃函数,使排名可微,并像损失函数一样应用于端到端的训练。与Triplet Loss相比,平滑AP损失能优化排名损失,Triplet Loss是一种替代损失函数,用于间接优化以获得良好的排名。5、Hybrid Models for Open Set Recognition论文链接:https://arxiv.org/abs/2003.12506现有的图像分类方法通常是基于一个闭集假设,比方说,训练集涵盖在测试阶段可能出现的所有分类。但很显然,这种假设是不现实的,因为即使是像ImageNet这种含有1000个类别的大规模数据集,也不可能覆盖现实世界上所有的类别。因此,便出现了开集分类。开集分类假设测试集包含已知和未知类,希望解决闭集分类的问题。在这篇论文中,作者使用基于流的模型来处理开集分类问题。基于流的模型能够通过最大似然估计,以无监督的方式使概率分布拟合训练样本。接着,流模型能够用来预测每个示例的概率密度。当输入样本的概率密度很大时,则输入样本可能是具有已知类别的训练分布的一部分,且此时离群值(outlier)的密度值会很小。虽然过去的模型在流模型上堆叠了一个分类器,但论文作者提出为流模型和分类器学习一个联合嵌入,因为仅从基于流的模型中学习的嵌入空间可能没有足够的判别特征来进行有效的分类。如上图所示,在训练过程中,图像被编码器映射到隐特征空间(latent feature space)中,然后,已编码的特征将馈入已经过交叉熵损失训练的分类器和用于估计密度的流模型中。整个架构以端到端的方式进行训练。为了测试,我们需要计算每个图像的,然后与训练集内最低的进行比较。如果比阈值大,则将发送至分类器中,以识别特定的已知类,或作为未知样本被驳斥。6、Conditional Convolutions for Instance Segmentation论文链接:https://arxiv.org/abs/2003.05664实例分割(Instance segmentation)至今仍是计算机视觉中最具挑战的任务之一,需要具备给定图像中每个可见目标的逐像素掩码(per-pixel mask)和类别标签(class label)。进行实例分割的主要方法是Mask R-CNN,包含两个步骤:首先,目标检测器Faster R-CNN会预测每个实例的边框;然后,针对每个检测到的实例,使用ROI Align从输出特征映射中裁剪出感兴趣的区域,将感兴趣的区域调整至相同的分辨率,然后馈入一个掩码中。该掩码是一个小的全卷积网络,用于预测分割掩码。但是,论文作者指出这种架构具有几点缺陷:1)ROI Align可能会抓取一些不相关的背景或其他实例的特征;2)调整大小的操作会限制实例分割的分辨率;3)掩码头(mask head)需要用到一叠3x3的卷积,才能产生足够大的感受野来预测掩码,这也大大增加了掩码头的计算需求。在这篇论文中,作者提出将用于语义分割的图像分割网络(FCN)应用于实例分割。为了进行有效的实例分割,FCN需要用到两类信息,一类是用于进行目标分类的外形信息,一类是用于区分同类的多个目标的位置信息。作者提议的网络名为CondInst(conditional convolutions for instance segmentation,用于实例分割的条件卷积)。该网络基于CondConv和HyperNetworks,其中,每个实例的子网络将根据每个实例的中心区域生成掩码FCN网络的权重,然后用于预测给定实例的掩码。如上图所示,网络包含在不同规模的特征图(feature map)中应用的多个掩码头。每个掩码头会预测在预定义位置上给定实例的类别,以及预测被掩码FCN头使用的网络权重。然后,利用每个掩码头生成的参数完成掩模预测。7、Multitask Learning Strengthens Adversarial Robustness论文链接:https://arxiv.org/abs/2007.07236深度神经网络有一个缺点,是容易受到对抗攻击的影响。在对抗攻击中,即使输入的外观保持不变,一有微小的哪怕看不见的扰动,便会产生错误的输出。近年来,人们对深度网络的对抗鲁棒性经流程的不同阶段,从输入数据(如使用未标记数据和对抗训练),到模型使用正则化方法进行自我建模(如 Parseval Networks),都进行了研究,但模型的输出仍无法提高鲁棒性。在这篇论文中,作者研究了多任务学习使用多个输出后对模型鲁棒性的影响。这个设置非常有效,因为越来越多机器学习应用程序需要用到能够同时执行多个任务的模型。使用p范数有界球攻击(p-norm ball bounded attack),若给定输入示例的半径,则能在p范数有界球内发现对抗性扰动,且脆弱性(vulnerability)是总损失变化(total loss change)。作者在论文中展现了,在训练一对任务时(例如从分割、深度、法线、重新切分、输入重建、2D和3D关键点等等中选择的一对任务),网络表现出更稳定的鲁棒性。在单任务攻击(比如,使用输出计算扰动)和多任务攻击(比如,使用所有输出来计算所有扰动中的最大扰动)中,我们也可以观察到鲁棒性有所改善。作者还从理论的角度证明:只有当任务相关时,网络才能获得这种多任务鲁棒性。8、Dynamic Group Convolution for Accelerating Convolutional Neural Networks论文链接:https://arxiv.org/abs/2007.04242分组卷积(group convolution)最初是在AlexNet网络中引入,用来加快该网络的训练速度,随后又经过修改,应用于诸如MobileNet和Shufflenet之类的高效卷积神经网络中。分组卷积包括将卷积层中的输入和输出通道平均分成互斥的部分或组,同时在每个单独的组内执行常规的卷积操作。所以对于组,计算量减少了倍。然而,该论文的作者认为,分组卷积也带来了两个重要的局限性:1)分组卷积引入稀疏神经元连接,削弱了正常卷积的表示能力;2)无论输入的属性如何,分组卷积的通道划分都是固定的。为了在保持原始网络的完整结构的同时,为每个组自适应地选择最相关的输入通道,作者提出了动态组卷积(dynamic group convolution,DGC)的概念。DCG由两个头(head)组成,每个头中包含一个用来为每个通道分配重要性分数的显著性分数生成器(saliency score generator)。应用这些分数,可以对重要性分数较低的通道进行修剪。然后,根据输入通道的选定子集引导正常卷积,在每个头中生成输出通道。最后,来自不同头的输出通道被连接在一起,并进行混洗(shuffled)。9、Disentangled Non-local Neural Networks论文链接:https://arxiv.org/abs/2006.06668非局部块(non-local block)使用注意力机制对像素之间的远程依赖关系进行建模,已被广泛应用于许多视觉识别任务中,例如目标检测、语义分割和视频动作识别等。在这篇论文中,作者想要更好地理解非局部块,找出它的局限性,然后给出改善后的版本。首先,他们重新制定像素(键像素)到像素(查询像素)的相似性,将其作为pairwise term和unary term的总和。pairwise term指的是表示查询键像素(query key pixel)之间纯成对关系的白化向量点积项(whitened dot proct term);unary term指的是给定键像素对所有查询像素的影响相同。然后,为了了解每个term的影响,他们使用其中任一个term进行训练,发现pair-wise term负责类别信息,而unary term负责边界信息。但是,通过分析非局部块的梯度,当pair-wise term和unary term在正常注意力操作符中结合时,两者的梯度相乘,因此,如果其中一个term的梯度为零,则另一个梯度非零的term起不了任何作用。为了解决这个问题,作者提出了非局部块的解耦版本,将每个term分开进行优化。10、Hard negative examples are hard, but useful论文链接:https://arxiv.org/abs/2007.12749深度度量学习(Deep metric learning)对嵌入函数进行了优化,其中嵌入函数将语义相似的图像映射到相对临近的位置、将语义不同的图像映射到较远的位置。学习这类映射的主要方法是基于锚图像(anchor image)、同类别的正图像和不同类别的负图像等三元组图像来定义损失函数。如果锚点映射到负图像的位置比正图像的位置更近时,则对模型进行惩罚。但是,在优化的过程中,大多候选三元组图像已经有一个比起负值、更接近于正值的锚,这些候选图像就变得多余了。另一方面,使用最难的负面示例进行优化,会在训练的早期阶段产生糟糕的局部最小值,因为在这种情况下,用余弦相似度(比如归一化特征向量之间的点积)测量时,锚-负相似度大于锚-正相似度。作者将上述问题归因于使用了三元组损失标准执行时的hard-negatives样本。具体来说,就是:1)如果在梯度计算过程中不考虑归一化,一大部分梯度便会损失;2)如果两个不同类的图像在嵌入空间中靠近,则损失的梯度可能会将两张图像拉得更近,而不是更远。为了解决这个问题,作者提出不要像在标准三元组损失中那样拉近锚-正样本对(anchor-positive pair),使其紧密聚类,而是避免更新锚-正样本对,使其不要紧密聚类。这样一来,网络便只专注于直接将hard negative样本推离锚点。11、Volumetric Transformer Networks论文链接:https://arxiv.org/abs/2007.09433CNN成功的一个关键点在于有能力学习语义目标部分的判别性特征表示,这对计算机视觉任务非常有利。但是,CNN仍然无法处理各种各样的空间变化(比如比例、视点和类内差异)。最近一些方法,例如空间变换网络( spatial transformer network,STN),试图先将空间性质不同的图像的特征图封装到一个标准规范配置中,然后在这些标准特征上训练分类器,以此来抑制这些变化。但是,这些方法对所有特征通道进行相同的封装,没有考虑到这个事实,即各个特征通道表示不同的语义部分,因此可能需要就规范配置进行不同的空间变换。为了解决上述的问题,这篇论文介绍了上图所示的Volumetric transformer network (VTN)。这是一个可学习的模块,能够预测每个通道和每个空间位置封装变换(spatial location wrapping transform)。这些变换将中间的CNN特征重新配置为与空间无关的标准表示形式。VTN是一个编码器-解码器网络,具备专门用于让信息跨功能通道流动、以显示语义部分之间的依赖性的模块。12、Faster AutoAugment: Learning Augmentation Strategies Using Backpropagation论文链接:https://arxiv.org/abs/1911.06987数据增强已成为深度学习方法中必不可少的的一环。该方向的一些最新工作(例如AutoAugment、Fast AutoAugment和RandAugment等)表明,搜索算法比标准的增强方法更擅长发现数据增强策略。DA应用一组预定义的可能变换,如旋转等几何变换,或曝光等颜色增强变换,目标是找到最佳的数据增强参数,比如数据增强的程度、应用的可能性以及组合的转换数数量(如下图中的左图所示)。DA通过双重优化循环(double optimization loop)学习最佳策略,从而将使用特定策略训练的特定CNN的验证错误最小化。然而,这种优化方法会因为具有许多策略可能性的巨大搜索空间而遭殃,需要用到复杂的搜索策略。此外,策略优化的单次迭代需要对CNN进行全面训练。为了解决这个问题,作者提出,对原始图像和基于梯度优化的增强图像进行密度匹配,以找到最佳策略。作者将DA视为填充原始数据缺失点的一种方式,旨在将增强数据的分布与使用了对抗学习的原始数据之间的距离最小化。此外,为了学习最佳增强策略,需要对变换参数可微。谈及应用给定增强的可能性,作者使用了从伯努利分布(Bernoulli distribution)中采样、使用 Gumbel trick进行了优化的随机二进制变量(stochastic binary variable)。另外,幅度通过直通估算器(straight-through estimator)进行近似,组合以one-hot向量组合进行学习。2半监督、无监督、迁移、表征和小样本学习1、Big Transfer (BiT): General Visual Representation Learning论文链接:https://arxiv.org/abs/1912.11370在本文中,作者重新探讨了迁移学习的简单范例:对大量带标签的源数据(例如,JFT-300M和ImageNet-21k数据集)进行预训练,然后针对不同任务对这些训练权重进行微调,这样既减少了目标任务所需的数据量,又减少了微调时间。作者将该框架命名为BiT(大型迁移),其由许多组件组成,该网络能够有效的利用大规模数据集并学习通用的和可迁移的表示特征。在(上游)预训练方面,BiT包含以下内容:1)对于非常大的数据集,批归一化(BN)在测试过程中使用来自训练数据的统计参数会导致训练/测试差异,在这种情况下,训练损失可以正确的被优化,而验证损失则非常不稳定。 为了解决这个问题,BiT使用组归一化(GN)和权重归一化(WN)代替了BN。2)对于ResNet 50之类的小型模型,它们无法从大规模训练数据中得到充分的训练,因此模型的大小也需要相应地扩大规模。对于(下游)目标任务,BiT提出以下建议:1)使用标准SGD,需要将最后一个用于预测的层初始化为0,且无需冻结其他层,同时也不需要加dropout,L2正则项或者其他的tricks。2)在训练过程中,将图像进行随机缩放并裁剪为具有随机大小的正方形,并随机进行水平翻转。只有在测试时,将图像调整为固定大小。3)经验表明mixup对于大规模数据的预训练没有性能提升,但是BiT发现mixup对某些下游目标任务的中型数据集非常有用。2、Learning Visual Representations with Caption Annotations论文链接:https://arxiv.org/abs/2008.01392在大规模标注数据集上训练深度模型不仅可以在当前目标任务中获得良好的性能,还可以使模型在下游目标任务也有较好的表现。但是,对数据集进行标注需要付出巨大的代价,如果没有标注,我们还能否实现这样的效果?基于此,这篇论文研究了使用噪声标签(直接用图像字幕作为标签)的弱监督预训练。以使用有限的图像-字幕对来学习视觉表征为目标,如何设计一个训练目标来推动图像与其字幕之间的有效交互?基于BERT中使用的遮挡图像建模,它随机遮挡15%的输入,然后使用transformer模型的编码器部分,训练模型去重建被遮挡的输入标记。论文提出了图像条件遮挡语言建模(ICMLM),利用图像重建其对应字幕的遮挡标记。为了实现这个目标,作者提出了两种多模态架构,(1)ICMLM tfm,其图像使用CNN进行编码,遮挡的字幕使用BERT模型,然后将字幕和图像特征进行拼接,并通过transformer编码器产生多模态嵌入,用于预测遮挡的标记。(2)ICMLM att+fc,相似度,先产生字幕和图像特征,然后通过配对注意力块,整合字幕和图像之间的信息。然后将产生的特征进行汇集,并通过全连接层进行遮挡标记预测。3、Memory-augmented Dense Predictive Coding for Video Representation Learning论文链接:https://arxiv.org/abs/2008.01065图像自监督表征学习的最新进展显示了其在下游目标任务的出色性能。虽然目前针对视频的多模型表示学习也可以达到较好的效果,但是仅使用视频流(去除音频、文字信号)的自监督模式仍然没有得到发展。视频的时间信息也可以作为一种监督信号,以自监督的方式训练模型去预测未来状态作为之前状态的监督信息,由于在给定的时间步长内,未来状态有许多合理的假设(例如,当动作是“打高尔夫球”时,未来的状态可能会和手或者高尔夫俱乐部有关),这也带来一定的局限性。本文将对比学习与存储模块结合起来,来对未来状态进行预测。为了减少不确定性,模型会在特征层面上预测未来,并使用对比损失进行训练以避免过度的约束。为了处理多种假设情况,每个存储模块可以同时推断多个未来状态。例如给定一组连续帧,则2d-3d CNN编码器()产生上下文特征和GRU()来汇总所有过去的信息,然后使用这些信息从共享内存模块中选择插槽。然后,将预测得到的未来状态插入到所选插槽中构成新的状态集合。然后使用对比损失将预测的未来状态与真实特征向量进行优化。对于下游任务,将之前汇总的特征进行下采样,然后馈送到分类器。4、SCAN: Learning to Classify Images without Labels论文链接:https://arxiv.org/abs/2005.12320对于无标签图像分类问题,本文仅使用视觉相似性来寻找解决方案。之前的工作大致包括两类方法:(1)用自监督方法提取特征,然后在特征空间应用k-means来寻找聚类中心,但这类方法很容易导致模型退化。(2)端到端的聚类方法,利用CNNs特征进行深度聚类,或者基于互信息最大化。这类方法产生的聚类中心严重依赖于初始化的效果,而且很可能只能提取到低级特征。为了解决之前工作中存在的问题,本文提出了SCAN(基于最近邻的语义聚类),包含两步操作,第一步,通过前文任务学习特征表征,然后,为了生成初始聚类中心,SCAN根据特征相似度挖掘每个图像的最近邻,而不是使用K-means。第二步,将语义上有意义的最近邻域作为先验来训练模型,将每张图像及其领域一起分类,在softmax层之后最大化它们的点积来作为损失函数,推动网络产生一致和判别性(one-hot)的预测。5、GATCluster: Self-Supervised Gaussian-Attention Network for Image Clustering论文链接:https://arxiv.org/abs/2002.11863聚类是根据样本相似度来将数据进行分类。传统的方法使用手工特征和特定领域的距离函数来衡量相似度,但这种手工特征在表达能力上非常有限。后来的工作将深度特征与聚类算法相结合,但当输入数据非常复杂时,深度聚类的性能仍然会受到影响。为了实现有效的聚类,在特征层面,它们既要包含高级的判别特征,又要兼顾对象所包含的语义。在聚类过程中,必须避免将所有样本分配到一个或几个聚类的异常情况,同时聚类也要能够高效地应用于大尺寸图像中。本文提出了GATCluster,它可以直接输出语义聚类标签,而无需后处理操作,学习到的特征是one-hot编码向量,避免出现异常解。GATCluster以无监督的方式进行训练,在特征不变性、可分离性最大化、熵分析和注意力映射的约束下,完成四个自学习任务。6、Associative Alignment for Few-shot Image Classification论文链接:https://arxiv.org/abs/1912.05094在小样本图像分类中,目标是产生一个模型,在训练数据很少的情况下,去识别新的给定图像。其中一种流行的方法是元学习,它从大量包含基础类的标记数据中提取常识性特征来训练一个模型。然后,再将该模型训练成只用少数训练样例就能对新类别的图像进行分类。元学习的目标是找到一组好的初始权重,在新类别图像上训练时迅速收敛。最近的工作表明,没有元学习的标准迁移学习,即先在基础类上预训练一个特征提取器,然后在预训练的提取器上对新类别图像微调分类器,其表现与更为复杂的元学习策略性能相当。然而,在微调过程中,为了避免过度优化,需要对提取器某些层进行冻结,但这会影响性能。本文提出了一种两步法来解决这个问题。首先,使用特征提取器来产生新类别的特征。然后利用嵌入空间中的相似性度量将每个样本的特征映射到其中已知的一个基类。第二步是特征关联对齐,对特征提取器进行微调,缩小新类别嵌入与其相应基类图像嵌入之间的距离。可以通过中心点对齐或者对抗性对齐来实现。33D计算机视觉和机器人1、NeRF: Representing Scenes as Neural Radiance Fields for View Synthesis论文链接:https://arxiv.org/abs/2003.08934从2D图像合成3D视图是一个具有挑战性的问题,特别是当输入的2D图像是稀疏采样得到的。本文的目标是训练一个模型,该模型接受一组3D场景的2D图像(拍摄角度及相机参数可调整),然后,使用训练好的模型,可以渲染出3D场景的新视图(在输入的2D图像集合中不存在)。一个成功的方法是基于voxed的表示方法,Anf使用3D CNN预测RGB-alpha网格值的3Dvoxel。然而,这种方法的内存效率很低,因为它们随着空间分辨率的变化进行扩展,可能很难优化,并且不能平滑地对场景表面进行参数化。最近的工作大多是用一个全连接的神经网络将给定的3D场景表示为一个连续函数,这种方法训练得到的神经网络本身就是对3D场景的压缩表示,利用2D图像集合进行训练,然后来渲染新的视图。但现有的方法还是无法与基于voxed的方法相媲美。NeRF(神经辐射场)使用一个9层、256个通道的全连接网络将场景表示为一个连续的5D函数,其输入是一个单一连续的5D坐标,即3D空间位置和观看方向,其输出是RGB颜色和不透明度(输出密度)。为了合成一个给定的视图,渲染过程包括沿摄像机射线查询5D坐标,并使用经典的体积渲染技术将输出颜色和密度投射到图像中。由于体积渲染是自然可分的,因此优化函数所需的唯一输入是一组具有已知相机姿势的图像。这样一来,NeRF就能通过计算渲染图像和ground-truth之间的重建损失,来有效地优化神经辐射场。模型渲染出的具有复杂几何形状和外观的场景视图,明显优于之前工作的结果。2、Towards Streaming Perception论文链接:https://arxiv.org/abs/2005.10420自动驾驶汽车等实际应用需要类似于人类的快速反应时间,通常为200毫秒。在这样的条件约束下,需要低延时的算法来确保汽车安全行驶。虽然近来计算机视觉算法的延迟也成为了一个研究热点,但也仅仅是在离线环境下进行探索。而在线感知会带来完全不同的延迟要求。因为当一个算法完成对某一帧图像的处理时,比如200ms后,周围的世界就已经发生了变化,如下图所示。这迫使模型要对未来进行预测,这也是人类视觉的一个基本属性。本文介绍了流式感知的目标,即实时在线感知,并提出了一个新的元基准,可以系统地将任何图像理解任务转换为流式图像理解任务。这个基准建立在一个关键先验观察上:流式感知需要随时了解世界的状态。因此,当一个新的帧到达时,流式算法必须报告世界的状态,即便它们还没有完成对前一帧的处理,这会迫使它们考虑在计算时忽略无关的信息。具体来说,在比较模型的输出和ground-truth时,对应的标准是时间而不是输入的索引顺序,所以模型需要在处理相应的输入之前,给出时间步长的正确预测,即如果模型需要来处理输入,它只能使用之前的数据来预测时间的输出。3、Teaching Cameras to Feel: Estimating Tactile Physical Properties of Surfaces From Images论文链接:https://arxiv.org/abs/2004.14487人类能够在年轻时形成一种心理模型,该模型能将人类对物体的感知和感知的触觉产生一种映射,这基于之前与不同物品互动时的经验。当与新奇的对象进行交互时,尤其是当现有信息无法准确估计触觉的物理特性时,这种心理模型就变成了非常有价值的工具。为了更直接地模拟这种心理模型,本文提出直接估计物理属性的方法,直接利用物体的属性。首先,作者提出了400多个图像序列和触觉属性测量的数据集。由于在估计表面属性时,人们会经常不自觉地移动头部,来获取一个表面的多个视图,因此,捕获的图像序列包括每个物体表面的多个视角。然后,他们提出了一个跨模态框架,用于学习视觉线索到触觉属性的复杂映射。该模型的训练目标是在给定视觉信息的情况下生成精确的触觉属性估计。视觉和触觉信息都通过单独的编码器网络嵌入到一个共享的隐空间。然后,一个生成器函数从嵌入的视觉向量中估计触觉属性值。判别器网络来判别触觉-视觉对是真实的还是合成的。在推理过程中,则使用编码器-生成器来对输入图像推理触觉属性。4、Convolutional Occupancy Networks论文链接:https://arxiv.org/abs/2003.04618三维重建是计算机视觉中的一个重要问题,有很多应用。对于一个理想的三维几何表示,需要能够满足以下四点,a)对复杂的几何和任意的拓扑结构进行编码,b)能够扩展到大型场景,c)兼顾局部和全局信息,d)在内存和计算方面是可控的。然而,现有的三维重建的表示方法并不能都满足这些要求。虽然最近的隐式神经表示法在三维重建中表现出了更好的性能,但由于其使用简单的全连接网络结构,无法将局部信息整合到观测值中,也无法加入类似平移等价性的归纳偏差。卷积占位网络利用卷积编码器与隐式占位解码器,结合归纳偏差,实现三维空间的结构化推理,这使得单个物体的隐式三维重建更加精细,具有扩展到大型室内场景的能力,并且能很好地从合成数据到真实数据进行泛化。4图像和视频合成1、Transforming and Projecting Images into Class-conditional Generative Networks论文链接:https://arxiv.org/abs/2005.01703GaNs能够从不同的类中生成不同的图像。例如,BigGaN(一种条件GaN),给定一个噪声向量和一个类嵌入,该模型能够从该类中生成一个新的图像。然后,可以通过编辑噪声向量和类嵌入的隐变量来操作该图像。但是,反过来是否可行呢,即给定一个输入图像,我们能不能找到与该图像最匹配的隐变量z和类嵌入?由于许多输入图像无法由GaN生成,因此这个问题仍然具有挑战性。此外,目标函数有很多局部最小值,搜索算法很容易卡在这些区域。为了解决这些问题,本文提出了pix2latent,并提出了两个新的思路:在尺度上估计输入变换,以及使用非局部搜索算法来寻找更好的解决方案。如上图所示,给定一个输入图像,pix2latent首先找到最佳变换,使变换后的输入GaN产生的图像非常接近,然后利用提出的BasicCMA优化方法将图像投射到隐空间。然后对得到的隐变量进行编辑,投射回图像空间得到编辑后的图像,然后可以对图像进行初始变换的逆向变换。2、Contrastive Learning for Unpaired Image-to-Image Translation (paper)论文链接:https://arxiv.org/abs/2007.15651给定两组不同属性和模式的图像对的训练集,例如,马和斑马的图像,图像翻译的目标是学习两个模式之间的翻译函数,例如,将马转化为斑马,反之亦然,同时保留姿势或大小等信息,不需要获得两个模式之间的一对一的匹配数据集。现有的方法如CycleGaN迫使模型的生成图像与原始图像一致。但是这种方往往限制性太强,因为一个给定的翻译图像会有很多可能的输入图像。理想的损失应该对不同的风格不变,但要区分敏感信息。对比形式的非配对翻译(CUT)旨在学习这样的嵌入空间。除了标准的GaN损失,还加入了一个额外的损失,用来拉近输入图像和生成图像上某个patch的特征嵌入之间的距离。3、Rewriting a Deep Generative Model论文链接:https://arxiv.org/abs/2007.15646GAN能够对数据分布建模一组丰富的语义和物理规则,但是到目前为止,我们仍然不清楚如何在网络中编码此类规则或如何更改规则。本文引入了一个新的问题:对深层生成式模型编码的特定规则进行操作。因此,给定一个生成模型,目标是调整其权重,以便新模型和修改后的模型遵循新规则,并生成遵循新规则集的图像,如下所示:通过将每一层视为关联存储,将隐层规则存储为隐式特征上的一组键值关系。可以通过定义约束优化来编辑模型,该约束优化可以在关联内存中添加或编辑一个特定规则,同时尽可能保留模型中的现有语义关系。论文直接通过测量和操作模型的内部结构来做到这一点,而不需要任何新的训练数据。4、Learning Stereo from Single Images论文链接:https://arxiv.org/abs/2008.01484给定一对相应的图像,立体匹配的目标是估计从第一视图到第二视图的每个像素的相应位置之间的像素水平位移(即差距),反之亦然。虽然全监督的方法给出了很好的结果,但其很难获得一对立体图像之间的精确的差距。一个可能的替代方法是在合成数据上进行训练,然后在有限数量的真实标注数据上进行微调。但是如果没有带有足够标签的微调步骤,这种模型就无法很好地生成真实图像。论文提出了一种新颖的全自动pipeline,用于从给定深度彩色模型的单个图像的非结构化集合中生成立体训练数据,而无需合成数据或立体图像对进行训练。使用深度估计网络。首先,给定的左输入图像通过前向计算得到特征向量,再结合深度视差转换为合成的右图像。然后,利用立体图像对,再以监督的方式对立体网络进行训练,从而得到一个通用性良好的模型。5、What makes fake images detectable? Understanding properties that generalize论文链接:https://arxiv.org/abs/2008.10588虽然GaN生成图像的质量已经达到了令人惊叹的水平,但经过训练用来鉴伪的深度网络仍然可以发现这些生成图像中的细微伪影,而且这种经过训练的网络还可以在不同数据集和不同方法训练的多个模型中发现相同的伪影。本文旨在可视化并了解哪些伪影在模型之间是共享的,并且很容易被检测到,且可以在不同场景中转移。由于全局的面部结构在不同的生成器和数据集之间可能会有所不同,因此生成图像的局部patch会非常固定,可能会共享多余的伪影。为此,采用基于patch的全卷积分类器来关注局部patch而非全局结构。然后,可以使用路径级分类器对各种测试数据集上最能代表真实或伪造图像的patch进行可视化和分类。5视觉和语言1、Connecting Vision and Language with Localized Narratives论文链接:https://arxiv.org/abs/1912.03098连接视觉和语言的一种方式是使用图像字幕,每张图像都会配上一段人为撰写的字幕,但是这种链接方式需要在完整的图像范围内,句子往往会描述整个图像。为了改进该链接方式,可以对图像字幕的特定部分和图像中的对象框之间建立额外的链接。但是这样处理后的链接仍然非常稀疏,大多数图像中的对象没有与字幕链接,注释过程也很昂贵。本文提出了一种新的高效的多模态图像注释形式,用于连接视觉和语言,称为“定位叙事”。定位叙事是通过要求注释者用声音描述图像,同时将鼠标悬停在他们所描述的区域上生成的。如上图所示,注释者一边说 "女人",一边用鼠标悬停在她的空间范围,从而为这个名词提供视觉基础。之后,将鼠标从女人移动到气球上,说 "握住"。这样就为这个动作提供了直接的视觉基础。他还描述了 "晴朗的蓝天 "和 "浅蓝色牛仔裤 "等属性。由于语音与鼠标指针同步,可以确定描述中每一个词的图像位置。这就为每个词提供了密集的视觉基础。具有多种模态(即图像,文本和语音)的注释可用于完成不同的任务,例如文本到图像生成,视觉问答和语音驱动的环境导航。或者用于更细化的任务控制,比如对图像的特定部分进行字幕调理,视力不佳的人可以将其悬停在图像上,以获取特定部分的描述。2、UNITER: UNiversal Image-TExt Representation Learning论文链接:https://arxiv.org/abs/1909.11740大多数视觉与语言(V&L)任务,如视觉问答(VQA)都依赖于联合多模态嵌入,以弥合图像和文本中视觉和文本线索之间的语义差距。但这种表征通常是为特定任务量身定做的,需要特定的架构。学习通用的联合嵌入,可以用于所有的V&L下游任务。这篇论文介绍了UNITER,一个大规模的多模态联合嵌入的预训练模型,如下图所示。基于Transformer模型,UNITER在4个任务上进行了预训练:对图像进行遮挡建模(MLM),其中使用图像和文本功能恢复随机遮挡的单词。以文本为条件的遮挡区域建模(MRM),该模型重建给定图像的一些区域。图像文本匹配(ITM),模型预测图像和文本实例是否配对。以及单词区域对齐(WRA),模型会找到单词和图像之间的最优对齐路径。如果要在下游任务上使用UNITER,首先要将它们重构为一个分类问题,然后在[CLS]特征之后添加分类器,使用交叉熵损失进行训练。3、Learning to Learn Words from Visual Scenes论文链接:https://arxiv.org/abs/1911.11237视觉和语言的标准方法往往是学习一个通用的嵌入空间,但是这种方法效率低下,需要数百万个示例来训练,对语言的自然组成结构的通用性较差,并且在模型推理时,学习到的嵌入无法适应新词。因此,本文建议不学习词嵌入,而是学习获取词嵌入的过程。该模型基于Transformer模型,并且在每次迭代时,模型都会接收一个图像和语言对的情节,然后通过元学习策略从情节中获取词表示。该表示能够在推理时获取新词,并且能够更可靠地泛化到新的情况。具体而言,每个任务都被表述为语言学习任务或情节,由训练示例和测试示例组成,其中测试示例评估从训练示例中获取的语言。例如,在上图中,该模型需要从训练样本中获取单词“ chair”,这是它从未见过的词。元训练是在正向传递中完成的,在训练示例中,模型需要指向正确的单词“ chair”,并且使用匹配损失来训练模型。在对许多情节和任务进行训练之后,该模型能够在推理过程中非常快速地适应新任务。原文链接:https://yassouali.github.io/ml-blog/eccv2020/
案例研究型硕士论文的结构基本包括7个部分:1、研究背景与问题提出硕士论文的该部分主要包括论文的研究背景、研究目的和研究意义、研究内容、研究方法以及研究思路。也就是本部分需要回答:论文写作者研究本论文的原因?该论文的研究有什么现实和理论意义?国内外研究关于此类问题有哪些研究,进展到如何程度以及文章的创新性等方面。在论述研究背景时,不应该过大,硕士学员生应该阐述直接衍生出本研究问题的背景信息。研究背景可以从本研究关注的管理事件入手,也可以从现有的管理理论入手,从管理实践或现有的理论中提出有价值的研究问题。该部分特别要强调数据来源。这一部分主要介绍的是硕士论文研究设计的过程。论文写作者应该对于案例资料是如何获取的进行清晰的表述、运用怎样的调研方法以及如何实施的过程,为后续的案例描述中所提供的信息的客观性和准确性进行佐证。案例资料应主要采用论文写作者在实际调研中获得的原始资料。比如,在该部分加入本人在某某某公司工作的时间,做过那些工作,观察了什么数据,对什么人进行过访谈等内容都需要进行说明,增加读者的可信性。调研的过程应该遵循科学规范的研究程序,严谨而有逻辑性。2.案例企业所在的行业描述这一部分主要是描述案例企业所在的行业的国内外发展现状,这部分研究内容如果在第一部分介绍了,就不必再进行单独撰写。3.案例企业描述(论文重中之重部分,从字数上讲应该占论文50%左右)这一部分主要是对论文写作者收集来的案例资料进行整理,通过一定的逻辑呈现出来。案例描述时应该是对管理现象或管理活动的事实进行客观的描述,不能掺杂任何本人的分析评价,只能是客观事实论述。案例信息的组织应体现出合理的逻辑结构,符合一般的认知规律。如,可以按照一个事件发生和发展的时间顺序阐述,也可以按照内容组织成为若干清晰的模块。案例信息应当丰富、翔实,包含必要的细节和对原始资料的引用。出于对案例对象信息保密的需要,允许对数据、单位名称、人物姓名等信息进行适当的掩饰性处理。4.案例分析与讨论这一部分主要是运用管理理论或原理分析案例,形成作者的主要观点。案例分析中所需要用到的理论和原理可以在国内外研究现状中介绍过,也可以在结合案例采用某些理论分析案例。理论原理和案例内容的结合应该是比较贴切的。切忌将无直接关联的理论内容堆砌案例分析与讨论中。引用的理论原理应该来源于质量较高的文献,例如正规的教材、专著、期刊等。在对案例进行分析的基础上,通常也需要提出一定的解决方案或建议。有时可能还会包括在分析中发现现有的理论原理无法解释的现象,作者提出自己的新的解释。