欢迎来到加倍考研网! 北京 上海 广州 深圳 天津
微信二维码
在线客服 40004-98986
推荐适合你的在职研究生专业及院校
谈谈对计算机系统的认识,大家对计算机有哪些自己的看法?大狂魔

谈谈对计算机系统的认识,大家对计算机有哪些自己的看法?

什么是系统?再说计算机之前,先了解一下什么是系统?系统是若干部分相互联系、相互作用,形成的具有某些功能的整体。比如电饭煲把大米放进去,加工成香喷喷的米饭。这里电饭煲就是一个系统,它有许多电器件组成,它的功能就是煮饭。如何认识系统现在已经知道系统是由部分连接组成的整体。对大多数人而言认识系统,不需要知道内部的复杂结构,只要知道它的输入和输出的特性,就能使用这个系统。系统输入输出,忽略其内部构成再举例电饭煲,知道放生米放进去就会有熟透的米饭出来,这时你就能使用它。但是如果你嫌弃电饭煲煮饭太慢,你想修改一下电饭煲,这时你需要了解它的发热器件,看能不能换一个功率大一点的器件。如果你想自己设计制作一个电饭煲,那需要全方位了解电饭煲的构造,需要的知识也就更多。如何认识计算机系统现在人们都会使用计算机,想要写文本,立马知道使用office中的word软件,因为我们知道word软件输入输出特性。输入键盘上的键位,就能输出显示出我们需要的文本,而不需要知道计算机内部如何工作。但不能满足于简单的应用,我们想要进一步了解它。从冯诺依曼结构来说,输入设备(键盘鼠标)作为输入,计算机软件作为计算机的大脑,接收到输入,开始控制存储器、CPU经过一系列计算,然后输出设备(显示器)将结果显示出来。计算机与我们传统的机器系统是有本质上的区别。传统的机器系统只能解决特定的问题,电饭煲只能煮饭,不能干别的事情,而计算机相同的输入(键盘鼠标),对于不同的软件(游戏软件会输出游戏人物的动作、office软件输出文本),输出特性是不一样的,由此看出在应用层面计算机软件/程序的重要性。这是我对计算机系统的简单认识,大家有什么看法请在评论区留言。

爱智

计算机行业深度研究报告:2020年ADAS系统的渗透率达到50%(可下载)

获取《计算机行业深度研究报告:技术与政策共振,车联网落地应用加速》完整版,请关注绿信公号:vrsina,后台回复“泛科技报告及白皮书”,该报告编号为20bg0061。随着智能驾驶的不断渗透,带来ADAS需求快速增长。2018年,中国ADAS市场规模576亿。预计到2020年,汽车辅助驾驶/部分自动驾驶/有条件自动驾驶的新车装配率超50%,网联式驾驶装配率达10%,ADAS系统的渗透率达到50%。车联网是“人、车、路、云”互联。车联网即智能网联汽车,是指搭载先进的车载传感器、控制系统、执行器等装置,并融合现代通信与网络技术,实现车与 X(车、路、人、云端等)之间的智能信息交换、共享,且具备复杂环境感知、智能决策、协同控制等功能,可实现安全、高效、舒适、节能行驶,并最终可实现替代人为操作的新一代汽车。整体而言, 车联网 是 汽车、电子、 信息 通信、 道路 交通运输等 行业 深度融合的新型产业 形态。根据《“十三五”汽车工业发展规划意见》的规划,到 2020 年实现具有辅助驾驶功能的智能网联汽车新车渗透率达到 50%;根据《中国制造 2025》的规划,到 2025 年智能网联汽车新车销量占比达 30%,高度自动驾驶智能汽车实现限定区域和特定场景商业化应用。新浪VR知识星球报告库以近五千分,所有新浪VR报告都将由管理员上传(包含部分未在其他平台发布的非互联网相关报告)VIP用户福利不定时开启,前1000名还能领领优惠券性价比更高! 新浪VR,早一天看见未来。

必有真宰

计算机系统的发展

可视化系统的出现,极大程度上丰富了用户的操作手段与视界。现今的操作系统又分为以下几个大类。UnixUnix系统20世纪70年代初出现的操作系统。这时可视化界面仍未出现,因而Unix的操作虽然是以简单的端口和代码操作,但仍不足以适应日益庞大的数据变化。其可视化的缺点也带来了诸多问题,例如代码并不如图像那样吸引人的眼球,也不便于小白进行操作。LinuxLinux系统20世纪80年代,Linux是与DOS系统齐名的系统。不得不说,此时的Linux已有向可视化推进的趋势。Linux同时具有代码和图形界面,代码界面给予开发人员使用,图形界面则利于非专业人群使用。这就极大地促进了Linux的使用范围的扩大,时至今日,更多的Linux的衍生版本还在使用,如,我国的基于Linux内核的红旗操作系统。其极大的兼容性和开源内核对以后的系统产生了极大兼容性,这在另一方面奠定了Linux不可动摇的地位。Windows XPWindows系列操作系统最早的Windows系统在1985年真正面世,基于MS-DOS启动的可视化操作界面,充分体现了微软向现代进军的“企图”。之后的Windows95、以及98风靡全球也就没有质疑的余地了。称霸一世的Windows XP则在2001年正式发布,这个占据了当时世界几乎百分之百计算机预装系统的市场份额,在可视化上,极大地满足了用户的需求。丰富的图像界面,便于操作的环境,比较安全的内核,更让它的“霸主“地位不可动摇。虽然它在2014年被微软停止技术支持,但我国的安全软件厂商承诺永久免费保护,足可见其在时代的”霸主“地位。Win7、Win8以及之后Win10,则充分继承了XP系统的完全可视化操作,并在细节问题,如,窗口的弹出上做出了更多改进。但却都没有XP系统的市场份额大,这从另一方面印证了XP在旧时代的地位。Mac OSMac OS操作系统这是一款运行在苹果计算机上的唯一系统,其内核和源代码并没有实现完全的开源。这在一定程度上,就限制了它的发展,应用也远远少于Windows系列操作系统。因此其市场份额也远远小于,Windows系列操作系统。结语在电子终端微型化的以及操作便捷化和傻瓜化的大趋势之下,尽管各大操作系统厂商已经做出更大的改变,但不断以指数级扩大的数据流仍然是各种操作系统所要面对的最大问题。芯片能力与数据的处理虽然有硬件系统的协调,但操作系统也占据了重要的一环。操作系统也必须做出更大革新也才能适应不断扩大的数据流以及不断更新的硬件设施。

始吾弗信

计算机系统其实也是一种完整的人工智能计算

今天呢,我想给大家介绍的是计算机系统是如何解决问题的。计算机系统解决问题,然而其实我也是一个计算机系统工程师。人工智能在很多领域都发挥着巨大的作用,包括图像识别、自然语言处理和数据挖掘等,而计算机系统其实也是一种完整的人工智能计算。在图像识别这块呢,我们通常做的事情是一张可以被算法分类的图片,被封装进神经网络中。除此之外,我们也会对其进行自动排列,以此来完成基于图像问题的分类问题。而计算机系统中同样发挥着巨大作用的还有一种特殊问题:通常涉及到巨大容量的数据,进行特定的运算。这么多问题,如果都用计算机系统来解决,那当然这些问题最终都会从人工智能中解决掉。比如对于现在很火的深度学习,经常用在数据挖掘领域,而对于数据挖掘算法有关的任务,要解决通常只需要一个可以对数据分类的神经网络,然后把数据集中的所有图片进行堆叠,那么就能够得到图片的总体分类结果,而因为网络体积巨大,这个网络的最终分类结果是无法确定的。这是因为神经网络无法拟合深度学习中通常采用的局部激活函数,也就是输入层的激活函数。相比较而言,对于算法本身而言,这种巨大的数据,相应的设计好的网络并不能够很好地解决问题。所以现在仍然还在继续探索研究的算法,为我们在数据量极大时进行数据挖掘提供了一个思路。其实我们再从人工智能的角度而言,人工智能其实是一个数据的高维问题,就是ai大量收集数据进行人工智能的数据分析,使用数据进行问题的高维投影的问题。从这个角度来说,我们称之为大数据的时代是不够严谨的,而且是不成立的。因为我们在解决问题时,高维投影问题的建模,是我们的处理对象发生了巨大的变化,需要进行我们认为重要的变换。其实通过一些物理性质或者数据的变化我们可以得到我们期望的结果,并不需要我们理解这些改变,但是最终的结果却是可以预测的。而人工智能所解决的问题,不是数据量大小的问题,而是数据量集合度的问题。所以说通过数据进行深度学习,从而取得巨大的进步,并不能说人工智能算法本身就是通过数据学习得到,人工智能本身的算法是通过通过高维数据计算出来的,而并不是通过类似人工智能这样的神经网络进行计算的。

灵明

人工智能研究的五个领域

人工智能的应用领域非常广,人工智能作为一种计算机科学的一个分支,从事人工智能研究的人还很少。资力企服通过近期AI相关类型企业资质办理逐渐上升的特点了解到,国家对人工智能专业人才的渴求度很大,应用领域也分布的广,人工智能主要分为自然语言处理、计算机视觉、语音识别、专家系统以及交叉领域等五个领域。第一方面:自然语言处理自然语言处理是一门融语言学、计算机科学、数学于一体的科学。自然语言处理并不是一般地研究自然语言,而在于研制能有效地实现自然语言通信的计算机系统,特别是其中的软件系统,是计算机科学,人工智能,语言学关注计算机和人类(自然)语言之间的相互作用的领域。自然语言处理的目的是实现人与计算机之间用自然语言进行有效通信的各种理论和方法。第二方面:语音识别语音识别是一门交叉学科。语音识别技术所涉及的领域包括:信号处理、模式识别、概率论和信息论、发声机理和听觉机理、人工智能等等。与机器进行语音交流,让机器明白你说什么,这是人们长期以来梦寐以求的事情,如今人工智能将这一理想变为现实,并带它走入了我们日常的生活。第三个方面:计算机视觉计算机视觉是一门研究如何使机器“看”的科学,更进一步的说,就是是指用摄影机和电脑代替人眼对目标进行识别、跟踪和测量等机器视觉,并进一步做图形处理,使电脑处理成为更适合人眼观察或传送给仪器检测的图像。通过计算机视觉,电脑将处理更适合人眼观察或传送给仪器检测的图像。计算机视觉的主要任务是通过对采集的图片或者视频进行处理以获得相应场景的三维信息。第四个方面:专家系统专家系统是人工智能中最重要的也是最活跃的一个应用领域,它是指内部含有大量的某个领域专家水平的知识与经验,利用人类专家的知识和解决问题的方法来处理该领域问题的智能计算机程序系统。通常是根据某领域一个或多个专家提供的知识和经验,进行推理和判断,模拟人类专家的决策过程,去解决那些需要人类专家处理的复杂问题。第五个方面:各领域交叉使用其实人工智能的四大方面应用其实或多或少都涉及到了其他领域,然而交叉应用最突出的方面还是智能机器人。机器人是自动执行工作的机器装置。它既可以接受人类指挥,又可以运行预先编排的程序,也可以根据以人工智能技术制定的原则纲领行动。它的任务是协助或取代人类工作的工作,例如生产业、建筑业,或是危险的工作。人工智能是一个涵盖所有机器智能的术语。资力企服分析近期办理AI相关资质的企业情况发现,人工智能研究和应用的不同领域有时会重叠,人工智能正带来创造更智能、更强大机器的大胆机遇。未来几年,人工智能必将进一步改变商业和生活。

大处男

94页论文综述卷积神经网络:从基础技术到研究前景

卷积神经网络(CNN)在计算机视觉领域已经取得了前所未有的巨大成功,但我们目前对其效果显著的原因还没有全面的理解。近日,约克大学电气工程与计算机科学系的 Isma Hadji 和 Richard P. Wildes 发表了论文《What Do We Understand About Convolutional Networks?》,对卷积网络的技术基础、组成模块、当前现状和研究前景进行了梳理,介绍了我们当前对 CNN 的理解。机器之心对本论文进行了摘要式的编译,更详细的信息请参阅原论文及其中索引的相关文献。文章选自arXiv,机器之心编译。论文地址:https://arxiv.org/abs/1803.088341 引言1.1 动机过去几年来,计算机视觉研究主要集中在卷积神经网络(常简称为 ConvNet 或 CNN)上。这些工作已经在广泛的分类和回归任务上实现了新的当前最佳表现。相对而言,尽管这些方法的历史可以追溯到多年前,但对这些系统得到出色结果的方式的理论理解还很滞后。事实上,当前计算机视觉领域的很多成果都是将 CNN 当作黑箱使用,这种做法是有效的,但其有效的原因却非常模糊不清,这严重满足不了科学研究的要求。尤其是这两个可以互补的问题:(1)在被学习的方面(比如卷积核),究竟被学习的是什么?(2)在架构设计方面(比如层的数量、核的数量、池化策略、非线性的选择),为什么某些选择优于另一些选择?这些问题的答案不仅有利于提升我们对 CNN 的科学理解,而且还能提升它们的实用性。此外,目前实现 CNN 的方法需要大量训练数据,而且设计决策对结果表现有很大的影响。更深度的理论理解应该能减轻对数据驱动的设计的依赖。尽管已有实证研究调查了所实现的网络的运行方式,但到目前为止,这些结果很大程度上还局限在内部处理过程的可视化上,目的是为了理解 CNN 中不同层中发生的情况。1.2 目标针对上述情况,本报告将概述研究者提出的最突出的使用多层卷积架构的方法。要重点指出的是,本报告将通过概述不同的方法来讨论典型卷积网络的各种组件,并将介绍它们的设计决策所基于的生物学发现和/或合理的理论基础。此外,本报告还将概述通过可视化和实证研究来理解 CNN 的不同尝试。本报告的最终目标是阐释 CNN 架构中涉及的每一个处理层的作用,汇集我们当前对 CNN 的理解以及说明仍待解决的问题。1.3 报告提纲本报告的结构如下:本章给出了回顾我们对卷积网络的理解的动机。第 2 章将描述各种多层网络并给出计算机视觉应用中使用的最成功的架构。第 3 章将更具体地关注典型卷积网络的每种构造模块,并将从生物学和理论两个角度讨论不同组件的设计。最后,第 4 章将会讨论 CNN 设计的当前趋势以及理解 CNN 的工作,并且还将重点说明仍然存在的一些关键短板。2 多层网络总的来说,本章将简要概述计算机视觉领域中所用的最突出的多层架构。需要指出,尽管本章涵盖了文献中最重要的贡献,但却不会对这些架构进行全面概述,因为其它地方已经存在这样的概述了(比如 [17, 56, 90])。相反,本章的目的是为本报告的剩余部分设定讨论基础,以便我们详细展示和讨论当前对用于视觉信息处理的卷积网络的理解。2.1 多层架构在近来基于深度学习的网络取得成功之前,最先进的用于识别的计算机视觉系统依赖于两个分离但又互补步骤。第一步是通过一组人工设计的操作(比如与基本集的卷积、局部或全局编码方法)将输入数据变换成合适的形式。对输入的变换通常需要找到输入数据的一种紧凑和/或抽象的表征,同时还要根据当前任务注入一些不变量。这种变换的目标是以一种更容易被分类器分离的方式改变数据。其次,被变换的数据通常用于训练某些类型的分类器(比如支持向量机)来识别输入信号的内容。通常而言,任何分类器的表现都会受到所使用的变换方法的严重影响。多层学习架构为这一问题带来了不同的前景,这种架构提出不仅要学习分类器,而且要从数据中直接学习所需的变换操作。这种形式的学习通常被称为「表征学习」,当应用在深度多层架构中时即被称为「深度学习」。多层架构可以定义为允许从输入数据的多层抽象中提取有用信息的计算模型。一般而言,多层架构的设计目标是在更高层凸显输入中的重要方面,同时能在遇到更不重要的变化时变得越来越稳健。大多数多层架构都是将带有交替的线性和非线性函数的简单构建模块堆叠在一起。多年以来,研究者已经提出了很多不同类型的多层架构,本章将会覆盖计算机视觉应用中所采用的最为突出的此类架构。人工神经网络是其中的关注重点,因为这种架构的表现非常突出。为了简单起见,后面会直接将这类网络称为「神经网络」。2.1.1 神经网络典型的神经网络由一个输入层、一个输出层和多个隐藏层构成,其中每一层都包含多个单元。图 2.1:典型神经网络架构示意图,图来自 [17]自动编码器可以定义为由两个主要部分构成的多层神经网络。第一个部分是编码器,可以将输入数据变换成特征向量;第二个部分是解码器,可将生成的特征向量映射回输入空间。图 2.2:典型自动编码器网络的结构,图来自 [17]2.1.2 循环神经网络当谈到依赖于序列输入的任务时,循环神经网络(RNN)是最成功的多层架构之一。RNN 可被视为一种特殊类型的神经网络,其中每个隐藏单元的输入时其当前时间步骤观察到的数据和其前一个时间步骤的状态。图 2.3:标准循环神经网络的运算的示意图。每个 RNN 单元的输入都是当前时间步骤的新输入和前一个时间步骤的状态;然后根据计算得到新输出,这个输出又可被馈送到多层 RNN 的下一层进行处理。图 2.4:典型 LSTM 单元示意图。该单元的输入是当前时间的输入和前一时间的输入,然后它会返回一个输出并将其馈送给下一时间。LSTM 单元的最终输出由输入门、输出门和记忆单元状态控制。图来自 [33]2.1.3 卷积网络卷积网络(CNN)是一类尤其适合计算机视觉应用的神经网络,因为它们能使用局部操作对表征进行分层抽象。有两大关键的设计思想推动了卷积架构在计算机视觉领域的成功。第一,CNN 利用了图像的 2D 结构,并且相邻区域内的像素通常是高度相关的。因此,CNN 就无需使用所有像素单元之间的一对一连接(大多数神经网络都会这么做),而可以使用分组的局部连接。第二,CNN 架构依赖于特征共享,因此每个通道(即输出特征图)是在所有位置使用同一个过滤器进行卷积而生成的。图 2.5:标准卷积网络的结构的示意图,图来自 [93]图 2.6:Neocognitron 的结构示意图,图来自 [49]2.1.4 生成对抗网络典型的生成对抗网络(GAN)由两个互相竞争的模块或子网络构成,即:生成器网络和鉴别器网络。图 2.7:生成对抗网络的一般结构的示意图2.1.5 多层网络的训练如前面讨论的一样,多种多层架构的成功都很大程度上取决于它们的学习过程的成功。其训练过程通常都基于使用梯度下降的误差的反向传播。由于使用简单,梯度下降在训练多层架构上有广泛的应用。2.1.6 简单说说迁移学习使用多层架构提取的特征在多种不同数据集和任务上的适用性可以归功于它们的分层性质,表征会在这样的结构中从简单和局部向抽象和全局发展。因此,在其层次结构中的低层级提取的特征往往是多种不同任务共有的特征,因此使得多层结构更容易实现迁移学习。2.2 空间卷积网络理论上而言,卷积网络可以应用于任意维度的数据。它们的二维实例非常适用于单张图像的结构,因此在计算机视觉领域得到了相当大的关注。有了大规模数据集和强大的计算机来进行训练之后,CNN 近来在多种不同任务上的应用都出现了迅猛增长。本节将介绍为原来的 LeNet 引入了相对新颖的组件的比较突出的 2D CNN 架构。2.2.1 CNN 近期发展中的关键架构图 2.8:AlexNet 架构。需要指出,虽然从图上看这是一种有两个流的架构,但实际上这是一种单流的架构,这张图只是说明 AlexNet 在 2 个不同 GPU 上并行训练的情况。图来自 [88]图 2.9:GoogLeNet 架构。(a)典型的 inception 模块,展示了顺序和并行执行的操作。(b)由层叠的许多 inception 模块构成的典型 inception 架构的示意图。图来自 [138]图 2.10:ResNet 架构。(a)残差模块。(b)由层叠的许多残差模块构成的典型 ResNet 架构示意图。图来自 [64]图 2.11:DenseNet 架构。(a)dense 模块。(b)(b)由层叠的许多 dense 模块构成的典型 DenseNet 架构的示意图。图来自 [72]2.2.2 实现 CNN 的不变性使用 CNN 的一大难题是需要非常大的数据集来学习所有的基本参数。甚至拥有超过 100 万张图像的 ImageNet 等大规模数据集在训练特定的深度架构时仍然被认为太小。满足这种大数据集要求的一种方法是人工增强数据集,具体做法包括对图像进行随机翻转、旋转和抖动(jittering)等。这些增强方法的一大优势是能让所得到的网络在面对各种变换时能更好地保持不变。2.2.3 实现 CNN 的定位除了识别物体等简单的分类任务,CNN 近来也在需要精准定位的任务上表现出色,比如形义分割和目标检测。2.3 时空卷积网络使用 CNN 为各种基于图像的应用带来了显著的性能提升,也催生了研究者将 2D 空间 CNN 扩展到视频分析的 3D 时空 CNN 上的兴趣。一般而言,文献中提出的各种时空架构都只是试图将空间域 (x,y) 的 2D 架构扩展到时间域 (x, y, t) 中。在基于训练的时空 CNN 领域存在 3 种比较突出的不同架构设计决策:基于 LSTM 的 CNN、3D CNN 和 Two-Stream CNN。2.3.1 基于 LSTM 的时空 CNN基于 LSTM 的时空 CNN 是将 2D 网络扩展成能处理时空数据的一些早期尝试。它们的操作可以总结成图 2.16 所示的三个步骤。第一步,使用一个 2D 网络处理每一帧,并从这些 2D 网络的最后一层提取出特征向量。第二步,将这些来自不同时间步骤的特征用作 LSTM 的输入,得到时间上的结果。第三步,再对这些结果求平均或线性组合,然后再传递给一个 softmax 分类器以得到最终预测。2.3.2 3D CNN这种突出的时空网络是将 2D CNN 最直接地泛化到图像时空域中。它直接处理 RGB 图像的时间流,并通过应用所学习到的 3D 卷积过滤器来处理这些图像。2.3.3 Two-Stream CNN这种类型的时空架构依赖于一种双流式(two-stream)的设计。标准的双流式架构是采用两个并行通路——一个用于处理外观,另一个用于处理运动;这种方法类似于生物视觉系统研究中的双流式假设。2.4 整体讨论需要重点指出的是,尽管这些网络在很多计算机视觉应用上都实现了很有竞争力的结果,但它们的主要缺点仍然存在:对所学习到的表征的确切本质的理解很有限、依赖于大规模数据训练集、缺乏支持准确的表现边界的能力、网络超参数选择不清晰。3 理解 CNN 的构建模块鉴于 CNN 领域存在大量悬而未决的问题,本章将介绍典型卷积网络中每种处理层的作用和意义。为此本章将概述在解决这些问题上最突出的工作。尤其值得一提的是,我们将从理论和生物学两个角度来展示 CNN 组件的建模方式。每种组件的介绍后面都总结了我们当前的理解水平。3.1 卷积层卷积层可以说是 CNN 架构中最重要的步骤之一。基本而言,卷积是一种线性的、平移不变性的运算,其由在输入信号上执行局部加权的组合构成。根据所选择的权重集合(即所选择的点扩散函数(point spread function))的不同,也将揭示出输入信号的不同性质。在频率域中,与点扩散函数关联的是调制函数——说明了输入的频率组分通过缩放和相移进行调制的方式。因此,选择合适的核(kernel)对获取输入信号中所包含的最显著和最重要的信息而言至关重要,这能让模型对该信号的内容做出更好的推断。本节将讨论一些实现这个核选择步骤的不同方法。3.2 整流多层网络通常是高度非线性的,而整流(rectification)则通常是将非线性引入模型的第一个处理阶段。整流是指将点方面的非线性(也被称为激活函数)应用到卷积层的输出上。这一术语借用自信号处理领域,其中整流是指将交流变成直流。这也是一个能从生物学和理论两方面都找到起因的处理步骤。计算神经科学家引入整流步骤的目的是寻找能最好地解释当前神经科学数据的合适模型。另一方面,机器学习研究者使用整流的目的是为了让模型能更快和更好地学习。有趣的是,这两个方面的研究者往往都认同这一点:他们不仅需要整流,而且还会殊途同归到同一种整流上。图 3.7:多层网络的文献中所使用的非线性整流函数3.3 归一化正如前面提到的,由于这些网络中存在级联的非线性运算,所以多层架构是高度非线性的。除了前一节讨论的整流非线性,归一化(normalization)是 CNN 架构中有重要作用的又一种非线性处理模块。CNN 中最广泛使用的归一化形式是所谓的 Divisive Normalization(DN,也被称为局部响应归一化)。本节将介绍归一化的作用并描述其纠正前两个处理模块(卷积和整流)的缺点的方式。同样,我们会从生物学和理论两个方面讨论归一化。3.4 池化不管是生物学启发的,还是纯粹基于学习的或完全人工设计的,几乎所有 CNN 模型都包含池化步骤。池化运算的目标是为位置和尺寸的改变带来一定程度的不变性以及在特征图内部和跨特征图聚合响应。与之前几节讨论的三种 CNN 模块类似,池化在生物学和理论研究上都具有支持。在 CNN 网络的这个处理层上,主要的争论点是池化函数的选择。使用最广泛的两种池化函数分别是平均池化和最大池化。本节将探索相关文献中描述的各种池化函数的优点和缺点。图 3.10:平均池化和最大池化在 Gabor 滤波后的图像上的比较。(a)展示了不同尺度的平均池化的效果,其中(a)中上面一行是应用于原始灰度值图像的结果,(a)中下面一行是应用于 Gabor 滤波后的图像上的结果。平均池化能得到灰度值图像的更平滑的版本,而稀疏的 Gabor 滤波后的图像则会褪色消散。相对而言,(b)给出了不同尺度的最大池化的效果,其中(b)中上面一行是应用于原始灰度值图像的结果,(b)中下面一行是应用于 Gabor 滤波后的图像上的结果。这里可以看到,最大池化会导致灰度值图像质量下降,而 Gabor 滤波后的图像中的稀疏边则会得到增强。图来自 [131]4 当前状态对 CNN 架构中各种组件的作用的论述凸显了卷积模块的重要性,这个模块很大程度上负责了在网络中获取最抽象的信息。相对而言,我们对这个处理模块的理解却最少,因为这需要最繁重的计算。本章将介绍在尝试理解不同的 CNN 层所学习的内容上的当前趋势。同时,我们还将重点说明这些趋势方面仍有待解决的问题。4.1 当前趋势尽管各种 CNN 模型仍继续在多种计算机视觉应用中进一步推进当前最佳的表现,但在理解这些系统的工作方式和如此有效的原因上的进展仍还有限。这个问题已经引起了很多研究者的兴趣,为此也涌现出了很多用于理解 CNN 的方法。一般而言,这些方法可以分成三个方向:对所学习到的过滤器和提取出的特征图进行可视化、受理解视觉皮层的生物学方法启发的 ablation study、通过向网络设计中引入分析原理来最小化学习过程。本节将简要概述其中每种方法。4.2 仍待解决的问题基于上述讨论,基于可视化的方法存在以下关键研究方向:首要的一点:开发使可视化评估更为客观的方法是非常重要的,可以通过引入评估所生成的可视化图像的质量和/或含义的指标来实现。另外,尽管看起来以网络为中心的可视化方法更有前景(因为它们在生成可视化结果上不依赖网络自身),但似乎也有必要标准化它们的评估流程。一种可能的解决方案是使用一个基准来为同样条件下训练的网络生成可视化结果。这样的标准化方法反过来也能实现基于指标的评估,而不是当前的解释性的分析。另一个发展方向是同时可视化多个单元以更好地理解处于研究中的表征的分布式方面,甚至同时还能遵循一种受控式方法。以下是基于 ablation study 的方法的潜在研究方向:使用共同的系统性组织的数据集,其中带有计算机视觉领域常见的不同难题(比如视角和光照变化),并且还必需有复杂度更大的类别(比如纹理、部件和目标上的复杂度)。事实上,近期已经出现了这样的数据集 [6]。在这样的数据集上使用 ablation study,加上对所得到的混淆矩阵的分析,可以确定 CNN 架构出错的模式,进而实现更好的理解。此外,对多个协同的 ablation 对模型表现的影响方式的系统性研究是很受关注的。这样的研究应该能延伸我们对独立单元的工作方式的理解。最后,这些受控方法是很有前景的未来研究方向;因为相比于完全基于学习的方法,这些方法能让我们对这些系统的运算和表征有更深入的理解。这些有趣的研究方向包括:逐步固定网络参数和分析对网络行为的影响。比如,一次固定一层的卷积核参数(基于当前已有的对该任务的先验知识),以分析所采用的核在每一层的适用性。这个渐进式的方法有望揭示学习的作用,而且也可用作最小化训练时间的初始化方法。类似地,可以通过分析输入信号的性质(比如信号中的常见内容)来研究网络架构本身的设计(比如层的数量或每层中过滤器的数量)。这种方法有助于让架构达到适宜应用的复杂度。最后,将受控方法用在网络实现上的同时可以对 CNN 的其它方面的作用进行系统性的研究,由于人们重点关注的所学习的参数,所以这方面得到的关注较少。比如,可以在大多数所学习的参数固定时,研究各种池化策略和残差连接的作用。

虞卿

什么是经典计算机系统(一分钟)

所有计算机系统,都是门电路的集合首先,我们来看一下经典计算机的定义:就是我们当前所使用的计算机系统,包括硬件与原件组成。(从第一代计算机开始到现在,只能说我们硬件、软件更好,因为都是一样的原理)硬件系统包括:运算器、控制器、存储器、输入设备和输出设备五部分组成。(可以看成计算机的躯体)。软件系统:也就是我们俗称的系统(是操作、运行计算机的灵魂)。它的原理是什么?用电信号控制的可进行逻辑运算的半导体开关元件,输出与输入只能是0与1。(为什么计算机采用二进制,以上就是原因,这样最简单、最直接的表达计算语言)从逻辑功能上来看,最基本的门电路有“或门”、“与门”和“非门”三种(是不是很简单,但是如何成千上百的组合就不是那么简单了。几亿几万亿的基础电路就更复杂)当前计算机,硬件与软件在交替成长,好些以前只能用软件模拟的基础运算都以硬件集成方式用硬件来代替,因为软件运行需要周期,硬件运行只占有一个周期(运算效率最高)但硬件运行有其缺点,就是固定,不可更改。而软件是可以再编译更改的。AI、量子计算机系统,这些只是CPU叠加、并行运算算法叠加,非线性数据模型、数学模型的电路化。小编只知一,可能猜测二,但三与万物就无能为力了。

半边灵

计算机系统硬件知识学习

已经报了两次软考了,都没有去考。我是非计算机专业的,毕业后却成为了一名野生码农。一直想考证,却没有坚持看书学习,书也买了三年了,一直停留在第三章,真是尴尬。以此记录,学习打卡。计算机系统的硬件系统由运算器,控制器,存储器,输入设备,输出设备组成。运算器,控制器等部件被集成在一起统称为CPU。CPU通过执行指令控制程序的执行顺序,产生每条指令的操作信号并将操作信号发送到不同的部件,对每条指令的整个执行过程都要进行严格控制,通过对数据进行算术运算及逻辑运算等方式进行加工处理。运算器由算术逻辑单元ALU,累加寄存器AC,数据缓冲寄存器DR,状态条件寄存器PSW组成。运算的结果放在累加器中,运算器至少有一个累加寄存器。控制器包括指令控制逻辑,时序控制逻辑,总线控制逻辑,中断控制逻辑。PC具有寄存信息和计数两种功能。指令修改过程通常只是简单地对PC加1。多核cpu,主要厂商AND和Intel。Intel不同的die上的两个内核封装在一起,称为双芯。AMD将两个内核做在知道die上,称为双核。东西不多,看了四五遍才有点印象,纯理论,只能死记硬背,没有基础就是这么难。

艾米丽

2017年中国计算机视觉行业研究报告

2017年下半年,数家计算机视觉公司单笔融资上亿美元,再次将计算机视觉推向人工智能领域最受关注的方向之一。本报告聚焦于计算机视觉技术现阶段在工业界的应用与研发,将在对相关技术热点及产业整体做概述性介绍的基础上,对典型应用的具体使用场景分领域论述,希望理清现状,写明征途,供产业界、投资界、政策制定者及关注人工智能领域的社会各界以参考。因报告研究对象以技术层创业公司为主,偏颇遗漏之处,敬请指正。 报告核心观点: 1. 深度学习主要提升的是计算机视觉领域分类任务的准确率;开源环境仅降低计算机视觉领域的入门技术门槛,前沿算法的技术壁垒依然存在;计算机视觉比赛成绩、论文成果不直接代表技术团队解决实际业务问题的能力。2. 2017年中国计算机视觉规模预期为40亿,凭借安防领域的爆发性增长,预期2020年将增长至725亿。3. 前端嵌入式智能系统的渗透率将逐步提升,与后端协同智能计算,加速产业智能升级。4. 算法迭代将不断提升限定场景识别准确率,加速渗透为各行业应用赋能。5. 前沿算法之外,计算机视觉公司的商业壁垒有赖于产品、服务、市场等综合建设。 一、计算机视觉技术概述 计算机视觉横跨感知与认知智能,现阶段应用以感知为主 视觉使人类得以感知和理解周边的世界,人的大脑皮层大约有70%的活动在处理视觉相关信息。计算机视觉即通过电子化的方式来感知和理解影像,以达到甚至超越人类视觉智能的效果。从1966年学科建立(MIT:The SummerVision Project)至今,尽管计算机视觉在感知与认知智能方向仍有大量难以解决、尚待探索的问题,但得益于深度学习算法的成熟应用(2012年,采用深度学习架构的AlexNet模型,以超越第二名10个百分点的成绩在ImageNet竞赛中夺冠),侧重于感知智能的图像分类技术在工业界逐步实现商用价值,助力金融、安防、互联网、手机、医疗、工业等领域智能升级。 现阶段有较好商业化进展的主要为语义感知中的分类任务 与人类实时选择性处理视觉信息不同(如人在驾驶时不需在意公路边草地的纹理或形状,也不用知道每辆车的确切形状),计算机仍难以从实际需求出发自主选择性输入并计算影像信息,通常需要人类对具体任务进行分解并使用与之匹配的计算方法,建立完整理想的智能视觉系统仍有很大挑战。另外,与可结合常识做猜想和推理进而辅助识别的人类智能系统相比,现阶段的视觉技术往往仅能利用影像表层信息,缺乏常识以及对事物功能、因果、动机等深层信息的认知把握。 数据与算力是深度学习的重要支撑 开源环境仅降低计算机视觉领域的入门技术门槛 工业界和学术界先后推出了用于深度学习模型训练的开源工具和框架,包括Caffe、Theano、Torch、MXNet、TensorFlow、PaddlePaddle、CNTK等等,极大降低了人工智能技术在工业实践中的入门门槛。尽管不同框架各有所长,但它们并不能真正满足企业在处理实际复杂业务时所面对的挑战,性能、显存支持、生态系统完善性、使用效率等不同层面的不足要求企业需要针对性的调整框架以适合自身业务所需。而在数据处理、计算集群管理、网络设计、应用端性能优化等若干重要环节都存在各种各样非开源技术或已成熟方案所能解决,极度依赖相关技术专家去探索求解的重要问题。对于前沿算法的突破创新以及算法在不同使用环境中的优化升级,不同公司的技术高低差异依然很大。 计算机视觉比赛的意义在于推动算法思想的进步 2007年由李飞飞教授发起的ImageNet计划将人工智能领域的影像数据推向了前所未有的规模,至今已有1400万张经过人工清洗标注的图片,含有2万个分类,为计算机视觉领域做出巨大贡献。自2010年每年一度的ImageNet物体识别竞赛(对1000类接近50万张图片的单标签识别),更是成为了计算机视觉领域最受关注的比赛。2017年,ImageNet举行了最后一届图像分类竞赛,Top 5的错误率降至2.25%(大幅领先人眼),该竞赛完成了历史使命,而更多的关于图像语义分割(像素级的分类问题)、1:N人脸识别、图像及视频理解(看图写话)方向的数据集与比赛将逐步登上舞台,推动更多领域更贴近真实世界场景的算法革新。 二、计算机视觉行业概况 计算机视觉行业图谱 中国计算机视觉行业市场规模 2016年下半年,1:N人脸识别、视频结构化等计算机视觉相关技术在安防领域的实战场景中突破工业化红线,敲响了计算机视觉行业市场大规模爆发的前奏。伴随人脸识别、物体识别等分类、分割算法不算提升精度,在2017年占比较高的安防、视频广告、泛金融、手机及互联网娱乐领域之外,医疗影像、工业制造、批发零售等现阶段的创新领域也将逐步解锁,成为行业整体快速发展的重要支撑。 前端智能的渗透率将逐步提升,与后端协同智能计算 伴随AI专用芯片及嵌入式感知系统的成熟研发,前端设备即可完成相对基础的视觉感知,并将识别、分类的结果实时应用,实现前端智能。对于需要大量计算、存储资源,利用多维度数据关联分析的诸多场景,后端服务器计算依然是当前主流。前端智能的渗透率将逐步提升,与后端智能协同加速产业升级,不仅可满足特定场景对实时性、隐私性的要求,还可在前端成像(千万像素、千帧/秒)提供越来越多数据信息的背景下,让前端智能选择预处理过的结构化的高质量数据及分析结果传输至后端,减少因带宽压力过大导致的丢包、压缩所引起的信息丢失或误差,提升智能分析的准确性。前端智能系统的功耗、稳定性、存储空间、数据及系统更新的网络传输等诸多重要问题仍有待解决,现阶段主要通过压缩算法模型、挖掘硬件潜力以及在压缩模型的同时针对现有芯片进行优化的方式来解决功耗有限、运算能力低的问题。 三、计算机视觉的应用场景 1、安防影像分析领域 主要应用场景之人脸识别 对道路卡口、车站、地铁站、机场等地方的监控视频进行智能分析,检测出动态视频中的人脸与黑名单库中的影像记录做实时比对,比对成功则立即报警推送给警务人员处置。 主要应用场景之视频结构化 2012年南京“1.6”案件发生后,南京警方从全市1万多个摄像头共提取了近2000T的视频数据,调动1500多名公安干警查阅搜索视频线索,共耗时一个多月。海量视频的有效利用存在巨大挑战,完全依靠人工费时费力,而安防影像智能分析则可有效缓解这一问题。视频结构化可针对已经生成的海量视频内容进行自动化处理,提供行人、机动车、非机动车等关键目标的监测、跟踪、属性分析,辅以以图搜图等检索功能,让案件侦办和治安布控更加智能便捷。 安防行业的千亿市场为视觉智能改造提供充分空间 2016年中国安防行业总产值为5410亿,占据2016年中国GDP的7‰,其中1900亿属于安防产品产值。从产品结构角度,安防产品可划分为视频监控、防盗报警、出入口控制等,安防影像的智能分析属于视频监控产品的升级改造,是各地区平安城市项目建设中的重要组成。2011年至2016年中国安防市场连续5年保持2位数增长,结合国家政府对建设更高水平的平安中国、进一步提升人民安全性的要求,未来中国的安防市场依然会保持稳定增长,对人工智能、计算机视觉技术的升级改造也提出了更高的期待。 智能安防相关产业链条分析 计算机视觉技术供应商在提供智能安防影像分析的时候,可能面对监控设备及平台软件厂商、集成商、公安等三大类客户。在最终的使用者公安以外,其他三类参与者关系复杂,各自的业务定位都在发展变化,合作间有竞争。 2、泛金融身份认证领域 主要应用场景及相关影像采集设备 与安防影像分析中人脸的“1:N”识别不同,目前泛金融领域以人脸“1:1”身份认证为主,部分场景涉及“1:N”识别,如银行网点中对VIP客户的智能识别。 刷脸认证的优势与功效 3、手机及互联网娱乐领域 为消费级产品带来全新智能体验 计算机视觉技术的成熟进步为同质化的手机产品及互联网娱乐应用带来了新的活力。2017年诸多国内外手机厂商推出了具有刷脸解锁的旗舰机型,而手机与影像相关的拍照优化、相册分类、编辑处理等也于近几年得以智能升级。人脸识别、特征点定位以及场景识别、物体识别等技术也丰富了直播、短视频等互联网应用的娱乐性,同时为影像内容的智能审核及分类做出贡献。 4、商品识别领域 拓宽信息边界,连接人与商品 键入关键词,搜索引擎可连接人与信息,大幅提升人类获取信息、搜集知识的效率,为世界创造巨大价值。计算机视觉则将信息的边界再度拓宽,缩短设计、原料采购、生产制造、线上与线下零售等各个环节的人与商品的距离,为商品供应链带来效能提升。 5、工业制造领域 产品质检及3D分拣 伴随年轻人从事重复性体力劳动的意愿降低,相关领域的劳动力成本极速上升,工厂对智能自动化设备的需求日益凸显,为计算机视觉技术在工业制造领域的研发落地提供了市场基础。产品(尤其3C产品)质检是现有视觉技术有望在未来3-5年在工业制造领域大规模落地的应用场景,目前产品质检依然依靠大量人力做肉眼判断,效率低、成本高、漏检误检严重,而深度学习算法可支持多种缺陷类型,增量学习也能不断提升产品适用性。另外,工业场景中存在大量的冲压件、组合件等不规则物体,不规则物体的分拣(无序抓取并有序放置,涉及物体识别、姿态估计、尺寸测量、运动规划等)需借助3D视觉技术,即使技术相对领先的国外产商相关产品也不足够成熟,出现问题难以即时相应(往往邮件沟通,售后服务难以保障),给予目前尚处于产品研发测试阶段的国内新兴厂商反超机会。 6、广告营销领域 智能挖掘影像内容广告位,构建新型营销模式 计算机视觉技术可在长视频、短视频等点播平台、直播平台以及利用手机摄像头的AR应用中,为广告主提供多种形式的互动化、与内容强相关的场景广告。 7、医疗影像分析领域 智能医疗影像分析对病种的要求及重要指标 相比计算机视觉在其他领域的数据标注工作,医疗影像的标注门槛较高,需由专业医师标注,而且非典型病例的标注意见较难统一。标注工作之外,医疗影像分析对数字化程度、数据量、临床路径、对应检测量都有着苛刻的要求,不同病种的情况不同,难以一概而论。另外,对具体系统分析能力的考核,不能仅依据简单的准确率,特异性与敏感性是最基本的两个指标。 8、自动驾驶领域 自动驾驶技术剖析 自动驾驶系统主要涉及传感器融合、感知、高精地图、定位、规划及控制等若干技术环节,以解决“我在哪儿,周围有什么,环境将发生什么变化以及我该怎么做“等四个问题,计算机视觉则在环境感知(周围有什么)与地图绘制(我在哪儿)中发挥重要作用。 从起步到落地,自动驾驶仍需经历长期测试 自动驾驶汽车主要由车辆本身、内部硬件(传感器、计算机等)以及用于做出驾驶决策的自动驾驶软件等三个子系统组成。车辆本身需由OEM认证;内部硬件也需在各种极端条件下充分测试其稳定性,达到车规级要求;自动驾驶软件方面,相关系统需经过百亿甚至千亿公里以上的测试来充分验证其安全性(人类司机平均每1亿公里发生致命事故1~3起,自动驾驶技术要想大规模落地应用,必须优于人类司机的安全性)。与此同时,大规模路测也是收集相关场景数据以便改进感知、决策等智能技术的必要手段。然而,100万辆10万公里总里程/年的车辆行驶1年才能达到千亿公里的数据量级(Waymo在过去8年积累350万英里以上的自动驾驶数据),仿真环境下的虚拟路测(如今每天有多达25000辆虚拟的Waymo无人车在模拟器中驾驶高达八百万英里的里程)与不涉及实际控制的影子模式可作为常规测试的补充,有效降低路测成本。 自动驾驶,起步于限定场景 数据驱动的感知及决策算法难以应对开放、动态的环境的千变万化,自动驾驶车辆如何理解人类意图、如何与人工驾驶车辆的司机沟通交互也面对巨大挑战。在清晰简单的限定场景中,规则易总结,数据易收集,相关算法就越容易达到安全性要求。因此,相比开放环境下大众乘车出行的一般场景,自动驾驶技术将先在高速货运、低速摆渡、特定生产等场景落地应用。大众出行领域,自动驾驶也会逐步在特定速度限制下(时速60公里内的L3级自动驾驶汽车已有量产),停车场,乃至高速或环线等相对简单的封闭道路中替代人类驾驶。另外在自动驾驶实现以前,视觉监控系统也可对车内驾驶员进行疲劳检测、注意力检测和手势识别等,为L3级自动驾驶人机控制权的交接提供支撑,兼顾安全、驾驶辅助和车内互动娱乐。 智能出行公司为大众带来无人驾驶出行体验 美国交通部和美国高速公路安全管理局( NHTSA)在今年9月份发布《自动驾驶制度方针 2.0》,预计将在2025之后实现全面自动的安全功能以及高速公路的自动驾驶。国内科技公司相对乐观,纷纷发声将在2021年前后实现仅在特殊情况需人类介入的L4级自动驾驶乘用车的量产。考虑到现有算法技术的能力边界,2021年其实难以实现通用场景的L4级自动驾驶,小概率的意外缺陷都有可能引发致命事故,但2021年成为创业者标杆的时候,它将促进“预言的自我实现”,技术的突破性进展及不断拓宽的行驶场景依然值得期待。自动驾驶的到来需要在汽车中装配大量的软硬件设备,共享出行可减轻自动驾驶在推进消费市场时的阻碍,由出行服务商评测系统安全性,承担并消化成本。智能化与共享化是汽车产业生态的重要发展趋势,车企、科技公司、出行服务商间(三方均已布局自动驾驶研发)的合作结盟也会愈发频繁,智能出行公司随之诞生。 四、计算机视觉行业发展趋势 不断提升限定场景识别准确率,优化性能渗透更多行业应用 虽然终极愿景道阻且长,但分类任务的日益精准已解锁并将不断解锁更多场景应用。如同过去5年计算机视觉技术在人脸识别上的不断突破,误报率从2015年的千分之一提升至2017年的十亿分之一(在通过率为90%的情况下),商业服务、城市安全、大众娱乐等诸多场景均体会到不同层次的智能升级,商品、道路环境、医疗影像、遥感影像等更多对象的识别、分类问题也将会逐步突破工业化红线,从仅做辅助补充的非关键性应用拓展到切实提升核心业务效率的关键性应用。各行各业的创新型智能应用将纷至沓来,而人脸识别的性能亦将继续攀升,追求百亿、千亿规模上的可行性。 前沿算法之外,商业壁垒有赖于产品、服务、市场等综合建设 对于更为广泛的传统行业或线下使用场景的潜在客户,计算机视觉的技术落地往往涉及对具体业务场景的硬件设备改造、软件集成以及本地计算设施的部署,算法、技术的实际功效更需要建立在对客户真实业务场景的深层理解之上的针对性开发。不断增长的市场需求要求更加全面、及时的售前、售中、售后服务,而在对视觉技术能够达到的有效帮助缺乏足够认知或部分暂时缺乏科学完善的评测标准或技术相对同化的业务场景,市场销售的重要性尤为凸显。既要注重前沿算法研发,又要注意现阶段商业落地与市场拓展,这些都为以高新技术人才为主的计算机视觉公司提出了更为综合的挑战。

伊织

数据科学、计算机技术、商业分析——综合学科——管理信息系统

专业介绍历史背景1961 年,美国教授 J · D · GALLAGHER 率先提出了管理信息系统( MIS )的学科概念。作为一门新兴的综合学科, MIS 集管理科学、信息科学、系统科学及计算机科学为一体,主要研究企业信息管理活动的全过程,以便提供有效的管理信息和各类决策信息,辅助企业进行现代化管理。管理信息系统( MIS )是企业的信息系统,它主要具有数据处理、计划、控制、预测和辅助决策等功能。据统计,目前美国在计划管理中 80-90% 的工作由计算机完成,财务会计工作中超过 90% 的信息处理由计算机完成;人事管理领域中计算机的应用更是接近了 100% 。因此, MIS 毕业生在美国的就业市场上具有相当不错的工作前景。什么是管理信息系统(管理信息系统——Management Information System)系统 ,简称MIS,是一个由人、计算机及其他外围设备等组成的能进行信息的收集、传递、存贮、加工、维护和使用的系统。它是一门新兴的科学,其主要任务是最大限度的利用现代计算机及网络通讯技术加强企业的信息管理,通过对企业拥有的人力、物力、财力、设备、技术等资源的调查了解,建立正确的数据,加工处理并编制成各种信息资料及时提供给管理人员,以便进行正确的决策,不断提高企业的管理水平和经济效益。目前,企业的计算机网络已成为企业进行技术改造及提高企业管理水平的重要手段。企业通过计算机网络获得信息必将为企业带来巨大的经济效益和社会效益,企业的办公及管理都将朝着高效、快速、无纸化的方向发展。MIS系统通常用于系统决策,例如,可以利用MIS系统找出目前迫切需要解决的问题,并将信息及时反馈给上层管理人员,使他们了解当前工作发展的进展或不足。换句话说,MIS系统的最终目的是使管理人员及时了解公司现状,把握将来的发展路径。管理信息系统学什么?在美国,MIS专业主要有三个方向:图书管理、理工学院下面信息决策(偏重数学)、商学院(分为管理类和MBA类,MBA要求要有工作经验)。此专业多置于商学院下面,也有学校是文理学院下的数学系以及在工程学院下的计算机系。学校开设项目名称有可能为:Management Information Systems、Information system、Information Systems Technology、Information and library science、Information Systems Technology等等。有的项目偏重计算机知识与技能的培养,有的则由此衍生出图书馆信息管理的方向,有些则是希望能够培养出整合IT实践和商业技能为一体的学生。主要的核心课程大多涵盖如下几个方面:大数据、数据挖掘、高级算法、机器学习、语言编程、数据库、网路、通信、社会媒体(计算机方面);项目管理、管理策略、领导力培养(管理方面)。在英国,有的大学开设的MIS专业偏向商科的,大部分课程与管理相关,涉及编程课程比较少。适合不太喜欢 编程的学生。例如:圣安德鲁斯大学、华威大学、利兹大学等。有的偏向工程的,学校课程设置偏向信息技术,课程会涉及很多信息技术、软件工程、高级编程。技术性很高。例如:南安普顿大学,格拉斯哥大学,杜伦大学,约克大学等。但总的来说,管理信息系统依然是一门理工科与商科相交叉的学科。申请要求前言:虽然这几年MIS专业的申请难度逐渐提高,竞争力也日趋激烈。但相对而言,该专业的申请难度依然比不上一些主流热门专业,比如,商业分析,计算机科学,金融工程,数据科学。所以,对于一些竞争力不太够的,但依然希望学习到以上热门专业的申请者而言,可以选择申请MIS作为第二,甚至第一选择。毕竟,MIS专业基本能够涵盖以上热门专业所学习的大部分知识。申请者专业背景MIS这一专业因为在不同学校不同地区的要求不同,所以设置学院和成绩要求都比较特殊,不能从一而定。建议大家根据自己的情况,来选择方向和学校。理工科的学生如果想继续这方面的学习,完全可以申请理工学院下面片中数学的信息管理专业来学习,甚至一些商学院下面的偏计算机的也可以考虑;有工作经验的就建议申请MBA类的信息管理来申请。商科学生建议更多地申请商学院下的MIS项目。无论选择哪个方向,都可以找到适合自己的专业,有没有工作经验,有没有计算机背景,有没有某一类的考试成绩,这些都会是学校选择的标准。虽然申请管理信息系统没有严格的专业背景要求,但总的来说,以下专业背景的申请者更有利申请该项目。理工科:数学相关专业,计算机相关专业,电子与电子工程,信息工程,机械工程,物理学,地理信息系统等等数理背景比较强的专业。此类学生,优先推荐申请非商学院所开设的MIS项目。但即便他们想申请商学院下的MIS项目,也是没有任何问题的。当然,其他如 化学,材料科学,生物等专业的学生亦可申请该专业,只是相对来说会有些吃亏。文商科:金融学,经济学,管理学,会计学,市场营销,人力资源管理等专业,此类专业的学生由于计算机能力相对缺乏,故建议申请商学院下的MIS项目。当然,申请者若先修课背景不足,建议可以修读以下相关课程来补充自己的背景:Java, C# or C++等计算机编程语言统计学离散数学或微积分。硬件条件(GPA, TOEFL/IELTS, GRE/GMAT)对于GPA当然是越高越好,但基本上来说,TOP50的MIS专业的GPA至少达到3.3,才有比较大的申请可能性。而一些名校的MIS专业,建议GPA能够至少是3.5,甚至3.8,才具备一定的竞争力。TOEFL/IELTS:申请U.S News的综合排名TOP50之前的学校的学生建议IELTS至少要达到7.0(小分不低于6.0), TOEFL至少达到90(小分不低于20)。而申请TOP30之前学校的学生建议IELTS至少要达到7.5(小分不低于7.0)TOEFL必须达到100以上(不包含100)(小分不低于22)。GRE/GMAT:一般在商学院下开设的MIS项目同时接受GRE和GMAT,但是非商学院开设的项目,只接受GRE的居多。所以建议学生准备GRE的考试比较保险且选择性较多。此外,只接受GMAT的项目比较少。 综合排名TOP50之前的学校,综合多个学校的要求来看,建议GMAT至少达到680+。而GRE的话,建议至少达到315+。 而对于Top 30的学校而言,GMAT则至少要达到700+。相对应的,GRE至少要达到320+。如此一来,才具备一定的竞争力。英国与美国申请的不同之处而对于申请英国大学的商业分析专业而言,与美国相比略有不同。由于英国大学非常看重申请者所在的学校是不是211,985院校 ,所以,所指定的录取标准也有所区别。不少学校并不接受非211学生的申请。换言之,即便申请者自身背景非常出色,但由于所在院校为非211,必然会收到拒信。当然,英国中,大部分学校不需要提交GRE或者GMAT成绩。而且,英国大部分学校申请的时候,并不严格要求申请者提供雅思成绩,雅思成绩可以在拿到有条件录取之后再补充。所以,对于没有相关成绩的申请者来说,申请英国也算是一个不错的选择。软件要求(实习,科研,工作等等)除了MBA项目下的MIS方向之外,大部MIS项目不需要工作经验,一般能有数据分析、软件开发、商务分析方面的等实习经验将非常有助于申请。常见的职位有:信息系统开发;信息系统维护;信息系统技术支持;网页开发;网络管理员等。学费介绍以下是美国部分大学MIS专业学费的介绍,每年的学费范围基本在 $30,000~$70,000之间。(注:美国大部分MIS专业为两年制,剩下基本都是一年制)以下是英国部分大学MIS专业学费的介绍,每年的学费范围基本在 20,000~30,000之间。(注:英国MIS专业为一年制)典型项目介绍Massachusetts Institute of Technology麻省理工学院的信息管理在Sloan管理学院下面,叫做系统设计和管理(SDM,System Design & Managemengt),它不仅学习管理方面的知识,还要学习系统设计,如系统架构、系统工程和系统项目管理等等。MIT的SDM偏重于系统设计方面,学校也会提供相关的管理知识、工程学知识以及领导能力的学习,这些知识都会在系统设计中体现出来。MIT的SDM里面有些课程是综合系统设计和管理两方面的知识的,例如系统架构、系统工程和系统项目管理等。课程设置分为三种:基础课程,必修课程和领导课程。其中领导课程学生课程共包括3门基础课,8门必修课,4门选修课,1门论文课程还有1门系统论文课程。从课程设置可以看出MIT的信息管理专业是偏工科的,因为核心的课程都是与系统设计有关的,例如上面说到的系统工程和系统项目管理等课程,当然这些课程里面还是有穿插很多管理方面的知识的。Carnegie Mellon University卡耐基梅隆的信息管理是设在H. John Heinz III公共政策与管理学院下面的,全称叫Information Systems Management信息系统管理。它的教学特点是IT practices+ Business methods,学校偏重理论知识在实际中的应用,学校也向学生提供较多的seminar。它是为期三个学期的课程,但对于一些有超过三年工作经验的学生课程可在一年里面完成,没有工作经验的学生就必须参加一个由学校组织的夏季实习,所以没有工作经验的学生完成课程是需要18个月。CMU的必修课程分三个方向,分别是技术与技术管理,组织管理与策略和项目管理,必须修满5门技术与技术管理方向的课程,4门组织管理与策略方向以及2门项目管理方向的课程。学生可以进行侧重点的选择,比如电子商务,商业智能,信息安全管理,服务管理和医学情报等。CMU的ISM专业比较偏重管理知识的学习。CornellUniversity康奈尔大学Master of Professional Studies (MPS) in Information Science项目开设在工程学院下,项目时长是1年,重点培养学生IT相关技术,学生的毕业去向非常好,就业公司多是世界著名的高科技企业例如苹果,通用,微软,甲骨文,雅虎等等。做为常春藤盟校之一,康奈尔大学一直深受中国学生的热爱,每年申请人数众多。该专业要求学生很强的计算机背景,需要掌握高等级编程语言,网页技术,很强的分析能力,信息系统基础知识,且要求有很好的数学基础,学习过微积分,概率论,统计和线性代数。University of Arizona (Eller)该校的管理信息系统系实际上是对计算机技术和方法、人工智能、经济学、运营管理和社会技术网络学等领域的交叉研究。 GRE 和 GMAT 成绩均可接受,一般来说有录取资格的申请者的成绩比率都在 90% 以上,研究生 GPA 最低 3.25 。 MIS是设在Eller商学院下的。UA的MIS有三种类型的program,一种是17个月四个学期的课程,这是提供给没有工作经验的学生的,但学校会提供相关的实习机会给学生,这个课程比较偏重于当今一些先进的信息管理系统的研究,例如ERP,SCM,CRM以及三者的整合等;一种是一年的课程,申请人必须要超过一年的工作经验;最后一种是为期两年的双学位课程,这个同样也是有工作经验的要求的,两年后学生将会获得UA的MIS和MBA的双学位证书。第一种较第二种多了一些基础学科的学习,例如企业沟通,企业数据管理等,而第三种较第一二种就多了很多管理类的学科,例如会计、市场营销和管理学等。UA的课程设置特色在于它有一个叫Master project的计划,学生要用大概一年的时间和导师在一起完成新的系统开发工作或学术论文的研究工作。就业方向与平均薪资管理信息系统专业平均年薪在$63,100,管理信息系统是一门研究组织运行过程中怎样应用计算应用程序的学科。这个专业的学生需要建立较强的沟通和计算技能。管理信息系统是信息系统行业中薪金最高的职业之一。一个在微软工作的大学生每年能够赚到十一万六千美金之多。大部分毕业生在苹果、戴尔等计算机系统设计公司工作。根据预测,从2010年到2020年间,管理信息系统行业的就业率会增长18%。从美国的就业情况来看,美国管理信息系统MIS专业的毕业者在人才市场上还是比较抢手的。因为有一定的技术水平,所以就业面还是比较宽的、就业前景还是比较乐观,即使是在金融危机、就业形势严峻的情况下。MIS毕业生在支持创新、策划、信息基础设施管理协调信息资源上做出了重大贡献. 目前,社会对在系统管理和发展方面有专业知识的信息系统人才的需求量有增无减。管理信息系统作为“商业”与“技术”之间的沟通桥梁,就业面也是非常广的。下图所列举的是MIS毕业生的工作去向,可以分为四大类别:互联网公司金融机构咨询公司其他行业比较常见的职位:商业分析员IT咨询系统分析员系统开发者系统支持等案例分享案例一毕业院校:国内某一本院校 主修: 地理信息系统GPA: 3.4/4.0托福/雅思: 90+GRE/GMAT: 310+实习/工作: 两段地理相关实习科研经历:一段信息系统相关科研录取院校: Syracuse University, University of Pittsburgh, Northeastern University案例二毕业院校:国内某211院校主修: 信息管理与信息系统GPA: 3.8/4.0托福/雅思: 105+GRE/GMAT: 325+实习/工作: 一段相关实习科研经历: 两段相关科研录取院校: University of Washington, Washington University in St. Louis案例三毕业院校:国内985+美本 主修: 金融学,经济学GPA: 3.9/4.0托福/雅思: waiveGRE/GMAT: 320+实习/工作: 两份相关实习科研经历: 5段相关科研录取院校: Cornell University案例四毕业院校:国内普通二本主修: 国际经济与贸易GPA: 3.2/4.0GRE/GMAT: 315+实习/工作: 两段非相关实习科研经历: 无录取院校: Syracuse University, Northeastern University, George Washington University案例五毕业院校:国内211院校主修: 通信工程GPA: 3.0/4.0托福/雅思: 100+实习/工作: 无科研经历: 两段通信相关项目录取院校: University of Virginia, Boston University, Northeastern University, University of Florida