信息系统项目管理师高级历年试题:2019年5月信息系统项目管理师 模拟二上午
摘要:对于【信息系统项目管理师】软考考试而言,试题无疑是最重要的学习资料之一。在软考备考过程中,吃透所考知识点、熟悉出题思路,对我们提升分数的效果是最明显的,通过试题反复练习,还可以查漏补缺。今天,给大家带来【信息系统项目管理师】部分试题的详解,一起来看看吧~1、在集成项目实施中,建设方要求建立项目配置管理。关于配置管理,以下叙述正确的是 () 。A、 配置管理适合软件开发过程,集成过程无法建立配
1、在集成项目实施中,建设方要求建立项目配置管理。关于配置管理,以下叙述正确的是 () 。
A、 配置管理适合软件开发过程,集成过程无法建立配置管理
B、 配置管理必须要有配置工具,否则无法建立
C、 如果没有专用工具,用手工方式也可以进行配置管理
D、 配置库中把各设施登记清楚就可以
答案:C
答题解析:
无论是软件开发过程还是系统集成过程,均需要建立配置管理。配置管理最初就是用手工进行管理的,后来随着配置管理越来越复杂,才过渡到用专用工具来管理来提高工作效率,但并非没有专用工具,就无法进行配置管理。
配置库并非简单地把设施登记一下,而是要存放软件与硬件方面的各种半成品、阶段性产品以及相关的管理信息(比如变更记录等)。
2、只有得到允许的人才能修改数据,并且能够判别出数据是否已被篡改,这体现了信息安全的 ( )。
A、机密性
B、可用性
C、完整性
D、可控性
答案:C
答题解析:
信息安全的基本要素有:
——机密性:确保信息不暴露给未授权的实体或进程。
——完整性:只有得到允许的人才能修改数据,并且能够判别出数据是否已被篡改。
——可用性:得到授权的实体在需要时可访问数据,即攻击者不能占用所有的资源而阻碍授权者的工作。
——可控性:可以控制授权范围内的信息流向及行为方式。
——可审查性:对出现的网络安全问题提供调查的依据和手段。
3、在大数据关键技术中,Hadoop的分布式文件系统HDFS属于大数据 ( ) 。
A、存储技术
B、分析技术
C、并行分析技术
D、挖掘技术
答案:A
答题解析:
大数据所涉及的技术很多,主要包括数据采集、数据存储、数据管理、数据分析与挖掘四个环节。在数据采集阶段主要使用的技术是数据抽取工具ETL。在数据存储环节主要有结构化数据、非结构化数据和半结构化数据的存储与访问。结构化数据一般存放在关系数据库,通过数据查询语言(SQL)来访问;非结构化和半结构化数据一般通过分布式文件系统的NoSQL进行存储。大数据管理主要使用了分布式并行处理技术,比较常用的有MapReduce,编程人员借助它可以在不会分布式并行编程的情况下,将自己的程序运行在分布式系统上。数据分析与挖掘是根据业务需求对大数据进行关联、聚类、分类等钻取和分析,并利用图形、表格加以展示,与ETL一样,数据分析和挖掘是以前数据仓库的范畴,只是在大数据中得以更好的利用。
在最流行的开源大数据Hadoop中,Hadoop分布式文件系统HDFS(Hadoop Distributed File System)是Hadoop项目的核心子项目,是分布式计算中数据存储管理的基础,是基于流数据模式访问和处理超大文件的需求而开发的,可以运行于廉价的商用服务器上。
软考资料: 2024年软考论文范文> 软考考试核心重点难点汇总> 查看更多>
备考刷题:章节练习+每日一练> 软考历年试题+模拟题>查看更多>