大数据集成与Hadoop - IBM
应用程序纵向扩展:衡量软件在一个对称多处理器 (SMP) 系统中的多个处理器间实现线性数据可扩展性的 有效程度。 • 应用程序横向扩展:确定软件在非共享架构的多个 SMP 节点间实现线性数据可扩展性的有效程度。 图1. 海量数据可扩展性是一项大数据集成的强制要求。在大数据时代,企业必须支持MPP群集系统才能实现扩展。 支持海量数据可扩展性的需求并非只与Hadoop基础架构的出 现有关。多年来,领先的数据仓库供应商(如IBM和Teradata) 大规模并 行软件平台,有些企业采用此做法已有近20年。 久而久之,这些供应商陆续集中关注4个常见的软件架构特征, 以便为实现海量数据可扩展性提供支持,如图2所示。 IBM软件 5 图2. 海量数据可扩展性的4大特征。 大部分商业数据集成软件平台在设计时从未考虑过支持海量数 据可扩展性,这意味着在设计之初,并未考虑利用非共享大规模 并行架构。它们依靠共享的内存多线程,而非软件数据流。 某些数据集成操作在RDBMS引擎内外的运行效率较高。同样, 并非所有数据集成操作均适用于Hadoop环境。设计精妙的架 构必须足够灵活,可以充分利用系统中每个环境的优势(参见 图3)。 在ETL网格中运行 在数据库中运行 在Hadoop中运行 图3. 大数据集成需要一种可利用任何环境优势的平衡方法。 优点 • 利用ETL MPP引擎 • 利用商业硬件和存储 • 利用网格整合 SMP 服务器 • 执行无法推送到RDBMS的复0 码力 | 16 页 | 1.23 MB | 1 年前3Hadoop 概述
调度器 共享编辑日志 或者 JOURNAL NODE 从节点 容器 容器 容器 资源管理器 数据节点 数据节点 数据节点 节点管理器 节点管理器 节点管理器 图 1-1 MapReduce 的功能使得它成为最常用的批处理工具之一。该处 理器的灵活性使其能利用自身的影响力来挑战现有系统。通过将数 据处理的工作负载分为多个并行执行的任务,MapReduce 1 服务器 2 服务器 3 创建 ZNODE 删除 ZNODE 请求锁 释放锁 离线 任务 1 离线 任务 2 离线 任务 3 离线 任务 4 离线 任务 5 图 1-2 ZooKeeper 允许你处理更多的数据,并且更加可靠省时。 ZooKeeper 能够帮助你建立更可靠的系统。托管的数据库群集能从 集中式管理的服务中受益,这些服务包括名称服务、组服务、leader HiveQL 的类 SQL 语言进行数据查询。 Hive Thrift 服务器 驱动程序 解析器 执行 Hive Web 接口 计划器 优化器 MS 客户端 元存储 图 1-3 1.4 与其他系统集成 如果在科技领域工作,你一定清楚地知道集成是任何成功实现 中必不可少的部分。一般来说,通过一些发现流程或计划会议,组 织可以更高效地确定管理大数据的需求。后续步骤包括做出关于如0 码力 | 17 页 | 583.90 KB | 1 年前3尚硅谷大数据技术之Hadoop(入门)
人工智能资料下载,可百度访问:尚硅谷官网 Hadoop发展历史 6)2003-2004年,Google公开了部分GFS和MapReduce思想的细节,以此为基础Doug Cutting等人用 了2年业余时间实现了DFS和MapReduce机制,使Nutch性能飙升。 7)2005 年Hadoop 作为 Lucene的子项目 Nutch的一部分正式引入Apache基金会。 8)2006 年 3 月份,Map-Reduce和Nutch 1)NameNode(nn):存储文件的元数据,如文件名,文件目录结构,文件属性(生成时间、副本数、 文件权限),以及每个文件的块列表和块所在的DataNode等。 2)DataNode(dn):在本地文件系统存储文件块数据,以及块数据的校验和。 3)Secondary NameNode(2nn):每隔一段时间对NameNode元数据备份。 1.5.2 YARN 架构概述 Yet Another MapReduce 应用,十分适合数据仓库的统计分析。 9)ZooKeeper:它是一个针对大型分布式系统的可靠协调系统,提供的功能包括:配置维护、 名字服务、分布式同步、组服务等。 1.7 推荐系统框架图 推荐系统项目框架 数据库(结构化数据) 文件日志(半结构化数据) 视频、ppt等(非结构化数据) Sqoop数据传递 Flume日志收集 Kafka消息队列 HDFS文件存储 HBase非关系型数据库0 码力 | 35 页 | 1.70 MB | 1 年前3Hadoop 迁移到阿里云MaxCompute 技术方案
结构化数据和非结构数据数据存 储,我们也常称之为数据湖。如 HDFS、对象存储服务等。 批处理:由于大数据场景必须处理大规模的数据集,批处理往往需要从数据存储中读取大量 数据进 行长 时间 处理 分析 ,并将 处理 后的 数据 写 入 新的 数据 对象 供后 续使 用。如 Hive、 MapReduce、Spark 等。 Alibaba Cloud MaxCompute 解决方案 Spark 交互式分析 Impala Presto Hawk GreenPlum 等交互式分析 MaxCompute Lightning,提供只读的交互式查 询服务 图计算 Spark GraphX MaxCompute Spark GraphX MaxCompute Graph 流式采集 Kafka Datahub,流式数据投递至 MaxCompute 议您选择部分试点业务先行进行迁移验证,待迁移验证通过后,再扩展更大的业务范围以降低迁 移风险、提高迁移质量。 5.3 阶段 3:并行测试,割接 迁移完成后,建议基于增量数据与当前系统进行并行测试,待并行一段时间后,对并行测试 结果进行对比验证,符合业务预期即可将业务全部切换至 MaxCompute 平台。 对于规模较小的系统迁移,一般迁移上线周期不超过 2 周。但更多的情况下,我们建议您 根据迁移0 码力 | 59 页 | 4.33 MB | 1 年前3通过Oracle 并行处理集成 Hadoop 数据
库实 例上挂载 HDFS(如果是 RAC 数据库,则在其所有实例上挂载 HDFS),即可使用外部表基 础架构轻松访问 HDFS 文件。 图 1. 用数据库内置的 MapReduce 通过外部表进行访问 在图 1 中,我们利用 Oracle Database 11g 实现本文所述的数据库内的 mapreduce。通常情况 下,Oracle Database 11g 图 2. 利用表函数进行并行处理 由于表函数可以并行运行,Hadoop 流作业也可以不同程度地并行运行,并且后者不受 Oracle 查询协调器的控制,这种情况下,队列能提供负载平衡。 4 Oracle 白皮书 — 通过 Oracle 并行处理集成 Hadoop 数据 利用表函数的示例 下面我们将以一个实际示例展示图 2 的 的架构。请注意,我们的示例仅展示了使用表函数访问 Hadoop 中存储的数据的一个模板实现。显然可能存在其他的甚至可能更好的实现。 下图是图 2 中原始示意图在技术上更准确、更具体的展示,解释了我们要在何处、如何使用 后文给出的部分实际代码: 图 3. 启动 Mapper 作业并检索数据 第 1 步是确定由谁作为查询协调器。对此我们采用一种将具有相同键值的记录写入表的简单0 码力 | 21 页 | 1.03 MB | 1 年前3尚硅谷大数据技术之Hadoop(生产调优手册)
2)开启回收站功能参数说明 (1)默认值 fs.trash.interval = 0,0 表示禁用回收站;其他值表示设置文件的存活时间。 (2)默认值 fs.trash.checkpoint.interval = 0,检查回收站的间隔时间。如果该值为 0,则该 值设置和 fs.trash.interval 的参数值相等。 (3)要求 fs.trash.checkpoint.interval interval <= fs.trash.interval。 3)启用回收站 修改 core-site.xml,配置垃圾回收时间为 1 分钟。fs.trash.interval 1 0 码力 | 41 页 | 2.32 MB | 1 年前3MATLAB与Spark/Hadoop相集成:实现大数据的处理和价值挖
不得不重写算法以应对数据规模的增大; ▪ 现有处理或计算方法下的结果质量受到影响 – 被迫只能处理一部分数据(数据子集); – 采用新的工具或重写算法会对现有生产力产生影响; ▪ 数据处理与分析所需时间增长 – 数据规模增大、数据复杂度增加,增加处理难度和所需时间; 5 MATLAB的大数据处理 ▪ 编程 ▪ Streaming ▪ Block Processing ▪ Parallel-for loops ▪ GPU 一种新的数据类型,专门用于处理大数据. – 用于处理数据规模超过单个机器或群集的内存承载能力的数据集合 ▪ 使用方式等同于MATLAB 数组(array) – 支持数据类型包括数值型、字符串、时间类型、表等… – 支持众多基本的数学函数、统计函数、索引函数等. – 支持机器学习算法包括分类、聚类和回归 7 tall array Single Machine Memory tall0 码力 | 17 页 | 1.64 MB | 1 年前3大数据时代的Intel之Hadoop
高速网络提升大数据平台处理性能 CPU Processing Timeline CPU Processing SW 10µs NVM 65µs IO Processing 典型应用消耗的时间示意:CPU vs. IO Application • 性能增强 - 顺序读/写 : 2.0/1.0 GB/s - 随机读/写: 180/75 KIOPS - 读/写延迟 : 65/65µs 15000 20000 25000 30000 过车查询(s) 套牌分析(s) 碰撞分析(s) 原有方案 30 3600 28800 Hadoop方案 1 60 240 响应时间0 码力 | 36 页 | 2.50 MB | 1 年前3
共 8 条
- 1