SPARK入门

发布于:2025-08-29 ⋅ 阅读:(17) ⋅ 点赞:(0)

1.基本概念

MapReduce的局限性:

1.为了节约内存大量与磁盘进行交互因此处理时间长

2.解决大规模离线批处理,对于其他场景要与其他组件来结合,功能太单一,维护成本很高

Spark的特点:

把数据放在内存进行计算,解决MapReduce计算慢的问题

All in one框架,提供多种计算场景

SparkStreaming:微批处理,很短的时间进行一次处理,效率接近实时处理

Hadoop迁移到Spark:

Spark提供多种运行模式,可以单独安装Spark框架运行,也可以通过On Yarn来把任务分发给Hadoop,可以解决历史遗留问题

2.Spark的编程

RDD:

Spark基于Rdd来运算

Rdd是只读的,如果要对Rdd进行处理,要把结果保存到新的Rdd中

当某个阶段出现错误,只需从上一个阶段进行数据的重新处理 结果就能恢复

Rdd的操作:

Rdd的操作分为两种分别为Transformation和Action

Transformation是在原有的RDD中发生转换,并没有真正的触发操作

Action是真正触发了结果的输出

如在rdd.map(_+1).saveAsTextFile("hdfs://node01:9000")中:

rdd.map(_+1)是Transformation

saveAsTextFile("hdfs://node01:9000")是Action

RDD之间的关系:

对RDD的操作会让两个RDD之间形成关系

如果是1对1的转换:窄依赖

如果是多对1的转换:宽依赖 数据恢复起来回到前面的节点会很慢

因此要避免使用宽依赖,避免使用它的算子(groupByKey reduceByKey sortByKey)

3.Spark集群

1.Driver 端

Driver 就是用户提交 Spark 应用的地方

SparkContext 是整个应用的入口,负责:

  与集群的 Master 通信;

  申请资源(Executor);

  把 Job 拆分成 Task 并分配到各个 Worker 上执行;

  收集执行结果返回给用户。

2.Master 端

Master 是资源调度的管理者。

Driver 启动后会向 Master 申请资源。

Master 负责把集群的空闲资源(CPU、内存)分配给 Driver 的应用使用。

简单来说,Master 不直接执行任务,只负责 协调资源

3.Worker 端

Worker 是真正执行计算的节点。

Master 分配资源后,Worker 会启动 Executor(执行进程)。

一个 Executor 内部:

  Task:Driver 下发的具体计算单元(比如 map、reduce、filter 等操作的子任务)。

  Cache:RDD 的缓存结果存放在这里,可以加快后续任务的计算速度。

4.任务执行流程

1.用户在 Driver 程序中创建 SparkContext

2.Driver 向 Master 注册并请求资源。

3.Master 在集群上选择可用的 Worker,并在 Worker 上启动 Executor 进程。

4.Driver 把任务(Task)分发到这些 Executor。

5.Executor 在 Worker 节点上并行执行 Task,必要时会把数据缓存到本地(Cache)。

6.执行结果会返回给 Driver,Driver 汇总后提供给用户。

4.Spark的运行模式

Local 模式

  • 单机运行,通常用于测试

  • Spark 程序以多线程方式直接运行在本地


Standalone 模式

  • Spark 集群独立运行,不依赖第三方资源管理系统(如 YARN、Mesos)

  • 采用 Master/Slave 架构

  • Driver 在 Worker 中运行,Master 只负责集群管理

  • ZooKeeper 负责 Master HA,避免单点故障

  • 适用于集群规模不大、数据量不大的情况


YARN 模式

  • Spark 运行在 Hadoop YARN 之上,依赖 YARN 作为资源管理和调度系统

  • 提供两种部署模式:

    • Client 模式:Driver 运行在提交任务的客户端上

    • Cluster 模式:Driver 运行在 YARN 的 NodeManager 上(更常用)

  • YARN 负责分配资源(CPU、内存),Spark 在 YARN 上启动 Executor

  • 适用于企业大数据生产环境,能与 HDFS、Hive 等 Hadoop 生态紧密集成

  • 缺点:依赖 Hadoop 环境,部署和配置相对复杂


Kubernetes 模式

  • Spark 运行在 Kubernetes 集群上,K8s 负责容器的调度和资源管理

  • Driver 和 Executor 都以 Pod 的形式运行在 Kubernetes 集群中

  • 支持弹性伸缩和容器化部署,适合云原生场景

  • 可以和云服务(如 AWS、GCP、阿里云)结合,方便大规模任务调度

  • 缺点:需要熟悉 K8s,配置复杂度较高


Mesos 模式(现在较少使用)

  • Spark 运行在 Apache Mesos 之上,由 Mesos 负责资源管理

  • 可以同时管理多种框架(Spark、Hadoop、Flink 等),共享资源池

  • 适合多框架共存的环境

  • 缺点:社区活跃度下降,实际使用越来越少


网站公告

今日签到

点亮在社区的每一天
去签到