📜  PySpark-序列化器

📅  最后修改于: 2020-11-06 05:18:10             🧑  作者: Mango


序列化用于Apache Spark上的性能调整。通过网络发送或写入磁盘或保留在内存中的所有数据都应进行序列化。序列化在昂贵的操作中起着重要的作用。

PySpark支持自定义序列化器以进行性能调整。 PySpark支持以下两个序列化器-

元帅

使用Python的Marshal序列化器序列化对象。此序列化程序比PickleSerializer快,但支持较少的数据类型。

class pyspark.MarshalSerializer

PickleSerializer

使用Python的Pickle序列化器序列化对象。该序列化器几乎支持任何Python对象,但可能不如更专业的序列化器那么快。

class pyspark.PickleSerializer

让我们看一个关于PySpark序列化的例子。在这里,我们使用MarshalSerializer序列化数据。

--------------------------------------serializing.py-------------------------------------
from pyspark.context import SparkContext
from pyspark.serializers import MarshalSerializer
sc = SparkContext("local", "serialization app", serializer = MarshalSerializer())
print(sc.parallelize(list(range(1000))).map(lambda x: 2 * x).take(10))
sc.stop()
--------------------------------------serializing.py-------------------------------------

命令-命令如下-

$SPARK_HOME/bin/spark-submit serializing.py

输出-上面命令的输出是-

[0, 2, 4, 6, 8, 10, 12, 14, 16, 18]