我怎样才能找到的平均RDD
使用分布式方法,IPython的整数,和Spark? 该RDD
是约700 000元,因此过大,以收集和发现中位数。
这个问题类似于这个问题。 然而,问题的答案是使用Scala的,我不知道。
我该如何计算与Apache星火确切的中位数?
使用Scala的答案的思维,我想用Python语言编写了类似的回答。
我知道我首先要排序的RDD
。 我不知道怎么。 我看到sortBy
(排序此RDD由给定keyfunc
)和sortByKey
(排序此RDD
,其被假定为包括(键,值)对。)的方法。 我认为两者都使用键值和我RDD
只有整数元素。
- 首先,我想这样做的
myrdd.sortBy(lambda x: x)
- 接下来,我会发现RDD的长度(
rdd.count()
- 最后,我想找到的元素,或在RDD中心2个元素。 我需要用这种方法也有帮助。
编辑:
我有一个想法。 也许我可以索引我RDD
,然后键入=指数值=元素。 然后,我可以尝试通过值进行排序? 我不知道这是可能的,因为只有一个sortByKey
方法。
星火2.0+:
您可以使用approxQuantile
其实现方法格林沃尔德-卡纳算法 :
Python的 :
df.approxQuantile("x", [0.5], 0.25)
斯卡拉 :
df.stat.approxQuantile("x", Array(0.5), 0.25)
其中最后一个参数是相对误差。 该数值越低,更准确的结果,更昂贵的计算。
由于火花2.2( 火花14352 ),它支持在多个列上估算:
df.approxQuantile(["x", "y", "z"], [0.5], 0.25)
和
df.approxQuantile(Array("x", "y", "z"), Array(0.5), 0.25)
火花<2.0
蟒蛇
正如我在评论中提到过它是最有可能不值得大惊小怪。 如果数据是比较小的,如你的情况,然后简单地收集并在本地计算位数:
import numpy as np
np.random.seed(323)
rdd = sc.parallelize(np.random.randint(1000000, size=700000))
%time np.median(rdd.collect())
np.array(rdd.collect()).nbytes
这需要在我几年的旧电脑及周边内存5.5MB左右0.01秒。
如果数据是更大的排序将是一个限制因素,因此不但得不到一个确切的价值它可能是更好的样本,收集,并在本地计算。 但是,如果你真的想用星火这样的事情应该做的伎俩(如果我没惹任何东西):
from numpy import floor
import time
def quantile(rdd, p, sample=None, seed=None):
"""Compute a quantile of order p ∈ [0, 1]
:rdd a numeric rdd
:p quantile(between 0 and 1)
:sample fraction of and rdd to use. If not provided we use a whole dataset
:seed random number generator seed to be used with sample
"""
assert 0 <= p <= 1
assert sample is None or 0 < sample <= 1
seed = seed if seed is not None else time.time()
rdd = rdd if sample is None else rdd.sample(False, sample, seed)
rddSortedWithIndex = (rdd.
sortBy(lambda x: x).
zipWithIndex().
map(lambda (x, i): (i, x)).
cache())
n = rddSortedWithIndex.count()
h = (n - 1) * p
rddX, rddXPlusOne = (
rddSortedWithIndex.lookup(x)[0]
for x in int(floor(h)) + np.array([0L, 1L]))
return rddX + (h - floor(h)) * (rddXPlusOne - rddX)
和一些测试:
np.median(rdd.collect()), quantile(rdd, 0.5)
## (500184.5, 500184.5)
np.percentile(rdd.collect(), 25), quantile(rdd, 0.25)
## (250506.75, 250506.75)
np.percentile(rdd.collect(), 75), quantile(rdd, 0.75)
(750069.25, 750069.25)
最后让界定位数:
from functools import partial
median = partial(quantile, p=0.5)
到目前为止好,但它需要4.66 S IN本地模式没有任何网络通信。 有可能是方法来改善这一点,但为什么还要这么做呢?
独立语言 (蜂巢向外):
如果您使用HiveContext
你也可以使用蜂巢UDAFs。 其整体数值:
rdd.map(lambda x: (float(x), )).toDF(["x"]).registerTempTable("df")
sqlContext.sql("SELECT percentile_approx(x, 0.5) FROM df")
随着连续的值:
sqlContext.sql("SELECT percentile(x, 0.5) FROM df")
在percentile_approx
你可以通过它决定了多项纪录使用一个额外的参数。
添加一个解决方案,如果你只想要一个RDD法和不想要移动到DF。 这个片段可以让你百分的双重的RDD。
如果你输入的百分位为50,你应该获得您所需的中位数。 让我知道,如果有任何一个角落的情况不占。
/**
* Gets the nth percentile entry for an RDD of doubles
*
* @param inputScore : Input scores consisting of a RDD of doubles
* @param percentile : The percentile cutoff required (between 0 to 100), e.g 90%ile of [1,4,5,9,19,23,44] = ~23.
* It prefers the higher value when the desired quantile lies between two data points
* @return : The number best representing the percentile in the Rdd of double
*/
def getRddPercentile(inputScore: RDD[Double], percentile: Double): Double = {
val numEntries = inputScore.count().toDouble
val retrievedEntry = (percentile * numEntries / 100.0 ).min(numEntries).max(0).toInt
inputScore
.sortBy { case (score) => score }
.zipWithIndex()
.filter { case (score, index) => index == retrievedEntry }
.map { case (score, index) => score }
.collect()(0)
}
这里是我使用窗口函数(带pyspark 2.2.0)中使用的方法。
from pyspark.sql import DataFrame
class median():
""" Create median class with over method to pass partition """
def __init__(self, df, col, name):
assert col
self.column=col
self.df = df
self.name = name
def over(self, window):
from pyspark.sql.functions import percent_rank, pow, first
first_window = window.orderBy(self.column) # first, order by column we want to compute the median for
df = self.df.withColumn("percent_rank", percent_rank().over(first_window)) # add percent_rank column, percent_rank = 0.5 coressponds to median
second_window = window.orderBy(pow(df.percent_rank-0.5, 2)) # order by (percent_rank - 0.5)^2 ascending
return df.withColumn(self.name, first(self.column).over(second_window)) # the first row of the window corresponds to median
def addMedian(self, col, median_name):
""" Method to be added to spark native DataFrame class """
return median(self, col, median_name)
# Add method to DataFrame class
DataFrame.addMedian = addMedian
然后调用addMedian法计算COL2的中位数:
from pyspark.sql import Window
median_window = Window.partitionBy("col1")
df = df.addMedian("col2", "median").over(median_window)
最后,你可以在需要时组。
df.groupby("col1", "median")
我已经写这需要数据帧作为输入,并返回具有值作为超过一个分区和order_col的输出的数据帧是一个我们想要计算part_col位数的列是在我们想要计算中值的级别的功能:
from pyspark.sql import Window
import pyspark.sql.functions as F
def calculate_median(dataframe, part_col, order_col):
win = Window.partitionBy(*part_col).orderBy(order_col)
# count_row = dataframe.groupby(*part_col).distinct().count()
dataframe.persist()
dataframe.count()
temp = dataframe.withColumn("rank", F.row_number().over(win))
temp = temp.withColumn(
"count_row_part",
F.count(order_col).over(Window.partitionBy(part_col))
)
temp = temp.withColumn(
"even_flag",
F.when(
F.col("count_row_part") %2 == 0,
F.lit(1)
).otherwise(
F.lit(0)
)
).withColumn(
"mid_value",
F.floor(F.col("count_row_part")/2)
)
temp = temp.withColumn(
"avg_flag",
F.when(
(F.col("even_flag")==1) &
(F.col("rank") == F.col("mid_value"))|
((F.col("rank")-1) == F.col("mid_value")),
F.lit(1)
).otherwise(
F.when(
F.col("rank") == F.col("mid_value")+1,
F.lit(1)
)
)
)
temp.show(10)
return temp.filter(
F.col("avg_flag") == 1
).groupby(
part_col + ["avg_flag"]
).agg(
F.avg(F.col(order_col)).alias("median")
).drop("avg_flag")