Pyspark:Concat函数生成列到新的数据帧(Pyspark: Concat function

2019-10-30 12:07发布

我有一个数据帧pyspark(DF)中n的cols,我想生成的n个COLS另一个DF,其中每列中记录的百分比差异的B / W在相应,原始DF列连续的行。 而在新的DF列标题应在旧数据帧+“_diff”对应的列标题==。 用下面的代码,我可以生成在原DF每列百分比变化的新列,但我不能够坚持他们在合适的列标题一个新的DF:

from pyspark.sql import SparkSession
from pyspark.sql.window import Window
import pyspark.sql.functions as func

spark = (SparkSession
            .builder
            .appName('pct_change')
            .enableHiveSupport()
            .getOrCreate())

df = spark.createDataFrame([(1, 10, 11, 12), (2, 20, 22, 24), (3, 30, 33, 36)], 
                       ["index", "col1", "col2", "col3"])
w = Window.orderBy("index")

for i in range(1, len(df.columns)):
    col_pctChange = func.log(df[df.columns[i]]) - func.log(func.lag(df[df.columns[i]]).over(w))

谢谢

Answer 1:

在这种情况下,你可以做内部的呼叫列表解析select

为了使代码更紧凑,我们可以先得到我们想要在列表中diff的列:

diff_columns = [c for c in df.columns if c != 'index']

接下来选择指数和迭代diff_columns来计算新列。 使用.alias()重命名结果列:

df_diff = df.select(
    'index',
    *[(func.log(func.col(c)) - func.log(func.lag(func.col(c)).over(w))).alias(c + "_diff")
      for c in diff_columns]
)
df_diff.show()
#+-----+------------------+-------------------+-------------------+
#|index|         col1_diff|          col2_diff|          col3_diff|
#+-----+------------------+-------------------+-------------------+
#|    1|              null|               null|               null|
#|    2| 0.693147180559945| 0.6931471805599454| 0.6931471805599454|
#|    3|0.4054651081081646|0.40546510810816416|0.40546510810816416|
#+-----+------------------+-------------------+-------------------+


文章来源: Pyspark: Concat function generated columns into new dataframe