pyspark join 出現重複列的問題

設有兩個dataframe:df1,df2

如果df3=df1.join(df2,df1.device_number=df2.device_number,"inner")

df3就會出現兩個相同列 device_number

此時改成df3=df1.join(df2,“device_number”,"inner")

就只有一個device_number了

如果想多列key則

df.join(df4, ['name', 'age'])
發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章