草庐IT

GroupBy1

全部标签

python - Pandas Correlation Groupby

假设我有一个类似于下面的数据框,我将如何获得2个特定列之间的相关性,然后按“ID”列分组?我相信Pandas'corr'方法可以找到所有列之间的相关性。如果可能的话,我还想知道如何使用.agg函数(即np.correlate)找到“groupby”相关性。我有什么:IDVal1Val2OtherDataOtherDataA54xxA45xxA66xxB41xxB82xxB79xxC48xxC55xxC21xx我需要什么:IDCorrelation_Val1_Val2A0.12B0.22C0.05 最佳答案 你几乎想通了所有的部分,只

python - Groupby Pandas DataFrame 并计算一列的平均值和标准偏差,并将标准添加为带有 reset_index 的新列

我有一个如下所示的PandasDataFrame:abcd0Apple3571Banana4482Cherry7133Apple347我想按“a”列对行进行分组,同时将“c”列中的值替换为分组行中值的平均值,并添加另一列,其平均值为“c”列中值的标准偏差计算出来的。对于所有被分组的行,“b”或“d”列中的值是恒定的。因此,所需的输出将是:abcde0Apple34.570.7071071Banana44802Cherry7130实现这一目标的最佳方法是什么? 最佳答案 您可以使用groupby-aggoperation:In[38]

python - Groupby Pandas DataFrame 并计算一列的平均值和标准偏差,并将标准添加为带有 reset_index 的新列

我有一个如下所示的PandasDataFrame:abcd0Apple3571Banana4482Cherry7133Apple347我想按“a”列对行进行分组,同时将“c”列中的值替换为分组行中值的平均值,并添加另一列,其平均值为“c”列中值的标准偏差计算出来的。对于所有被分组的行,“b”或“d”列中的值是恒定的。因此,所需的输出将是:abcde0Apple34.570.7071071Banana44802Cherry7130实现这一目标的最佳方法是什么? 最佳答案 您可以使用groupby-aggoperation:In[38]

python - Pandas groupby 中的 as_index 是什么?

Pandas中groupby中的as_index具体作用是什么? 最佳答案 print()是你不懂事的friend。多次打消疑虑。看看:importpandasaspddf=pd.DataFrame(data={'books':['bk1','bk1','bk1','bk2','bk2','bk3'],'price':[12,12,12,15,15,17]})print(df)print(df.groupby('books',as_index=True).sum())print(df.groupby('books',as_index

python - Pandas groupby 中的 as_index 是什么?

Pandas中groupby中的as_index具体作用是什么? 最佳答案 print()是你不懂事的friend。多次打消疑虑。看看:importpandasaspddf=pd.DataFrame(data={'books':['bk1','bk1','bk1','bk2','bk2','bk3'],'price':[12,12,12,15,15,17]})print(df)print(df.groupby('books',as_index=True).sum())print(df.groupby('books',as_index

python - pandas 的变换不起作用对 groupby 输出进行排序

另一个Pandas问题。阅读WesMckinney关于数据分析和Pandas的优秀书籍,我遇到了以下我认为应该可行的事情:假设我有一些关于提示的信息。In[119]:tips.head()Out[119]:total_billtipsexsmokerdaytimesizetip_pct016.991.01FemaleFalseSunDinner20.059447110.341.66MaleFalseSunDinner30.160542221.013.50MaleFalseSunDinner30.166587323.683.31MaleFalseSunDinner20.139780424

python - pandas 的变换不起作用对 groupby 输出进行排序

另一个Pandas问题。阅读WesMckinney关于数据分析和Pandas的优秀书籍,我遇到了以下我认为应该可行的事情:假设我有一些关于提示的信息。In[119]:tips.head()Out[119]:total_billtipsexsmokerdaytimesizetip_pct016.991.01FemaleFalseSunDinner20.059447110.341.66MaleFalseSunDinner30.160542221.013.50MaleFalseSunDinner30.166587323.683.31MaleFalseSunDinner20.139780424

python - pyspark中groupBy之后的列别名

我需要下一行中的结果数据框,以便在groupBy之后的max('diff')列具有别名“maxDiff”。但是,下面的行没有进行任何更改,也不会引发错误。grpdf=joined_df.groupBy(temp1.datestamp).max('diff').alias("maxDiff") 最佳答案 你可以使用agg代替调用max方法:frompyspark.sql.functionsimportmaxjoined_df.groupBy(temp1.datestamp).agg(max("diff").alias("maxDiff

python - pyspark中groupBy之后的列别名

我需要下一行中的结果数据框,以便在groupBy之后的max('diff')列具有别名“maxDiff”。但是,下面的行没有进行任何更改,也不会引发错误。grpdf=joined_df.groupBy(temp1.datestamp).max('diff').alias("maxDiff") 最佳答案 你可以使用agg代替调用max方法:frompyspark.sql.functionsimportmaxjoined_df.groupBy(temp1.datestamp).agg(max("diff").alias("maxDiff

python - 使用带有参数的 Pandas groupby() + apply()

我想将df.groupby()与apply()结合使用,将函数应用于每组的每一行。我通常使用以下代码,它通常可以工作(注意,这是没有groupby()):df.apply(myFunction,args=(arg1,))使用groupby()我尝试了以下操作:df.groupby('columnName').apply(myFunction,args=(arg1,))但是,我收到以下错误:TypeError:myFunction()gotanunexpectedkeywordargument'args'因此,我的问题是:如何将groupby()和apply()与需要参数的函数一起使用?