返回顶部
首页 > 资讯 > 后端开发 > Python >Pandas提高数据分析效率的13个技巧汇总
  • 614
分享到

Pandas提高数据分析效率的13个技巧汇总

2024-04-02 19:04:59 614人浏览 泡泡鱼

Python 官方文档:入门教程 => 点击学习

摘要

目录1.计算变量缺失率2.获取分组里最大值所在的行方法3.多列合并为一行4.删除包含特定字符串所在的行5.组内排序6.选择特定类型的列7.字符串转换为数值8.优化 DataFrame

1.计算变量缺失率

df=pd.read_csv('titanic_train.csv')
def missing_cal(df):
    """
    df :数据集
    
    return:每个变量的缺失率
    """
    missing_series = df.isnull().sum()/df.shape[0]
    missing_df = pd.DataFrame(missing_series).reset_index()
    missing_df = missing_df.rename(columns={'index':'col',
                                            0:'missing_pct'})
    missing_df = missing_df.sort_values('missing_pct',ascending=False).reset_index(drop=True)
    return missing_df
missing_cal(df)

如果需要计算样本的缺失率分布,只要加上参数axis=1.

2.获取分组里最大值所在的行方法

分为分组中有重复值和无重复值两种。无重复值的情况。

df = pd.DataFrame({'Sp':['a','b','c','d','e','f'], 'Mt':['s1', 's1', 's2','s2','s2','s3'], 'Value':[1,2,3,4,5,6], 'Count':[3,2,5,10,10,6]})
df

df.iloc[df.groupby(['Mt']).apply(lambda x: x['Count'].idxmax())]

先按Mt列进行分组,然后对分组之后的数据框使用idxmax函数取出Count最大值所在的列,再用iloc位置索引将行取出。有重复值的情况

df["rank"] = df.groupby("ID")["score"].rank(method="min", ascending=False).astype(np.int64)
df[df["rank"] == 1][["ID", "class"]]

对ID进行分组之后再对分数应用rank函数,分数相同的情况会赋予相同的排名,然后取出排名为1的数据。

3.多列合并为一行

df = pd.DataFrame({'id_part':['a','b','c','d'], 'pred':[0.1,0.2,0.3,0.4], 'pred_class':['women','man','cat','dog'], 'v_id':['d1','d2','d3','d1']})

df.groupby(['v_id']).agg({'pred_class': [', '.join],'pred': lambda x: list(x),
'id_part': 'first'}).reset_index()

4.删除包含特定字符串所在的行

df = pd.DataFrame({'a':[1,2,3,4], 'b':['s1', 'exp_s2', 's3','exps4'], 'c':[5,6,7,8], 'd':[3,2,5,10]})
df[df['b'].str.contains('exp')]

5.组内排序

df = pd.DataFrame([['A',1],['A',3],['A',2],['B',5],['B',9]], columns = ['name','score'])

介绍两种高效地组内排序的方法。

df.sort_values(['name','score'], ascending = [True,False])
df.groupby('name').apply(lambda x: x.sort_values('score', ascending=False)).reset_index(drop=True)

6.选择特定类型的列

drinks = pd.read_csv('data/drinks.csv')
# 选择所有数值型的列
drinks.select_dtypes(include=['number']).head()
# 选择所有字符型的列
drinks.select_dtypes(include=['object']).head()
drinks.select_dtypes(include=['number','object','cateGory','datetime']).head()
# 用 exclude 关键字排除指定的数据类型
drinks.select_dtypes(exclude=['number']).head()

7.字符串转换为数值

df = pd.DataFrame({'列1':['1.1','2.2','3.3'],
                  '列2':['4.4','5.5','6.6'],
                  '列3':['7.7','8.8','-']})
df
df.astype({'列1':'float','列2':'float'}).dtypes

用这种方式转换第三列会出错,因为这列里包含一个代表 0 的下划线,pandas 无法自动判断这个下划线。为了解决这个问题,可以使用 to_numeric() 函数来处理第三列,让 pandas 把任意无效输入转为 NaN。

df = df.apply(pd.to_numeric, errors='coerce').fillna(0)

8.优化 DataFrame 对内存的占用

方法一:只读取切实所需的列,使用usecols参数

cols = ['beer_servings','continent']
small_drinks = pd.read_csv('data/drinks.csv', usecols=cols)

方法二:把包含类别型数据的 object 列转换为 Category 数据类型,通过指定 dtype 参数实现。

dtypes ={'continent':'category'}
smaller_drinks = pd.read_csv('data/drinks.csv',usecols=cols, dtype=dtypes)

9.根据最大的类别筛选 DataFrame

movies = pd.read_csv('data/imdb_1000.csv')
counts = movies.genre.value_counts()
movies[movies.genre.isin(counts.nlargest(3).index)].head()

10.把字符串分割为多列

df = pd.DataFrame({'姓名':['张 三','李 四','王 五'],
                   '所在地':['北京-东城区','上海-黄浦区','广州-白云区']})
df
df.姓名.str.split(' ', expand=True)

11.把 Series 里的列表转换为 DataFrame

df = pd.DataFrame({'列1':['a','b','c'],'列2':[[10,20], [20,30], [30,40]]})
df

df_new = df.列2.apply(pd.Series)
pd.concat([df,df_new], axis='columns')

12.用多个函数聚合

orders = pd.read_csv('data/chipotle.tsv', sep='\t')
orders.groupby('order_id').item_price.agg(['sum','count']).head()

13.分组聚合

import pandas as pd
df = pd.DataFrame({'key1':['a', 'a', 'b', 'b', 'a'],
    'key2':['one', 'two', 'one', 'two', 'one'],
    'data1':np.random.randn(5),
     'data2':np.random.randn(5)})
df

for name, group in df.groupby('key1'):
    print(name)
    print(group)

dict(list(df.groupby('key1')))

通过字典或Series进行分组

people = pd.DataFrame(np.random.randn(5, 5),
     columns=['a', 'b', 'c', 'd', 'e'],
     index=['Joe', 'Steve', 'Wes', 'Jim', 'Travis'])
mapping = {'a':'red', 'b':'red', 'c':'blue',
     'd':'blue', 'e':'red', 'f':'orange'}
by_column = people.groupby(mapping, axis=1)
by_column.sum()

到此这篇关于Pandas提高数据分析效率的13个技巧汇总的文章就介绍到这了,更多相关Pandas数据分析技巧内容请搜索编程网以前的文章或继续浏览下面的相关文章希望大家以后多多支持编程网!

--结束END--

本文标题: Pandas提高数据分析效率的13个技巧汇总

本文链接: https://lsjlt.com/news/118002.html(转载时请注明来源链接)

有问题或投稿请发送至: 邮箱/279061341@qq.com    QQ/279061341

猜你喜欢
  • Pandas提高数据分析效率的13个技巧汇总
    目录1.计算变量缺失率2.获取分组里最大值所在的行方法3.多列合并为一行4.删除包含特定字符串所在的行5.组内排序6.选择特定类型的列7.字符串转换为数值8.优化 DataFrame...
    99+
    2024-04-02
  • python数据分析必会的Pandas技巧汇总
    目录一、Pandas两大数据结构的创建二、DataFrame常见方法三、数据索引四、DataFrame选取和重新组合数据的方法五、排序六、相关分析和统计分析七、分组的方法八、读写文本...
    99+
    2024-04-02
  • 提高pandas库中常用函数的应用效率的技巧
    Pandas库是Python中用于数据处理和分析的重要工具之一。它提供了丰富的函数和方法来处理数据,但是在大规模数据集上进行操作时,我们也需要注意一些高效应用的技巧。本文将介绍一些常用函数的高效应用技巧,并给出具体的代码示例。 ...
    99+
    2024-01-24
    数据分析 数据处理 数据清洗
  • 解析提高PHP执行效率的50个技巧分别有哪些
    解析提高PHP执行效率的50个技巧分别有哪些,针对这个问题,这篇文章详细介绍了相对应的分析和解答,希望可以帮助更多想解决这个问题的小伙伴找到更简单易行的方法。用单引号代替双引号来包含字符串,这样做会更快一些。因为PHP会在双引号包围的字符串...
    99+
    2023-06-17
  • numpy转list:提高数据处理效率的技巧
    在数据处理中,常常需要将numpy数组转换成list。numpy数组是非常强大的数据结构,但有时候需要使用list进行进一步的操作。同时,也有一些操作需要numpy数组和list之间的转换。在本文中,我们将介绍numpy数组转l...
    99+
    2024-01-19
    Numpy 数据处理 转换
  • 帮你提高开发效率的JavaScript20个技巧
    目录1. 申明和初始化数组2.进行求和、最小值和最大值3. 对字符串、数字或对象的数组进行排序4. 是否需要从一个数组中过滤掉无用的值?5. 为各种条件使用逻辑运算符6. 删除重复的...
    99+
    2024-04-02
  • 可以提高效率的十个Linux命令别名汇总
    前言 在 linux 环境下工作的工程师,一定会对那些繁琐的指令和参数命令行印象深刻吧。而且,可怕的不是繁琐,而是需要大量重复输入这些繁琐的命令。 在 Linux 下我们有个别名命令 alias ,可以将那些繁琐的命令自...
    99+
    2022-06-04
    linux给命令起别名 linux如何查看命令别名 linux创建别名的命令
  • 10个提高效率的UNIX和Linux技巧分别是什么
    这期内容当中小编将会给大家带来有关10个提高效率的UNIX和Linux技巧分别是什么,文章内容丰富且以专业的角度为大家分析和叙述,阅读完这篇文章希望大家可以有所收获。如果您的服务也部署在 Linux 机器上,并且您每天有...
    99+
    2023-06-28
  • 8个Python高效数据分析的技巧分别是哪些
    这期内容当中小编将会给大家带来有关8个Python高效数据分析的技巧分别是哪些,文章内容丰富且以专业的角度为大家分析和叙述,阅读完这篇文章希望大家可以有所收获。不管是参加Kaggle比赛,还是开发一个深度学习应用,***步总是数据分析。介绍...
    99+
    2023-06-17
  • 17条提高工作效率的Python技巧分享
    目录1.引言2.技巧总结2.1.处理用户的多个输入2.2.处理多个条件语句2.3.判断数字奇偶性2.4.交换变量2.5.反转字符串2.6.判断字符串是否为回文串2.7.尽量使用 In...
    99+
    2024-04-02
  • 提高Discuz删除回复效率的技巧分享
    在Discuz论坛管理中,删除回复是一项常见且重要的操作。如何提高删除回复的效率,不仅可以节省管理员的时间,也能保持论坛的整洁和秩序。本文将会分享一些提高Discuz删除回复效率的技巧...
    99+
    2024-03-11
    自动化 性能优化 数据删除
  • 提升数据处理效率:使用pandas读取Excel文件的技巧
    优化数据处理流程:Pandas读取Excel文件的技巧 引言:在数据分析和处理的过程中,Excel是最常见的数据来源之一。然而,Excel文件的读取和处理往往是效率较低的,特别是当数据量较大时。为此,本文将介绍如何使用Pytho...
    99+
    2024-01-24
    Pandas 优化 数据处理
  • 分享提高工作效率的numpy函数技巧与实例
    提高工作效率的numpy函数技巧与实例分享 引言:在数据处理和科学计算领域,使用Python的numpy库是非常常见的。numpy提供了一系列强大的函数和工具,能够方便地进行大规模数据操作和计算。本文将介绍一些提高工作效率的nu...
    99+
    2024-01-26
    工作效率 实例分享 numpy函数
  • NumPy 到底能否提高数据分析的效率?
    NumPy 是 Python 中的一个重要的数据处理库,它能够提供高效的数值计算和大规模数据处理的支持。这使得 NumPy 在数据分析领域中得到了广泛应用。但是,NumPy 到底能否提高数据分析的效率呢?本文将会探讨这个问题。 首先,让我们...
    99+
    2023-08-31
    bash numy http
  • Python中的数组操作技巧:提高大数据处理效率。
    Python中的数组操作技巧:提高大数据处理效率 随着数据量的不断增加,大数据处理已经成为了现代计算机领域中不可避免的挑战。而在这个过程中,高效地使用数组是至关重要的。Python作为一种高级编程语言,在处理大数据时也有很多技巧和方法,接下...
    99+
    2023-09-11
    二维码 大数据 数组
  • 五个提升Python的执行效率的技巧分享
    目录1、合理使用标准或非标准库2、减少循环的使用3、注意重复代码运行4、减少全局变量使用5、使用合理的数据结构python作为使用最广泛的编程语言之一,有着无穷无尽的第三方非标准库的...
    99+
    2023-05-15
    Python提升执行效率技巧 Python提升执行效率 Python 技巧
  • Python数据处理的26个Pandas实用技巧总结
    目录从剪贴板中创建DataFram将DataFrame划分为两个随机的子集多种类型过滤DataFrameDataFrame筛选数量最多类别处理缺失值一个字符串划分成多列Series扩...
    99+
    2024-04-02
  • 怎么使用numpy提高Python数据分析效率
    今天小编给大家分享一下怎么使用numpy提高Python数据分析效率的相关知识点,内容详细,逻辑清晰,相信大部分人都还太了解这方面的知识,所以分享这篇文章给大家参考一下,希望大家阅读完这篇文章后有所收获,下面我们一起来了解一下吧。1、数组初...
    99+
    2023-07-06
  • 优化pandas数据分析的技巧和方法
    提高数据分析效率的pandas技巧与窍门 引言 在现代数据分析领域,pandas是一种非常广泛使用的Python库。它提供了高效、灵活和丰富的数据结构和数据处理工具,使得数据分析变得更加简单和高效。然而,要想真正发挥pandas...
    99+
    2024-01-13
    数据清洗 数据聚合 数据转换
  • 提高Python数据分析速度的技巧有哪些
    这篇文章主要介绍“提高Python数据分析速度的技巧有哪些”,在日常操作中,相信很多人在提高Python数据分析速度的技巧有哪些问题上存在疑惑,小编查阅了各式资料,整理出简单好用的操作方法,希望对大家解答”提高Python数据分析速度的技巧...
    99+
    2023-06-02
软考高级职称资格查询
编程网,编程工程师的家园,是目前国内优秀的开源技术社区之一,形成了由开源软件库、代码分享、资讯、协作翻译、讨论区和博客等几大频道内容,为IT开发者提供了一个发现、使用、并交流开源技术的平台。
  • 官方手机版

  • 微信公众号

  • 商务合作