Python 官方文档:入门教程 => 点击学习
目录 一、pandas简介 1.1 pandas来源 1.2 pandas特点 1.3 pandas的两种主要数据结构 二、 pandas数据结构详解 2.1 pandas——series 2.1.1 由字典创建一个series 2.1.
目录
2.2.3 由ndarray或者列表的字典创建DataFrame
2.2.10.6 DataFrame与NumPy函数的互操作
python本身的数据分析功能并不强,需要安装一些第三方的扩展库
来增强
它的能力。其中,针对结构化数据
(可简单理解为二维表
数据,或我们常用的excel表
格数据)分析能力最强的第三方扩展库就是Pandas
。
Pandas 是Python的一个数据分析包,最初由AQR Capital Management于2008年4月开发
,并于2009年底开源
出来的,目前由专注于Python数据包开发的PyData
开发team
继续开发和维护,属于PyData项目的一部分。Pandas最初
被作为金融数据分析工具
而开发出来,因此,pandas为时间序列分析
提供了很好的支持。 Pandas的名称
来自于面板数据
(panel data)和python数据分析
(data analysis)。
Pandas
是基于NumPy
的一种工具包,是为解决数据分析任务而创建的。但Numpy只能处理数字,若想处理其他类型的数据,如字符串,就要用到Pandas了。
Pandas
纳入了大量库和一些标准的数据模型,提供了高效
地操作大型数据集
所需的工具。
Pandas
提供了大量能使我们快速便捷
地处理数据
的函数
和方法
,是使Python成为强大而高效的数据分析语言的重要因素之一。
Pandas 可以对各种数据进行运算操作,比如归并、再成形、选择,还有数据清洗
和数据加工
特征。
Pandas 广泛应用在学术
、金融
、统计学
等各个数据分析领域。
Pandas 的主要数据结构是 Series
(一维数据)与 DataFrame
(二维数据),这两种数据结构足以处理金融、统计、社会科学、工程等领域里的大多数典型用例。
Series
是一种类似于一维数组的对象,它由一组数据
(各种Numpy数据类型)以及一组与之相关的数据标签(即索引
)组成。
DataFrame是一个
表格型的数据结构,它含有一组
有序的列,每列可以是不同的值类型(数值、字符串、布尔型值)。DataFrame 既有
行索引也有
列索引,它可以被看做由
Series 组成的字典`(共同用一个索引)。
创建Series的基本方法:
#s = pandas.Series(data, [index=index])
其中data可以是不同的数据类型,可以是字典,ndarray和标量,索引index是一个可选参数,最终生成的索引取决于传入的data是什么数据类型。
data = {'b': 1, 'a': 0, 'c': 2}ser1 = pd.Series(data)print(ser1)#结果b 1a 0c 2dtype: int64
当没有传递index
参数时,Series
的索引为字典的key
,索引对应的值为字典的value
。另外根据官方文档的说法,如果Python版本≥3.6且pandas版本≥0.23,那么索引将按dict
的插入顺序排序。如果Python版本<3.6或pandas版本<0.23,则索引将按字典键的字母顺序排序
如果指定了index
,则只有和index
中的标签对应的字典中的值才会被取出用于创建Series
,如果某个标签不是字典的键,则这个标签对应的值为NaN
(not a number,在pandas中用于标记缺失数据)
示例:
data = {'b': 1, 'a': 0, 'c': 2}index = ['b', 'c', 'd', 'a']ser1 = pd.Series(data=data,index=index)print(ser1)结果:b 1.0c 2.0d NaNa 0.0dtype: float64
如果data
是一个ndarray
,如果要指定index
,那么其长度必须和data
长度一样。如果没有传递index
,则会自动创建一个整数索引,其值为[0, ..., len(data) - 1]
。
ser2 = pd.Series(np.random.randn(5), index=['a', 'b', 'c', 'd', 'e'])print(ser2)print(ser2.values) #输出值print(ser2.index) #输出索引ser2 = pd.Series(np.random.randn(5))print(ser2)#结果a -0.691551b 0.484485c 0.240262d -1.184450e -0.533851dtype: float64[-0.69155096 0.48448515 0.24026173 -1.18444977 -0.53385096]Index(['a', 'b', 'c', 'd', 'e'], dtype='object')0 1.1187441 1.5705502 -0.0694443 -0.0861344 -0.950202dtype: float64
如果data
是标量值,则必须提供索引。该值将会重复以匹配索引的长度.
ser3 = pd.Series(5.0, index=['a', 'b', 'c', 'd', 'e'])print(ser3)#结果a 5.0b 5.0c 5.0d 5.0e 5.0dtype: float64
Series
的行为和ndarray
非常类似,它是大多数NumPy函数的有效参数。但是,切片等操作也会对索引进行切片。示例:
ser2 = pd.Series(np.random.randn(5), index=['a', 'b', 'c', 'd', 'e'])print(ser2[0])print(ser2[1:3])print(ser2[ser2 > ser2.median()]) #大于中值print(np.exp(ser2))
pandas也有dtype属性:
print(ser2.dtype)
获取Series底层的数组,可以用Series.array属性:
print(ser2.array)#结果:[ -0.7815805591394526, -0.033036078599971104, 1.4844533748085762, 1.2854696909097223, -0.9010676391265999]Length: 5, dtype: float64
通过Series.to_numpy()方法获取对应的NumPy数组ndarray:
print(ser2.to_numpy())#得到数组[ 1.66084398 -0.07187783 -1.18355426 2.5447355 -0.45818444]
前面看到了可以从字典创建Series,很巧合的是原始的字典和通过该字典创建的Series在数据的获取和设置方面基本一样(除了字典可以添加新的key)。也就是说,Series类似于固定大小的dict,可以通过索引标签获取和设置值。
data = {'b': 1, 'a': 3, 'c': 2}index = ['b', 'c', 'd', 'a']ser1 = pd.Series(data=data,index=index)# print(ser1)print(ser1['a'])ser1['f'] = 12ser1['d'] = 10print(ser1)#判断是否有索引print('f' in ser1)print('z' in ser1)
使用get方法,获取Series中没有的标签的值将返回None或指定的默认值:
print(ser1.get('z',np.nan))
使用原始NumPy数组时,通常不需要逐个值循环。在pandas中使用Series时也是如此。Series也可以传递给大多数需要ndarray的NumPy方法。
示例:
data = {'b': 1, 'a': 3, 'c': 2}index = ['b', 'c', 'd', 'a']ser1 = pd.Series(data=data,index=index)print(ser1 + ser1)print(ser1 - 1)print(np.square(ser1))
Series和ndarray之间的一个关键区别是Series之间的运算会根据标签自动对齐数据,也就是运算是在具有相同标签的元素之间进行的。
print(ser1[1:] + ser1[:-1])
未对齐Series
之间的运算结果的索引是所有涉及到的Series
的索引的并集。如果有标签在其中一个Series
中没找到,那么在结果中该标签对应的值为NaN
。无需进行任何明确的数据对齐即可编写代码,这为交互式数据分析和研究提供了极大的自由度和灵活性。pandas数据结构集成的数据对齐功能使pandas有别于其他大多数用于处理标签数据的相关工具。
通常,为了避免信息丢失,我们会选择具有不同索引的对象做计算之后的默认结果,这个结果的索引为参与计算的对象索引的并集,结果中会有某些标签的值被标记为确实数据(NaN
),因为这些标签不是其中一个或多个对象中的标签。而这样的数据通常也是计算结果的重要信息。如果你不需要这些缺失数据,可以通过dropna
函数将这些缺失数据极其标签丢弃掉。
print((ser1[1:] + ser1[:-1]).dropna())
Series有一个name属性,可以理解为列名:
ser1 = pd.Series(data=data,index=index,name='test')print(ser1.name)
可以用方法Series.rename()对Series重命名,该方法会返回一个新的Series对象,如果在原series上使用,原serise的名称属性不会改变:
ser1 = pd.Series(data=data,index=index,name='test')print(ser1.name)ser2 = ser1.rename('te')print(ser2.name)
DataFrame是最常使用的pandas对象。它是一种二维的有标签的数据结构,其列可能具有不同的数据类型。你可以将其视为电子表格、SQL表或者Series对象的字典。
创建DataFrame的基本方法如下:
#df = pd.DataFrame(data, [index=index, columns=columns])
与Series一样,DataFrame接受多种不同类型的输入data:
一维ndarray、列表、字典、Series等对象的字典
二维NumPy ndarray
结构化或记录ndarray
一个`Series
另一个DataFrame
除了data之外,可选的,还可以传递index(行标签)和columns(列标签)参数。如果传递了索引和/或列参数,那么生成的DataFrame对象的索引和/或列就是你所指定的索引和/或列。如果没有传递轴标签,那么将根据默认规则从输入数据中构造出来。
#df = pd.DataFrame(data, [index=index, columns=columns])d = {"one": pd.Series([1.0, 2.0, 3.0], index=["a", "b", "c"]),"two": pd.Series([1.0, 2.0, 3.0, 4.0], index=["a", "b", "c", "d"])}# 没有传递索引和列,则结果的索引为各个Series索引的并集,列是字典的键df = pd.DataFrame(d)print(df)# 指定index,Series中匹配标签的数据会被取出,没有匹配的标签的值为NaNdf = pd.DataFrame(d, index=["d", "b", "a"])print(df)# 同时指定了索引和列,同样的,如果字典中没有和指定列标签匹配的键,则结果中该列标签对应的列值都为NaNdf = pd.DataFrame(d, index=["d", "b", "a"], columns=["two", "three"])print(df)#结果 one twoa 1.0 1.0b 2.0 2.0c 3.0 3.0d NaN 4.0 one twod NaN 4.0b 2.0 2.0a 1.0 1.0 two threed 4.0 NaNb 2.0 NaNa 1.0 NaN
这些嵌套字典会先被转换为Series,再从Series的字典创建DataFrame:
dd = {'one': {'a':1, 'b':2},'two': {'c':3, 'd':4}}pa = pd.DataFrame(dd)print(pa)
外层字典的键名成为列索引,内层的键名成为行索引,无标签的默认值为Nan。
ndarray或列表的长度必须相同。如果指定了索引,则索引的长度也必须和数组/列表的长度相同。如果没有传递索引,则会自动创建一个整数索引range(n),n为数组/列表的长度。
示例:
data = {'one': np.array([1.0, 2.0, 3.0, 4.0]), 'two': np.array([4.0, 3.0, 2.0, 1.0])}pb = pd.DataFrame(data)print(pb)pc = pd.DataFrame(data, index=['a', 'b', 'c', 'd'])print(pc)data = {'one': [1.0, 2.0, 3.0, 4.0], 'two': [4.0, 3.0, 2.0, 1.0]}pe = pd.DataFrame(data)print(pe)#结果: one two0 1.0 4.01 2.0 3.02 3.0 2.03 4.0 1.0 one twoa 1.0 4.0b 2.0 3.0c 3.0 2.0d 4.0 1.0 one two0 1.0 4.01 2.0 3.02 3.0 2.03 4.0 1.0
与数组相同:
data = np.array([(1, 2.0, "Hello"), (2, 3.0, "World")], dtype=[("A", "i4"), ("B", "f4"), ("C", "a10")])pa = pd.DataFrame(data)print(pa)pb = pd.DataFrame(data, index=["first", "second"])print(pb)pc = pd.DataFrame(data, columns=["C", "A", "B"])print(pc)#结果: A B C0 1 2.0 b'Hello'1 2 3.0 b'World' A B Cfirst 1 2.0 b'Hello'second 2 3.0 b'World' C A B0 b'Hello' 1 2.01 b'World' 2 3.0Process finished with exit code 0
字典的键名默认为列名:
data2 = [{"a": 1, "b": 2}, {"a": 5, "b": 10, "c": 20}]pa = pd.DataFrame(data2)print(pa)pb = pd.DataFrame(data2, index=["first", "second"])print(pb)pc = pd.DataFrame(data2, columns=["a", "b"])print(pc)
可以通过传递元组字典来自动创建有多级索引的DataFrame:
pa = pd.DataFrame( { ('a', 'b'): {('A', 'B'): 1, ('A', 'C'): 2}, ('a', 'a'): {('A', 'C'): 3, ('A', 'B'): 4}, ('a', 'c'): {('A', 'B'): 5, ('A', 'C'): 6}, ('b', 'a'): {('A', 'C'): 7, ('A', 'B'): 8}, ('b', 'b'): {('A', 'D'): 9, ('A', 'B'): 10} })print(pa)#结果: a b b a c a bA B 1.0 4.0 5.0 8.0 10.0 C 2.0 3.0 6.0 7.0 NaN D NaN NaN NaN NaN 9.0
从一个Series创建的DataFrame只有一列数据,列的名称是Series的原始名称(在没有提供其他列名时),其索引与输入的Series相同。
ser = pd.Series(range(3), index=list('abc'), name='ser')print(pd.DataFrame(ser))
列表中第一个namedtuple的字段名决定了DataFrame的列。之后的命名元组(或元组)就只是简单地将值拆包并填充到DataFrame的行。如果这些元组中的任何一个的长度比第一个namedtuple短,则相应行中后面的列将标记为缺失值。但如果有任意一个比第一个namedtuple长,则会抛出ValueError。
from collections import namedtuplePoint = namedtuple("Point", "x y")# 列由第一个命名元组Point(0, 0)的字段决定,后续的元组可以是命名元组,也可以是普通元组print(pd.DataFrame([Point(0, 0), Point(0, 3), (2, 3)]))Point3D = namedtuple("Point3D", "x y z")# 第一个元组决定了生成的DataFrame由3列(x,y,z),而列表中第三个元组长度为2# 所以在DataFrame的第三行中,第三列的值为NaNprint(pd.DataFrame([Point3D(0, 0, 0), Point3D(0, 3, 5), Point(2, 3)]))
向DataFrame的构造函数传递数据类列表等价于传递字典列表,但是要注意的是,列表中的所有值都应该是数据类,在列表中混合类型会导致TypeError异常。
from dataclasses import make_dataclassPoint = make_dataclass('Point', [('x', int), ('y', int)])print(pd.DataFrame([Point(0, 0), Point(0, 3), Point(2, 3)]))
除了使用类构造函数创建DataFrame对象,DataFrame类本身也提供了一些类方法用于创建对象
接受一个字典的字典或类数组序列的字典作为参数并放回一个DataFrame。它的行为类似于DataFrame构造函数,不同的是,它有一个orient参数,默认值为columns,也可以设置为index,从而将字典的key用作行标签。
print(pd.DataFrame.from_dict(dict([('A', [1, 2, 3]), ('B', [4, 5, 6])])))# 传递index给orient参数,字典key会变成行标签print(pd.DataFrame.from_dict(dict([('A', [1, 2, 3]), ('B', [4, 5, 6])]),orient='index',columns=['one', 'two', 'three'],))
接受一个元组或结构化数组的列表作为参数,其工作原理和普通的DataFrame构造函数类似,不同的是,生成的DataFrame的索引可以是结构化数据类型的特定字段。
data = np.array([(1, 2., b'Hello'), (2, 3., b'World')],dtype=[('A', '
和Series一样,DataFrame也和字典类似,你可以在语义上将其视为Series对象的字典,这些Series对象共享相同的索引。获取、设置和删除列的语法与对应的字典操作相同:
d = {"one": pd.Series([1.0, 2.0, 3.0], index=["a", "b", "c"]),"two": pd.Series([1.0, 2.0, 3.0, 4.0], index=["a", "b", "c", "d"])}## # 没有传递索引和列,则结果的索引为各个Series索引的并集,列是字典的键df = pd.DataFrame(d)print(df)print(df['one'])df['three'] = df['one'] * df['two']df['flag'] = df['one'] > 2 #布尔print(df)
可以像字典操作那样将列删除或弹出:
del df['one']three = df.pop('three')print(three)
插入标量值时,这个值会填充整个列:
df['foo'] = 'bar'print(df)
当插入一个和DataFrame索引不同的Series时,只有匹配的标签的值会被保留,不在DataFrame索引中的标签值则被丢弃,Series索引中没有的标签值则设为NaN:
df['one_trunc'] = pd.Series([1,2,3,4], index=list('acef'))print(df)
也可以插入原始ndarray,但其长度必须与DataFrame索引的长度匹配:
df['array'] = np.array([5, 6, 7, 8])print(df)
默认情况下,列被插入到末尾,可以使用DataFrame.insert()方法在列中的特定位置插入:
Dataframe.insert(loc, column, value, allow_duplicates=False): 在Dataframe的指定列中插入数据。
参数介绍:
loc: int型,表示第几列;若在第一列插入数据,则 loc=0 column: 给插入的列取名,如 column='新的一列' value:数字,array,series等都可(可自己尝试) allow_duplicates: 是否允许列名重复,选择Ture表示允许新的列名与已存在的列名重复。
df.insert(1, 'one','bar') #在第二列插入print(df)
DataFrame有一个assign()方法,可以轻松地创建从现有列派生的新列:
iris = pd.DataFrame({ 'SepalLength': [5.1, 4.9, 4.7, 4.6, 5.0], 'SepalWidth': [3.5, 3.0, 3.2, 3.1, 3.6], 'PetalLength': [1.4, 1.4, 1.3, 1.5, 1.4], 'PetalWidth': [0.2, 0.2, 0.2, 0.2, 0.2], 'Name': 'Iris-setosa'})iris = iris.assign(sepal_ratio = iris['SepalWidth'] / iris['SepalLength'])print(iris)
也可以传递一个只接受一个参数的函数对象,在这个过程中,调用assign方法的DataFrame对象会被传递给这个函数,由这个函数产生新列:
iris = pd.DataFrame({ 'SepalLength': [5.1, 4.9, 4.7, 4.6, 5.0], 'SepalWidth': [3.5, 3.0, 3.2, 3.1, 3.6], 'PetalLength': [1.4, 1.4, 1.3, 1.5, 1.4], 'PetalWidth': [0.2, 0.2, 0.2, 0.2, 0.2], 'Name': 'Iris-setosa'})# iris = iris.assign(sepal_ratio = iris['SepalWidth'] / iris['SepalLength'])iris = iris.assign(sepal_ratio=lambda x: (x['SepalWidth'] / x['SepalLength']))print(iris)
assing()返回的是数据的副本并插入新列,原始DataFrame保持不变。
assign()方法还有一个特性,它允许依赖赋值,在提供给assign方法的参数中,参数表达式是按顺序从左到右进行计算的,后面的表达式可以引用前面已经创建的列:
dfa = pd.DataFrame({'A': [1, 2, 3], 'B': [4, 5, 6]})print(dfa.assign(C=lambda x: x['A'] + x['B'], D=lambda x: x['A'] + x['C']))
基本的索引方式如下:
可以看到选择列还有一个语法df.col,而且列名col必须为有效的Python变量名才可以用这种语法。
data = {'one': np.array([1.0, 2.0, 3.0, 4.0]), 'two': np.array([4.0, 3.0, 2.0, 1.0])}pb = pd.DataFrame(data)# print(pb)pc = pd.DataFrame(data, index=['a', 'b', 'c', 'd'])print(pc)#选择列print(pc['one'])print(pc.one)#按照标签选择行print(pc.loc['a'])print(pc.iloc[2])#对行切片print(pc[:2])
还可以按照布尔值来取数据;
d = {"one": pd.Series([1.0, 2.0, 3.0], index=["a", "b", "c"]),"two": pd.Series([1.0, 2.0, 3.0, 4.0], index=["a", "b", "c", "d"])}## # 没有传递索引和列,则结果的索引为各个Series索引的并集,列是字典的键df = pd.DataFrame(d)print(df)print(df['one'])df['three'] = df['one'] * df['two']df['flag'] = df['one'] > 2print(df)#按照布尔型取值print(df.flag)
DataFrame对象之间的数据对齐在列和索引上自动对齐。与Series的数据对齐一样,生成的对象将具有列和行标签的并集。
df = pd.DataFrame(np.random.randn(10, 4), columns=['A', 'B', 'C', 'D'])print(df)df2 = pd.DataFrame(np.random.randn(7, 3), columns=['A', 'B', 'C'])print(df2)print(df + df2)
在DataFrame和Series之间执行操作时,默认行为是在DataFrame列上的对齐Series索引,然后逐行广播,示例:
print(df - df.iloc[0])
与标量的算术运算则是按元素操作:
print(df * 5 - 2)print(1 / df)print(df ** 2)
布尔运算符也是按元素操作,对相同位置的元素做布尔运算:
df1 = pd.DataFrame({'a': [1, 0, 1], 'b': [0, 1, 1]}, dtype=bool)df2 = pd.DataFrame({'a': [0, 1, 1], 'b': [1, 1, 0]}, dtype=bool)print(df1 & df2)print(df1 | df2)print(df1 ^ df2)print(-df1)
和ndarray一样,要进行转置,访问T
属性或者调用DataFrame.transpose()方法:
print(df1.T)
大多数NumPy函数可以在Series和DataFrame上直接调用:
df = pd.DataFrame(np.random.randn(10, 4), columns=['A', 'B', 'C', 'D'])print(np.abs(df))print(np.square(df))print(np.asarray(df))
当传递两个pandas对象给NumPy函数时,会先进行对齐再执行函数操作:
numpy.remainder()是另一个用于在numpy中进行数学运算的函数,它返回两个数组arr1和arr2之间的除法元素余数,即arr1 % arr2 当arr2为0且arr1和arr2都是整数数组时,返回0。
ser1 = pd.Series([1, 2, 3], index=['a', 'b', 'c'])ser2 = pd.Series([1, 3, 5], index=['b', 'a', 'c'])print(np.remainder(ser1, ser2))
与Series一样,可以使用DataFrame.to_numpy()方法获得相应的ndarray:
df = pd.DataFrame(np.random.randn(10, 4), columns=['A', 'B', 'C', 'D'])print(df.to_numpy())
import numpy as npimport pandas as pdimport matplotlib.pyplot as pltimport seaborn as snsimport warningsimport sslwarnings.filterwarnings('ignore')ssl._create_default_https_context = ssl._create_unverified_context
读取CSV格式数据,使用 pd.read_csv(),写入文件使用DataFrame.to_csv():
work_path = '../save_file/'os.chdir(work_path)#改变当前目录到work_pathprint(os.getcwd())#打印当前目录data = pd.read_csv( 'data.csv', encoding = 'utf-8', dtype = {'id':str, 'name':str,'age':int}) #读取data.csv文件print(data.head())data.to_csv('data_out.csv', encoding = 'utf-8')# 读到data_out.csv,没有文件的话自动创建
直接索引时,列更容易定位和索引,似乎行只能连续索引,不能灵活索引:
print(data.columns)#显示列标签print(data['id'])#获取一列'user_id'print(data[['id','name']])#获取两列,这是用列表形式获取的两列,所以有2层方括号print(data[1:4])#获取1:3行,好像无法获取不连续的多行,需要用loc或iloc函数print(data[['id','name']][1:4])#获取两列,再获取这两列组成的dataframe的1:4行
loc函数定位的是标签(index),不是行的位置。loc函数的第一个参数是对行的操作,第二个参数是对列的操作。
print(data.loc[1:3, ['id','name']])#获取行标签为1:3,列标签为'id','name'的数据print(data.loc[data.id == '1', ['id','name']])#获id列中值为'1'的行,列标签为'user_id','name'的数据print(data.loc[data.age > 22, ])#age > 22的所有行print(data.loc[(data.age > 24) | (data.id == '1') ])#age > 24或id='1'的所有行
iloc函数定位的是行的位置。iloc函数的第一个参数是对行的操作,第二个参数是对列的操作。
print(data.iloc[[1, 3], 0:2 ])#获取第1行和第4行,0到2列print(data.iloc[[1, 3], [0, 2]])#获取第1行和第4行,0和2列
列的增加主要使用直接增加法,或者insert()方法,删除列主要使用drop、del方法。 行的删除也可以用drop方法,行的增加可以用_append在末尾加入,也有更好的方法。
tmp = data['age']data.insert(0,'copy购买量',tmp)#在数据中插入一列,名称‘copy购买量’,位置第0列,数字tmpprint(data)del data['copy购买量']#删除dataframe中名称为copy购买量的列data.insert(1, 'copy购买量', tmp)#在数据中插入一列,名称‘copy购买量’,位置第0列,数字tmpdata.insert(0, 'copy购买量1', tmp)#在数据中插入一列,名称‘copy购买量’,位置第0列,数字tmpdata.drop(labels = ['copy购买量', 'copy购买量1'], axis = 1, inplace = True)#上一行在数据中删除名称为'copy购买量', 'copy购买量1'的列,名称‘copy购买量’,axis = 1表示删除列,axis = 0表示删除行,inplace表示真实删除print(data.drop(labels = [0, 2], axis = 0, inplace = False))#删除行标签为0和2的行print(data.drop(labels = range(1, 3), axis = 0, inplace = False))#删除行标签1到2的行print(data._append(data))#在df的最后附加行
用rename修改行标签或者列名称。 直接用df.series同==,>,<等逻辑运算符获取满足特定关系的df数据 也可以用between、isin方法获取在之间,匹配某些数量的数据
data.rename(columns = {'id':'用户ID'},inplace=True)#用rename修改列标签,使用字典的形式;data.rename(index = {1:11, 2:22}, inplace = True)#用rename修改行标签,使用字典的形式;print(data)data.loc[data['性别'] == 0, '性别'] = '女性'#将列标签为‘性别’的列中值等于0的元素,改为女性。data.loc[data['性别'] == 1, '性别'] = '男性'data.loc[data['性别'] == 2, '性别'] = '未知'print(data)print(data[data['age']>23])#获取名称为'age'列的数据中大于80的数据,会得到所有列print(data[(data['age'] < 23) & (data['性别'] == '男性')])print(data[data['age'].isin([12,21,20])])#age 列数值属于list[12,21,20]的数据
使用df.to_datetime()处理pandas的各类字符串形式的时间; 使用pd.dt.strftime()处理datetime64或时间戳类型数据的以格式化字符串输出
start_datetime = np.arange('2021-11-01', '2021-11-10', dtype = 'datetime64[D]')#生成numpy起始时间序列end_datetime = np.arange('2021-11-01T12:14:30.789', '2021-11-10T12:14:30.789', 86400000, dtype = 'datetime64[ms]')segment_time = np.array([start_datetime, end_datetime]).T#建立一个起始时间的numpy数组df = pd.DataFrame(segment_time, columns = ['起始时间', '结束时间'])#新建dataframedf['持续时间'] = df['结束时间'] - df['起始时间']#增加一列持续的时间df['间隔时间'] = np.append((df['起始时间'].values[1:] - df['结束时间'].values[0:-1]), 0)#增加一列每两组之间间隔的时间df['start_time'] = df['起始时间'].dt.strftime('%A %B %d %Y %H:%M:%S.%f')#把datetime64格式转换成规定格式字符串时间df['end_time'] = df['结束时间'].dt.strftime('%a %b %d %Y %H:%M:%S.%f')df['读入起始时间'] = pd.to_datetime(df['start_time'], fORMat = '%A %B %d %Y %H:%M:%S.%f')df['读入结束时间'] = pd.to_datetime(df["end_time"], format = '%a %b %d %Y %H:%M:%S.%f')print(df)#建立df的另外一种方法:start_datetime_char = np.datetime_as_string(start_datetime, unit = 'ms')#numpy里的datetime64转换为字符串,改格式不方便end_datetime_char = np.datetime_as_string(end_datetime, unit = 'ms')#转换为字符串df_char = pd.DataFrame(start_datetime_char, columns = ['起始时间'])df_char['结束时间'] = end_datetime_charprint(df_char)
对datetime64使用pd.dt.date/time/year/month/wedk/weekday/day/hour/min/second 对timedelta64使用pd.dt.days/total_seconds() 对datetime64使用pd.dt.dayofyear/weekofyear
df_char['date_time'] = pd.to_datetime(df['结束时间'], format = '%Y-%m-%dT%H%M%S.%f')df_char['年'] = df_char['date_time'].dt.yeardf_char['周'] = df_char['date_time'].dt.isocalendar().weekdf_char['周几'] = df_char['date_time'].dt.weekdaydf_char['分'] = df_char['date_time'].dt.minutedf_char['秒'] = df_char['date_time'].dt.seconddf_char['微秒'] = df_char['date_time'].dt.microseconddf_char['总秒数'] = df['间隔时间'].dt.total_seconds()#不要忘了括号df_char['总天数'] = (df['间隔时间']).dt.days#不用括号df_char['加天序列后总天数'] = (df['间隔时间'] + np.arange(0, 9, 1, dtype = 'timedelta64[D]')).dt.days#不用括号#上面的增加np.arange()主要是用来增加间隔天数,以使显示的天数由变化。pd.set_option('display.max_columns', None)#设置pandas显示选项,以便显示所有列。print(df_char)
使用concat()将两个dataframe横向堆叠或纵向堆叠 使用merge()将两个dataframe按照主键合并
merge1 = pd.concat([df, df_char], axis = 0, join = 'outer')#使用列表堆叠,0轴沿着纵向拓展,即行数增加,inner表示不一致的删除,outer表示不一致的保留merge2 = pd.concat([df, df_char, data], axis = 1, join = 'outer')#使用列表堆叠,0轴沿着横向拓展,即列数增加merge3 = pd.merge(left = df, right = df_char, how = 'inner', left_on = '结束时间', right_on = 'date_time')#按照df[结束时间]和df[date_time]这两个主键关联merge4 = pd.merge(left = df, right = df_char, how = 'inner', left_on = '起始时间', right_on = 'date_time')#按照df[起始时间]和df[date_time]这两个主键关联,由于不相等且是inner模式,所以会清空所有数据merge5 = pd.merge(left = df, right = df_char, how = 'outer', left_on = '起始时间', right_on = 'date_time')#按照df[起始时间]和df[date_time]这两个主键关联,由于不相等但是是outer模式,所以会保留所有数据print(merge1)print(merge2)print(merge3)print(merge4)print(merge5)
主要用到的函数名称即说明如下: pd.str. contains() 返回表示各str是否含有指定模式的字符串 。 replace() 替换字符串 lower() 返回字符串的副本,其中所有字母都转换为小写。 upper() 返回字符串的副本,其中所有字母都转换为大写。 split() 返回字符串中的单词列表。 strip() 删除前导和后置空格。 join() 返回一个字符串,该字符串是给定序列中所有字符串的连接。 还有一个判断是否包含空元素的函数pd.isnull(),经常会需要和T、any()联合起来使用 ∙ \bull ∙使用df.fillna/df.age.fillna来替换缺失值
df1 = pd.read_csv('MotorcycleData.csv', encoding = 'gbk')print(df1['Price'].str[0])#pd.str可以用切片方式实现索引print(df1['Price'].str[:2])df1['价格'] = df1['Price'].str.strip('$')#删去头尾的'$'符号df1['价格'] = df1['价格'].str.replace(',', '')#删去','符号df1['价格'] = df1['价格'].astype(int)# print(df1.info())# print(df1[['Price', '价格']])df1['位置'] = df1['Location'].str.split(',')#通过字符串中“,”将其分割成一个字符串列表# print(df1['位置'].str[1])#打印出这个列表中的第一个字符串元素# print(df1['Location'].str.len())#获取字符串长度df1.loc[df1[['Location']].isnull().T.any()] = 'aaa'#将'Location'这列中是空数据的填上字符串,避免字符串判断时出现空值而报错#上面的例子中df1[['Location']]必须用两层中括号,这样结果是DataFrame类,如果是df1['Location']就是series类了#非转置:df1.isnull().any(),得到的每一列求any()计算的结果,输出为列的Series。#转置:df1.isnull().T.any(),得到的每一行求any()计算的结果,输出为行的Series。#这里要知道那一行有Nan,所以要用转置print(df1[df1[['Location', '价格']].isnull().T.any()]['Location'])#检查'Location和价格'这两列中是是否有空数据 #替换缺失值用df.fillna更方便df1.fillna('datamiss', inplace = True)print(df1.loc[df1['Location'].str.contains('New Hampshire'), 'Location'])#找出数据中包含特定字符串的数据
数据统计信息显示采用discribe()方法; 数据排序使用: ∙ \bullet ∙ sort_values(by, axis=0, ascending=True, inplace=False, kind=‘quicksort’, na_position=‘last’),基于某几行或列的值进行排列 ∙ \bullet ∙ sort_index(axis=0, level=None, ascending=True, inplace=False, kind=‘quicksort’, na_position=‘last’, sort_remaining=True, by=None),基于行或列标签进行排列
print(df1.describe())#只对数字类参数有用,输出每一列的均值、标准差、最大、最小值和25%/50%/75%的值print(df1.sort_index(axis = 1))print(df1.sort_values(by = ['Bid_Count', 'Price']))#根据指定的列名称及其优先级顺序,对整个列表进行排序。
读取txt文件可以用read_csv也可以用read_table,前置默认以逗号分隔,后置必须指定分隔符。前者也可以用sep参数来指定分隔符。
数据排序使用:
dtxt = pd.read_table('sample_data_out.txt', encoding = 'gbk', header = 0, sep = ' ')dtxt = pd.read_csv('sample_data_out.txt', encoding = 'gbk', header = 0, sep = ' ')'''上面的两句功能基本相同'''print(dtxt.iloc[:,0].str.split(','))#手动分隔,结果是两层列表print(dtxt.columns.str.split(',')[0])#手动分隔列名称,结果是两层列表dtxt_deal = (dtxt.iloc[:,0].str.split(',')).apply(pd.Series, index = dtxt.columns.str.split(',')[0])dtxt_deal['buy_mount'] = dtxt_deal['buy_mount'].astype(int)print(dtxt_deal.info())
来源地址:https://blog.csdn.net/longhaierwd/article/details/131904699
--结束END--
本文标题: python——pandas用法详解
本文链接: https://lsjlt.com/news/414957.html(转载时请注明来源链接)
有问题或投稿请发送至: 邮箱/279061341@qq.com QQ/279061341
2024-03-01
2024-03-01
2024-03-01
2024-02-29
2024-02-29
2024-02-29
2024-02-29
2024-02-29
2024-02-29
2024-02-29
回答
回答
回答
回答
回答
回答
回答
回答
回答
回答
0