标签:2.7 基于 axis 特殊 逻辑 很多 多次 fill 包括
pandas 是基于NumPy 的一种工具,该工具是为了解决数据分析任务而创建的。Pandas 纳入了大量库和一些标准的数据模型,提供了高效地操作大型数据集所需的工具。pandas提供了大量能使我们快速便捷地处理数据的函数和方法。
Series:一维数组,与Numpy中的一维array类似。二者与Python基本的数据结构List也很相近,其区别是:List中的元素可以是不同的数据类型,而Array和Series中则只允许存储相同的数据类型,这样可以更有效的使用内存,提高运算效率。 Time- Series:以时间为索引的Series。 DataFrame:二维的表格型数据结构。很多功能与R中的data.frame类似。可以将DataFrame理解为Series的容器。以下的内容主要以DataFrame为主。 Panel :三维的数组,可以理解为DataFrame的容器。
Series数据结构是一种类似于一维数组的对象,是由一组数据(各种Numpy数据类型)以及一组与之相关的标签(即索引)组成。
多数情况下,Series数据结构是我们直接从DataFrame数据结构中截取出来的,但也可以自己创建Series。语法如下:
s = pd.Series(data, index=index)
其中data可以是不同的内容:
index 是轴标签列表,根据不同的情况传入的内容有所不同。
如果data是ndarray,则索引的长度必须与数据相同。如果没有入索引,将创建一个值为[0,...,len(data)-1]的索引。
>>> ser = pd.Series(np.random.randn(5), index=['a', 'b', 'c', 'd', 'e'])
>>> ser
a -0.063364
b 0.907505
c -0.862125
d -0.696292
e 0.000751
dtype: float64
>>> ser.index
Index(['a', 'b', 'c', 'd', 'e'], dtype='object')
>>> ser.index[[True,False,True,True,True]]
Index(['a', 'c', 'd', 'e'], dtype='object')
>>> pd.Series(np.random.randn(5))
0 -0.854075
1 -0.152620
2 -0.719542
3 -0.219185
4 1.206630
dtype: float64
>>> np.random.seed(100)
>>> ser=pd.Series(np.random.rand(7))
>>> ser
0 0.543405
1 0.278369
2 0.424518
3 0.844776
4 0.004719
5 0.121569
6 0.670749
dtype: float64
>>> import calendar as cal
>>> monthNames=[cal.month_name[i] for i in np.arange(1,6)]
>>> monthNames
['January', 'February', 'March', 'April', 'May']
>>> months=pd.Series(np.arange(1,6),index=monthNames);
>>> months
January 1
February 2
March 3
April 4
May 5
dtype: int32
若data是一个dict,如果传递了索引,则索引中与标签对应的数据中的值将被列出。否则,将从dict的排序键构造索引(如果可能)。
>>> d = {'a' : 0., 'b' : 1., 'c' : 2.}
>>> pd.Series(d)
a 0.0
b 1.0
c 2.0
dtype: float64
>>> pd.Series(d, index=['b', 'c', 'd', 'a'])
b 1.0
c 2.0
d NaN
a 0.0
dtype: float64
>>> stockPrices = {'GOOG':1180.97,'FB':62.57,'TWTR': 64.50, 'AMZN':358.69,'AAPL':500.6}
>>> stockPriceSeries=pd.Series(stockPrices,index=['GOOG','FB','YHOO','TWTR','AMZN','AAPL'],name='stockPrices')
>>> stockPriceSeries
GOOG 1180.97
FB 62.57
YHOO NaN
TWTR 64.50
AMZN 358.69
AAPL 500.60
Name: stockPrices, dtype: float64
注:NaN(not a number)是Pandas的标准缺失数据标记。
>>> stockPriceSeries.name
'stockPrices'
>>> stockPriceSeries.index
Index(['GOOG', 'FB', 'YHOO', 'TWTR', 'AMZN', 'AAPL'], dtype='object')
>>> dogSeries=pd.Series('chihuahua',index=['breed','countryOfOrigin','name', 'gender'])
>>> dogSeries
breed chihuahua
countryOfOrigin chihuahua
name chihuahua
gender chihuahua
dtype: object
如果数据是标量值,则必须提供索引。将该值重复以匹配索引的长度。
>>> pd.Series(5., index=['a', 'b', 'c', 'd', 'e'])
a 5.0
b 5.0
c 5.0
d 5.0
e 5.0
dtype: float64
除了上述之外,类ndarray的对象传入后也会转换为ndarray来创建Series
>>> ser = pd.Series([5,4,2,-3,True])
>>> ser
0 5
1 4
2 2
3 -3
4 True
dtype: object
>>> ser.values
array([5, 4, 2, -3, True], dtype=object)
>>> ser.index
RangeIndex(start=0, stop=5, step=1)
>>> ser2 = pd.Series([5, 4, 2, -3, True], index=['b', 'e', 'c', 'a', 'd'])
>>> ser2
b 5
e 4
c 2
a -3
d True
dtype: object
>>> ser2.index
Index(['b', 'e', 'c', 'a', 'd'], dtype='object')
>>> ser2.values
array([5, 4, 2, -3, True], dtype=object)
Series与ndarray非常相似,是大多数NumPy函数的有效参数。包括像切片这样的索引操作。
>>> ser = pd.Series(np.random.randn(5), index=['a', 'b', 'c', 'd', 'e'])
>>> ser
a -0.231872
b 0.207976
c 0.935808
d 0.179578
e -0.577162
dtype: float64
>>> ser[0]
-0.2318721969038312
>>> ser[:3]
a -0.231872
b 0.207976
c 0.935808
dtype: float64
>>> ser[ser >0]
b 0.207976
c 0.935808
d 0.179578
dtype: float64
>>> ser[ser > ser.median()]
b 0.207976
c 0.935808
dtype: float64
>>> ser[ser > ser.median()]=1
>>> ser
a -0.231872
b 1.000000
c 1.000000
d 0.179578
e -0.577162
dtype: float64
>>> ser[[4, 3, 1]]
e -0.577162
d 0.179578
b 1.000000
dtype: float64
>>> np.exp(ser)
a 0.793047
b 2.718282
c 2.718282
d 1.196713
e 0.561490
dtype: float64
Series同时也像一个固定大小的dict,可以通过索引标签获取和设置值:
>>> ser['a']
-0.2318721969038312
>>> ser['e'] = 12.
>>> ser
a -0.231872
b 1.000000
c 1.000000
d 0.179578
e 12.000000
dtype: float64
>>> 'e' in ser
True
>>> 'f' in ser
False
注:如果引用了未包含的标签,则会引发异常:
使用get方法,未包含的索引则会返回None,或者特定值。和dict的操作类似。
>>> print(ser.get('f'))
None
>>> ser.get('f', np.nan)
nan
在进行数据分析时,通常没必要去使用循环,而是使用矢量化的操作方式。
>>> ser + ser
a -0.463744
b 2.000000
c 2.000000
d 0.359157
e 24.000000
dtype: float64
>>> ser * 2
a -0.463744
b 2.000000
c 2.000000
d 0.359157
e 24.000000
dtype: float64
>>> np.exp(ser)
a 0.793047
b 2.718282
c 2.718282
d 1.196713
e 162754.791419
dtype: float64
Series和ndarray之间的一个主要区别是,Series之间的操作会自动对齐基于标签的数据。
>>> ser
a -0.231872
b 1.000000
c 1.000000
d 0.179578
e 12.000000
dtype: float64
>>> ser[1:] + ser[:-1]
a NaN
b 2.000000
c 2.000000
d 0.359157
e NaN
dtype: float64
未对齐Series之间的操作结果将包含所涉及的索引的并集。如果在其中一个Seires中找不到标签,结果将被标记为NaN。
注意:通常不同索引对象之间的操作的默认结果产生索引的并集,以避免信息丢失。
因为尽管数据丢失,但拥有索引标签也可以作为计算的重要信息。当然也可以选择通过dropna功能删除丢失数据的标签。
名称属性:
>>> s = pd.Series(np.random.randn(5), name='something')
>>> s
0 -0.533373
1 -0.225402
2 -0.314919
3 0.422997
4 -0.438827
Name: something, dtype: float64
>>> s.name
'something'
在多数情况下,series名称会被自动分配,例如在获取1D切片的DataFrame时。(后续DataFrame操作将会讲解到)
>>> s2 = s.rename("different")
>>> s2
0 -0.533373
1 -0.225402
2 -0.314919
3 0.422997
4 -0.438827
Name: different, dtype: float64
这里需要注意的是,s和s2是指向不同的对象的。
通过索引属性获取索引
>>> s2.index
RangeIndex(start=0, stop=5, step=1)
索引对象也有一个name属性
>>> s.index.name = "index_name"
>>> s
index_name
0 -0.533373
1 -0.225402
2 -0.314919
3 0.422997
4 -0.438827
Name: something, dtype: float64
通过值索引获取值
>>> s.values
array([-0.53337271, -0.22540212, -0.31491934, 0.42299678, -0.43882681])
DataFrame 是可以包含不同类型的列且带索引的二维数据结构,类似于SQL表,或者Series的字典集合。
DataFrame 是被使用最多的Pandas的对象,和Series类似,创建DataFrame时,也接受许多不同类的参数。
>>>d = {'one' : pd.Series([1., 2., 3.], index=['a', 'b', 'c']),
'two' : pd.Series([1., 2., 3., 4.], index=['a', 'b', 'c', 'd'])}
>>>df = pd.DataFrame(d)
>>>df
one | two | |
---|---|---|
a | 1.0 | 1.0 |
b | 2.0 | 2.0 |
c | 3.0 | 3.0 |
d | NaN | 4.0 |
>>>pd.DataFrame(d, index=['d', 'b', 'a'])
one | two | |
---|---|---|
d | NaN | 4.0 |
b | 2.0 | 2.0 |
a | 1.0 | 1.0 |
pd.DataFrame(d, index=['d', 'b', 'a'], columns=['two', 'three'])
two | three | |
---|---|---|
d | 4.0 | NaN |
b | 2.0 | NaN |
a | 1.0 | NaN |
可以通过访问索引和列属性分别访问行和列标签。
>>> df.index
Index(['a', 'b', 'c', 'd'], dtype='object')
>>> df.columns
Index(['one', 'two'], dtype='object')
ndarrays必须都是相同的长度。如果传递了索引,它的长度也必须与数组一样长。如果没有传递索引,结果将是range(n),其中n是数组长度。
>>> d = {'one' : [1., 2., 3., 4.],
... 'two' : [4., 3., 2., 1.]}
>>> pd.DataFrame(d)
one | two | |
---|---|---|
0 | 1.0 | 4.0 |
1 | 2.0 | 3.0 |
2 | 3.0 | 2.0 |
3 | 4.0 | 1.0 |
>>> pd.DataFrame(d, index=['a', 'b', 'c', 'd'])
one | two | |
---|---|---|
a | 1.0 | 4.0 |
b | 2.0 | 3.0 |
c | 3.0 | 2.0 |
d | 4.0 | 1.0 |
这种情况和从数组的字典集合创建是一样的。
类型简略字符参数:
'b' boolean
'i' (signed) integer
'u' unsigned integer
'f' floating-point
'c' complex-floating point
'm' timedelta
'M' datetime
'O' (Python) objects
'S', 'a' (byte-)string
'U' Unicode
'V' raw data (void)
# 例子:
>>> dt = np.dtype('f8') # 64位浮点,注意8为字节
>>> dt = np.dtype('c16') # 128位复数
>>> dt = np.dtype("a3, 3u8, (3,4)a10") //3字节字符串、3个64位整型子数组、3*4的10字节字符串数组,注意8为字节
>>> dt = np.dtype((void, 10)) #10位
>>> dt = np.dtype((str, 35)) # 35字符字符串
>>> dt = np.dtype(('U', 10)) # 10字符unicode string
>>> dt = np.dtype((np.int32, (2,2))) # 2*2int子数组
>>> dt = np.dtype(('S10', 1)) # 10字符字符串
>>> dt = np.dtype(('i4, (2,3)f8, f4', (2,3))) # 2x3结构子数组
# 使用astype,不可直接更改对象的dtype值
>>> b = np.array([1., 2., 3., 4.])
>>> b.dtype
dtype(‘float64‘)
>>> c = b.astype(int)
>>> c
array([1, 2, 3, 4])
>>> c.shape
(8,)
>>> c.dtype
dtype(‘int32‘)
>>> data = np.zeros((2,), dtype=[('A', 'i4'),('B', 'f4'),('C', 'a10')])
# i4:定义一个big-endian int 4*8=32位的数据类型
>>> data
array([(0, 0., b''), (0, 0., b'')],
dtype=[('A', '<i4'), ('B', '<f4'), ('C', 'S10')])
>>> data.shape
(2,)
>>> data[:] = [(1,2.,'Hello'), (2,3.,"World")]
>>> data
array([(1, 2., b'Hello'), (2, 3., b'World')],
dtype=[('A', '<i4'), ('B', '<f4'), ('C', 'S10')])
>>> pd.DataFrame(data, index=['first', 'second'])
A | B | C | |
---|---|---|---|
first | 1 | 2.0 | b‘Hello‘ |
second | 2 | 3.0 | b‘World‘ |
>>> pd.DataFrame(data, columns=['C', 'A', 'B'])
C | A | B | |
---|---|---|---|
0 | b‘Hello‘ | 1 | 2.0 |
1 | b‘World‘ | 2 | 3.0 |
注意:DataFrame和 2-dimensional NumPy ndarray 并不是完全一样的。
除了以上的构造方法之外还有很多其他的构造方法,但获取DataFrame的主要方法是读取表结构的文件,其他构造方法就不一一列出。
>>> d = {'one' : pd.Series([1., 2., 3.], index=['a', 'b', 'c']),'two' : pd.Series([1., 2., 3., 4.], index=['a', 'b', 'c', 'd'])}
>>> df = pd.DataFrame(d)
>>> df
one two
a 1.0 1.0
b 2.0 2.0
c 3.0 3.0
d NaN 4.0
>>> df.index
Index(['a', 'b', 'c', 'd'], dtype='object')
>>> df.index.values
array(['a', 'b', 'c', 'd'], dtype=object)
>>> df.columns
Index(['one', 'two'], dtype='object')
>>> df.columns.values
array(['one', 'two'], dtype=object)
>>> stockSummaries={
... 'AMZN': pd.Series([346.15,0.59,459,0.52,589.8,158.88],index=['Closing price','EPS','Shares Outstanding(M)','Beta', 'P/E','Market Cap(B)']),
... 'GOOG': pd.Series([1133.43,36.05,335.83,0.87,31.44,380.64],index=['Closing price','EPS','Shares Outstanding(M)','Beta','P/E','Market Cap(B)']),
... 'FB': pd.Series([61.48,0.59,2450,104.93,150.92],index=['Closing price','EPS','Shares Outstanding(M)','P/E', 'Market Cap(B)']),
... 'YHOO': pd.Series([34.90,1.27,1010,27.48,0.66,35.36],index=['Closing price','EPS','Shares Outstanding(M)','P/E','Beta', 'Market Cap(B)']),
... 'TWTR':pd.Series([65.25,-0.3,555.2,36.23],index=['Closing price','EPS','Shares Outstanding(M)','Market Cap(B)']),
... 'AAPL':pd.Series([501.53,40.32,892.45,12.44,447.59,0.84],index=['Closing price','EPS','Shares Outstanding(M)','P/E','Market Cap(B)','Beta'])}
>>> stockDF=pd.DataFrame(stockSummaries)
>>> stockDF
AAPL | AMZN | FB | GOOG | TWTR | YHOO | |
---|---|---|---|---|---|---|
Beta | 0.84 | 0.52 | NaN | 0.87 | NaN | 0.66 |
Closing price | 501.53 | 346.15 | 61.48 | 1133.43 | 65.25 | 34.90 |
EPS | 40.32 | 0.59 | 0.59 | 36.05 | -0.30 | 1.27 |
Market Cap(B) | 447.59 | 158.88 | 150.92 | 380.64 | 36.23 | 35.36 |
P/E | 12.44 | 589.80 | 104.93 | 31.44 | NaN | 27.48 |
Shares Outstanding(M) | 892.45 | 459.00 | 2450.00 | 335.83 | 555.20 | 1010.00 |
>>> stockDF=pd.DataFrame(stockSummaries,index=['Closing price','EPS','Shares Outstanding(M)','P/E', 'Market Cap(B)','Beta'])
>>> stockDF
AAPL | AMZN | FB | GOOG | TWTR | YHOO | |
---|---|---|---|---|---|---|
Closing price | 501.53 | 346.15 | 61.48 | 1133.43 | 65.25 | 34.90 |
EPS | 40.32 | 0.59 | 0.59 | 36.05 | -0.30 | 1.27 |
Shares Outstanding(M) | 892.45 | 459.00 | 2450.00 | 335.83 | 555.20 | 1010.00 |
P/E | 12.44 | 589.80 | 104.93 | 31.44 | NaN | 27.48 |
Market Cap(B) | 447.59 | 158.88 | 150.92 | 380.64 | 36.23 | 35.36 |
Beta | 0.84 | 0.52 | NaN | 0.87 | NaN | 0.66 |
>>> stockDF=pd.DataFrame(stockSummaries,columns=['FB','TWTR','SCNW'])
>>> stockDF
FB | TWTR | SCNW | |
---|---|---|---|
Closing price | 61.48 | 65.25 | NaN |
EPS | 0.59 | -0.30 | NaN |
Market Cap(B) | 150.92 | 36.23 | NaN |
P/E | 104.93 | NaN | NaN |
Shares Outstanding(M) | 2450.00 | 555.20 | NaN |
DataFrame列的选取,设置和删除列的工作原理与类似的dict操作相同。
>>> df['one']
a 1.0
b 2.0
c 3.0
d NaN
Name: one, dtype: float64
>>> df
one | two | |
---|---|---|
a | 1.0 | 1.0 |
b | 2.0 | 2.0 |
c | 3.0 | 3.0 |
d | NaN | 4.0 |
>>> df['three'] = df['one'] * df['two']
>>> df
one | two | three | |
---|---|---|---|
a | 1.0 | 1.0 | 1.0 |
b | 2.0 | 2.0 | 4.0 |
c | 3.0 | 3.0 | 9.0 |
d | NaN | 4.0 | NaN |
>>> df['flag'] = df['one'] > 2
>>> df
one | two | three | flag | |
---|---|---|---|---|
a | 1.0 | 1.0 | 1.0 | False |
b | 2.0 | 2.0 | 4.0 | False |
c | 3.0 | 3.0 | 9.0 | True |
d | NaN | 4.0 | NaN | False |
DataFram的列可以像使用dict一样被删除或移出。
>>> del df['two']
>>> df
one | three | flag | |
---|---|---|---|
a | 1.0 | 1.0 | False |
b | 2.0 | 4.0 | False |
c | 3.0 | 9.0 | True |
d | NaN | NaN | False |
>>> three = df.pop('three')
>>> df
one | flag | |
---|---|---|
a | 1.0 | False |
b | 2.0 | False |
c | 3.0 | True |
d | NaN | False |
当赋予的值为标量时,会自动在列里广播填充。
>>> df['foo'] = 'bar'
>>> df
one | flag | foo | |
---|---|---|---|
a | 1.0 | False | bar |
b | 2.0 | False | bar |
c | 3.0 | True | bar |
d | NaN | False | bar |
如果传入的是Series并且索引不完全相同,那么会默认按照索引对齐。
>>> df['one_trunc'] = df['one'][:2]
>>> df
one | flag | foo | one_trunc | |
---|---|---|---|---|
a | 1.0 | False | bar | 1.0 |
b | 2.0 | False | bar | 2.0 |
c | 3.0 | True | bar | NaN |
d | NaN | False | bar | NaN |
也可以插入原始的ndarrays,但其长度必须与DataFrame索引的长度相匹配。
默认情况下,直接的赋值操作列插入到最后的位置。insert方法可用于插入列中的特定位置:
>>> df.insert(1, 'bar', df['one'])
>>> df
one | bar | flag | foo | one_trunc | |
---|---|---|---|---|---|
a | 1.0 | 1.0 | False | bar | 1.0 |
b | 2.0 | 2.0 | False | bar | 2.0 |
c | 3.0 | 3.0 | True | bar | NaN |
d | NaN | NaN | False | bar | NaN |
分配列
>>> df_sample = pd.DataFrame({'A': range(1, 11), 'B': np.random.randn(10)})
>>> df_sample
A | B | |
---|---|---|
0 | 1 | -0.501413 |
1 | 2 | -1.658703 |
2 | 3 | -1.007577 |
3 | 4 | -0.508734 |
4 | 5 | 0.781488 |
5 | 6 | -0.654381 |
6 | 7 | 0.041172 |
7 | 8 | -0.201917 |
8 | 9 | -0.870813 |
9 | 10 | 0.228932 |
>>> df_sample.assign(ln_A = lambda x: np.log(x.A), abs_B = lambda x: np.abs(x.B))
A | B | abs_B | ln_A | |
---|---|---|---|---|
0 | 1 | -0.501413 | 0.501413 | 0.000000 |
1 | 2 | -1.658703 | 1.658703 | 0.693147 |
2 | 3 | -1.007577 | 1.007577 | 1.098612 |
3 | 4 | -0.508734 | 0.508734 | 1.386294 |
4 | 5 | 0.781488 | 0.781488 | 1.609438 |
5 | 6 | -0.654381 | 0.654381 | 1.791759 |
6 | 7 | 0.041172 | 0.041172 | 1.945910 |
7 | 8 | -0.201917 | 0.201917 | 2.079442 |
8 | 9 | -0.870813 | 0.870813 | 2.197225 |
9 | 10 | 0.228932 | 0.228932 | 2.302585 |
需要注意的是,传入的参数是以字典类型的方式传入的。如果希望保证顺序的话,可以多次使用assign。
>>> newcol = np.log(df_sample['A'])
>>> newcol
0 0.000000
1 0.693147
2 1.098612
3 1.386294
4 1.609438
5 1.791759
6 1.945910
7 2.079442
8 2.197225
9 2.302585
Name: A, dtype: float64
>>> df_sample.assign(ln_A=newcol)
A | B | ln_A | |
---|---|---|---|
0 | 1 | -0.501413 | 0.000000 |
1 | 2 | -1.658703 | 0.693147 |
2 | 3 | -1.007577 | 1.098612 |
3 | 4 | -0.508734 | 1.386294 |
4 | 5 | 0.781488 | 1.609438 |
5 | 6 | -0.654381 | 1.791759 |
6 | 7 | 0.041172 | 1.945910 |
7 | 8 | -0.201917 | 2.079442 |
8 | 9 | -0.870813 | 2.197225 |
9 | 10 | 0.228932 | 2.302585 |
Operation | Syntax | Result |
---|---|---|
Select column | df[col] | Series |
Select row by label | df.loc[label] | Series |
Select row by integer location | df.iloc[loc] | Series |
Slice rows | df[5:10] | DataFrame |
Select rows by boolean vector | df[bool_vec] | DataFrame |
关于索引的函数
例子
>>> df
one | bar | flag | foo | one_trunc | |
---|---|---|---|---|---|
a | 1.0 | 1.0 | False | bar | 1.0 |
b | 2.0 | 2.0 | False | bar | 2.0 |
c | 3.0 | 3.0 | True | bar | NaN |
d | NaN | NaN | False | bar | NaN |
>>> df.loc['b']
one 2
bar 2
flag False
foo bar
one_trunc 2
Name: b, dtype: object
>>> df.loc[['a','c'],['one','bar']]
one bar
a 1.0 1.0
c 3.0 3.0
>>> df.loc[:,['one','bar']]
one bar
a 1.0 1.0
b 2.0 2.0
c 3.0 3.0
d NaN NaN
iloc的例子
# df.iloc[行位置,列位置]
>>> df.loc[['a','c'],['one','bar']]
one bar
a 1.0 1.0
c 3.0 3.0
>>> df.loc[:,['one','bar']]
one bar
a 1.0 1.0
b 2.0 2.0
c 3.0 3.0
d NaN NaN
>>> df.iloc[1,1]#选取第二行,第二列的值,返回的为单个值
2.0
>>> df.iloc[[0,2],:]#选取第一行及第三行的数据
one bar flag foo one_trunc
a 1.0 1.0 False bar 1.0
c 3.0 3.0 True bar NaN
>>> df.iloc[0:2,:]#选取第一行到第三行(不包含)的数据
one bar flag foo one_trunc
a 1.0 1.0 False bar 1.0
b 2.0 2.0 False bar 2.0
>>> df.iloc[:,1]#选取所有记录的第一列的值,返回的为一个Series
a 1.0
b 2.0
c 3.0
d NaN
Name: bar, dtype: float64
>>> df.iloc[1,:]#选取第一行数据,返回的为一个Series
one 2
bar 2
flag False
foo bar
one_trunc 2
Name: b, dtype: object
ix的例子
>>> df.ix[0:3,['one','bar']]
one bar
a 1.0 1.0
b 2.0 2.0
c 3.0 3.0
>>> df.ix[['a','b'],['one','bar']]
one bar
a 1.0 1.0
b 2.0 2.0
注意:在Pandas 0.20版本开始就不推荐使用.ix,只推荐使用基于标签的索引.loc 和基于位置的索引.iloc 。
DataFrame对象之间在列和索引(行标签)之间自动数据对齐。并且,运算的结果对象是列和行标签的并集。
>>> df = pd.DataFrame(np.random.randn(10, 4), columns=['A', 'B', 'C', 'D'])
>>> df
A | B | C | D | |
---|---|---|---|---|
0 | -0.408040 | -0.103925 | 1.567179 | 0.497025 |
1 | 1.155872 | 1.838612 | 1.535727 | 0.254998 |
2 | -0.844157 | -0.982943 | -0.306098 | 0.838501 |
3 | -1.690848 | 1.151174 | -1.029337 | -0.510992 |
4 | -2.360271 | 0.103595 | 1.738818 | 1.241876 |
5 | 0.132413 | 0.577794 | -1.575906 | -1.292794 |
6 | -0.659920 | -0.874005 | -0.689551 | -0.535480 |
7 | 1.527953 | 0.647206 | -0.677337 | -0.265019 |
8 | 0.746106 | -3.130785 | 0.059622 | -0.875211 |
9 | 1.064878 | -0.573153 | -0.803278 | 1.092972 |
>>> df2 = pd.DataFrame(np.random.randn(7, 3), columns=['A', 'B', 'C'])
>>> df2
A | B | C | |
---|---|---|---|
0 | 0.651278 | 2.160525 | -0.639130 |
1 | -0.333688 | -0.437602 | -1.905795 |
2 | -1.229019 | 0.794899 | -1.160508 |
3 | 0.546056 | 1.163258 | 0.658877 |
4 | 0.523689 | 1.327156 | 1.112524 |
5 | -1.074630 | 0.343416 | 0.985438 |
6 | 0.736502 | -2.080463 | -0.298586 |
>>> df + df2
A | B | C | D | |
---|---|---|---|---|
0 | 0.243238 | 2.056600 | 0.928049 | NaN |
1 | 0.822185 | 1.401010 | -0.370068 | NaN |
2 | -2.073177 | -0.188045 | -1.466606 | NaN |
3 | -1.144793 | 2.314432 | -0.370460 | NaN |
4 | -1.836581 | 1.430751 | 2.851342 | NaN |
5 | -0.942217 | 0.921210 | -0.590468 | NaN |
6 | 0.076582 | -2.954467 | -0.988137 | NaN |
7 | NaN | NaN | NaN | NaN |
8 | NaN | NaN | NaN | NaN |
9 | NaN | NaN | NaN | NaN |
在DataFrame和Series之间进行操作时,默认行为是使DataFrame列上的Series索引对齐,从而逐行广播。
>>> df.iloc[0]
A -0.803278
B 1.092972
C 0.651278
D 2.160525
Name: 0, dtype: float64
>>> df - df.iloc[0]
A | B | C | D | |
---|---|---|---|---|
0 | 0.000000 | 0.000000 | 0.000000 | 0.000000 |
1 | 0.164148 | -1.426659 | -1.088879 | -4.066320 |
2 | -0.425741 | -0.298073 | -1.811786 | -1.614469 |
3 | 1.966537 | -0.434095 | -0.127588 | -0.833369 |
4 | 1.915803 | -2.167601 | -0.307861 | -1.175087 |
5 | 1.539780 | -3.173434 | -0.949864 | -3.889736 |
6 | 0.806788 | 0.841624 | -0.433718 | -0.349443 |
7 | -1.746116 | -1.298589 | -0.641914 | -4.381350 |
8 | -0.062220 | -1.208825 | -0.536867 | -2.218942 |
9 | 1.425466 | -2.731549 | -0.348400 | -0.083648 |
在使用时间序列数据等一些特殊情况下,也可以以列方式进行广播:
>>> index = pd.date_range('1/1/2000', periods=8)
>>> df = pd.DataFrame(np.random.randn(8, 3), index=index, columns=list('ABC'))
>>> df
A | B | C | |
---|---|---|---|
2000-01-01 | -1.285993 | -0.625756 | 0.341711 |
2000-01-02 | -0.130773 | -1.091650 | 0.074539 |
2000-01-03 | 1.248248 | -0.450343 | -0.347523 |
2000-01-04 | -0.317490 | 1.012952 | -0.838197 |
2000-01-05 | -1.041325 | -0.087286 | 1.153089 |
2000-01-06 | 1.067939 | 0.570342 | -0.272996 |
2000-01-07 | -0.160398 | -0.013020 | 0.621867 |
2000-01-08 | 1.374179 | 0.779654 | -1.554635 |
add 用于加法的方法 (+)
sub 用于减法的方法 (-)
div 用于除法的方法 (/)
mul 用于乘法的方法 (*)
>>> df.sub(df["A"],axis=0)
A | B | C | |
---|---|---|---|
2000-01-01 | 0.0 | 0.660237 | 1.627704 |
2000-01-02 | 0.0 | -0.960877 | 0.205312 |
2000-01-03 | 0.0 | -1.698591 | -1.595771 |
2000-01-04 | 0.0 | 1.330443 | -0.520706 |
2000-01-05 | 0.0 | 0.954039 | 2.194413 |
2000-01-06 | 0.0 | -0.497597 | -1.340935 |
2000-01-07 | 0.0 | 0.147378 | 0.782264 |
2000-01-08 | 0.0 | -0.594525 | -2.928814 |
>>> df.sub(df['A'], axis=0)
A | B | C | |
---|---|---|---|
2000-01-01 | 0.0 | 0.660237 | 1.627704 |
2000-01-02 | 0.0 | -0.960877 | 0.205312 |
2000-01-03 | 0.0 | -1.698591 | -1.595771 |
2000-01-04 | 0.0 | 1.330443 | -0.520706 |
2000-01-05 | 0.0 | 0.954039 | 2.194413 |
2000-01-06 | 0.0 | -0.497597 | -1.340935 |
2000-01-07 | 0.0 | 0.147378 | 0.782264 |
2000-01-08 | 0.0 | -0.594525 | -2.928814 |
逻辑运算,与NumPy相似。
>>> df1 = pd.DataFrame({'a' : [1, 0, 1], 'b' : [0, 1, 1] }, dtype=bool)
>>> df2 = pd.DataFrame({'a' : [0, 1, 1], 'b' : [1, 1, 0] }, dtype=bool)
>>> df1
a | b | |
---|---|---|
0 | True | False |
1 | False | True |
2 | True | True |
>>> df2
a | b | |
---|---|---|
0 | False | True |
1 | True | True |
2 | True | False |
>>> df1 & df2
a | b | |
---|---|---|
0 | False | False |
1 | False | True |
2 | True | False |
df1 | df2
a | b | |
---|---|---|
0 | True | True |
1 | True | True |
2 | True | True |
>>> df1 ^ df2
a | b | |
---|---|---|
0 | True | True |
1 | True | False |
2 | False | True |
>>> -df1 # 相当于 ~df1
a | b | |
---|---|---|
0 | False | True |
1 | True | False |
2 | False | False |
>>> d={'a':pd.Series([1,2,3,4,5],index=(np.arange(5))),
... 'b':pd.Series([2,3,4,5,6],index=(np.arange(5))),
... 'c':pd.Series([3,4,5,6,7],index=(np.arange(5)))};
>>> df3 = pd.DataFrame(d)
>>> df3
a b c
0 1 2 3
1 2 3 4
2 3 4 5
3 4 5 6
4 5 6 7
# if-then...
>>> df3.loc[df3.a>3,'c']=30;
>>> df3
a b c
0 1 2 3
1 2 3 4
2 3 4 5
3 4 5 30
4 5 6 30
# if-then-else
>>> df3['logic'] = np.where(df3['a'] > 3,'high','low')
>>> df3
a b c logic
0 1 2 3 low
1 2 3 4 low
2 3 4 5 low
3 4 5 30 high
4 5 6 30 high
>>> df_mask = pd.DataFrame({'a' : [True] * 5, 'b' : [False] * 5}) #做标志
>>> df_mask
a b
0 True False
1 True False
2 True False
3 True False
4 True False
>>> df3.where(df_mask,-100) # 根据标志赋值
a b c logic
0 1 -100 -100 -100
1 2 -100 -100 -100
2 3 -100 -100 -100
3 4 -100 -100 -100
4 5 -100 -100 -100
方法 | 说明 |
---|---|
sr.unique | Series去重 |
sr.value_counts() | Series统计频率,并从大到小排序,DataFrame没有这个方法 |
sr.describe() | 返回基本统计量和分位数 |
df.describe() | 按各列返回基本统计量和分位数 |
df.count() | 求非NA值得数量 |
df.max() | 求最大值 |
df.min() | 求最大值 |
df.sum(axis=0) | 按各列求和 |
df.mean() | 按各列求平均值 |
df.median() | 求中位数 |
df.var() | 求方差 |
df.std() | 求标准差 |
df.mad() | 根据平均值计算平均绝对利差 |
df.cumsum() | 求累计和 |
sr1.corr(sr2) | 求相关系数 |
df.cov() | 求协方差矩阵 |
df1.corrwith(df2) | 求相关系数 |
pd.cut(array1, bins) | 求一维数据的区间分布 |
pd.qcut(array1, 4) | 按指定分位数进行区间划分,4可以替换成自定义的分位数列表 |
df[‘col1‘].groupby(df[‘col2‘]) | 列1按照列2分组,即列2作为key |
df.groupby(‘col1‘) | DataFrame按照列col1分组 |
grouped.aggreagte(func) | 分组后根据传入函数来聚合 |
grouped.aggregate([f1, f2,...]) | 根据多个函数聚合,表现成多列,函数名为列名 |
grouped.aggregate([(‘f1_name‘, f1), (‘f2_name‘, f2)]) | 重命名聚合后的列名 |
grouped.aggregate({‘col1‘:f1, ‘col2‘:f2,...}) | 对不同的列应用不同函数的聚合,函数也可以是多个 |
df.pivot_table([‘col1‘, ‘col2‘], rows=[‘row1‘, ‘row2‘], aggfunc=[np.mean, np.sum] fill_value=0,margins=True) |
根据row1, row2对col1, col2做分组聚合,聚合方法可以指定多种,并用指 |
pd.crosstab(df[‘col1‘], df[‘col2‘]) | 交叉表,计算分组的频率 |
转置
>>> df[:5].T
2000-01-01 00:00:00 | 2000-01-02 00:00:00 | 2000-01-03 00:00:00 | 2000-01-04 00:00:00 | 2000-01-05 00:00:00 | |
---|---|---|---|---|---|
A | 0.388901 | 0.159726 | 1.576600 | -0.993827 | -1.297079 |
B | 0.232477 | -0.904435 | -0.628984 | 1.015665 | 0.825678 |
C | -1.254728 | -0.195899 | 0.450605 | -0.541170 | 0.043319 |
排序
方法 | 说明 |
---|---|
sort_index() | 对索引进行排序,默认是升序 |
sort_index(ascending=False) | 对索引进行降序排序 |
sort_values() | 对Series的值进行排序,默认是按值的升序进行排序的 |
sort_values(ascending=False) | 对Seires的值进行降序排序 |
df.sort_values(by=[列,列]) | 按指定列的值大小顺序进行排序 |
df.sort_values(by=[行],axis=1) | 按指定行值进行排序 |
df.rank() | 计算排名rank值 |
标签:2.7 基于 axis 特殊 逻辑 很多 多次 fill 包括
原文地址:https://www.cnblogs.com/yangliguo/p/8969926.html