码迷,mamicode.com
首页 > 其他好文 > 详细

Pandas详解一

时间:2018-04-29 01:25:48      阅读:1102      评论:0      收藏:0      [点我收藏+]

标签:2.7   基于   axis   特殊   逻辑   很多   多次   fill   包括   

pandas简介

pandas 是基于NumPy 的一种工具,该工具是为了解决数据分析任务而创建的。Pandas 纳入了大量库和一些标准的数据模型,提供了高效地操作大型数据集所需的工具。pandas提供了大量能使我们快速便捷地处理数据的函数和方法。

Series:一维数组,与Numpy中的一维array类似。二者与Python基本的数据结构List也很相近,其区别是:List中的元素可以是不同的数据类型,而Array和Series中则只允许存储相同的数据类型,这样可以更有效的使用内存,提高运算效率。 Time- Series:以时间为索引的Series。 DataFrame:二维的表格型数据结构。很多功能与R中的data.frame类似。可以将DataFrame理解为Series的容器。以下的内容主要以DataFrame为主。 Panel :三维的数组,可以理解为DataFrame的容器。

Series

Series数据结构是一种类似于一维数组的对象,是由一组数据(各种Numpy数据类型)以及一组与之相关的标签(即索引)组成。

创建Series

多数情况下,Series数据结构是我们直接从DataFrame数据结构中截取出来的,但也可以自己创建Series。语法如下:

s = pd.Series(data, index=index)

其中data可以是不同的内容:

  • 字典
  • ndarray
  • 标量

index 是轴标签列表,根据不同的情况传入的内容有所不同。

由ndarray构建

如果data是ndarray,则索引的长度必须与数据相同。如果没有入索引,将创建一个值为[0,...,len(data)-1]的索引。

>>> ser = pd.Series(np.random.randn(5), index=['a', 'b', 'c', 'd', 'e'])
>>> ser
a   -0.063364
b    0.907505
c   -0.862125
d   -0.696292
e    0.000751
dtype: float64
>>> ser.index
Index(['a', 'b', 'c', 'd', 'e'], dtype='object')
>>> ser.index[[True,False,True,True,True]]
Index(['a', 'c', 'd', 'e'], dtype='object')
>>> pd.Series(np.random.randn(5))
0   -0.854075
1   -0.152620
2   -0.719542
3   -0.219185
4    1.206630
dtype: float64
>>> np.random.seed(100)
>>> ser=pd.Series(np.random.rand(7))
>>> ser
0    0.543405
1    0.278369
2    0.424518
3    0.844776
4    0.004719
5    0.121569
6    0.670749
dtype: float64
>>> import calendar as cal
>>> monthNames=[cal.month_name[i] for i in np.arange(1,6)]
>>> monthNames
['January', 'February', 'March', 'April', 'May']
>>> months=pd.Series(np.arange(1,6),index=monthNames);
>>> months
January     1
February    2
March       3
April       4
May         5
dtype: int32

由字典构建

若data是一个dict,如果传递了索引,则索引中与标签对应的数据中的值将被列出。否则,将从dict的排序键构造索引(如果可能)。

>>> d = {'a' : 0., 'b' : 1., 'c' : 2.}
>>> pd.Series(d)
a    0.0
b    1.0
c    2.0
dtype: float64
>>> pd.Series(d, index=['b', 'c', 'd', 'a'])
b    1.0
c    2.0
d    NaN
a    0.0
dtype: float64
>>> stockPrices = {'GOOG':1180.97,'FB':62.57,'TWTR': 64.50, 'AMZN':358.69,'AAPL':500.6}
>>> stockPriceSeries=pd.Series(stockPrices,index=['GOOG','FB','YHOO','TWTR','AMZN','AAPL'],name='stockPrices')
>>> stockPriceSeries
GOOG    1180.97
FB        62.57
YHOO        NaN
TWTR      64.50
AMZN     358.69
AAPL     500.60
Name: stockPrices, dtype: float64

注:NaN(not a number)是Pandas的标准缺失数据标记。

>>> stockPriceSeries.name
'stockPrices'
>>> stockPriceSeries.index
Index(['GOOG', 'FB', 'YHOO', 'TWTR', 'AMZN', 'AAPL'], dtype='object')
>>> dogSeries=pd.Series('chihuahua',index=['breed','countryOfOrigin','name', 'gender'])
>>> dogSeries
breed              chihuahua
countryOfOrigin    chihuahua
name               chihuahua
gender             chihuahua
dtype: object

由标量创建

如果数据是标量值,则必须提供索引。将该值重复以匹配索引的长度。

>>> pd.Series(5., index=['a', 'b', 'c', 'd', 'e'])
a    5.0
b    5.0
c    5.0
d    5.0
e    5.0
dtype: float64

除了上述之外,类ndarray的对象传入后也会转换为ndarray来创建Series

>>> ser = pd.Series([5,4,2,-3,True])
>>> ser
0       5
1       4
2       2
3      -3
4    True
dtype: object
>>> ser.values
array([5, 4, 2, -3, True], dtype=object)
>>> ser.index
RangeIndex(start=0, stop=5, step=1)
>>> ser2 = pd.Series([5, 4, 2, -3, True], index=['b', 'e', 'c', 'a', 'd'])
>>> ser2
b       5
e       4
c       2
a      -3
d    True
dtype: object
>>> ser2.index
Index(['b', 'e', 'c', 'a', 'd'], dtype='object')
>>> ser2.values
array([5, 4, 2, -3, True], dtype=object)

索引

Series is ndarray-like

Series与ndarray非常相似,是大多数NumPy函数的有效参数。包括像切片这样的索引操作。

>>> ser = pd.Series(np.random.randn(5), index=['a', 'b', 'c', 'd', 'e'])
>>> ser
a   -0.231872
b    0.207976
c    0.935808
d    0.179578
e   -0.577162
dtype: float64
>>> ser[0]
-0.2318721969038312
>>> ser[:3]
a   -0.231872
b    0.207976
c    0.935808
dtype: float64
>>> ser[ser >0]
b    0.207976
c    0.935808
d    0.179578
dtype: float64
>>> ser[ser > ser.median()]
b    0.207976
c    0.935808
dtype: float64
>>> ser[ser > ser.median()]=1
>>> ser
a   -0.231872
b    1.000000
c    1.000000
d    0.179578
e   -0.577162
dtype: float64
>>> ser[[4, 3, 1]]
e   -0.577162
d    0.179578
b    1.000000
dtype: float64
>>> np.exp(ser)
a    0.793047
b    2.718282
c    2.718282
d    1.196713
e    0.561490
dtype: float64

Series is dict-like

Series同时也像一个固定大小的dict,可以通过索引标签获取和设置值:

>>> ser['a']
-0.2318721969038312
>>> ser['e'] = 12.
>>> ser
a    -0.231872
b     1.000000
c     1.000000
d     0.179578
e    12.000000
dtype: float64
>>> 'e' in ser
True
>>> 'f' in ser
False

注:如果引用了未包含的标签,则会引发异常:

使用get方法,未包含的索引则会返回None,或者特定值。和dict的操作类似。

>>> print(ser.get('f'))
None
>>> ser.get('f', np.nan)
nan

矢量化操作&标签对齐

在进行数据分析时,通常没必要去使用循环,而是使用矢量化的操作方式。

>>> ser + ser
a    -0.463744
b     2.000000
c     2.000000
d     0.359157
e    24.000000
dtype: float64
>>> ser * 2
a    -0.463744
b     2.000000
c     2.000000
d     0.359157
e    24.000000
dtype: float64
>>> np.exp(ser)
a         0.793047
b         2.718282
c         2.718282
d         1.196713
e    162754.791419
dtype: float64

Series和ndarray之间的一个主要区别是,Series之间的操作会自动对齐基于标签的数据。

>>> ser
a    -0.231872
b     1.000000
c     1.000000
d     0.179578
e    12.000000
dtype: float64
>>> ser[1:] + ser[:-1]
a         NaN
b    2.000000
c    2.000000
d    0.359157
e         NaN
dtype: float64

未对齐Series之间的操作结果将包含所涉及的索引的并集。如果在其中一个Seires中找不到标签,结果将被标记为NaN。

注意:通常不同索引对象之间的操作的默认结果产生索引的并集,以避免信息丢失。
因为尽管数据丢失,但拥有索引标签也可以作为计算的重要信息。当然也可以选择通过dropna功能删除丢失数据的标签。

属性

名称属性:

>>> s = pd.Series(np.random.randn(5), name='something')
>>> s
0   -0.533373
1   -0.225402
2   -0.314919
3    0.422997
4   -0.438827
Name: something, dtype: float64
>>> s.name
'something'

在多数情况下,series名称会被自动分配,例如在获取1D切片的DataFrame时。(后续DataFrame操作将会讲解到)

>>> s2 = s.rename("different")
>>> s2
0   -0.533373
1   -0.225402
2   -0.314919
3    0.422997
4   -0.438827
Name: different, dtype: float64

这里需要注意的是,s和s2是指向不同的对象的。

通过索引属性获取索引

>>> s2.index
RangeIndex(start=0, stop=5, step=1)

索引对象也有一个name属性

>>> s.index.name = "index_name"
>>> s
index_name
0   -0.533373
1   -0.225402
2   -0.314919
3    0.422997
4   -0.438827
Name: something, dtype: float64

通过值索引获取值

>>> s.values
array([-0.53337271, -0.22540212, -0.31491934,  0.42299678, -0.43882681])

DataFrame

DataFrame 是可以包含不同类型的列且带索引的二维数据结构,类似于SQL表,或者Series的字典集合。

创建DataFrame

DataFrame 是被使用最多的Pandas的对象,和Series类似,创建DataFrame时,也接受许多不同类的参数。

From dict of Series or dicts

>>>d = {'one' : pd.Series([1., 2., 3.], index=['a', 'b', 'c']),
     'two' : pd.Series([1., 2., 3., 4.], index=['a', 'b', 'c', 'd'])}
>>>df = pd.DataFrame(d)
>>>df
one two
a 1.0 1.0
b 2.0 2.0
c 3.0 3.0
d NaN 4.0
>>>pd.DataFrame(d, index=['d', 'b', 'a'])
one two
d NaN 4.0
b 2.0 2.0
a 1.0 1.0
pd.DataFrame(d, index=['d', 'b', 'a'], columns=['two', 'three'])
two three
d 4.0 NaN
b 2.0 NaN
a 1.0 NaN

可以通过访问索引和列属性分别访问行和列标签。

>>> df.index
Index(['a', 'b', 'c', 'd'], dtype='object')
>>> df.columns
Index(['one', 'two'], dtype='object')

From dict of ndarrays / lists

ndarrays必须都是相同的长度。如果传递了索引,它的长度也必须与数组一样长。如果没有传递索引,结果将是range(n),其中n是数组长度。

>>> d = {'one' : [1., 2., 3., 4.],
...      'two' : [4., 3., 2., 1.]}
>>> pd.DataFrame(d)
one two
0 1.0 4.0
1 2.0 3.0
2 3.0 2.0
3 4.0 1.0
>>> pd.DataFrame(d, index=['a', 'b', 'c', 'd'])
one two
a 1.0 4.0
b 2.0 3.0
c 3.0 2.0
d 4.0 1.0

From structured or record array

这种情况和从数组的字典集合创建是一样的。

类型简略字符参数:

'b'     boolean
'i'     (signed) integer
'u'     unsigned integer
'f'     floating-point
'c'     complex-floating point
'm'     timedelta
'M'     datetime
'O'     (Python) objects
'S', 'a'    (byte-)string
'U'     Unicode
'V'     raw data (void)
# 例子:
>>> dt = np.dtype('f8')   # 64位浮点,注意8为字节
>>> dt = np.dtype('c16')  # 128位复数
>>> dt = np.dtype("a3, 3u8, (3,4)a10")  //3字节字符串、364位整型子数组、3*410字节字符串数组,注意8为字节
>>> dt = np.dtype((void, 10))  #10位
>>> dt = np.dtype((str, 35))   # 35字符字符串
>>> dt = np.dtype(('U', 10))   # 10字符unicode string
>>> dt = np.dtype((np.int32, (2,2)))          # 2*2int子数组
>>> dt = np.dtype(('S10', 1))                 # 10字符字符串
>>> dt = np.dtype(('i4, (2,3)f8, f4', (2,3))) # 2x3结构子数组
# 使用astype,不可直接更改对象的dtype值
>>> b = np.array([1., 2., 3., 4.])
>>> b.dtype
dtype(‘float64‘)
>>> c = b.astype(int)
>>> c
array([1, 2, 3, 4])
>>> c.shape
(8,)
>>> c.dtype
dtype(‘int32‘)
>>> data = np.zeros((2,), dtype=[('A', 'i4'),('B', 'f4'),('C', 'a10')])
# i4:定义一个big-endian int 4*8=32位的数据类型
>>> data
array([(0, 0., b''), (0, 0., b'')],
      dtype=[('A', '<i4'), ('B', '<f4'), ('C', 'S10')])
>>> data.shape
(2,)
>>> data[:] = [(1,2.,'Hello'), (2,3.,"World")]
>>> data
array([(1, 2., b'Hello'), (2, 3., b'World')],
      dtype=[('A', '<i4'), ('B', '<f4'), ('C', 'S10')])
>>> pd.DataFrame(data, index=['first', 'second'])
A B C
first 1 2.0 b‘Hello‘
second 2 3.0 b‘World‘
>>> pd.DataFrame(data, columns=['C', 'A', 'B'])
C A B
0 b‘Hello‘ 1 2.0
1 b‘World‘ 2 3.0

注意:DataFrame和 2-dimensional NumPy ndarray 并不是完全一样的。

除了以上的构造方法之外还有很多其他的构造方法,但获取DataFrame的主要方法是读取表结构的文件,其他构造方法就不一一列出。

>>> d = {'one' : pd.Series([1., 2., 3.], index=['a', 'b', 'c']),'two' : pd.Series([1., 2., 3., 4.], index=['a', 'b', 'c', 'd'])}
>>> df = pd.DataFrame(d)
>>> df
   one  two
a  1.0  1.0
b  2.0  2.0
c  3.0  3.0
d  NaN  4.0
>>> df.index
Index(['a', 'b', 'c', 'd'], dtype='object')
>>> df.index.values
array(['a', 'b', 'c', 'd'], dtype=object)
>>> df.columns
Index(['one', 'two'], dtype='object')
>>> df.columns.values
array(['one', 'two'], dtype=object)
>>> stockSummaries={
... 'AMZN': pd.Series([346.15,0.59,459,0.52,589.8,158.88],index=['Closing price','EPS','Shares Outstanding(M)','Beta', 'P/E','Market Cap(B)']),
... 'GOOG': pd.Series([1133.43,36.05,335.83,0.87,31.44,380.64],index=['Closing price','EPS','Shares Outstanding(M)','Beta','P/E','Market Cap(B)']),
... 'FB': pd.Series([61.48,0.59,2450,104.93,150.92],index=['Closing price','EPS','Shares Outstanding(M)','P/E', 'Market Cap(B)']),
... 'YHOO': pd.Series([34.90,1.27,1010,27.48,0.66,35.36],index=['Closing price','EPS','Shares Outstanding(M)','P/E','Beta', 'Market Cap(B)']),
... 'TWTR':pd.Series([65.25,-0.3,555.2,36.23],index=['Closing price','EPS','Shares Outstanding(M)','Market Cap(B)']),
... 'AAPL':pd.Series([501.53,40.32,892.45,12.44,447.59,0.84],index=['Closing price','EPS','Shares Outstanding(M)','P/E','Market Cap(B)','Beta'])}
>>> stockDF=pd.DataFrame(stockSummaries)
>>> stockDF
AAPL AMZN FB GOOG TWTR YHOO
Beta 0.84 0.52 NaN 0.87 NaN 0.66
Closing price 501.53 346.15 61.48 1133.43 65.25 34.90
EPS 40.32 0.59 0.59 36.05 -0.30 1.27
Market Cap(B) 447.59 158.88 150.92 380.64 36.23 35.36
P/E 12.44 589.80 104.93 31.44 NaN 27.48
Shares Outstanding(M) 892.45 459.00 2450.00 335.83 555.20 1010.00
>>> stockDF=pd.DataFrame(stockSummaries,index=['Closing price','EPS','Shares Outstanding(M)','P/E', 'Market Cap(B)','Beta'])
>>> stockDF
AAPL AMZN FB GOOG TWTR YHOO
Closing price 501.53 346.15 61.48 1133.43 65.25 34.90
EPS 40.32 0.59 0.59 36.05 -0.30 1.27
Shares Outstanding(M) 892.45 459.00 2450.00 335.83 555.20 1010.00
P/E 12.44 589.80 104.93 31.44 NaN 27.48
Market Cap(B) 447.59 158.88 150.92 380.64 36.23 35.36
Beta 0.84 0.52 NaN 0.87 NaN 0.66
>>> stockDF=pd.DataFrame(stockSummaries,columns=['FB','TWTR','SCNW'])
>>> stockDF
FB TWTR SCNW
Closing price 61.48 65.25 NaN
EPS 0.59 -0.30 NaN
Market Cap(B) 150.92 36.23 NaN
P/E 104.93 NaN NaN
Shares Outstanding(M) 2450.00 555.20 NaN

DataFrame列操作

DataFrame列的选取,设置和删除列的工作原理与类似的dict操作相同。

>>> df['one']
a    1.0
b    2.0
c    3.0
d    NaN
Name: one, dtype: float64
>>> df
one two
a 1.0 1.0
b 2.0 2.0
c 3.0 3.0
d NaN 4.0
>>> df['three'] = df['one'] * df['two']
>>> df
one two three
a 1.0 1.0 1.0
b 2.0 2.0 4.0
c 3.0 3.0 9.0
d NaN 4.0 NaN
>>> df['flag'] = df['one'] > 2
>>> df
one two three flag
a 1.0 1.0 1.0 False
b 2.0 2.0 4.0 False
c 3.0 3.0 9.0 True
d NaN 4.0 NaN False

DataFram的列可以像使用dict一样被删除或移出。

>>> del df['two']
>>> df
one three flag
a 1.0 1.0 False
b 2.0 4.0 False
c 3.0 9.0 True
d NaN NaN False
>>> three = df.pop('three')
>>> df
one flag
a 1.0 False
b 2.0 False
c 3.0 True
d NaN False

当赋予的值为标量时,会自动在列里广播填充。

>>> df['foo'] = 'bar'
>>> df
one flag foo
a 1.0 False bar
b 2.0 False bar
c 3.0 True bar
d NaN False bar

如果传入的是Series并且索引不完全相同,那么会默认按照索引对齐。

>>> df['one_trunc'] = df['one'][:2]
>>> df
one flag foo one_trunc
a 1.0 False bar 1.0
b 2.0 False bar 2.0
c 3.0 True bar NaN
d NaN False bar NaN

也可以插入原始的ndarrays,但其长度必须与DataFrame索引的长度相匹配。

默认情况下,直接的赋值操作列插入到最后的位置。insert方法可用于插入列中的特定位置:

>>> df.insert(1, 'bar', df['one'])
>>> df
one bar flag foo one_trunc
a 1.0 1.0 False bar 1.0
b 2.0 2.0 False bar 2.0
c 3.0 3.0 True bar NaN
d NaN NaN False bar NaN

分配列

>>> df_sample = pd.DataFrame({'A': range(1, 11), 'B': np.random.randn(10)})
>>> df_sample
A B
0 1 -0.501413
1 2 -1.658703
2 3 -1.007577
3 4 -0.508734
4 5 0.781488
5 6 -0.654381
6 7 0.041172
7 8 -0.201917
8 9 -0.870813
9 10 0.228932
>>> df_sample.assign(ln_A = lambda x: np.log(x.A), abs_B = lambda x: np.abs(x.B))
A B abs_B ln_A
0 1 -0.501413 0.501413 0.000000
1 2 -1.658703 1.658703 0.693147
2 3 -1.007577 1.007577 1.098612
3 4 -0.508734 0.508734 1.386294
4 5 0.781488 0.781488 1.609438
5 6 -0.654381 0.654381 1.791759
6 7 0.041172 0.041172 1.945910
7 8 -0.201917 0.201917 2.079442
8 9 -0.870813 0.870813 2.197225
9 10 0.228932 0.228932 2.302585

需要注意的是,传入的参数是以字典类型的方式传入的。如果希望保证顺序的话,可以多次使用assign。

>>> newcol = np.log(df_sample['A'])
>>> newcol
0    0.000000
1    0.693147
2    1.098612
3    1.386294
4    1.609438
5    1.791759
6    1.945910
7    2.079442
8    2.197225
9    2.302585
Name: A, dtype: float64
>>> df_sample.assign(ln_A=newcol)        
A B ln_A
0 1 -0.501413 0.000000
1 2 -1.658703 0.693147
2 3 -1.007577 1.098612
3 4 -0.508734 1.386294
4 5 0.781488 1.609438
5 6 -0.654381 1.791759
6 7 0.041172 1.945910
7 8 -0.201917 2.079442
8 9 -0.870813 2.197225
9 10 0.228932 2.302585

索引

Operation Syntax Result
Select column df[col] Series
Select row by label df.loc[label] Series
Select row by integer location df.iloc[loc] Series
Slice rows df[5:10] DataFrame
Select rows by boolean vector df[bool_vec] DataFrame

关于索引的函数

  • loc[行号,[列名]]——通过行标签索引行数据
  • iloc[行位置,列位置]——通过行号索引行数据
  • ix——通过行标签或者行号索引行数据(基于loc和iloc 的混合)

例子

>>> df
one bar flag foo one_trunc
a 1.0 1.0 False bar 1.0
b 2.0 2.0 False bar 2.0
c 3.0 3.0 True bar NaN
d NaN NaN False bar NaN
>>> df.loc['b']
one              2
bar              2
flag         False
foo            bar
one_trunc        2
Name: b, dtype: object
>>> df.loc[['a','c'],['one','bar']]
   one  bar
a  1.0  1.0
c  3.0  3.0
>>> df.loc[:,['one','bar']]
   one  bar
a  1.0  1.0
b  2.0  2.0
c  3.0  3.0
d  NaN  NaN

iloc的例子

# df.iloc[行位置,列位置]
>>> df.loc[['a','c'],['one','bar']]
   one  bar
a  1.0  1.0
c  3.0  3.0
>>> df.loc[:,['one','bar']]
   one  bar
a  1.0  1.0
b  2.0  2.0
c  3.0  3.0
d  NaN  NaN
>>> df.iloc[1,1]#选取第二行,第二列的值,返回的为单个值
2.0
>>> df.iloc[[0,2],:]#选取第一行及第三行的数据
   one  bar   flag  foo  one_trunc
a  1.0  1.0  False  bar        1.0
c  3.0  3.0   True  bar        NaN
>>> df.iloc[0:2,:]#选取第一行到第三行(不包含)的数据
   one  bar   flag  foo  one_trunc
a  1.0  1.0  False  bar        1.0
b  2.0  2.0  False  bar        2.0
>>> df.iloc[:,1]#选取所有记录的第一列的值,返回的为一个Series
a    1.0
b    2.0
c    3.0
d    NaN
Name: bar, dtype: float64
>>> df.iloc[1,:]#选取第一行数据,返回的为一个Series
one              2
bar              2
flag         False
foo            bar
one_trunc        2
Name: b, dtype: object

ix的例子

>>> df.ix[0:3,['one','bar']]
   one  bar
a  1.0  1.0
b  2.0  2.0
c  3.0  3.0
>>> df.ix[['a','b'],['one','bar']]
   one  bar
a  1.0  1.0
b  2.0  2.0

注意:在Pandas 0.20版本开始就不推荐使用.ix,只推荐使用基于标签的索引.loc 和基于位置的索引.iloc 。

数据对齐

DataFrame对象之间在列和索引(行标签)之间自动数据对齐。并且,运算的结果对象是列和行标签的并集。

>>> df = pd.DataFrame(np.random.randn(10, 4), columns=['A', 'B', 'C', 'D'])
>>> df
A B C D
0 -0.408040 -0.103925 1.567179 0.497025
1 1.155872 1.838612 1.535727 0.254998
2 -0.844157 -0.982943 -0.306098 0.838501
3 -1.690848 1.151174 -1.029337 -0.510992
4 -2.360271 0.103595 1.738818 1.241876
5 0.132413 0.577794 -1.575906 -1.292794
6 -0.659920 -0.874005 -0.689551 -0.535480
7 1.527953 0.647206 -0.677337 -0.265019
8 0.746106 -3.130785 0.059622 -0.875211
9 1.064878 -0.573153 -0.803278 1.092972
>>> df2 = pd.DataFrame(np.random.randn(7, 3), columns=['A', 'B', 'C'])
>>> df2
A B C
0 0.651278 2.160525 -0.639130
1 -0.333688 -0.437602 -1.905795
2 -1.229019 0.794899 -1.160508
3 0.546056 1.163258 0.658877
4 0.523689 1.327156 1.112524
5 -1.074630 0.343416 0.985438
6 0.736502 -2.080463 -0.298586
>>> df + df2
A B C D
0 0.243238 2.056600 0.928049 NaN
1 0.822185 1.401010 -0.370068 NaN
2 -2.073177 -0.188045 -1.466606 NaN
3 -1.144793 2.314432 -0.370460 NaN
4 -1.836581 1.430751 2.851342 NaN
5 -0.942217 0.921210 -0.590468 NaN
6 0.076582 -2.954467 -0.988137 NaN
7 NaN NaN NaN NaN
8 NaN NaN NaN NaN
9 NaN NaN NaN NaN

在DataFrame和Series之间进行操作时,默认行为是使DataFrame列上的Series索引对齐,从而逐行广播。

>>> df.iloc[0]
A   -0.803278
B    1.092972
C    0.651278
D    2.160525
Name: 0, dtype: float64
>>> df - df.iloc[0]
A B C D
0 0.000000 0.000000 0.000000 0.000000
1 0.164148 -1.426659 -1.088879 -4.066320
2 -0.425741 -0.298073 -1.811786 -1.614469
3 1.966537 -0.434095 -0.127588 -0.833369
4 1.915803 -2.167601 -0.307861 -1.175087
5 1.539780 -3.173434 -0.949864 -3.889736
6 0.806788 0.841624 -0.433718 -0.349443
7 -1.746116 -1.298589 -0.641914 -4.381350
8 -0.062220 -1.208825 -0.536867 -2.218942
9 1.425466 -2.731549 -0.348400 -0.083648

在使用时间序列数据等一些特殊情况下,也可以以列方式进行广播:

>>> index = pd.date_range('1/1/2000', periods=8)
>>> df = pd.DataFrame(np.random.randn(8, 3), index=index, columns=list('ABC'))
>>> df
A B C
2000-01-01 -1.285993 -0.625756 0.341711
2000-01-02 -0.130773 -1.091650 0.074539
2000-01-03 1.248248 -0.450343 -0.347523
2000-01-04 -0.317490 1.012952 -0.838197
2000-01-05 -1.041325 -0.087286 1.153089
2000-01-06 1.067939 0.570342 -0.272996
2000-01-07 -0.160398 -0.013020 0.621867
2000-01-08 1.374179 0.779654 -1.554635

运算

四则运算

add 用于加法的方法 (+)
sub 用于减法的方法 (-)
div 用于除法的方法 (/)
mul 用于乘法的方法 (*)

>>> df.sub(df["A"],axis=0)
A B C
2000-01-01 0.0 0.660237 1.627704
2000-01-02 0.0 -0.960877 0.205312
2000-01-03 0.0 -1.698591 -1.595771
2000-01-04 0.0 1.330443 -0.520706
2000-01-05 0.0 0.954039 2.194413
2000-01-06 0.0 -0.497597 -1.340935
2000-01-07 0.0 0.147378 0.782264
2000-01-08 0.0 -0.594525 -2.928814
>>> df.sub(df['A'], axis=0)
A B C
2000-01-01 0.0 0.660237 1.627704
2000-01-02 0.0 -0.960877 0.205312
2000-01-03 0.0 -1.698591 -1.595771
2000-01-04 0.0 1.330443 -0.520706
2000-01-05 0.0 0.954039 2.194413
2000-01-06 0.0 -0.497597 -1.340935
2000-01-07 0.0 0.147378 0.782264
2000-01-08 0.0 -0.594525 -2.928814

逻辑运算

逻辑运算,与NumPy相似。

>>> df1 = pd.DataFrame({'a' : [1, 0, 1], 'b' : [0, 1, 1] }, dtype=bool)
>>> df2 = pd.DataFrame({'a' : [0, 1, 1], 'b' : [1, 1, 0] }, dtype=bool)
>>> df1
a b
0 True False
1 False True
2 True True
>>> df2
a b
0 False True
1 True True
2 True False
>>> df1 & df2
a b
0 False False
1 False True
2 True False
df1 | df2
a b
0 True True
1 True True
2 True True
>>> df1 ^ df2
a b
0 True True
1 True False
2 False True
>>> -df1  # 相当于 ~df1
a b
0 False True
1 True False
2 False False
  • if-then... :An if-then on one column
  • if-then-else :Add another line with different logic, to do the -else
>>> d={'a':pd.Series([1,2,3,4,5],index=(np.arange(5))),
... 'b':pd.Series([2,3,4,5,6],index=(np.arange(5))),
... 'c':pd.Series([3,4,5,6,7],index=(np.arange(5)))};
>>> df3 = pd.DataFrame(d)
>>> df3
   a  b  c
0  1  2  3
1  2  3  4
2  3  4  5
3  4  5  6
4  5  6  7
# if-then... 
>>> df3.loc[df3.a>3,'c']=30;
>>> df3
   a  b   c
0  1  2   3
1  2  3   4
2  3  4   5
3  4  5  30
4  5  6  30
# if-then-else 
>>> df3['logic'] = np.where(df3['a'] > 3,'high','low')
>>> df3
   a  b   c logic
0  1  2   3   low
1  2  3   4   low
2  3  4   5   low
3  4  5  30  high
4  5  6  30  high

>>> df_mask = pd.DataFrame({'a' : [True] * 5, 'b' : [False] * 5}) #做标志
>>> df_mask
      a      b
0  True  False
1  True  False
2  True  False
3  True  False
4  True  False
>>> df3.where(df_mask,-100) # 根据标志赋值
   a    b    c logic
0  1 -100 -100  -100
1  2 -100 -100  -100
2  3 -100 -100  -100
3  4 -100 -100  -100
4  5 -100 -100  -100

数学统计

方法 说明
sr.unique Series去重
sr.value_counts() Series统计频率,并从大到小排序,DataFrame没有这个方法
sr.describe() 返回基本统计量和分位数
df.describe() 按各列返回基本统计量和分位数
df.count() 求非NA值得数量
df.max() 求最大值
df.min() 求最大值
df.sum(axis=0) 按各列求和
df.mean() 按各列求平均值
df.median() 求中位数
df.var() 求方差
df.std() 求标准差
df.mad() 根据平均值计算平均绝对利差
df.cumsum() 求累计和
sr1.corr(sr2) 求相关系数
df.cov() 求协方差矩阵
df1.corrwith(df2) 求相关系数
pd.cut(array1, bins) 求一维数据的区间分布
pd.qcut(array1, 4) 按指定分位数进行区间划分,4可以替换成自定义的分位数列表
df[‘col1‘].groupby(df[‘col2‘]) 列1按照列2分组,即列2作为key
df.groupby(‘col1‘) DataFrame按照列col1分组
grouped.aggreagte(func) 分组后根据传入函数来聚合
grouped.aggregate([f1, f2,...]) 根据多个函数聚合,表现成多列,函数名为列名
grouped.aggregate([(‘f1_name‘, f1), (‘f2_name‘, f2)]) 重命名聚合后的列名
grouped.aggregate({‘col1‘:f1, ‘col2‘:f2,...}) 对不同的列应用不同函数的聚合,函数也可以是多个
df.pivot_table([‘col1‘, ‘col2‘],
rows=[‘row1‘, ‘row2‘],
aggfunc=[np.mean, np.sum]
fill_value=0,margins=True)
根据row1, row2对col1, col2做分组聚合,聚合方法可以指定多种,并用指
pd.crosstab(df[‘col1‘], df[‘col2‘]) 交叉表,计算分组的频率

转置

>>> df[:5].T
2000-01-01 00:00:00 2000-01-02 00:00:00 2000-01-03 00:00:00 2000-01-04 00:00:00 2000-01-05 00:00:00
A 0.388901 0.159726 1.576600 -0.993827 -1.297079
B 0.232477 -0.904435 -0.628984 1.015665 0.825678
C -1.254728 -0.195899 0.450605 -0.541170 0.043319

排序

方法 说明
sort_index() 对索引进行排序,默认是升序
sort_index(ascending=False) 对索引进行降序排序
sort_values() 对Series的值进行排序,默认是按值的升序进行排序的
sort_values(ascending=False) 对Seires的值进行降序排序
df.sort_values(by=[列,列]) 按指定列的值大小顺序进行排序
df.sort_values(by=[行],axis=1) 按指定行值进行排序
df.rank() 计算排名rank值

Pandas详解一

标签:2.7   基于   axis   特殊   逻辑   很多   多次   fill   包括   

原文地址:https://www.cnblogs.com/yangliguo/p/8969926.html

(0)
(0)
   
举报
评论 一句话评论(0
登录后才能评论!
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!