标签:int element 删除 drop 应用 ica frame pos 字符串
http://blog.csdn.net/pipisorry/article/details/39506169
数据分析和建模方面的大量编程工作都是用在数据准备上的:加载、清理、转换以及重 塑。有时候,存放在文件或数据库中的数据并不能满足数据处理应用的要求。
pandas和Python标准库提供了一组高级的、灵活的、高效的核心函数和算法,它们能够轻松地将数据规整化为正确的形式。
pandas.dataframe每行都减去行平均值
use DataFrame‘s sub method and specify that the subtraction should happen row-wise (axis=0) as opposed to the default column-wise behaviour:
df.sub(df.mean(axis=1), axis=0)
相当于
norm_ui_array = df.values for i in range(len(norm_ui_array)): norm_ui_array[i][norm_ui_array[i] != np.NaN] -= user_rat_mean[i]
[Pandas: Subtract row mean from each element in row]
pandas对象中的数据可以通过一些内置的方式进行合并:
pandas .merge可根据一个或多个键将不同DataFrame中的行连接起来。
Pandas.concat可以沿着一条轴将多个对象堆叠到一起。
实例方法combine_first可以将重复数据编接在一起,用一个对象中的值填充另一个对象中的缺失值。
相当于数据库中的join操作,数据集的合并(merge)或连接(join)运算是通过一个或多个键将行链接起来的。这些运算是关系型数据库的核心。pandas的merge函数是对数据应用这些算法的主要切入点。
参数 说明
left 参与合并的左侧DataFrame
right 参与合并的右侧DataFrame
how “inner”、 “outer”、 “left”、 “right” 其中之一。默认为“inner”
on 用于连接的列名。必须存在于左右两个DataFrame对象中。如果未指定,且其他连接键也未指定,则以left和right列名的交集作为连接键
left_on 左侧DataFrame中用作连接键的列
right_on 右侧DataFrame中用作连接键的列
leftjndex 将左侧的行索引用作其连接键
rightjndex 类似于leftjndex
sort 根据连接键对合并后的数据进行排序,默认为True。有时在处理大数据集时,禁用该选项可获得更好的性能
suffixes 字符串值元组,用于追加到重叠列名的末尾,默认为(‘_x‘, ‘_y‘)。
copy 设置为False,可以在某些特殊情况下避免将数据复制到结果数据结构中。默认总是复制。
>>>import pandas as pd
>>> df1 = pd.DataFrame({‘key‘: [‘b‘, ‘b‘, ‘a‘,‘c‘,‘a‘,‘a‘,‘b‘],‘data1‘: range(7)})
>>>df2 = pd.DataFrame({‘key‘: [‘a‘, ‘b‘, ‘d‘],‘data2‘: range(3)})
df1
Out[5]:
data1 key
0 0 b
1 1 b
2 2 a
3 3 c
4 4 a
5 5 a
6 6 b
df2
Out[6]:
data2 key
0 0 a
1 1 b
2 2 d
这是一种多对一的合并。df1中的数据有多个被标记为a和b的行,而df2中key列的每个值 则仅对应一行。对这些对象调用merge即可得到:
pd.merge(df1, df2)
Out[7]:
data1 key data2
0 0 b 1
1 1 b 1
2 6 b 1
3 2 a 0
4 4 a 0
5 5 a 0
注意,并没有指明要用哪个列迸行连接。如果没有指定,merge就会将重叠列的列名当做键。不过,最好显式指定一下:
pd.merge(df1, df2, on=‘key‘)
两个对象的列名不同
如果两个对象的列名不同,也可分别进行指定:
>>>df3 = DataFrame({‘lkey‘: [‘b‘, ‘b‘, ‘a‘,‘c‘,‘a‘,‘a‘,‘b‘],
‘data1‘: range(7)})
>>>df4 = DataFrame({‘rkey‘: [‘a‘, ‘b‘,‘d‘],
‘data2‘: range(3)})
>>>pd.merge(df3, df4, left_on=‘lkey‘, right_on=‘rkey‘)
结果里面c和d以及与之相关的数据消失了。默认情况下,merge做的是“inner”连接:结果中的键是交集。其他方式还有“left”、“right”以及 “outer”。外连接求取的是键的并集,组合了左连接和右连接的效果:
pd.merge(df1, df2, how=‘outer‘)
Out[8]:
data1 key data2
0 0.0 b 1.0
1 1.0 b 1.0
2 6.0 b 1.0
3 2.0 a 0.0
4 4.0 a 0.0
5 5.0 a 0.0
6 3.0 c NaN
7 NaN d 2.0
多对多的合并操作非常简单,无需额外的工作。
>>> df1 = pd.DataFrame({‘key‘: [‘b‘,‘b‘,‘a‘,‘c‘,‘a‘,‘b‘],‘data1‘: range(6)})
>>>df2 = pd.DataFrame({‘key‘: [‘a‘,‘b‘,‘a‘,‘b‘,‘d‘],‘data2‘: range(5)})
>>> pd.merge(df1, df2, on=‘key‘, how=‘left‘)
data1 key data2
0 0 b 1.0
1 0 b 3.0
2 1 b 1.0
3 1 b 3.0
4 2 a 0.0
5 2 a 2.0
6 3 c NaN
7 4 a 0.0
8 4 a 2.0
9 5 b 1.0
10 5 b 3.0
多对多连接产生的是行的笛卡尔积。由于左边的DataFrame有3个“b”行,右边的有2个,所以域终结果中就有6个“b”行。
连接方式只影响出现在结果中的键:
>>> pd.merge(df1, df2, how=‘inner‘)
要根据多个键进行合并,传入一个由列名组成的列表即可:
>>>left= pd.DataFrame({‘key1‘: [‘foo‘,‘foo‘,‘bar‘],‘key2‘: [‘one‘, ‘two‘, ‘one‘],‘lval‘: [1,2,3]})
>>>right = pd.DataFrame({‘key1‘: [‘foo‘, ‘foo‘, ‘bar‘, ‘bar‘], ‘key2‘: [‘one‘, ‘one‘, ‘one‘, ‘two‘],‘lval‘: [4, 5, 6, 7]})
>>>pd.merge(left, right, on=[‘key1‘, ‘key2‘], how=‘outer‘)
key1 key2 lval_x lval_y
0 foo one 1.0 4.0
1 foo one 1.0 5.0
2 foo two 2.0 NaN
3 bar one 3.0 6.0
4 bar two NaN 7.0
结果中会出现哪些键组合取决于所选的合并方式,也可以这样来理解:多个键形成一系列元组,并将其当做单个连接键(当然,实际上并不是这么回事)。
Note:在进行列-列连接时,DataFrame对象中的索引会被丢弃。
对于合并运算需要考虑的最后一个问题是对重复列名的处理。虽然可以手工处理列名重叠的问题,但merge有一个更实用的suffixes选项,用于指定附加到左右两个DataFrame对象的重叠列名上的字符串:
>>>pd.merge(left, right, on=‘key1‘, suffixes=(‘_left‘, ‘_right‘))
Note: 看上面的结果,默认suffixes=(‘_x‘, ‘_y‘)
有时DataFrame中的连接键位于其索引中。在这种情况下,你可以传入left_index=True或right_index=True (或两个都传)以说明索引应该被用作连接键:
>>>left1 = pd.DataFrame({‘key‘:[‘a‘,‘b‘,‘a‘,‘a‘,‘b‘,‘c‘],‘value‘: range(6)})
>>>right1 = pd.DataFrame({‘group_val‘: [3.5,7]}, index=[‘a‘,‘b‘])
left1
Out[18]:
key value
0 a 0
1 b 1
2 a 2
3 a 3
4 b 4
5 c 5
right1
Out[19]:
group_val
a 3.5
b 7.0
pd.merge(left1, right1, left_on=‘key‘,right_index=True)
Out[20]:
key value group_val
0 a 0 3.5
2 a 2 3.5
3 a 3 3.5
1 b 1 7.0
4 b 4 7.0
对于层次化索引的数据:
>>>lefth = pd.DataFrame({‘key1‘: [‘Ohio‘,‘Ohio‘,‘Ohio‘,‘Nevada‘,‘Nevada‘],
‘key2‘: [2000, 2001, 2002, 2001, 2002],
‘data‘: np.arange(5.)})
>>>righth = pd.DataFrame(np.arange(12).reshape((6, 2)),
index=[[‘Nevada‘, ‘Nevada‘, ‘Ohio‘, ‘Ohio‘, ‘Ohio‘, ‘Ohio‘], [2001, 2000, 2000, 2000, 2001, 2002]],
columns=[‘event1‘, ‘event2‘])
lefth
Out[24]:
data key1 key2
0 0.0 Ohio 2000
1 1.0 Ohio 2001
2 2.0 Ohio 2002
3 3.0 Nevada 2001
4 4.0 Nevada 2002
righth
Out[25]:
event1 event2
Nevada 2001 0 1
2000 2 3
Ohio 2000 4 5
2000 6 7
2001 8 9
2002 10 11
这种情况下,必须以列表的形式指明用作合并键的多个列(注意对重复索引值的处理):
pd.merge(lefth, righth, left_on=[‘key1‘,‘key2‘],right_index=True, how= ‘outer‘)
Out[7]:
data key1 key2 event1 event2
0 0.0 Ohio 2000.0 4.0 5.0
0 0.0 Ohio 2000.0 6.0 7.0
1 1.0 Ohio 2001.0 8.0 9.0
2 2.0 Ohio 2002.0 10.0 11.0
3 3.0 Nevada 2001.0 0.0 1.0
4 4.0 Nevada 2002.0 NaN NaN
4 NaN Nevada 2000.0 2.0 3.0
DataFrame还有一个join实例方法,它能更为方便地实现按索引合并。它还可用于合并多个带有相同或相似索引的DataFrame对象,而不管它们之间有没有重叠的列。
left2.join(right2,how=‘outer‘)
由于一些历史原因(早期版本的pandas),DataFrame的join方法是在连接键上做左连接。
它还支持参数DataFrame的索引跟调用者DataFrame的某个列之间的连接:
left1.join(right1, on=‘key‘)
最后,对于简单的索引合并,还可以向join传入一组DataFrame (后面会介绍更为通用的concat函数,它也能实现此功能):
>>>another = DataFrame([[7.,8.], [9.,10.], [11.,12.], [16.,17.]],index=[‘a‘, ‘c‘,‘e‘,‘f‘], columns=[‘New York‘,‘Oregon‘])
>>>left2.join([right2, another])
>>>left2.join([right2, another], how=‘outer‘)
另一种数据合并运算concat也被称作连接(concatenation)、绑定(binding)或堆叠(stacking)。
objs 参与连接的pandas对象的列表或字典。唯一必需的参数
axis 指明连接的轴向,默认为0
join “inner”、 “outer”其中之_,默认为“outer”。指明其他轴向上的索引是按交集(inner)还是并集(outer)进行合并
join_axes 指明用于其他n-1条轴的索引,不执行并集/交集运算
keys 与连接对象有关的值,用于形成连接轴向上的层次化索引。可以是任 意值的列表或数组、元组数组、数组列表(如果将levels设置成多级数组的话)
levels 指定用作层次化索引各级别上的索引,如果设置了keys的话
names 用于创建分层级别的名称,如果设置了keys和(或)levels的话
verify_integrity 检查结果对象新轴上的重复情况,如果发现则引发异常。默认(False)允许重复
ignore_index 不保留连接轴上的索引,产生一组新索引range(total_length)
NumPy有一个用于合并原始NumPy数组的concatenation函数:
>>>arr = np.arange(12).reshape((3, 4))
>>> arr
array([[ 0, 1, 2, 3],
[ 4, 5, 6, 7],
[ 8, 9, 10, 11]])
>>> np.concatenate([arr, arr], axis=1)
array([[ 0, 1, 2, 3, 0, 1, 2, 3],
[ 4, 5, 6, 7, 4, 5, 6, 7],
[ 8, 9, 10, 11, 8, 9, 10, 11]])
对于pandas对象(如Series和DataFrame),带有标签的轴能够进一步推广数组的连接运算。
假设有三个没有重叠索引的Series:
s1 = pd.Series([0, 1], index=[‘a‘,‘b‘])
s2 = pd.Series([2, 3, 4], index=[‘c‘,‘d‘,‘e‘])
s3 = pd.Series([5, 6], index=[‘f‘, ‘g‘])
对这些对象调用concat可以将值和索引粘合在一起:
>>> pd.concat([s1,s2,s3])
a 0
b 1
c 2
d 3
e 4
f 5
g 6
dtype: int64
默认情况下,concat是在axis=0上工作的,最终产生一个新的Series。如果传入axis=1, 则结果就会变成一个DataFrame (axis=1是列):
pd.concat([s1, s2, s3], axis=1)
Out[18]:
0 1 2
a 0.0 NaN NaN
b 1.0 NaN NaN
c NaN 2.0 NaN
d NaN 3.0 NaN
e NaN 4.0 NaN
f NaN NaN 5.0
g NaN NaN 6.0
这种情况下,另外一条轴上没有重叠,从索引的有序并集(外连接)上就可以看出来。 传入join=‘inner’即可得到它们的交集:
s4 = pd.concat([s1 * 5, s3])
Out[20]:
a 0
b 5
f 5
g 6
dtype: int64
pd.concat([s1,s4], axis=1)
Out[21]:
0 1
a 0.0 0
b 1.0 5
f NaN 5
g NaN 6
pd.concat([s1,s4], axis=1, join=‘inner‘)
Out[22]:
0 1
a 0 0
b 1 5
可以通过join_axes指定要在其他轴上使用的索引:
pd.concat([s1, s4], axis=1, join_axes=[[‘a‘,‘c‘,‘b‘,‘e‘]])
0 1
a 0.0 0.0
c NaN NaN
b 1.0 5.0
e NaN NaN
想要参与连接的片段在结果中区分开。可在连接轴上创建一个层次化索引。使用keys参数即可达到这个目的:
pd.concat([s1,s1,s3])
a 0
b 1
a 0
b 1
f 5
g 6
dtype: int64
pd.concat([s1,s1,s3], keys=[‘one‘,‘two‘,‘three‘])
one a 0
b 1
two a 0
b 1
three f 5
g 6
dtype: int64
如果沿着axis=1对Series进行合并,则keys就会成为DataFrame的列头:
pd.concat([s1,s2,s3], axis=1, keys=[‘one‘,‘two‘,‘three‘])
>>>df1 = pd.DataFrame(np.arange(6).reshape(3,2),index=[‘a‘,‘b‘,‘c‘],columns=[‘one‘,‘two‘])
>>>df2 = pd.DataFrame(5 + np.arange(4).reshape(2,2), index=[‘a‘,‘c‘],columns=[‘three‘,‘four‘])
In [29]: df1
Out[29]:
one two
a 0 1
b 2 3
c 4 5
In [30]: df2
Out[30]:
three four
a 5 6
c 7 8
In [31]: pd.concat([df1,df2],axis=1,keys=[‘level1‘,‘level2‘])
Out[31]:
level1 level2
one two three four
a 0 1 5.0 6.0
b 2 3 NaN NaN
c 4 5 7.0 8.0
如果传入的不是列表而是一个字典,则字典的键就会被当做keys选项的值
>>>pd.concat({‘level1‘:df1,‘level2‘:df2}, axis=1)
>>> pd.concat([df1, df2], axis=1, keys=[‘level1‘,‘level2‘],names=[‘upper‘,‘lower‘])
DataFrame行索引:
>>>df1 = pd.DataFrame(np.random.randn(3,4),columns=[‘a‘,‘b‘,‘c‘,‘d‘])
>>>df2 = pd.DataFrame(np.random.randn(2,3), columns=[‘b‘,‘d‘,‘a‘])
In [36]: df1
Out[36]:
a b c d
0 0.208624 -1.061705 -0.517955 -1.131341
1 -0.554871 -1.162995 -2.177741 -0.148387
2 -2.521862 -1.307174 -0.505220 0.560942
In [37]: df2
Out[37]:
b d a
0 0.508929 0.002077 -1.851976
1 2.745318 0.087151 0.951520
在这种情况下,传入ignore_index=True即可:
In [38]: pd.concat([df1, df2],ignore_index=True)
Out[38]:
a b c d
0 0.208624 -1.061705 -0.517955 -1.131341
1 -0.554871 -1.162995 -2.177741 -0.148387
2 -2.521862 -1.307174 -0.505220 0.560942
3 -1.851976 0.508929 NaN 0.002077
4 0.951520 2.745318 NaN 0.087151
皮皮Blog
...
DataFrame的duplicated方法返回一个布尔型Series,表示各行是否重复行。而 drop_duplicates方法,它用于返回一个移除了重复行的DataFrame
data.drop_duplicates(inplace=True) 或者data = data.drop_duplicates()
只对某一列有重复则删除:
df.drop_duplicates(subset=0, inplace=True)[API : pandas.DataFrame.drop_duplicates]
..
from: http://blog.csdn.net/pipisorry/article/details/39506169
ref: [API Reference]
标签:int element 删除 drop 应用 ica frame pos 字符串
原文地址:http://blog.csdn.net/pipisorry/article/details/39506169