python数据分析工具pandas中DataFrame和Series作为主要的数据结构.
本文主要是介绍如何对DataFrame数据进行操作并结合一个实例测试操作函数。
1)查看DataFrame数据及属性
df_obj = DataFrame() #创建DataFrame对象 df_obj.dtypes #查看各行的数据格式 df_obj['列名'].astype(int)#转换某列的数据类型 df_obj.head() #查看前几行的数据,默认前5行 df_obj.tail() #查看后几行的数据,默认后5行 df_obj.index #查看索引 df_obj.columns #查看列名 df_obj.values #查看数据值 df_obj.describe() #描述性统计 df_obj.T #转置 df_obj.sort_values(by=['',''])#同上
2)使用DataFrame选择数据:
df_obj.ix[1:3] #获取1-3行的数据,该操作叫切片操作,获取行数据 df_obj.ix[columns_index] #获取列的数据 df_obj.ix[1:3,[1,3]]#获取1列3列的1~3行数据 df_obj[columns].drop_duplicates() #剔除重复行数据
3)使用DataFrame重置数据:
df_obj.ix[1:3,[1,3]]=1#所选位置数据替换为1
4)使用DataFrame筛选数据(类似SQL中的WHERE):
alist = ['023-18996609823'] df_obj['用户号码'].isin(alist) #将要过滤的数据放入字典中,使用isin对数据进行筛选,返回行索引以及每行筛选的结果,若匹配则返回ture df_obj[df_obj['用户号码'].isin(alist)] #获取匹配结果为ture的行
5)使用DataFrame模糊筛选数据(类似SQL中的LIKE):
df_obj[df_obj['套餐'].str.contains(r'.*"color: #ff0000">6)使用DataFrame进行数据转换(后期补充说明)df_obj['支局_维护线'] = df_obj['支局_维护线'].str.replace('巫溪分公司(.{2,})支局','\\1')#可以使用正则表达式 可以设置take_last=ture 保留最后一个,或保留开始一个.补充说明:注意take_last=ture已过时,请使用keep='last'7)使用pandas中读取数据:
read_csv('D:\LQJ.csv',sep=';',nrows=2) #首先输入csv文本地址,然后分割符选择等等 df.to_excel('foo.xlsx',sheet_name='Sheet1');pd.read_excel('foo.xlsx', 'Sheet1', index_col=None, na_values=['NA'])#写入读取excel数据,pd.read_excel读取的数据是以DataFrame形式存储 df.to_hdf('foo.h5','df');pd.read_hdf('foo.h5','df')#写入读取HDF5数据8)使用pandas聚合数据(类似SQL中的GROUP BY 或HAVING):
data_obj['用户标识'].groupby(data_obj['支局_维护线']) data_obj.groupby('支局_维护线')['用户标识'] #上面的简单写法 adsl_obj.groupby('支局_维护线')['用户标识'].agg([('ADSL','count')])#按支局进行汇总对用户标识进行计数,并将计数列的列名命名为ADSL9)使用pandas合并数据集(类似SQL中的JOIN):
merge(mxj_obj2, mxj_obj1 ,on='用户标识',how='inner')# mxj_obj1和mxj_obj2将用户标识当成重叠列的键合并两个数据集,inner表示取两个数据集的交集.10)清理数据
df[df.isnull()] df[df.notnull()] df.dropna()#将所有含有nan项的row删除 df.dropna(axis=1,thresh=3) #将在列的方向上三个为NaN的项删除 df.dropna(how='ALL')#将全部项都是nan的row删除填充值 df.fillna(0) df.fillna({1:0,2:0.5}) #对第一列nan值赋0,第二列赋值0.5 df.fillna(method='ffill') #在列方向上以前一个值作为值赋给NaN实例
1. 读取excel数据
代码如下
import pandas as pd# 读取高炉数据,注意文件名不能为中文 data=pd.read_excel('gaolushuju_201501-03.xlsx', '201501', index_col=None, na_values=['NA']) print data测试结果如下
燃料比 顶温西南 顶温西北 顶温东南 顶温东北 0 531.46 185 176 176 174 1 510.35 184 173 184 188 2 533.49 180 165 182 177 3 511.51 190 172 179 188 4 531.02 180 167 173 180 5 511.24 174 164 178 176 6 532.62 173 170 168 179 7 583.00 182 175 176 173 8 530.70 158 149 159 156 9 530.32 168 156 169 171 10 528.62 164 150 171 1692. 切片处理,选取行或列,修改数据
代码如下:
data_1row=data.ix[1] data_5row_2col=data.ix[0:5,[u'燃料比',u'顶温西南'] print data_1row,data_5row_2col data_5row_2col.ix[0:1,0:2]=3测试结果如下:
燃料比 510.35 顶温西南 184.00 顶温西北 173.00 顶温东南 184.00 顶温东北 188.00 Name: 1, dtype: float64 燃料比 顶温西南 0 531.46 185 1 510.35 184 2 533.49 180 3 511.51 190 4 531.02 180 5 511.24 174 燃料比 顶温西南 0 3.00 3 1 3.00 3 2 533.49 180 3 511.51 190 4 531.02 180 5 511.24 174格式说明,data_5row_2col.ix[0:1,0:2],data_5row_2col.ix[0:1,[0,2]],选取部分行和列需加”[]”
3. 排序
代码如下:
print data_1row.sort_values() print data_5row_2col.sort_values(by=u'燃料比')测试结果如下:
顶温西北 173.00 顶温西南 184.00 顶温东南 184.00 顶温东北 188.00 燃料比 510.35 Name: 1, dtype: float64 燃料比 顶温西南 1 510.35 184 5 511.24 174 3 511.51 190 4 531.02 180 0 531.46 185 2 533.49 1804. 删除重复的行
代码如下:
print data_5row_2col[u'顶温西南'].drop_duplicates()#剔除重复行数据测试结果如下:
0 185 1 184 2 180 3 190 5 174 Name: 顶温西南, dtype: int64说明:从测试结果3中可以看出顶温西南index=2的数据与index=4的数据重复,测试结果4显示将index=4的顶温西南数据删除
以上这篇python pandas中DataFrame类型数据操作函数的方法就是小编分享给大家的全部内容了,希望能给大家一个参考,也希望大家多多支持。
python,pandas,数据
免责声明:本站文章均来自网站采集或用户投稿,网站不提供任何软件下载或自行开发的软件! 如有用户或公司发现本站内容信息存在侵权行为,请邮件告知! 858582#qq.com
《魔兽世界》大逃杀!60人新游玩模式《强袭风暴》3月21日上线
暴雪近日发布了《魔兽世界》10.2.6 更新内容,新游玩模式《强袭风暴》即将于3月21 日在亚服上线,届时玩家将前往阿拉希高地展开一场 60 人大逃杀对战。
艾泽拉斯的冒险者已经征服了艾泽拉斯的大地及遥远的彼岸。他们在对抗世界上最致命的敌人时展现出过人的手腕,并且成功阻止终结宇宙等级的威胁。当他们在为即将于《魔兽世界》资料片《地心之战》中来袭的萨拉塔斯势力做战斗准备时,他们还需要在熟悉的阿拉希高地面对一个全新的敌人──那就是彼此。在《巨龙崛起》10.2.6 更新的《强袭风暴》中,玩家将会进入一个全新的海盗主题大逃杀式限时活动,其中包含极高的风险和史诗级的奖励。
《强袭风暴》不是普通的战场,作为一个独立于主游戏之外的活动,玩家可以用大逃杀的风格来体验《魔兽世界》,不分职业、不分装备(除了你在赛局中捡到的),光是技巧和战略的强弱之分就能决定出谁才是能坚持到最后的赢家。本次活动将会开放单人和双人模式,玩家在加入海盗主题的预赛大厅区域前,可以从强袭风暴角色画面新增好友。游玩游戏将可以累计名望轨迹,《巨龙崛起》和《魔兽世界:巫妖王之怒 经典版》的玩家都可以获得奖励。