经验首页 前端设计 程序设计 Java相关 移动开发 数据库/运维 软件/图像 大数据/云计算 其他经验
当前位置:技术经验 » 程序设计 » Ruby » 查看文章
Python数据分析入门与实践 学习 资源??
来源:cnblogs  作者:一个爱IT的美少女  时间:2019/10/14 10:03:15  对本文有异议

pandas是一个Python语言的软件包,在我们使用Python语言进行机器学习编程的时候,这是一个非常常用的基础编程库。本文是对它的一个入门教程。

pandas提供了快速,灵活和富有表现力的数据结构,目的是使“关系”或“标记”数据的工作既简单又直观。它旨在成为在Python中进行实际数据分析的高级构建块。

入门介绍

pandas适合于许多不同类型的数据,包括:

  • 具有异构类型列的表格数据,例如SQL表格或Excel数据
  • 有序和无序(不一定是固定频率)时间序列数据。
  • 具有行列标签的任意矩阵数据(均匀类型或不同类型)
  • 任何其他形式的观测/统计数据集。

由于这是一个Python语言的软件包,因此需要你的机器上首先需要具备Python语言的环境。关于这一点,请自行在网络上搜索获取方法。

关于如何获取pandas请参阅官网上的说明:pandas Installation

通常情况下,我们可以通过pip来执行安装:

  1. sudo pip3 install pandas

或者通过conda 来安装pandas:

  1. conda install pandas

目前(2018年2月)pandas的最新版本是v0.22.0(发布时间:2017年12月29日)。

我已经将本文的源码和测试数据放到Github上: pandas_tutorial ,读者可以前往获取。

另外,pandas常常和NumPy一起使用,本文中的源码中也会用到NumPy

建议读者先对NumPy有一定的熟悉再来学习pandas,我之前也写过一个NumPy的基础教程,参见这里:Python 机器学习库 NumPy 教程

核心数据结构

pandas最核心的就是SeriesDataFrame两个数据结构。

这两种类型的数据结构对比如下:

名称维度说明
Series 1维 带有标签的同构类型数组
DataFrame 2维 表格结构,带有标签,大小可变,且可以包含异构的数据列

DataFrame可以看做是Series的容器,即:一个DataFrame中可以包含若干个Series。

注:在0.20.0版本之前,还有一个三维的数据结构,名称为Panel。这也是pandas库取名的原因:panel

-data

-s。但这种数据结构由于很少被使用到,因此已经被废弃了。

Series

由于Series是一维结构的数据,我们可以直接通过数组来创建这种数据,像这样:

  1. # data_structure.py
  2. import pandas as pd
  3. import numpy as np
  4. series1 = pd.Series([1, 2, 3, 4])
  5. print("series1:\n{}\n".format(series1))

这段代码输出如下:

  1. series1:
  2. 0 1
  3. 1 2
  4. 2 3
  5. 3 4
  6. dtype: int64

这段输出说明如下:

  • 输出的最后一行是Series中数据的类型,这里的数据都是int64类型的。
  • 数据在第二列输出,第一列是数据的索引,在pandas中称之为Index

我们可以分别打印出Series中的数据和索引:

  1. # data_structure.py
  2. print("series1.values: {}\n".format(series1.values))
  3. print("series1.index: {}\n".format(series1.index))

这两行代码输出如下:

  1. series1.values: [1 2 3 4]
  2. series1.index: RangeIndex(start=0, stop=4, step=1)

如果不指定(像上面这样),索引是[1, N-1]的形式。不过我们也可以在创建Series的时候指定索引。索引未必一定需要是整数,可以是任何类型的数据,例如字符串。例如我们以七个字母来映射七个音符。索引的目的是可以通过它来获取对应的数据,例如下面这样:

  1. # data_structure.py
  2. series2 = pd.Series([1, 2, 3, 4, 5, 6, 7],
  3. index=["C", "D", "E", "F", "G", "A", "B"])
  4. print("series2:\n{}\n".format(series2))
  5. print("E is {}\n".format(series2["E"]))

这段代码输出如下:

  1. series2:
  2. C 1
  3. D 2
  4. E 3
  5. F 4
  6. G 5
  7. A 6
  8. B 7
  9. dtype: int64
  10. E is 3

DataFrame

下面我们来看一下DataFrame的创建。我们可以通过NumPy的接口来创建一个4x4的矩阵,以此来创建一个DataFrame,像这样:

  1. # data_structure.py
  2. df1 = pd.DataFrame(np.arange(16).reshape(4,4))
  3. print("df1:\n{}\n".format(df1))

这段代码输出如下:

  1. df1:
  2. 0 1 2 3
  3. 0 0 1 2 3
  4. 1 4 5 6 7
  5. 2 8 9 10 11
  6. 3 12 13 14 15

从这个输出我们可以看到,默认的索引和列名都是[0, N-1]的形式。

我们可以在创建DataFrame的时候指定列名和索引,像这样:

  1. # data_structure.py
  2. df2 = pd.DataFrame(np.arange(16).reshape(4,4),
  3. columns=["column1", "column2", "column3", "column4"],
  4. index=["a", "b", "c", "d"])
  5. print("df2:\n{}\n".format(df2))

这段代码输出如下:

  1. df2:
  2. column1 column2 column3 column4
  3. a 0 1 2 3
  4. b 4 5 6 7
  5. c 8 9 10 11
  6. d 12 13 14 15

我们也可以直接指定列数据来创建DataFrame:

  1. # data_structure.py
  2. df3 = pd.DataFrame({"note" : ["C", "D", "E", "F", "G", "A", "B"],
  3. "weekday": ["Mon", "Tue", "Wed", "Thu", "Fri", "Sat", "Sun"]})
  4. print("df3:\n{}\n".format(df3))

这段代码输出如下:

  1. df3:
  2. note weekday
  3. 0 C Mon
  4. 1 D Tue
  5. 2 E Wed
  6. 3 F Thu
  7. 4 G Fri
  8. 5 A Sat
  9. 6 B Sun

请注意:

  • DataFrame的不同列可以是不同的数据类型
  • 如果以Series数组来创建DataFrame,每个Series将成为一行,而不是一列

例如:

  1. # data_structure.py
  2. noteSeries = pd.Series(["C", "D", "E", "F", "G", "A", "B"],
  3. index=[1, 2, 3, 4, 5, 6, 7])
  4. weekdaySeries = pd.Series(["Mon", "Tue", "Wed", "Thu", "Fri", "Sat", "Sun"],
  5. index=[1, 2, 3, 4, 5, 6, 7])
  6. df4 = pd.DataFrame([noteSeries, weekdaySeries])
  7. print("df4:\n{}\n".format(df4))

df4的输出如下:

  1. df4:
  2. 1 2 3 4 5 6 7
  3. 0 C D E F G A B
  4. 1 Mon Tue Wed Thu Fri Sat Sun

我们可以通过下面的形式给DataFrame添加或者删除列数据:

  1. # data_structure.py
  2. df3["No."] = pd.Series([1, 2, 3, 4, 5, 6, 7])
  3. print("df3:\n{}\n".format(df3))
  4. del df3["weekday"]
  5. print("df3:\n{}\n".format(df3))

这段代码输出如下:

  1. df3:
  2. note weekday No.
  3. 0 C Mon 1
  4. 1 D Tue 2
  5. 2 E Wed 3
  6. 3 F Thu 4
  7. 4 G Fri 5
  8. 5 A Sat 6
  9. 6 B Sun 7
  10. df3:
  11. note No.
  12. 0 C 1
  13. 1 D 2
  14. 2 E 3
  15. 3 F 4
  16. 4 G 5
  17. 5 A 6
  18. 6 B 7

Index对象与数据访问

pandas的Index对象包含了描述轴的元数据信息。当创建Series或者DataFrame的时候,标签的数组或者序列会被转换成Index。可以通过下面的方式获取到DataFrame的列和行的Index对象:

  1. # data_structure.py
  2. print("df3.columns\n{}\n".format(df3.columns))
  3. print("df3.index\n{}\n".format(df3.index))

这两行代码输出如下:

  1. df3.columns
  2. Index(['note', 'No.'], dtype='object')
  3. df3.index
  4. RangeIndex(start=0, stop=7, step=1)

请注意:

  • Index并非集合,因此其中可以包含重复的数据
  • Index对象的值是不可以改变,因此可以通过它安全的访问数据

DataFrame提供了下面两个操作符来访问其中的数据:

  • loc:通过行和列的索引来访问数据
  • iloc:通过行和列的下标来访问数据

例如这样:

  1. # data_structure.py
  2. print("Note C, D is:\n{}\n".format(df3.loc[[0, 1], "note"]))
  3. print("Note C, D is:\n{}\n".format(df3.iloc[[0, 1], 0]))

第一行代码访问了行索引为0和1,列索引为“note”的元素。第二行代码访问了行下标为0和1(对于df3来说,行索引和行下标刚好是一样的,所以这里都是0和1,但它们却是不同的含义),列下标为0的元素。

这两行代码输出如下:

  1. Note C, D is:
  2. 0 C
  3. 1 D
  4. Name: note, dtype: object
  5. Note C, D is:
  6. 0 C
  7. 1 D
  8. Name: note, dtype: object

文件操作

pandas库提供了一系列的read_函数来读取各种格式的文件,它们如下所示:

  • read_csv
  • read_table
  • read_fwf
  • read_clipboard
  • read_excel
  • read_hdf
  • read_html
  • read_json
  • read_msgpack
  • read_pickle
  • read_sas
  • read_sql
  • read_stata
  • read_feather

读取Excel文件

注:要读取Excel文件,还需要安装另外一个库:xlrd

通过pip可以这样完成安装:

  1. sudo pip3 install xlrd

安装完之后可以通过pip查看这个库的信息:

  1. $ pip3 show xlrd
  2. Name: xlrd
  3. Version: 1.1.0
  4. Summary: Library for developers to extract data from Microsoft Excel (tm) spreadsheet files
  5. Home-page: http://www.python-excel.org/
  6. Author: John Machin
  7. Author-email: sjmachin@lexicon.net
  8. License: BSD
  9. Location: /Library/Frameworks/Python.framework/Versions/3.6/lib/python3.6/site-packages
  10. Requires:

接下来我们看一个读取Excel的简单的例子:

  1. # file_operation.py
  2. import pandas as pd
  3. import numpy as np
  4. df1 = pd.read_excel("data/test.xlsx")
  5. print("df1:\n{}\n".format(df1))

这个Excel的内容如下:

  1. df1:
  2. C Mon
  3. 0 D Tue
  4. 1 E Wed
  5. 2 F Thu
  6. 3 G Fri
  7. 4 A Sat
  8. 5 B Sun

注:本文的代码和数据文件可以通过文章开头提到的Github仓库获取。

读取CSV文件

下面,我们再来看读取CSV文件的例子。

第一个CSV文件内容如下:

  1. $ cat test1.csv
  2. C,Mon
  3. D,Tue
  4. E,Wed
  5. F,Thu
  6. G,Fri
  7. A,Sat

读取的方式也很简单:

  1. # file_operation.py
  2. df2 = pd.read_csv("data/test1.csv")
  3. print("df2:\n{}\n".format(df2))

我们再来看第2个例子,这个文件的内容如下:

  1. $ cat test2.csv
  2. C|Mon
  3. D|Tue
  4. E|Wed
  5. F|Thu
  6. G|Fri
  7. A|Sat

严格的来说,这并不是一个CSV文件了,因为它的数据并不是通过逗号分隔的。在这种情况下,我们可以通过指定分隔符的方式来读取这个文件,像这样:

  1. # file_operation.py
  2. df3 = pd.read_csv("data/test2.csv", sep="|")
  3. print("df3:\n{}\n".format(df3))

实际上,read_csv支持非常多的参数用来调整读取的参数,如下表所示:

参数说明
path 文件路径
sep或者delimiter 字段分隔符
header 列名的行数,默认是0(第一行)
index_col 列号或名称用作结果中的行索引
names 结果的列名称列表
skiprows 从起始位置跳过的行数
na_values 代替NA的值序列
comment 以行结尾分隔注释的字符
parse_dates 尝试将数据解析为datetime。默认为False
keep_date_col 如果将列连接到解析日期,保留连接的列。默认为False
converters 列的转换器
dayfirst 当解析可以造成歧义的日期时,以内部形式存储。默认为False
data_parser 用来解析日期的函数
nrows 从文件开始读取的行数
iterator 返回一个TextParser对象,用于读取部分内容
chunksize 指定读取块的大小
skip_footer 文件末尾需要忽略的行数
verbose 输出各种解析输出的信息
encoding 文件编码
squeeze 如果解析的数据只包含一列,则返回一个Series
thousands 千数量的分隔符

详细的read_csv函数说明请参见这里:pandas.read_csv

处理无效值

现实世界并非完美,我们读取到的数据常常会带有一些无效值。如果没有处理好这些无效值,将对程序造成很大的干扰。

对待无效值,主要有两种处理方法:直接忽略这些无效值;或者将无效值替换成有效值。

下面我先创建一个包含无效值的数据结构。然后通过pandas.isna函数来确认哪些值是无效的:

  1. # process_na.py
  2. import pandas as pd
  3. import numpy as np
  4. df = pd.DataFrame([[1.0, np.nan, 3.0, 4.0],
  5. [5.0, np.nan, np.nan, 8.0],
  6. [9.0, np.nan, np.nan, 12.0],
  7. [13.0, np.nan, 15.0, 16.0]])
  8. print("df:\n{}\n".format(df));
  9. print("df:\n{}\n".format(pd.isna(df)));****

这段代码输出如下:

  1. df:
  2. 0 1 2 3
  3. 0 1.0 NaN 3.0 4.0
  4. 1 5.0 NaN NaN 8.0
  5. 2 9.0 NaN NaN 12.0
  6. 3 13.0 NaN 15.0 16.0
  7. df:
  8. 0 1 2 3
  9. 0 False True False False
  10. 1 False True True False
  11. 2 False True True False
  12. 3 False True False False

忽略无效值

我们可以通过pandas.DataFrame.dropna函数抛弃无效值:

  1. # process_na.py
  2. print("df.dropna():\n{}\n".format(df.dropna()));

注:dropna默认不会改变原先的数据结构,而是返回了一个新的数据结构。如果想要直接更改数据本身,可以在调用这个函数的时候传递参数 inplace = True

对于原先的结构,当无效值全部被抛弃之后,将不再是一个有效的DataFrame,因此这行代码输出如下:

  1. df.dropna():
  2. Empty DataFrame
  3. Columns: [0, 1, 2, 3]
  4. Index: []

我们也可以选择抛弃整列都是无效值的那一列:

  1. # process_na.py
  2. print("df.dropna(axis=1, how='all'):\n{}\n".format(df.dropna(axis=1, how='all')));

注:axis=1表示列的轴。how可以取值’any’或者’all’,默认是前者。

这行代码输出如下:

  1. df.dropna(axis=1, how='all'):
  2. 0 2 3
  3. 0 1.0 3.0 4.0
  4. 1 5.0 NaN 8.0
  5. 2 9.0 NaN 12.0
  6. 3 13.0 15.0 16.0

替换无效值

我们也可以通过fillna函数将无效值替换成为有效值。像这样:

  1. # process_na.py
  2. print("df.fillna(1):\n{}\n".format(df.fillna(1)));

这段代码输出如下:

  1. df.fillna(1):
  2. 0 1 2 3
  3. 0 1.0 1.0 3.0 4.0
  4. 1 5.0 1.0 1.0 8.0
  5. 2 9.0 1.0 1.0 12.0
  6. 3 13.0 1.0 15.0 16.0

将无效值全部替换成同样的数据可能意义不大,因此我们可以指定不同的数据来进行填充。为了便于操作,在填充之前,我们可以先通过rename方法修改行和列的名称:

  1. # process_na.py
  2. df.rename(index={0: 'index1', 1: 'index2', 2: 'index3', 3: 'index4'},
  3. columns={0: 'col1', 1: 'col2', 2: 'col3', 3: 'col4'},
  4. inplace=True);
  5. df.fillna(value={'col2': 2}, inplace=True)
  6. df.fillna(value={'col3': 7}, inplace=True)
  7. print("df:\n{}\n".format(df));

这段代码输出如下:

  1. df:
  2. col1 col2 col3 col4
  3. index1 1.0 2.0 3.0 4.0
  4. index2 5.0 2.0 7.0 8.0
  5. index3 9.0 2.0 7.0 12.0
  6. index4 13.0 2.0 15.0 16.0

处理字符串

数据中常常牵涉到字符串的处理,接下来我们就看看pandas对于字符串操作。

Seriesstr字段包含了一系列的函数用来处理字符串。并且,这些函数会自动处理无效值。

下面是一些实例,在第一组数据中,我们故意设置了一些包含空格字符串:

  1. # process_string.py
  2. import pandas as pd
  3. s1 = pd.Series([' 1', '2 ', ' 3 ', '4', '5']);
  4. print("s1.str.rstrip():\n{}\n".format(s1.str.lstrip()))
  5. print("s1.str.strip():\n{}\n".format(s1.str.strip()))
  6. print("s1.str.isdigit():\n{}\n".format(s1.str.isdigit()))

在这个实例中我们看到了对于字符串strip的处理以及判断字符串本身是否是数字,这段代码输出如下:

  1. s1.str.rstrip():
  2. 0 1
  3. 1 2
  4. 2 3
  5. 3 4
  6. 4 5
  7. dtype: object
  8. s1.str.strip():
  9. 0 1
  10. 1 2
  11. 2 3
  12. 3 4
  13. 4 5
  14. dtype: object
  15. s1.str.isdigit():
  16. 0 False
  17. 1 False
  18. 2 False
  19. 3 True
  20. 4 True
  21. dtype: bool

下面是另外一些示例,展示了对于字符串大写,小写以及字符串长度的处理:

  1. # process_string.py
  2. s2 = pd.Series(['Stairway to Heaven', 'Eruption', 'Freebird',
  3. 'Comfortably Numb', 'All Along the Watchtower'])
  4. print("s2.str.lower():\n{}\n".format(s2.str.lower()))
  5. print("s2.str.upper():\n{}\n".format(s2.str.upper()))
  6. print("s2.str.len():\n{}\n".format(s2.str.len()))

该段代码输出如下:

  1. s2.str.lower():
  2. 0 stairway to heaven
  3. 1 eruption
  4. 2 freebird
  5. 3 comfortably numb
  6. 4 all along the watchtower
  7. dtype: object
  8. s2.str.upper():
  9. 0 STAIRWAY TO HEAVEN
  10. 1 ERUPTION
  11. 2 FREEBIRD
  12. 3 COMFORTABLY NUMB
  13. 4 ALL ALONG THE WATCHTOWER
  14. dtype: object
  15. s2.str.len():
  16. 0 18
  17. 1 8
  18. 2 8
  19. 3 16
  20. 4 24
  21. dtype: int64

结束语

本文是pandas的入门教程,因此我们只介绍了最基本的操作。对于

  • MultiIndex/Advanced Indexing
  • Merge, join, concatenate
  • Computational tools

原文链接:http://www.cnblogs.com/itye/p/11664515.html

 友情链接:直通硅谷  点职佳  北美留学生论坛

本站QQ群:前端 618073944 | Java 606181507 | Python 626812652 | C/C++ 612253063 | 微信 634508462 | 苹果 692586424 | C#/.net 182808419 | PHP 305140648 | 运维 608723728

W3xue 的所有内容仅供测试,对任何法律问题及风险不承担任何责任。通过使用本站内容随之而来的风险与本站无关。
关于我们  |  意见建议  |  捐助我们  |  报错有奖  |  广告合作、友情链接(目前9元/月)请联系QQ:27243702 沸活量
皖ICP备17017327号-2 皖公网安备34020702000426号