用過都說好!12個Pandas和NumPy函數,讓你處理數據更輕鬆

我們都知道Pandas和NumPy是兩種非常好用的函數,它們在我們日常的數據分析中起著至關重要的作用。沒有Pandas和NumPy,我們將在這個龐大的數據分析和科學世界中失去方向。今天,我將分享12個非常實用的Pandas和NumPy函數,這些函數將使你的數據分析變得比以前容易得多。最後,本文中所用代碼的Jupyter Notebook文檔都在文章最後分享給你。

用過都說好!12個Pandas和NumPy函數,讓你處理數據更輕鬆

NumPy

NumPy是使用Python進行科學計算的基本軟件包。它包含以下內容:

  • 強大的N維數組對象
  • 複雜的(廣播)功能
  • 集成C / C ++和Fortran代碼的工具
  • 有用的線性代數,傅立葉變換和隨機數功能

除了其明顯的科學用途外,NumPy還可以用作通用數據的高效多維容器。可以定義任意數據類型。這使NumPy能夠無縫,快速地與各種數據庫集成。

1.argpartition()

NumPy具有此驚人的功能,可以找到N個最大值索引。輸出將是N個最大值索引,然後可以根據需要對值進行排序。

<code>x = np.array([12, 10, 12, 0, 6, 8, 9, 1, 16, 4, 6, 0])
index_val = np.argpartition(x, -4)[-4:]
index_val
array([1, 8, 2, 0], dtype=int64)
np.sort(x[index_val])
array([10, 12, 12, 16])/<code>

2.

allclose()

Allclose()用於匹配兩個數組,並根據布爾值獲取輸出。如果兩個數組中的項在公差範圍內不相等,則將返回False。檢查兩個數組是否相似的好方法,實際上很難手動實現。

<code>array1 = np.array([0.12,0.17,0.24,0.29])
array2 = np.array([0.13,0.19,0.26,0.31])

#公差為0.1,應返回False:
np.allclose(array1, array2,0.1)
False

#公差為0.2,應返回True:
np.allclose(array1,array2,0.2)
True/<code>

3. clip()

Clip()用於將值保留在一個間隔內的數組中。有時,我們需要將值保持在上限和下限之內。出於上述目的,我們可以使用NumPy的clip()。給定一個間隔,該間隔以外的值將被裁剪到間隔邊緣。

<code>x = np.array([3,17,14,23,2,2,6,8,1,1,2,16,0])
np.clip(x,2,5)
array([ 3,5,5 ,5、2、2、5、5、2、2、5、2])/<code>

4.

extract()

顧名思義,Extract()用於根據特定條件從數組中提取特定元素。通過extract(),我們還可以使用諸如andor的條件。

<code>#隨機整數
array = np.random.randint(20,size = 12)
array
array([ 0,1,8,19,16,18,10,11,2,2,13,14,3 ])

#除以2並檢查餘數是否為1
cond = np.mod(array,2)== 1
cond
array([False,True,False,True,False,False,False,True,False,True,False,True])

#使用提取以獲取值
np.extract(cond,array)
array([ 1,19,11,13,3 ])

#將條件直接應用於提取
np.extract((((array <3)|(array> 15)) ,array)
array([0,1,19,16,18,2])/<code>

5. where()

where()用於從滿足特定條件的數組中返回元素。它返回在特定條件下的值的索引位置。這幾乎類似於我們在SQL中使用的where條件,我將在下面的示例中進行演示。

<code>y = np.array([1,5,6,8,1,7,3,6,9])

# y大於5時,返回索引位置
np.where(y>5)
array([2, 3, 5, 7, 8], dtype=int64),)

# 首先將替換符合條件的值,
# 其次將不替換
np.where(y>5, "Hit", "Miss")
array(['Miss', 'Miss', 'Hit', 'Hit', 'Miss', 'Hit', 'Miss', 'Hit', 'Hit'],dtype='/<code>

6. percentile()

Percentile()用於計算沿指定軸的數組元素的第n個百分點。

<code>a = np.array([1,5,6,8,1,7,3,6,9])
print("50th Percentile of a, axis = 0 : ",
np.percentile(a, 50, axis =0))
50th Percentile of a, axis = 0 : 6.0
b = np.array([[10, 7, 4], [3, 2, 1]])
print("30th Percentile of b, axis = 0 : ",
np.percentile(b, 30, axis =0))
30th Percentile of b, axis = 0 : [5.1 3.5 1.9]/<code>

如果你以前使用過這些函數,那麼你一定了解,這些函數對你有多大幫助!


Pandas

pandas是一個Python軟件包,提供快速,靈活和富於表現力的數據結構,旨在使處理結構化(表格,多維,潛在異構)和時間序列數據既簡單又直觀。

pandas非常適合許多不同類型的數據:

  • 具有異構類型列的表格數據,例如在SQL表或Excel電子表格中
  • 有序和無序(不一定是固定頻率)時間序列數據。
  • 具有行和列標籤的任意矩陣數據(同類型或異類)
  • 觀察/統計數據集的任何其他形式。實際上,數據根本不需要標記即可放入pandas數據結構。

以下是pandas擅長處理的一些事情:

  • 輕鬆處理浮點數據和非浮點數據中的缺失數據(表示為NaN)
  • 大小可變性:可以從DataFrame和更高維度的對象中插入和刪除列
  • 自動和顯式的數據對齊:可以將對象顯式地對齊到一組標籤,或者用戶可以簡單地忽略標籤並讓Series,DataFrame等自動為您對齊數據
  • 強大,靈活的分組功能,可對數據集執行拆分應用合併操作,以彙總和轉換數據
  • 輕鬆將其他Python和NumPy數據結構中的衣衫,、索引不同的數據轉換為DataFrame對象
  • 基於智能標籤的切片,花式索引和大數據集子集
  • 直觀的合併和聯接數據集
  • 靈活地重塑和旋轉數據集
  • 軸的分層標籤(每個刻度可能有多個標籤)
  • 強大的IO工具,用於從平面文件(CSV和定界的文件),Excel文件,數據庫加載數據,以及從超快HDF5格式保存/加載數據
  • 特定於時間序列的功能:日期範圍生成和頻率轉換,移動窗口統計信息,日期移動和滯後。

1.read_csv(nrows = n)

可能你已經知道 read_csv 函數的使用。但是,即使不需要,我們大多數人仍然會錯誤地讀取整個.csv文件。讓我們考慮第一種情況,即我們不知道10gb的.csv文件中的列和數據,在這裡讀取整個.csv文件將不是一個明智的決定,因為這將不必要地佔用我們的內存,並且會花費很多時間。我們可以從.csv文件中導入幾行,然後根據需要進行進一步操作。

<code>import io
import requests

# 、為了讓你們更輕鬆地使用,在這裡我們將使用在線數據集
url = "https://raw.github.com/vincentarelbundock/Rdatasets/master/csv/datasets/AirPassengers.csv"
s = requests.get(url).content

# 僅讀取前10行
df = pd.read_csv(io.StringIO(s.decode('utf-8')),nrows=10 , index_col=0)/<code>

2. map()

map()函數用於根據輸入對應關係映射Series的值。用於將系列中的每個值替換為可以從函數,字典或系列中得出的另一個值。

<code>#創建一個數據
dframe = pd.DataFrame(np.random.randn(4, 3), columns=list('bde'), index=['India', 'USA', 'China', 'Russia'])

#根據幀中的每個浮點值計算格式化的字符串
changefn = lambda x: '%.2f' % x

# 按元素進行更改
dframe['d'].map(changefn)/<code>

3. apply()

apply()允許用戶傳遞一個函數並將其應用於Pandas系列的每個單個值。

<code># 最大值減去最小值的混合 lambda fn
fn = lambda x: x.max() - x.min()

# 將其應用於上面剛剛創建的dframe
dframe.apply(fn)/<code>

4. isin()

isin()用於過濾數據幀。isin()幫助選擇在特定列中具有特定(或多個)值的行。這是我遇到的最有用的功能。

<code>#使用我們為read_csv創建的數據框
filter1 = df [“ value”]。isin([112])
filter2 = df [“ time”]。isin([1949.000000])
df [filter1&filter2]/<code>

5. copy()

copy()用於創建Pandas對象的副本。將數據幀分配給另一個數據幀時,在另一個數據幀中進行更改時其值也會更改。為了防止出現上述問題,我們可以使用copy()。

<code>#創建樣本系列
data = pd.Series(['India', 'Pakistan', 'China', 'Mongolia'])

#分配我們面臨的問題
data1 = data
#修改值
data1 [0] ='USA'
#還要更改舊數據框中的值

#為防止這種情況,我們使用

#創建系列的副本
new = data.copy()

#分配新的值
new [1] ='Changed value'

#打印數據
print(new)
print(data)/<code>

6. select_dtypes()

select_dtypes()函數基於列dtypes返回數據框的列的子集。可以將此函數的參數設置為包括具有某些特定數據類型的所有列,也可以設置為排除具有某些特定數據類型的所有那些列。

<code>#我們將使用read_csv
framex = df.select_dtypes(include="float64")

#僅返回時間列/<code>


其他的收穫:數據透視表()

Pandas 最神奇、最有用的功能是 pivot_table。如果你還在猶豫使用 groupby 並想擴展其功能,那麼可以很好試試 pivot_table 。如果你知道數據透視表在excel中是如何工作的,那麼對你來說可能就是小菜一碟。數據透視表中的級別將存儲在結果 DataFrame 的索引和列上的MultiIndex對象(分層索引)中。

<code>#創建一個樣本數據
school = pd.DataFrame({'A': ['Jay', 'Usher', 'Nicky', 'Romero', 'Will'],
'B': ['Masters', 'Graduate', 'Graduate', 'Masters', 'Graduate'],
'C': [26, 22, 20, 23, 24]})

#讓我們根據年齡和課程來創建數據透視表
table = pd.pivot_table(school, values ='A', index =['B', 'C'],
columns =['B'], aggfunc = np.sum, fill_value="Not Available")

table/<code>

學習是為了更加方便我們的工作,這12個函數,不僅能方便我們處理數據,還能提高我們的工作效率。希望能對你帶來收穫!

以上所有代碼都給你整理好了:https : //github.com/kunaldhariwal/Medium-12-Amazing-Pandas-NumPy-Functions


本文由未艾信息(www.weainfo.net)編譯,

查看更多最新資訊,歡迎大家點擊閱讀原文登錄我們的AI社區。

以及關注我們的公眾號:為AI吶喊(weainahan)


分享到:


相關文章: