argsort()
import numpy as np
x=np.array([1,4,3,-1,6,9])
x.argsort()
輸出定義為y=array([3,0,2,1,4,5])。x[3]=-1最小,x[5]=9最大;根據從小到大的順序,輸出對應的索引號。
get(key, default=none)
key – 字典中要查詢的鍵。
default – 如果指定鍵的值不存在時,返回該預設值值。
dict =
print "value : %s" % dict.get('age')
print "value : %s" % dict.get('***', "never")
以上例項輸出結果為:
value : 27
value : never
sorted()
sorted 語法:
sorted(iterable[, cmp[, key[, reverse]]])
引數說明:
iterable – 可迭代物件。
cmp – 比較的函式,這個具有兩個引數,引數的值都是從可迭代物件中取出,此函式必須遵守的規則為,大於則返回1,小於則返回-1,等於則返回0。
key – 主要是用來進行比較的元素,只有乙個引數,具體的函式的引數就是取自於可迭代物件中,指定可迭代物件中的乙個元素來進行排序。
reverse – 排序規則,reverse = true 降序 , reverse = false 公升序(預設)。
>>> l=[('b',2),('a',1),('c',3),('d',4)]
>>> sorted(l, key=lambda x:x[1])
[('a', 1), ('b', 2), ('c', 3), ('d', 4)]
items()
返回可遍歷的(鍵, 值) 元組陣列。
dict =
print ("value : %s" % dict.items())
以上例項輸出結果為:
value : dict_items([('age', 7), ('name', 'runoob')])
operator.itemgetter(1)
op=
lp3=sorted(op.items(),key=operator.itemgetter(1),reverse=true)
print(lp3)
輸出:
[('2', (2, 34, 10)), ('1', (1, 0, 6)), ('3', (0, 45, 8))]
按照op的value—陣列的第乙個元素大小進行了排序
readlines()
readlines() 自動將檔案內容分析成乙個行的列表,該列表可以由 python 的 for … in … 結構進行處理
strip()
s.strip(rm) 預設刪除空白符(包括』\n』, 『\r』, 『\t』, 』 ')
numpy陣列
#建立矩陣
>>> m=mat([1,2,3])
>>> m
matrix([[1, 2, 3]])
#取值
>>> m[0] #取一行
matrix([[1, 2, 3]])
>>> m[0,1] #第0行,第1個資料
2
#索引取值
>>>m=mat([[2,5,1],[2,4,6]])
>>> m[1,:] #取得第一行的所有元素
matrix([[2, 4, 6]])
>>> m[1,0:1] #第一行第0個元素,注意左閉右開
matrix([[2]])
>>> m[1,0:3]
matrix([[2, 4, 6]])
>>> m[1,0:2]
matrix([[2, 4]])
>>> m[0:3] #前三個元素
matrix([[2, 5,1]])
K 鄰近演算法
k 鄰近演算法 1.演算法描述 k 鄰近演算法 k nearest neighbor,knn 分類演算法,是最簡單的機器學習演算法。工作原理 存在乙個樣本資料集合,也稱作訓練樣本集,並且樣本集中每個資料都存在標籤,即我們知道樣本集中每乙個資料與所屬分類對應的關係。輸入沒有標籤的新資料後,將新資料的每...
k鄰近演算法
今天學習了一點機器學習的知識,主要是機器學習最基本的演算法 k鄰近演算法。正好今天寫這篇blog可以複習鞏固,其中涉及到的code和一些內容來自 機器學習實戰 在此基礎上加了一點自己的注釋和理解。這本教程還是挺適合入門的,理論 相結合。k 近鄰演算法 knn 採用測量不同特徵值之間的距離方法進行分類...
K鄰近演算法
k近鄰法 k nearest neighbor,k nn 是1967年由cover t和hart p提出的一種基本分類與回歸方法。它的工作原理是 存在乙個樣本資料集合,也稱作為訓練樣本集,並且樣本集中每個資料都存在標籤,即我們知道樣本集中每乙個資料與所屬分類的對應關係。輸入沒有標籤的新資料後,將新的...