1.np.repeat
import numpy as當axis=none時,會展平為乙個行向量。npa=np.array(([1,2],[3,4
]))print(np.repeat(a,2))
#結果:[1
1223
344]
如果指定軸:
print(np.repeat(a,2,axis=02.de工作。))#結果[[1
2] [1
2] [3
4] [3
4]]
如果是指定了兩種細胞型別,那麼就從兩種cell型別中取樣n_samples,當然是越多越好,經過vae模型獲取到了px_scales(經過校正)表達的百分比,之後用它計算貝貝葉斯因子,是通過判斷兩個矩陣的大小,並且求均值,log(res/1-res)。
如果是1 vs all,那麼就輪流求,取樣當前1的細胞型別的細胞,並將其他cell作為另一類,然後計算基因的貝葉斯因子。
4.去批分為兩種,一種是同乙個資料集中不同批次,另一種是多個資料集下的不同批次,比想象的複雜一點。
5.logger.debug
在除錯時會出現此資訊。
6.nearestneighbors
#還是查文件好,接著就能看實現原始碼。
7.這個計算熵的可是真難理解:
score +=np.mean(終於明白了,舉了個例子:[entropy(
batches[#returns a tuple of arrays (row,col) containing the indices
kmatrix[indices].nonzero()[
1][#找到權重不為0的
kmatrix[indices].nonzero()[
0] ==i]]
)for i in range(n_samples_per_pool)#100
] )
import numpy as當fre趨向於0或者1時,即差不多都屬於同一批次的時候,熵就趨向於0。npkm=np.array([[0,0,1],[1,0,0],[0,1,0
]])indices=[0,2
]print(km[indices].nonzero()[
1][km[indices].nonzero()[0]==0
])#輸出[2
]>>>km[indices].nonzero()
(array([
0, 1], dtype=int64), array([2, 1], dtype=int64))
>>> km[indices].nonzero()[0]==0
array([ true, false])
>>> km[indices].nonzero()[1
]array([
2, 1], dtype=int64)
import tensorflow as並且手動嘗試了一下:tf
classes = 3
labels = tf.constant([0,1,2
]) # 輸入的元素值最小為0,最大為2
output =tf.one_hot(labels,classes)
sess =tf.session()
with tf.session()
assess:
sess.run(tf.global_variables_initializer())
output =sess.run(output)
print(
"output of one-hot is :
",output)
# ('
output of one-hot is : ',
# array([[
1., 0., 0
.],# [
0., 1., 0
.],# [
0., 0., 1.]], dtype=float32))
import tensorflow as11.tf.random_normaltfa=tf.one_hot([0,0,0,1,1,1],2
)with tf.session()
assess:
print(sess.run(a))
#輸出[[
1. 0
.] [
1. 0
.] [
1. 0
.] [
0. 1
.] [
0. 1
.] [
0. 1.]]
b= tf.random_normal([10用於從服從指定正太分布的數值中取出指定個數的值。沒有指定引數的話,就是標準正態分佈。])with tf.session()
assess:
print(sess.run(b))
#輸出[-0.7680359
0.9331585
0.14169899
0.75573707 -1.3931639 -0.7400114
0.58605003
1.8533127 -0.17746244 -1.0043402 ]
12.沒有啟用函式的網路層?dense(h, self.n_input, activation=none)
待看)相當於f(x)=x。
14.搜尋了zinb的實現**,未果,沒有找到有類似的,
搜尋 case_zero case_non_zero,找到了擬合zinb分布的乙個講解,看起來太複雜了。
就是說,計算zinb似然的時候就是這麼算的:
那麼一般的似然值是如何計算的?似然值如何計算。
一般來說,給定引數θ以及服從的分布和原資料,就可以計算似然值,當前引數的似然值。但是現在我感覺好抽象,有沒有個例子。
4 8日學習記錄
今天主要講了檔案上傳 國際化三個內容 檔案上傳 springmvc同樣使用了apache的檔案上傳元件。所以需要引入以下包 apache commons fileupload.jar apache commons io.jar 在myspring servlet.xml中配置 class org.s...
1 25學習總結
最近的學習進度有些慢,也偷了幾天懶,到月底得每天加大學習量了。今天主要是練習了前幾天學習的html標籤,熟悉了常用標籤的功能。接著就開始了css的學習,了解了四種css匯入方式。最後是結合一套css漸變色模板做了練習 doctype html html lang zh cn head meta ch...
2月4日學習記錄 2 7日
1.pytorch入門學習 這個官方教程還挺好的。可以作為乙個手冊來查詢。包括建立物件,物件與numpy的互相轉換,物件的 操作,物件轉移到gpu上。第二個dataloader的教程學到了可以使用dataloader載入資料,自動完成分batch,shuffle,等工作,首先對每個資料集可以繼承da...