神經網路與深度學習初步
基礎老規矩,先推文章:
手把手入門神經網路系列(1)_從初等數學的角度初探神經網路
深度學習概述:從感知機到深度網路
deep learning(深度學習)學習筆記整理系列
相信深度學習大熱的今天,大家對神經網路多少都有一些了解。在傳統的「教科書」之外,寒小陽同學所寫的部落格從另乙個容易理解的角度闡釋了nn的結構,叫做「邏輯回歸的邏輯回歸的邏輯回歸的邏輯……」
class
neuralnetworkfortianchi
(regressor):
def__init__
(self, nodes, active_function='sigmoid', lr=.1, decay=1., off=1e-5,
batch=128, regular='l2', penalty=.5):
self.nodes, self.active_function = nodes, active_function
regressor.__init__(self, none, lr, decay, off, batch, regular, penalty)
def_define_train_inputs
(self):
return [t.matrix('x'), t.matrix('a'), t.matrix('b'), t.matrix('y')]
def_predict_outputs
(self, *inputs):
y = inputs[0]
for i in range(len(self.nodes)-2):
y = self.layers['active_layer'].outs(self.layers['liner_layer'+str(i)].outs(y))
i = len(self.nodes)-2
y = self.layers['relu_layer'].outs(self.layers['liner_layer'+str(i)].outs(y))
return y
def_define_layers
(self):
layers =
for i in range(len(self.nodes)-1):
liner_layer = linerlayer(self.nodes[i], self.nodes[i+1])
layers['liner_layer'+str(i)] = liner_layer
return layers
def_define_predict_inputs
(self):
return [t.matrix('x')]
def_loss_function
(self):
""" loss function: mean_log_error, mean_squared_error, mean_absolute_error
:return: loss function
"""y_regular = self._predict_outputs(self.train_inputs[0])
a, b, y = self.train_inputs[1:]
penalty = self._regular()
diff = y - y_regular
return t.mean((diff > 0) * diff * a - (diff < 0) * diff * b + penalty)
大資料比賽 綜述
雖然只參與了幾個小型的資料比賽,成績也十分慘淡,但還是有一些小小收穫記錄下來以便查閱。1 比賽流程 問題分析 樣本處理 特徵抽取 模型選擇 實現 調參測試 提交 當然,與軟體工程相同,比賽的過程也是迭代進行的,每次提交之後可能就要重新走一遍流程以發現改進點。以目前淺薄的經驗來看,最重要的步驟是特徵抽...
2023年大資料比賽本科組 第3題 電影資料分析
import numpy as np import pandas as pd import matplotlib.pyplot as plt from pandas import series,dataframe df pd.read table h pythondata top250 f1.txt...
kaggle DC比賽程序3 參考資料
本次比賽可借鑑的比賽有 nyc taxi 因為資料開源nyc open data,所以網上有大量的研究。ecml pkdd 15 taxi trajectory prediction kdd支援的在kaggle社群的比賽。381 teams 冠軍採訪 ecml pkdd 15 taxi trip t...