為了節省力氣,於是我們在#include的第二行,寫上 using namespace std;,這行的目的,簡單來看,是讓你在之後的函式裡,將std::cout, std::cin , std::endl 等,簡寫為cout , cin , endl 。
之所以這麼寫,是因為,namespace的意思是,命名空間 ,具體貌似是在呼叫函式時,可能有多個版本同名字的函式,如果不加std,就不知道是哪種版本的函式了(雖然我也不太明白,具體參見【c++ primer plus 第6版 中文版.pdf】的第38頁(帶廣告的那個版本的pdf)。
如果不用這一行,也可以用using std::cout; ,這樣的話,在寫cout 的時候,就不必寫std::cout了,但是如果只寫這一行,那麼用cin的時候,還是需要寫std::cin 。
如果同時使用
using std::cout;
using std::cin;
using std::endl;
那麼在函式裡,就可以愉快的使用這三個的簡寫了。
之所以這樣,據說是因為在大型專案裡,直接寫using namespace std; 容易出現一些問題。
創業日誌(十二) 關於怠惰
最近的訊息接收,關於這部分的文章很多。遇見大咖中360周鴻禕的說,企業就像乙個足球隊,場上的11名球員必須時刻保持那種激情 拼勁和求勝的慾望,作為企業的一些老員工,如果你已經沒有了激情,那請你下場休息,讓更有拼勁的人員上場。說的簡單,創業初期倒還好說,但企業有一定積累,員工相對衣食無憂,還如何激發貌...
細說C (二十二) 關於形參和實參
實參 形參指標形參 若形參前無 則為指標形參,即是傳值 實際上是這樣的,傳引用,系統將在函式棧,上開闢一塊記憶體,用於儲存指標,該指標指向了實參,所以修改這個指標所指向的物件會改變到實參 而傳值不同,傳值是把實參拷貝乙份,所以形參和實參將是兩個東西,互不影響!附 1.深拷貝 指的就是當拷貝物件中有對...
Pytorch學習記錄(二) 關於Gradient
在bp的時候,pytorch是將variable的梯度放在variable物件中的,我們隨時都可以使用variable.grad得到對應variable的grad。剛建立variable的時候,它的grad屬性是初始化為0.0的。import torch from torch.autograd im...