隱函式的定義筆者就不在這裡複製貼上了,教材裡面的解釋專業的多的多,認真讀個十幾分鐘就能理解清楚;
主要記錄下隱函式求解過程中需要了解清楚的東西,筆者認為這裡還是有需要搞懂的細節點,特別是到了後面的多元微分求導就顯得炒雞重要了,沒有理解清楚這些知識點,可能看到教材後面的解題步驟腦子裡會有很多個十萬個為什麼;
筆者也是菜雞,文中如有理解錯誤望各位大佬筆下留情且指點一二,3q;
四則求導法則(重中之重)
復合求導法則(重點)
隱函式的定義
為了複習方便,下面給出隱函式的大概介紹。
有隱就有顯,在提出隱函式之前,先看看顯函式是怎樣的,顯函式就是初高中數學書中的常見的函式表達形式,例如:
而隱函式就是以下這種函式的表達形式了:
兩者區別在於:前者是等號左右端分別是因變數和自變數的符號,後者則更多的是把x和y都當成變數並且根據函式式計算等於右端值。
ps知識點(為啥隱函式求導又不同於顯函式):
而隱函式轉化顯函式的形式又稱為:隱函式的顯化。
眾所周知,顯函式求導相較於隱函式求導來說是簡單的多的(不解釋),但不是所有的隱函式都能轉化為顯函式而後再求導。
那麼不能轉化,隱函式又怎麼進行求導呢?
不能轉化的,只能強行求導。/狗頭
sorry,這裡筆者自己就不編栗子了,下面我就上教材的栗子了:
(重中之重):
很明顯的教材也把重點注釋了出來,在隱函式求導的過程中,只含x的變數式或者常數項是明顯的顯式求導,但:
y的變數式或者含有y的變數式則把y當成了是關於x的函式(因為x和y本來就存在一種對映關係)。
y的變數式或者含有y的變數式則是通過四則求導法則和復合函式求導法則進行求解的。
例如上述方程求導中,e的y次冪關於x的求導,則是利用了復合函式求導法則:(設u=e^y)du/dy*dy/dx=du/dx,則求出了e的y次冪關於x的導數。
滿足一定條件的求導,可以應用對應的方法快速解答,如以下形式:
運用對數求導法需要了解清楚對數變形的四則運算性質,這個初高中的知識筆者就不介紹了,看的不是很懂的兄弟們就得複習下對數的相關知識了,上面如果看數學介紹就頭暈的兄弟們可以直接看下面栗子:
提問:為什麼要引入這個方法,用原始的求導法不行嗎?
對於上述冪指函式,這種特別的函式方程,原始的求導法肯定也是可以的,但是那樣會增加計算的複雜程度和計算時間,如果採用對數求導法,就遠遠的把很多因素甩掉了,所以為什麼不呢?
[1]: 高等數學 第7版 上冊 同濟大學
二元函式求導公式 多元隱函式求導
有些函式並沒有明確的把函式關係表示出來,而是把函式隱藏在乙個方程裡,這樣的函式稱為隱函式。與一元函式的隱函式類似,多元函式的隱函式也是由方程式來確定的乙個函式。比如,由三元方程所確定的函式叫做二元隱函式。但不是所有的方程式都能確定乙個函式,也不能保證這個函式是連續的和可以求導的。例如,由於x,y,z...
AI數學原理 函式求導 精髓篇
用梯度下降演算法訓練神經網路的時候,求導過程是其中的關鍵計算之一。使用tensorflow的使用者會發現,神經網路的反向傳播計算是使用者不用考慮的,在給足便捷性的同時也抑制了使用者對反向傳播的探索心態 博主深受其害 tensorflow同時也激起了乙個思考 一定存在某種求導的通用方法。這篇文章主要探...
1 資料分析高數篇
有監督學習 有標籤 無監督學習 無標籤 一 線性回歸 通過已有的資料,進行新資料結果的 有監督學習方式處理 對連續型變數做 叫回歸,對離散型變數做 叫分類 比如有關於天氣的變數 晴,陰,雨。只能是其中單獨乙個,不存在介於兩種之間的,即不能又晴又雨。連續的變數是指取值可以是連續的變數。比如身高,體重等...