kolesnikov的門估值秘密共享方案(gate evaluation secret sharing,gess)是高效的資訊理論安全的亂碼電路方案。
在gess方案中,每條導線的輸入都是子秘密,子秘密由秘密共享方案產生,所有的輸出是秘密分享方案中將要被分享的秘密。
首先gess生成兩個隨機數?0, ?1,讓?10對應的加密值為?0,讓?11對應的加密值為?1。當導線?1輸入為0時,對應於?10,導線?2也有兩種輸入的可能,分別為0和1,對應兩個導線?3的輸出。同理如果確定了導線?2的輸入如為?20,根據導線?1的不同輸入0和1,也只會有兩種輸出可能?00和?10(注意這裡?00和?01只代表輸出可能,實際根據具體的門?,?00和?01的具體值可能相 等也可能不等)。
因為電路計算時?1對應的是加密值?0和?1,為了標識出解密?2的加密值時需要使用的是哪個部分,需要對?0和?1附加乙個指標位元?,用來告知重構各個 子秘密的參與者使用?2的哪一部分進行解密,可以實現約定當指標位元?=0時,使用?2的左半部分,當?=1時,使用?2的右半部分。
為了掩蓋各個資料塊的順序,再產生乙個隨機的翻轉位元?,用於打亂資料塊的順序。如當?=0時,保持原來順序,當?=1時,將一二兩行和三四兩行進行對調。
對於gess方案來說,導線?2的輸入長度是?1長度的兩倍,當電路深度增加時,導線的輸入會越來越長。為了降低輸入長度,可以根據or門和and門的特性進行優化。先觀察與門的真值表,如下圖所示:可以看到與門的輸出導線?3的結果中有三個相同,即?00=?01=?10。
因此導線?2對應的加密值有多行的值相同,統一用?00代替,可以得到:
可以看到當導線?2的輸入的左側都相等,因此?2的輸入左側只需要一?0⨁?00即可,以此來降低資料量。同理,對於或門也可以進行類似的替代,以降低資料量。or門的真值表如下圖所示: 統一使用?01進行代替,可得:
可以看到當導線?2的輸入右側部分只需要一組?1⨁?01,可以直接使用一組?1⨁?01來作為導線?2的右側輸入,以此來降低資料量。
資訊理論 資訊的度量
概述 資訊使用來消除不確定性的東西 資訊不等於訊息,訊息只是資訊的載體 度量 資訊的大小是由資訊消除的不確定性的大小決定的 中國男子桌球隊獲得冠軍與中國男子足球隊獲得冠軍的資訊量完全不同 事件1的不確定性為i p1 p1為事件1的先驗概率 資訊a消除的不確定性為i p2 則獲取資訊a後事件1的不確定...
資訊理論 資訊量的計算
夏農定義,乙個事件包含資訊量的大小由這個事件消除了多少不確定性決定 計算得出的資訊稱為 shannon information content 資訊量在某些情況下是可加的,比如 得知乙個六面骰子投擲三次的結果所包含的資訊量,是得知投擲一次的結果的三倍 用數學表達的話,可以假設可能的結果為 r 投擲一...
資訊理論中的各種熵
本文簡單介紹了資訊理論中的各種熵,包括自資訊 熵 聯合熵 條件熵 互資訊 kl散度 交叉熵。並在最後用資訊理論中的交叉熵推導了邏輯回歸,得到了和最大似然法相同的結果。熵是資訊的關鍵度量,通常指一條資訊中需要傳輸或者儲存乙個訊號的平均位元數。熵衡量了 隨機變數的不確定度,不確定性越大熵越大。針對隨機變...