Nonperturbative loopiness

作文練習帳

【個人用備忘録】QCQI Ch. 12 その1 【No-cloning theorem, Holevo's bound】

文献はもちろん M. A. Nielsen, I. L. Chuang, "Quantum Computation and Quantum Information" (2nd ed.), Cambridge University Press (2010) です. この手の解説は無限にあると思うし,なんなら古い教科書なので最近の発展を一切含まない話なので,私以外の人にとってはこれを読む価値は全くないのですが,アウトプットしようと思わないとすべてを忘れて何も残らない (超重要) ので,ブログに残しておきます.その1は12.1節しかcoverしていません.

No-cloning Theorem

みんな大好きno-cloning theoremです.生まれた時から知っていました (自明な嘘).名前だけ聞くと量子状態はコピーできないのかなという気分になりますが,正確なstatementは,

直交しない2つの状態をコピーできるunitary操作は存在しない より正確に言うと, 任意の直交しない2つの非ゼロの状態   | \psi \rangle,  | \phi \rangle について,(1)   U  | \psi \rangle | 0 \rangle =  | \psi \rangle | \psi \rangle と (2)   U  | \phi \rangle | 0 \rangle =  | \phi \rangle | \phi \rangle の (1), (2) を満たすようなunitary演算子   U は存在しない (   | 0 \rangle は適当な状態).

というものです.これの証明は簡単 (そのようなunitary operationが存在すると思ったときに,ノルムが保存しないから矛盾って言うだけ).注意として,コピーしたい状態を既に知っているならば無限にコピーできるし,コピーしたい状態が例えば「  | 0 \rangle ,  | 1 \rangle のどちらかだ」,と知っているときにも可能です.じゃないとCNOT gateとかアウトですからね *1

これのcorollaryとして,

すべての状態をコピーできるunitary操作は存在しない

が言えます.たぶんこっちが有名.

Holevo’s bound

直交していない状態を完全に区別することができないのは有名ですが,「測定によって状態についてどこまで引き出すことが出来るのか」を定量化したものがHolevo's boundです.

setup

確率  p_x で状態  \rho_x なるものが送られてくるとき,その状態を測定して,送られてきた状態がどの  x かを判別したい.

Holevo’s boundは,「測定によって,どこまで知ることができるか」ということについてupperboundを与えるものです. 「測定結果  Y から,状態のラベル  X について,どこまで知ることができるか」を定量化するために,相互情報量 (mutual information, accessible information)  H(X;Y) を定義します.*2 *3

 H(X;Y) := H(X) + H(Y) - H(X,Y)

statement

上記のsetupのもとで,次の不等式が成り立ちます  H(X;Y) \leq S(\rho) - \sum_x p_x S(\rho_x)

ここで  \rho = \sum_x p_x \rho_x *4

この右辺はHolevo χ quantityと呼ばれる量で,量子情報のいろんなところで出てくる量です.

 \chi:= S(\rho) - \sum_x p_x S(\rho_x)

この不等式の右辺がYによっていない (どんな測定をするかによらない) ことが大事で,これにより「どんな測定をしたとしても,得られる情報量はHolevo χ quantityで抑えられてしまう」ことが言えます.

証明はしません.軽いメモという名目なので ブログに書くのがだるいので.測定結果を格納するancilla systemを加えて,quantum mutual informationをstraightforwardに計算すればできた気がします.

直感を養う

statementを述べただけでは「へーそうなんだー」で終わるので直感を養うためにいくつかコメントを加えます.

  • von Neumann entropyについて,次の不等式が知られています.(Nielsen-Chuang, Theorem 11.10)

 S(\rho) - \sum_x p_x S(\rho_x) \leq H({ p_x }) = H(X) 等号成立は  \rho_x たちがorthogonal supportを持つとき (pure stateなら,状態が直交しているとき)

この不等式とHolevo boundを合わせると, H(X;Y) \leq H(X) が得られます.

そして等号成立の可能性は, \rho_x たちがorthogonal supportを持つときに限られます.これはとても直感的で,accessible informationが最大 ( H(X;Y) = H(X) ) のとき,「Yを知った後にものこるXの不確かさ」  H(X|Y) がゼロになります. この時は,Yが分かればXが完全にわかる,つまり測定から状態の区別ができる,ということになり,それが可能なのは状態が互いに直交している場合に限られるので,この等号成立条件は常識とconsistentになっています.

  • 古典的な確率論の話で,確率変数Xから確率変数Yをどれくらいうまく推測できるか,ということに関して,conditional entropyを使った次の不等式が知られています.

Fano不等式

YからのXのguessを  f(Y) と書き,それが外れている確率を  p_e := P(X \neq f(Y)) と書きます.このerror probabilityとconditional entropyについて,次の不等式が成り立ちます.  H(p_e) + p_e \log_2 (|X| -1) \geq H(X|Y) ,

ここで1項目はbinary entropy, 2項目の  |X| はXの要素の数です.

証明はしません.具体例であそんでみると分かるのですが,これはerror probabilityについて,ある種のlower boundを与えています.「Yを知った後にものこるXの不確かさ」  H(X|Y) がそれなりにあると,全然正しいguessができないというのはそれはそうという感じです.

自明な変形ですが,次のようにも書き換えられます.  H(p_e) + p_e \log_2 (|X| -1) \geq H(X) - H(X;Y) \geq H(X) - \chi

ここから,次のような気持ちが得られて気持ち良くなれます:

χが小さい ↔ accessible information  H(X;Y)大きくできる ↔ 正しいguessができる (  p_e小さくできる)

χが大きい ↔ accessible information  H(X;Y)どうしても小さい ↔ 正しいguessができない (  p_e小さくできない)

下書きを抱え込むと永遠にアウトプットしない (超重要) ので,その1はここで区切ります.そのうちその2を書きます.

*1:00 -> 00, 01 -> 11とかやるので,control bitをある種コピーしている

*2: この記事では  H(\cdot) で古典Shannonエントロピー S(\cdot) でvon Neumannエントロピーを表すこととします.

*3:なぜこの量が「  Y から,  X について,どこまで知ることができるか」を定量化するのか,ということについては,conditional entropyに書き直すと分かりやすいです.

 H(X;Y) := H(X) - H(X|Y)

これは,   H(X) は「もとからあるXの不確かさ」を,   H(X|Y) は「Yを知った後にものこるXの不確かさ」を定量化するものなので,その差分は「Yを知ったことで,不確かさがどれだけ削減されたか」を意味します.これはまさに,「Yを知ったことで,Xについてどれだけ分かったか」を測る量となっています.

*4:  \rho = \sum_x p_x \rho_x は 確率  p_x で状態  \rho_x を古典的に重ね合わせた状態なので,まさに測定する前の量子状態がこれ