Linear Vector Spaces - Part 2
18 October 2020
dot producthilbert spaceinner productvector
Vector များပေါင်းခြင်းနှင့် scalar ဖြင့်မြှောက်ခြင်း
Vector တွေကိုပေါင်းဖို့ အရိုးရှင်းဆုံးနည်းလ မ်းက သူတို့ရဲ့ component အသီးသီးပေါင်းတာပါပဲ။ သင်္ချာပုံစံနဲ့ရေးရင်−
r=[r1r2](ij)s=[s1s2](ij)r+s=[r1+s1r2+s2](ij)
ဒါက physical vector တွေအတွက် geometrical နည်းဖြစ်တဲ့ မြားဖင်နဲ့ မြားခေါင်းဆက်ပြီး ပေါင်းတဲ့ရလဒ် နဲ့အတူတူပါပဲ။ ဒါပေမယ့်ဒီနည်းက 3D ထက်ပိုတဲ့ vector တွေအတွက်ပါ အဆင်ပြေပါတယ်။
Scalar နဲ့မြှောက်တာကလည်း ရှင်းပါတယ်။ Vector ရဲ့ component တွေအကုန်လုံးကို လိုက်မြှောက်လိုက်ရုံပါပဲ။ Geometry အမြင်အရ ဆိုရင်တော့ vector ကို ဆွဲဆန့်လိုက်တာဖြစ်ပါတယ်။
2r=[2r12r2](ij)
Complex vectors
Vector ရဲ့ component တွေက real number တွေမဟုတ်ပဲ complex number တွေဖြစ်နေရင်လည်း ဒီသဘောတရားအတိုင်းပါပဲ။ Complex number တွေကလည်း scalar ကိန်းတွေပဲဖြစ်တဲ့အတွက် ပုံမှန် scalar မြှောက်ခြင်းဥပဒေဿတွေကို လိုက်နာပါတယ်။ ဥပမာ basis vector i,j ကို complex space မှာ define လုပ်လိုက်ရင်−
i=(1+0i0),j=(01+0i)r=(1+2i)i+(3+4i)j2r=(2+4i)i+(6+8i)j
ဒီဥပမာမှာ i,j က အရင်အတိုင်း x နဲ့ y real axis ပေါ်မှာရှိပြီးတော့ vector က complex component တွေဖြစ်သွားတာပဲရှိပါတယ်။ နောက်ထပ်ဥပမာတစ်ခုအနေနဲ့ complex unit vector နှစ်ခု e1,e2 ကို အောက်မှာပြထားပါတယ်။
e1=21(1i),e2=21(1−i)
ဒီ {e1,e2} က orthonormal basis တစ်ခုဖြစ်ကြောင်းကို သူတို့ရဲ့ dot product ကိုသုံးပြီး သက်သေပြလို့ရပါတယ်။
Inner product/Dot product
Dot product ဆိုတာ vector နှစ်ခုပါဝင်တဲ့ မြှောက်လဒ်လိုမျိုး တွက်ချက်မှုတစ်ခုဖြစ်ပါတယ်။ Vector နှစ်ခု r=r1i+r2j နဲ့ s=s1i+s2j တို့ရဲ့ dot product ကိုရှာချင်ရင်−
r⋅s=(r1i+r2j)⋅(s1i+s2j)=(r1i⋅s1i)+(r2j⋅s1i)+(r1i⋅s2j)+(r2j⋅s2j)=r1s1i⋅i+r2s1j⋅i+r1s2i⋅j+r2s2j⋅j=r1s1+r2s2
ဒုတိယလိုင်းနဲ့ တတိယလိုင်းမှာ dot product ကို linear ဖြစ်တယ်လို့ယူဆပြီး ဖြန့်ဝေရဂုဏ်သတ္တိကိုအသုံးချထားတာဖြစ်ပါတယ်။ တတိယလိုင်းမှာ i⋅i=1 နဲ့ i⋅j=0 ကိုသုံးထားတာဖြစ်ပါတယ်။ ယေဘူယျပြောရင်−
r⋅s=r1s1+r2s2+⋯+rnsn=i=1∑nrisi
ဒီနေရာမှာတစ်ခုရှိတာက အပေါ်က dot product/inner product ရဲ့ ဖွင့်ဆိုချက်က real vector (component တွေက ကိန်းစစ်တွေပဲပါတဲ့ vector) တွေအတွက်သာဖြစ်ပြီး complex vector တွေအတွက်ဆိုရင် dot product အရှေ့က vector ကို complex conjugate လုပ်ရပါတယ်။ Complex conjugate ဆိုတာ complex number ရဲ့ complex component ကို လက္ခဏာပြောင်းထားတာပါ။ ဥပမာ a=1+2i ရဲ့ complex conjugate က a∗=1−2i ဖြစ်ပါတယ်။ Real number တွေအတွက် complex component က 0 ဖြစ်တဲ့အတွက် ဒီလိုလုပ်စရာမလိုပါဘူး။ ဒီတော့ ယေဘူယျအားဖြင့်ဆိုရင်−
r⋅s=r1∗s1+r2∗s2+⋯+rn∗sn=i=1∑nri∗si
Matrix ပုံစံနဲ့ဆိုရင်−
r⋅s=[r1∗r2∗…rn∗]⎝⎛s1s2⋮sn⎠⎞=(r∗)Ts
ဘာလို့ complex vector တွေအတွက် dot product ကို complex conjugate သုံးရသလဲဆိုရင် vector ရဲ့ အလျား (norm) ကိုသတ်မှတ်တဲ့အခါ ကိန်းစစ်အပေါင်းကိန်း (positive real number) ရအောင်လို့လို့ အလွယ်မှတ်လို့ရပါတယ်။
Vector နှစ်ခုရဲ့ dot product က scalar တန်ဖိုးကိုပေးတဲ့အတွက် scalar product လို့လည်းခေါ်ပါတယ်။ Geometry နည်းအရတော့ r⋅s က r ရဲ့ အလျားနဲ့ r နဲ့အပြိုင်ရှိတဲ့ s ရဲ့ component (projected length) တို့မြှောက်လဒ်ဖြစ်ပါတယ်။ တစ်နည်းပြောရရင် r ရဲ့အလျားကို ∣s∣cosθ နဲ့ scale လုပ်ထားတာဖြစ်ပါတယ်။
r⋅s=∥r∥∥s∥cosθ=i=1∑nrisi
Vector တစ်ခုကိုသူကိုယ်တိုင်နဲ့ dot product လုပ်လိုက်ရင် component တွေကိုနှစ်ထပ်တင်ပြီးပေါင်းလဒ်ကို ရပါတယ်။ ပိုက်သာဂိုးရပ်သီအိုရမ်အရ ဒီပေါင်းလဒ်ကို square root ယူလိုက်ရင် vector ရဲ့ geometric အလျားကိုရပါတယ်။ ဒီအလျားဖွင့်ဆိုချက်ကို vector ရဲ့ Euclidean norm (သို့) L2 norm လို့လည်းခေါ်ပါတယ်။
r⋅r=∥r∥2=i=1∑nri2∥r∥=r⋅r=r12+r22+⋯+rn2
တကယ်လို့ r က complex vector ဖြစ်မယ်ဆိုရင် r⋅r=∥r∥2=∑i=1nri∗ri ဆိုပြီးတွက်ရပါမယ်။ ဒါမှသာ norm က positive real number ကိုရမှာဖြစ်ပါတယ်။
Dot product က vector နှစ်ခုရဲ့ တစ်ခုပေါ်တစ်ခု scaled projection ပမာဏကို ပြတဲ့အတွက် ထောင့်မှန်ကျတဲ့ vector နှစ်ခုကို dot product ယူလိုက်ရင် zero ရပါလိမ့်မယ် (cos90=0)။ ပြောင်းပြန်ဆိုရင် zero dot product ဆိုရင် vector နှစ်ခု ထောင့်မှန်ကျတယ် (orthogonal) လို့ ပြောလို့ရပါတယ်။ ဥပမာ i နဲ့ j ဆိုရင်−
i⋅j=(10)T(01)=[10](01)=1×0+0×1=0
i ကို သူကိုယ်တိုင်နဲ့ dot product ယူရင်−
i⋅i=[10](10)=1×1+0×0=1
အပေါ်က complex vector နှစ်ခု e1 နဲ့ e2 ရဲ့ dot product ကိုရှာရင်−
e1⋅e2=21[1−i](1−i)=21(1−1)=0
e1 ကို သူကိုယ်တိုင်နဲ့ dot product ယူရင်−
e1⋅e1=21[1−i](1i)=21(1+1)=1
Vector space တစ်ခုမှာ dimension ဘယ်နှစ်ခုရှိလဲ (dimensionality) ဆိုတာကို အချင်းချင်းထောင့်မှန်ကျတဲ့ orthonormal vector (သို့) basis vector ဘယ်နှစ်ခုရှိလဲဆိုတာနဲ့ သတ်မှတ်ပါတယ်။ ဥပမာ orthonormal basis vector နှစ်ခုရှိတယ်ဆိုရင် 2D space (planar) ဖြစ်ပါတယ်။ Euclidean space မှာ basis vector က သုံးခုအထိပဲရှိနိုင်ပေမယ့် abstract vector မှာတော့ ရှေ့မှာပြောခဲ့သလို ကြိုက်သလောက်ရှိလို့ရပါတယ်။ n-dimensional real vector တစ်ခုကို n အရေအတွက်ရှိတဲ့ ကိန်းစစ်တွေနဲ့ဖော်ပြလို့ရတဲ့အတွက် Rn space ထဲမှာရှိတယ်၊ (r∈Rn) လို့ပြောလေ့ရှိပါတယ်။ ဒီလိုပဲ n -dimensional complex vector space တစ်ခုကို Cn လို့ခေါ်နိုင်ပါတယ်။ Euclidean space R3 ကို generalize လုပ်ထားတဲ့ Cn vector space တွေကို Hilbert space လို့လည်းခေါ်ပါတယ်။
Vector တစ်ခုကို unit vector တစ်ခုနဲ့ dot product ယူလိုက်ရင် အဲ့ဒီ့ vector ရဲ့ unit vector လားရာမှာရှိတဲ့ component ကိုရပါတယ် (scale factor က 1 ဖြစ်လို့)။ ဒီတော့ vector နဲ့ basis vector တစ်ခုစီနဲ့ dot product လုပ်ပြီးတော့ အဲ့ဒီ့ basis မှာရှိတဲ့ component တွေကိုရှာလို့ရပါတယ်။
r=r1i+r2j=(r⋅i)i+(r⋅j)j=(r⋅i′)i′+(r⋅j′)j′
ဥပမာတစ်ခုအနေနဲ့ အောက်ကပုံထဲကအတိုင်း {i,j} basis ကနေ {i′,j′} ကိုပြောင်းတာကို ပြထားပါတယ်။
ii′=(10),=(cos45sin45),=21(11),jj′=(01)=(−cos45sin45)=21(−11)r=2i+3j=(r⋅i′)i′+(r⋅j′)j′=21[23](11)i′+21[23](−11)j′=25i′+21j′
Vector တစ်ခုနဲ့တစ်ခု ဆက်သွယ်ချက် (relation) တွေက ဘယ် basis ကနေတွက်တွက် အဖြေမှန်ပါတယ်။ ဒါပေမယ့် တစ်ချို့ basis တွေမှာ တွက်ရတာပိုလွယ်တဲ့အတွက် basis transformation တွေက အရေးပါတာဖြစ်ပါတယ်။
References
- Basic Training in Mathematics (R. Shankar)
- Elementary Linear Algebra (K. R. Matthews)
- https://en.wikipedia.org/wiki/Hilbert_space