Nesne

3.7: Çoklu Özdeğerler


Bir matrisin bazı "tekrarlanan" özdeğerlere sahip olması çok iyi olabilir. Yani, karakteristik denklem (det(A-lambda I)=0) tekrarlanan köklere sahip olabilir. Daha önce de söylediğimiz gibi, bunun rastgele bir matris için gerçekleşmesi pek olası değildir. (A)'nın küçük bir pertürbasyonunu alırsak ((A) girişlerini biraz değiştiririz), o zaman farklı özdeğerleri olan bir matris elde ederiz. Pratikte çözmek isteyeceğimiz herhangi bir sistem zaten gerçeğe bir yaklaşım olduğundan, bu köşe vakalarının nasıl çözüleceğini bilmek vazgeçilmez değildir. Bazen böyle bir sistemi doğrudan çözmenin daha kolay veya arzu edilir olduğu durumlar olabilir.

3.7.1 Geometrik çokluk

köşegen matrisi al

[ A = egin{bmatrix}3&0&3 end{bmatrix} ]

(A) çokluk 2'nin bir özdeğeri 3'e sahiptir. Karakteristik denklemde özdeğerin çokluğuna cebirsel çokluk diyoruz. Bu durumda, aynı zamanda, (egin{bmatrix}1 end{bmatrix}) ve (egin{bmatrix} 01 end{bmatrix}) olmak üzere doğrusal olarak bağımsız 2 özvektör de vardır. özdeğer 3'e. Bu, bu özdeğerin sözde geometrik çokluğu da 2 olduğu anlamına gelir.

(n) farklı özdeğerlere sahip bir matrise ihtiyaç duyduğumuz tüm teoremlerde, gerçekten sadece (n) lineer bağımsız özvektörlere ihtiyacımız vardı. Örneğin, (vec{x} = A vec{x} ) genel çözümüne sahiptir

[vec{x} = c_1 egin{bmatrix} 1 end{bmatrix} e^{3t} + c_2 egin{bmatrix} 01 end{bmatrix} e^{3t}. ]

Gerçek özdeğerlerle ilgili teoremi yeniden ifade edelim. Aşağıdaki teoremde özdeğerleri (cebirsel) çokluğa göre tekrarlayacağız. Dolayısıyla yukarıdaki (A) matrisi için 3 ve 3 özdeğerlerine sahip olduğunu söyleyebiliriz.

Teorem 3.7.1. ( vec{x} = P vec{x} ) alın. Diyelim ki P matrisi (n imes n ), n tane gerçek özdeğere sahip (mutlaka farklı değil), ( lambda_1, cdots, lambda_n ) ve (n) lineer bağımsız karşılık gelen özvektörler( vec{v_1}, cdots, vec{v_n} ). Daha sonra ODE'nin genel çözümü şu şekilde yazılabilir:

[vec{x}=c_1vec{v_1}e^{lambda_1 t} + c_2 vec{v_2}e^{lambda_2 t} + cdot + c_n vec{v_n}e^{lambda_n T} ]

Cebirsel çokluğun bir özdeğerinin geometrik çokluğu n, karşılık gelen lineer bağımsız özvektörlerin sayısına eşittir. Geometrik çokluk her zaman cebirsel çokluğa eşit veya ondan küçüktür. Bu iki çokluğun eşit olduğu durumu ele aldık. Geometrik çokluk cebirsel çokluğa eşitse özdeğer tamdır deriz.

Başka bir deyişle, teoremin hipotezi, eğer P'nin tüm özdeğerleri tam ise, o zaman lineer olarak bağımsız n tane özvektör vardır ve bu nedenle verilen genel çözüme sahip olduğumuz şeklinde ifade edilebilir.

Bir özdeğerin geometrik çokluğu 2 veya daha büyükse, o zaman lineer bağımsız özvektörler seti, daha önce olduğu gibi katlara kadar benzersiz değildir. Örneğin, köşegen matrisi (A = egin{bmatrix} 3&0 0&3 end{bmatrix} ) için ayrıca özvektörler de seçebiliriz (egin{bmatrix} 11 end{bmatrix} ) ve ( egin{bmatrix} 1-1 end{bmatrix} ) veya aslında herhangi bir lineer bağımsız vektör çifti. (lambda)'ya karşılık gelen lineer bağımsız özvektörlerin sayısı, (Avec{v} = lambda vec{v} ) çözerken elde ettiğimiz serbest değişkenlerin sayısıdır. Özvektörleri elde etmek için bu serbest değişkenler için belirli değerler seçiyoruz. Farklı değerler seçerseniz, farklı özvektörler elde edebilirsiniz.

3.7.2 Arızalı özdeğerler

Bir (n imes n) matrisinin n'den az lineer bağımsız özvektörü varsa, eksik olduğu söylenir. O zaman geometrik çokluğundan daha yüksek bir cebirsel çokluğu olan en az bir özdeğer vardır. Bu özdeğere kusurlu diyoruz ve iki çokluk arasındaki farka kusur diyoruz.

Örnek 3.7.1

matris

[ egin{bmatrix} 3&1&3 end{bmatrix} ]

cebirsel çokluk 2'nin bir öz değeri 3'e sahiptir. Özvektörleri hesaplamaya çalışalım.

[ egin{bmatrix} 0&1&0 end{bmatrix} egin{bmatrix} v_1v_2 end{bmatrix} = vec{0} ]

Çözüm

Buna ( v_2 = 0 ) sahip olmalıyız. Dolayısıyla herhangi bir özvektör (egin{bmatrix} v_1 0 end{bmatrix} ) biçimindedir. Bu tür herhangi iki vektör lineer olarak bağımlıdır ve dolayısıyla özdeğerin geometrik çokluğu 1'dir. Bu nedenle, kusur 1'dir ve artık özdeğer yöntemini böyle bir katsayı matrisine sahip bir ODE sistemine doğrudan uygulayamayız.

Burada kullanacağımız temel gözlem, eğer (lambda) cebirsel çokluğun (m) (A) özdeğeriyse, o zaman (m) lineer bağımsız vektörleri çözebileceğiz. denklemi ( (A - lambda I)^m vec{v} = vec{0} ). Bunlara genelleştirilmiş özvektörler diyeceğiz.

( A = egin{bmatrix} 3&1 0&3 end{bmatrix} ) örneği ve (vec{x} = A vec{x} ) denklemiyle devam edelim. (cebirsel) çokluk 2 ve kusur 1'in bir özdeğeri (lambda =3) var. Bir özvektör bulduk (vec{v_1} = egin{bmatrix} 1 0 end{bmatrix} ). çözüm bizde

[vec{x_1} = vec{v_1} e^{3t} ]

Bu durumda, formun başka bir çözümünü deneyelim (tek bir denklem için karakteristik denklemin tekrarlanan kökleri ruhuyla)

[ vec{x_2} = ( vec{v_2} + vec{v_1} t ) e^{3t} ]

Almak için farklılaştık


(vec{x_2}) öğesinin bir çözüm olduğunu varsaydığımız için, (vec{x_2}' ) (Avec{x_2} ) ve ( vec{x_2}' değerine eşit olmalıdır. = vec{v_1} e^{3t} + 3(vec{v_2} + vec{v_1}t)e^{3t} =(3vec{v_2}+vec{v_1})e^{ 3t} + 3vec{v_1}te^{3t} )


[ A vec{x_2} = A(vec{v_2} + vec{v_1}t)e^{3t} = Avec{v_2}e^{3t} + Avec{v_1}te^ {3t} ]

(e^{3t})ve (te^{3t} ) katsayılarına bakarak (3vec{v_2} + vec{v_1} = Avec{v_2} ) görüyoruz. ve (3vec{v_1} = Avec{v_1} ). Bu şu demek

[(A- 3I)vec{v_2} = vec{v_1} { m{~ve~}} (A - 3I)vec{v_1} = vec{0} ]

Bu nedenle, (vec{x_2} ) bu iki denklem sağlanırsa bir çözümdür. (vec{v_1} ) bir özvektör olduğundan, bu iki denklemden ikincisinin sağlandığını biliyoruz. İlk denklemi ikinciye bağlarsak, elde ederiz

[ (A - 3I )(A - 3I)vec{v_2} = vec{0} { m{~veya~}} (A - 3I)^2vec{v_2} = vec{0} ]

Bu nedenle, ( (A -3I)^2 vec{v_2} = vec{0} ) çözen bir ( vec{v_2} ) bulabilirsek ve öyle ki ( (A-3I) ) vec{v_2} = vec{v_1} ), sonra işimiz bitti. Bu sadece çözülmesi gereken bir grup lineer denklem ve şimdiye kadar bunda çok iyiyiz.

Bu basit durumda ((A-3I)^2 )'nin sadece sıfır matrisi (alıştırma) olduğunu fark ettik. Dolayısıyla, herhangi bir (vec{v_2} ) vektörü ( (A-3I)^2 vec{v_2} = vec{0} )'i çözer. Sadece ( (A-3I)vec{v_2}=vec{v_1} ) olduğundan emin olmalıyız. Yazmak

[ egin{bmatrix} 0&1 0&0 end{bmatrix} egin{bmatrix}a end{bmatrix} = egin{bmatrix} 1 end{bmatrix} ]

İncelemeyle (alpha = 0) ((alpha)'ya izin vermenin aslında herhangi bir şey olabileceğini) ve (b=1)'nin işi yaptığını görüyoruz. Dolayısıyla ( vec{v_2}=egin{bmatrix} 01 end{bmatrix} ) alabiliriz. (vec{x}' = A vec{x} ) için genel çözümümüz şudur:

( vec{x} = c_1 egin{bmatrix}1 end{bmatrix}e^{3t} + c_2(egin{bmatrix}01 end{bmatrix} + egin{bmatrix }1 end{bmatrix}t ) e ^{3t} = egin{bmatrix} c_1 e^{3t} + c_2 te^{3t} c_2e^{3t} end{bmatrix} )

Çözümün gerçekten elimizde olup olmadığını kontrol edelim. İlk (vec{x_1}' = c_1 3e^{3t} + c_2e^{3t} 3c_2te^{3t} = 3x_1 + x_2 ). İyi. Şimdi ( vec{x_2}' = 3c_2e^{3t} = 3x_2 ). İyi.

( vec{x}' = A vec{x} ) sisteminin daha basit bir çözümü olduğuna dikkat edin, çünkü (A) üst üçgen matris olarak adlandırılır, yani köşegenin altındaki her giriş sıfırdır. Özellikle, ( x_2 ) denklemi (x_1) öğesine bağlı değildir. Dikkat edin, her kusurlu matris üçgen değildir.

Egzersiz 3.7.1

( vec{x}' = egin{bmatrix} 3&1 0&3 end{bmatrix} vec{x} )'yi önce (x_2) ve sonra ( x_1 ) için bağımsız olarak çözerek çözün. Yukarıda yaptığımızla aynı çözümü aldığınızı kontrol edin.

Genel algoritmayı tanımlayalım. (lambda )'nin çokluk 2, kusur 1'in bir özdeğeri olduğunu varsayalım. Önce ( lambda)'nın bir (vec{v_1} ) özvektörünü bulun. Ardından, öyle bir ( vec{v_2} ) vektörü bulun:

[ (A - lambda I)^2 vec{v_2} = vec{0} (A - lambda I) vec{v_2} = vec{v_1} ]

Bu bize iki lineer bağımsız çözüm verir

[ vec(x_1) = vec{v_1} e^{lambda t} vec(x_2) = (vec{v_2} + vec{v_1} t )e^(lambda t ) ]

Bu makine aynı zamanda daha yüksek çeşitliliklere ve daha yüksek kusurlara genelleştirilebilir. Bu yöntemi ayrıntılı olarak ele almayacağız, sadece fikirlerin taslağını yapalım. A'nın m çokluğuna sahip bir ( lambda ) özdeğerine sahip olduğunu varsayalım. öyle vektörler buluruz ki

[ (A - lambda I ) ^k vec(v) = vec(0) { m{~ama~}} (A - lambda I )^{k-1} vec{v} neq vec{0} ]

Bu tür vektörlere genelleştirilmiş özvektörler denir. Her bir (vec{v}_{1} ) için, ( vec{v}_{2} ) ile (vec{v}_{k} ) arasında bir genelleştirilmiş özvektörler zinciri buluruz. o:

[ (A - lambda I) vec{v_1} = vec{0}, (A - lambda I)vec{v_2} = vec{v_1}, vdots (A - lambda I )vec{v_k} = vec{v_{k-1}}. ]

Lineer bağımsız çözümler oluşturuyoruz

[ vec{x_1} = vec{v_1} e^{lambda t} ]

[ vec{x_2} = ( vec{v_2} + vec{v_1} t) e^{lambda t } ]

[ vnoktalar ]

[ vec{x_k} = left( vec{v_k}+ vec{v}_{k-1} t + vec{v}_{k-2} frac{t^2}{2 } + cdots + vec{v}_{2} frac{t^{k-2}}{(k-2)!} + vec{v}_{1}frac{t^{k -1}}{(k-1)!} ) e^{lambda t} sağ) ]

( k! = 1 cdot 2 cdot 3 cdots (k-1) cdot k )'nin faktöriyel olduğunu hatırlayın. ( m ) lineer bağımsız çözümler (( m ) çokluktur) oluşturana kadar zincirleri bulmaya devam ederiz. Her özdeğer için birkaç zincir bulmanız gerekebilir.


$A$'ın determinantının özdeğerlerinin çarpımına eşit olduğunu gösteriniz.

$A$ matrisinin determinantının, onun özdeğerlerinin $lambda_i$ çarpımına eşit olduğunu gösterin.

Bu yüzden bunu anlamakta zorlanıyorum. $det(A-lambda I)$ matrisinin karakteristik polinomuyla çalışmam gerektiğini biliyorum. Ancak, bir $n imes n$ matrisi düşünüldüğünde, ispatı nasıl çözeceğimi bilmiyorum. Herhangi bir $n imes n$ matrisi için determinant formülünü kullanmalı mıyım? Sanmıyorum, çünkü bu oldukça karmaşık. Herhangi bir içgörü harika olurdu.


FAKTOR ANALİZİ

Öyleyse 14 değişkenimiz daha az gizli değişken (faktör) olarak tanımlanabilir mi? Hadi öğrenelim ama önce gerekli paketi kurup import etmemiz gerekiyor.

Kaç faktöre ihtiyacımız olduğunu bulmak için, bir faktörün değişkenlerin varyansının ne kadarını açıkladığının bir ölçüsü olan özdeğerlere bakabiliriz. Birden fazla özdeğer, faktörün benzersiz bir değişkenden daha fazla varyansı açıkladığı anlamına gelir. 2.5 özdeğeri, faktörün 2.5 değişkenin varyansını açıklayacağı anlamına gelir, vb.

3. faktörden sonra özdeğerdeki büyük düşüş göz önüne alındığında, burada sadece 3 faktör kullanacağız. Bu faktörlerin 3.7, 2.3 ve 2.1 öz değerleri vardır, yani yaklaşık 8.1 değişkenin varyansını tanımlarlar.

FactorAnalyzer işlevi, döndürme türünün yanı sıra istediğimiz faktör sayısını belirttiğimiz yerdir. Basitçe söylemek gerekirse, döndürme fikri, daha basit ve daha yorumlanabilir bir yapı elde etmek için faktörleri döndürmektir. Birçok rotasyon türü vardır. Aşağıda, kare yüklerin varyansının toplamını maksimize ederken oluşturulan faktörlerin korelasyonlu olmamasını (ortogonallik) sağlayan varimax döndürmeyi kullanacağım. Hangi faktörlerin yaratıldığını görelim.

Bir faktör yükü ne kadar yüksekse, söz konusu faktör için bir değişken o kadar önemlidir. Burada 0,5'lik bir yükleme sınırı kullanılacaktır. Bu kesme, hangi değişkenlerin hangi faktöre ait olduğunu belirler. Örneğin, birinci faktörün 5, 7, 8 ve 14 değişkenlerini içerdiğini görüyoruz (sırasıyla 0.75, 0.78, 0.74 ve 0.85 yükleri).

İşte oluşturulan 3 faktör, içerdikleri değişkenler ve olası "yorumlanabilirlikleri":

  1. Konfor: Yeme-İçme, Koltuk konforu, Uçak içi eğlence, Temizlik
  2. Hizmet: Uçak İçi Servis, Bagaj Taşıma, Uçak İçi Servis
  3. Kolaylık: Uçakta Wifi, Kalkış/Varış saati kolaylığı, Online Rezervasyon, Kapı Konumu.

Şimdi, bu harika, ama faktörlerimizin iyi olup olmadığını nasıl bileceğiz? Bir faktörün değişkenlerinin “tutarlı” ve güvenilir bir faktör oluşturup oluşturmadığını ölçmek için Cronbach alfa kullanılabilir. Alfa için 0,6'nın üzerindeki bir değer, uygulamada kabul edilebilir sayılır. İşte pingouin paketini kullanarak Cronbach alfa'yı almak için kod.

Alfalar 0.87, 0.79 ve 0.76 olarak değerlendirilir, bu da kullanışlı ve tutarlı olduklarını gösterir. Bu yeni faktörleri başka bir analiz veya tahmin için değişken olarak kullanabiliriz. Faktörleri tüm veri çerçevesine uygulamak ve 14 değişkenin yerine kullanılabilecek 3 yeni değişken oluşturmak için kod burada.


Özdeğerler ve özvektörler - MCQ Testi - 1

Matrisin özdeğerlerinin toplamını bulun

Özdeğerlerin özelliğine göre, bir matrisin özdeğerlerinin toplamı, ana köşegenin elemanlarının toplamı olan izidir.
Dolayısıyla özdeğerlerin toplamı = 3 + 4 + 1 = 8 olur.

Matrisin özdeğerlerini bulun

Özdeğerin özelliğine göre özdeğerler şu şekilde belirlenir:
4 + 4 = 8
1+ 1 = 2
Özdeğerlerin toplamı, matrisin temel köşegen elemanlarının toplamına eşittir.

2 × 2 matris 'ın dört girişinin tümü   sıfır değildir ve öz değerlerinden biri sıfırdır. Aşağıdaki ifadelerden hangisi doğrudur?

Aşağıdaki matrisin öz değerleri,

Matris A olsun. Biliyoruz, İz (A)=öz değerlerin toplamı.

Aşağıdaki A matrisinin üç karakteristik kökü  

A, alt üçgen matristir. Yani öz değerler  yalnızca köşegen elemanlardır. 

Aşağıda verilen matrisin özdeğerlerinin toplamı,

A= iz (A) öz değerlerinin toplamı

Aşağıda verilen matris hangi x değeri için tekil olur?

Verilen matris A olsun. A tekildir.

Bir matrisin öz değerleri    are 5 ve 1. S 2  = SS matrisinin öz değerleri nelerdir?

A ⇒λ'in öz değeri λ ise, 2'nin A 2'nin bir öz değeri olduğunu biliyoruz.

lineer bağımsız özvektörlerinin sayısı

Doğrusal bağımsız vektörlerin sayısı, öz değerlerin Geometrik Çokluğu toplamına eşittir. Burada sadece öz değer 2'dir. Geometrik çokluğu bulmak için (matris-2I)'nin n-r'sini bulun, burada n mertebe ve r ranktır. Elde edilen matrisin rankı 1'dir ve n=2 yani n-r=1 olur. Bu nedenle lineer bağımsız öz vektörlerin sayısı 1'dir.

Matrisin #160 'ın özvektörleri   formunda yazılır  . a + b nedir? 

A = matrisinin özvektörlerinden biri dır-dir

A'nın öz vektörleri AX= &lambda X ile verilir

Yani çarpma ile kontrol edebiliriz.

Matrisin minimum ve maksimum öz değerleri    , sırasıyla 𔃀 ve 6'dır. Diğer öz değer nedir?  

Doğrusal otonom bir sistemin durum değişkeni açıklaması, X= AX,

X'in iki boyutlu durum vektörü ve A'nın sistem matrisi olduğu yerde

Karakteristik denklemin kökleri

Karakteristik denklem :&lambda 2 -4 =0 olacaktır, dolayısıyla karakteristik denklemin kökü +2 ve - 2 olacaktır.

matris için öz değerlerden biri -2'ye eşittir. Aşağıdakilerden hangisi bir öz vektördür?

x=[x1x2…..xn] T, n-tuple sıfır olmayan bir vektördür. n×n matrisi V=xx T    

2. dereceden her minör sıfır olduğundan. 

Cayley - Hamiltion Teoremi, kare matrisin kendi karakteristik denklemini sağladığını belirtir, Bir matris düşünün

Bir (5࡬) matris Q'nun rankı 4 ise, aşağıdaki ifadelerden hangisi doğrudur?  

Q, doğrusal olarak bağımsız dört satıra ve doğrusal olarak bağımsız dört sütuna sahip olacaktır  

Q'nun dört çizgisel bağımsız satırı ve beş çizgisel bağımsız sütunu olacak

Bir matrisin rankı, lineer bağımsız satırın numarasına veya numarasına eşittir. doğrusal olarak  bağımsız sütun vektörünün. 

2 ࡨ matrisinin izi ve determinatı sırasıyla – 2 ve – 35 olarak bilinir. Özdeğerleri  

Aşağıdakilerden hangisinin   matrisinin özvektörü olduğunu belirleyin.

 A'nın öz değeri ol  . Karşılık gelen 

 λ = 1'e karşılık gelen öz vektör olsun


Sabit Dağılımları Bulma

1 özdeğeriyle ilişkili birden fazla özvektör olduğunda, bu tür her bir özvektör, ilişkili bir durağan dağılıma yol açar. Ancak bu, yalnızca Markov zinciri indirgenebilir olduğunda, yani birden çok iletişim sınıfına sahip olduğunda ortaya çıkabilir.

Genetikte, baskın özellikleri tanımlamanın bir yöntemi, bir örneği bilinen bir melezle eşleştirmektir. Onların yavruları bir kez daha bilinen bir melezle eşleştirilir ve bu böyle devam eder. Bu şekilde, belirli bir yavrunun özellik için tamamen baskın, tamamen çekinik veya melez olma olasılığı aşağıdaki tabloda verilmektedir.

Aşağıdaki grafikte verilen durağan geçiş olasılıkları ile 2 durumlu Markov zinciri için durağan bir dağılım bulun:


7.3.2. Özdeğerlere Göre Bir Polinomun Kökleri¶

Analitik köklere ihtiyaç varsa, bkz. Çöz .

Polinom olmayan bir fonksiyonun sayısal köklerini bulmak için, Bir Fonksiyonun Sayısal Köklerine bakın.

Yukarıda gördüğümüz gibi, bir matrisin özdeğerlerini bulmak, karakteristik denklemin determinantının köklerini bulmakla eşdeğerdir. Ancak yukarıda belirtildiği gibi, MATLAB'ın özdeğerleri bulmak için kullandığı algoritma ne bir determinate hesaplar ne de bir polinomun köklerini bulur. Bunun yerine QR Özdeğer Hesaplama Algoritması'nda açıklanan daha hızlı algoritmayı kullanır.

Özdeğerleri hesaplamak için polinom köklerini bulmak yerine, bir polinomun köklerini bulmak, özdeğer algoritmasının bir uygulamasıdır. MATLAB işlevi root() bir polinomun köklerini bu şekilde bulur. Özdeğer algoritmasından yararlanmak için, polinomun köklerine eşdeğer özdeğerlere sahip bir matris akıllıca bulunur.

Bir örnek bunun nasıl çalıştığını göstermelidir. Aşağıdaki polinom denklemini göz önünde bulundurun.

Root() işlevine iletilen argüman, polinomun katsayılarını içeren bir satır vektörüdür.

poly() işlevi,root() işlevinin tersidir:

Root()'un kullandığı algoritma kısa ama oldukça zekidir.

karakteristik denkleminin determinantı ile aynı katsayılara ve dolayısıyla aynı köklere sahiptir. .


Temel Bileşen Analizi Nedir?

Temel Bileşen Analizi veya PCA, büyük bir değişken kümesini, büyük kümedeki bilgilerin çoğunu hala içeren daha küçük bir değişkene dönüştürerek, büyük veri kümelerinin boyutluluğunu azaltmak için sıklıkla kullanılan bir boyutluluk azaltma yöntemidir.

Bir veri kümesinin değişkenlerinin sayısını azaltmak, doğal olarak doğruluk pahasına gelir, ancak boyutsallığı azaltmanın püf noktası, basitlik için biraz doğruluktan ödün vermektir. Çünkü daha küçük veri kümelerinin keşfedilmesi ve görselleştirilmesi daha kolaydır ve işlenecek yabancı değişkenler olmadan makine öğrenimi algoritmaları için verileri analiz etmeyi çok daha kolay ve hızlı hale getirir.

Özetlemek gerekirse, PCA fikri basittir - mümkün olduğunca fazla bilgiyi korurken bir veri kümesinin değişken sayısını azaltın.


5. Deneysel gürültünün etkisi

Deneysel gürültü şu anda mevcut kuantum cihazlarında faydalı hesaplamanın önündeki en büyük engeli teşkil ediyor. Daha önce önerdiğimiz gibi, deneysel gürültü limitleri K böylece devre için güvenilir sonuçlar üretmesi olası değildir. Bununla birlikte, kuantum cihazlarındaki gürültü, hesaplama üzerinde farklı bozucu etkilere sahip olabilen çeşitli tatlarda gelir. Bu bozucu etkilerin bazıları (özellikle sistematik hatalar), gürültü modelinin iyi bilinmesiyle telafi edilebilir. Örneğin, sistemimizin yerine uygulandığını bilseydik, (T + )/T Bu etkiyi kesin olarak ortadan kaldırmak için. Bu çalışmada kendimizi iki tür gürültüyü incelemek ve düzeltmeye çalışmakla sınırladık: depolarize edici gürültü ve süperiletken kübitlerin devre düzeyinde simülasyonları. Gözlenen farklı etkiler göz önüne alındığında, sonuçlarımızı diğer gürültü kanallarına genişletmek, gelecekteki araştırmalar için açık bir yön. Bu bölümde çok turlu QPE üzerinde çalışmayacağız, bu nedenle her deney tek bir turdan oluşur. Tek turlu yöntemin açık bir avantajı, tek ilgili tek döngülü bir deneyde herhangi bir gürültünün etkisi, sistem kübitlerinin sayısından bağımsız olarak, yardımcı kübitin sonucunu değiştirmektir.

5.1. depolarize edici gürültü

Çok basit bir gürültü modeli, her deneyin sonucunun ya bir olasılıkla doğru olduğu, depolarize edici gürültü modelidir. P veya tamamen rastgele bir bit verir. Bu olasılığı bekliyoruz P devre süresine ve dolayısıyla seçimine bağlı k ≥ 0, yani

Bu gürültüyü, tek bir tur için hesaplanan olasılıklara doğrudan uygulayarak simüle edebiliriz.

Şekil 7'de, önceki bölümde kullanılan zaman serisi (mavi) ve Bayesian (yeşil) tahmin edicilerin yakınsamasını, sabit sabitli deney sayısının bir fonksiyonu olarak çiziyoruz. A0 = 0,5 ve δ = 0,5. Her iki tahmincinin de uyduğunu görüyoruz. n Deneyin bir kısmı için −1/2 ölçeklendirme, ancak bu yakınsama kararsız ve kritik bir noktanın ötesinde duruyor.

Şekil 7. Hem gürültü kompanzasyon teknikleri ile hem de bunlar olmadan depolarize edici gürültü ve çoklu özdeğerlerin varlığında Bayesian ve zaman serisi tahmin edicilerinin yakınsaması (metinde açıklanmıştır). Tüm grafikler için sabit parametreler metinde verilmiştir. Gölgeli bölgeler %95'lik bir güven aralığını belirtir (200 QPE simülasyonu üzerinden tahmin edilen veriler). Siyah kesikli çizgi şunları gösterir: n −1/2 yakınsama, örnekleme gürültüsünün yokluğunda beklenir. Bayes tahmincisi için veriler, ötesinde elde edilmedi n = 10 4 hesaplama kısıtlamaları nedeniyle.

Hem Bayesian hem de zaman serisi tahmincisi, bu depolarize edici kanalı telafi etmek için oldukça kolay bir şekilde uyarlanabilir. Zaman serisi analizini uyarlamak için, depolarize edici gürültünün etkisinin ne zaman göndermek olduğunu not ediyoruz. k > 0, denklem (23) ve denklem (41) yoluyla. Zaman serisi analizimiz daha önce aralık üzerinden (ücretsiz elde ediliyor) ve bu aralık üzerinden gerçekleştirilmişti.

G(k) artık bizim aralığımızdaki üstel fonksiyonların toplamı değildir, çünkü türevlenebilir değildir. k = 0, zaman serisi analizimizin başarısızlığının nedeni budur. Ancak [0, K] bu bir sorun değildir ve zaman serisi analizi yine de gerçekleştirilebilir. Bir kaydırma operatörü oluşturursak T kullanarak G(k) itibaren k = 0, . K, bu operatörün öz değerleri olacaktır . Bu daha sonra çeviri operatörünün T kullanılarak hesaplanabilir G(k) ile birlikte k > 0 ve özdeğerlerinin karmaşık argümanı T doğru aşamaları vermek J. Bunun gerçekten de şekil 7'de (turuncu çizgi) olduğunu görüyoruz. aralığını yarıya indirmek G(k) tahmin etmek için kullandığımız 0 tahmin edici performansını sabit bir faktör kadar azaltır, ancak bu artırılarak telafi edilebilir. n.

Bayes tahmincisini uyarlamak, basitçe doğru koşullu olasılığı, denklem (41) kullanmamızı gerektirir. Bu da hata oranı hakkında önceden bilgi sahibi olmamızı gerektirir. Khataveya aşamaların yanında tahmin edin J. Basitlik için birincisini seçmeyi tercih ediyoruz. bir deneyde Khata standart QCVV teknikleri ile tahmin edilebilir ve ayarlandığında tahmin edici performansında önemli değişiklikler gözlemlemiyoruz. Olasılık dağılımının Fourier temsili 0 bu değişikliğe kolayca ayarlanabilir. Bu kompanzasyon kullanılarak elde edilen sonuçlar şekil 7'de gösterilmektedir: verilerin aşağıdakileri izlediğini gözlemliyoruz. n −1/2 ölçekleme tekrar.

5.2. Gerçekçi devre düzeyinde gürültü

Gerçek kuantum bilgisayarlardaki hatalar, bireysel geçitlerin veya kübitlerin çeşitli hata kanalları yoluyla bozulduğu bir devre düzeyinde meydana gelir. Mevcut deneylerle bağlantı kurmak için, süper iletken kübitlerin bir hata modelindeki tahmin performansımızı araştırıyoruz. Tam simülasyon ayrıntıları Ek E'de bulunabilir. Hata modelimize öncelikle T1 ve T2 uyumsuzluk, tutarsız iki kübitlik akı gürültüsü ve tek kübitlik kapılar sırasında faz kaybı. Decoherence zamanını tedavi ediyoruz Thata = T1 = T2 basitlik için diğer tüm hata parametrelerini bu tek ölçek parametresine bağlı tutarken simülasyonlarımız boyunca ayarlamak için ücretsiz bir ölçek parametresi olarak. Devre düzeyinde gürültü uygulamak için, ilk olarak [37]'de tanıtılan kuantumsim yoğunluk matrisi simülatörünü kullandığımız kuantum devre simülasyonlarını çalıştırmalıyız. Daha sonra, değişken dikdörtgen geometrilerde dört hidrojen atomunun temel durum enerjisinin tahminini simüle etmeyi seçiyoruz, Hamiltonian, psi4 [38] aracılığıyla hesaplanan STO-3G bazında alınmış ve kübitler gerektiriyor. Bu tahmini, zaman evrimi operatörüne en düşük dereceli Suzuki-Trotter yaklaşımı [39] yoluyla yapıyoruz. Enerji özdeğerlerinin çemberin etrafına sarılmasını önlemek için 9'u sabitliyoruz. Elde edilen 9 kübitlik devre OpenFermion paketi [9] kullanılarak yapılmıştır.

Herhangi bir devre optimizasyonu yerine (örneğin [23, 40]), ortaya çıkan devre, ünite başına geçici bir uzunluğa sahiptir (tek (iki) kübit kapı çarpı 20 ns (40 ns) ile). Bu, devrenin süperiletken devreler için mevcut eşevresizlik zamanlarında çalışmasını gerçekçi olmaktan çıkarır ve şu anda mümkün olanın 1−2 büyüklük mertebesi üzerindeki eşevresizlik sürelerine odaklanırız, yani. Thata = 5−50 ms. Ancak oran tahmin edilebilir Tsen/Thata devre optimizasyonu veya kübit iyileştirmesi ile büyütülebilir. Doğal olarak, 8 kübitten daha küçük bir sistem seçmek veya hata azaltma tekniklerini kullanmak da faydalı olabilir.

Her iki tahmin edici üzerinde bir depolarize edici kanaldan biraz farklı bir etkiye sahip olmak için gerçekçi gürültü gözlemliyoruz. Depolarize edici gürültü ile karşılaştırıldığında, gürültü (1) 0 veya 1'e eğilimli olabilir ve/veya (2) k (40) denklemi formuna sahip olmayabilir.

Şekil 8'de, gürültüyü telafi etmeye yönelik herhangi bir girişimin yokluğunda, her iki tahmincinin performansını dört farklı gürültü seviyesinde (ve karşılaştırmak için gürültüsüz bir simülasyon) çiziyoruz. Depolarizan kanalın aksine, bir n Tahmin edici kararsız hale gelmeden önce bir süre −1/2 yakınsama gözlemlendi, burada hem kararsızlıkları hem de n −1/2 bozunma ile başlar. Buna rağmen, aşağıdaki gibi nispeten düşük tutarlılık sürelerinde bile makul yakınsama (%1-%2 aralığında) elde edildiğini not ediyoruz. Khata = 10. Ne olursa olsun, sıfır hataya nihai yakınsama olmaması endişe vericidir ve şimdi her iki tahminci için ne kadar iyi geliştirilebileceğini araştırmaya geçiyoruz.

Şekil 8. Bayesian (katı) ve zaman serisi (kesikli) tahmin edicilerin gerçekçi gürültü varlığında herhangi bir telafi tekniği olmadan performansı. Gölgeli bölgeler %95 güven aralıklarını ifade eder (100-500 QPE simülasyonunun ortalaması alınır). Zaman serisi analizi, bir tahmin üretmek için deneyler gerektirir ve bu nedenle performansı, n < 100.

Yalnızca kullanmak için zaman serisi tahmincisini ayarlama G(k) pozitif için k yaklaşık 1−2 büyüklük derecesi iyileştirme sağlar. Şekil 9'da bu yöntemle tahmin edici yakınsamasını çiziyoruz. Tahmincinin artık kararsız olmadığını gözlemliyoruz, ancak n −1/2 yakınsama hiçbir zaman tam olarak geri kazanılmaz. Çıkarabileceğimiz gibi, bu tahmin edici için bu yakınsamayı daha fazla inceleyebiliriz. G(k) doğrudan yoğunluk matrisi simülasyonlarımızdan alır ve böylece örnekleme gürültüsünün yokluğunda tahmin edici performansını araştırır (ekranda çarpı işareti). Gürültü yokluğunda veya depolarize edici gürültünün varlığında (telafi edildiğinde) benzer ekstrapolasyonların, en küçük kareler probleminin çözümünde sabit nokta hatasıyla ilişkilendirdiğimiz yaklaşık 10 −10 hata oranı verdiğini not ediyoruz (bu Şekil 9'da gürültü olmayan eğride de gözlenir). Bu hatayı bir fonksiyon olarak çizmek Khata bir güç yasası bozulmasını gösterir - ile . Elde edilen güç yasasının kaynağı hakkında iyi bir anlayışa sahip değiliz.

Şekil 9. Telafi teknikleri ile zaman serisi tahmincisinin performansı (metinde açıklanmıştır). Gölgeli bölgeler %95 güven aralıklarını ifade eder (ortalama 200 QPE simülasyonunun üzerindedir). Son çarpılar, herhangi bir örnekleme gürültüsünün yokluğunda performansı gösterir (deniz mavisi çarpı yaklaşık 10 −10'dadır), yani sınırda bu sınırı göstermek için kesikli çizgiler mevcuttur. (İç) uyumsuzluk süresinin bir fonksiyonu olarak örnekleme gürültüsü olmadan hata grafiği Thata. Y-eksene karşılık gelir y-Ana arsa üzerinde eksen (renk kodlu olarak).

Bayes tahmincisinin performansını depolarize edici gürültünün varlığında geri yükleyen aynı telafi teknikleri, gerçekçi gürültü için neredeyse iyi çalışmaz. Büyük olasılıkla bunun nedeni, gerçek gürültünün bir cihaz tarafından yakalanmamasıdır. k-bağımlı depolarizasyon olasılığı. Şekil 10'da, devre seviyesindeki gürültüyü, bozunma oranı (denklem (40)) olan bir depolarize edici kanal olarak yaklaştırarak telafi etmeye çalışırken Bayes tahmincisi kullanmanın sonuçlarını çiziyoruz. Bu, bu telafiye teşebbüs edilmediğinde, Şekil 8'deki sonuçlarla karşılaştırılabilir. Düşükte faktör 2'de bir iyileşme gözlemliyoruz Thata, Ancak n −1/2 ölçekleme geri kazanılmaz ve aslında tahmin edici performansı kabaca bu noktada doygun görünüyor. Ayrıca, Thata = 50 ms, telafi teknikleri tahminciyi iyileştirmez ve gerçekten de onu daha kararsız hale getirir.

Şekil 10. Metinde açıklanan bir telafi tekniği kullanılarak dört set gerçekçi gürültü ile tek turlu Bayesian QPE'nin performansı. Gölgeli bölgeler, 200–500 QPE simülasyonu üzerinden %95 güven aralığıdır. (İç kısım) aşağıdaki veriler için bir Bayes faktör analizi. Çizgi rengi ve stili, ana figürün efsanesiyle eşleşir.

Bunu daha fazla araştırmak için, Şekil 10'da (iç metin), telafi teknikleri olan ve olmayan Bayes tahmin edicilerinin bir Bayes faktör analizini çiziyoruz. Bayes faktör analizi, Bayes faktörleri hesaplanarak elde edilir.

nerede m seçilen Bayes modelidir (önceki bilgiler dahil) ve m0 bir referans modeldir ve ölçümü gözlemleme olasılığıdır m verilen model m. Referans modeli olarak rastgele gürültü modelini alıyoruz— . büyük ölçüde gözlemliyoruz Thata kompanzasyonlu Bayes faktörü, kompanzasyon tekniklerinin modeli daha da kötüleştirdiğini ima etmeden bunun altına düşer. Biz de çok küçük olduğunu gözlemliyoruz Thata, tahmin edici rastgele gürültüden ( ) daha kötü tahminler yapar. En iyi çabalarımıza rağmen, gürültülü tek turlu QPE deneylerinde Bayes tahmincisini daha fazla geliştiremedik.


TomVPN

Bazen bir ülkenin yasalarına ve düzenlemelerine bağlı olarak bazı web sitelerine erişilemeyebilir. Bu kısıtlamayı atlamanıza yardımcı olabilecek bir araç arıyorsanız, deneyebilirsiniz TomVPN.

Temel olarak, bu uygulama tamamen farklı bir yerdeymişsiniz gibi görünmesini sağlar, böylece artık belirli bir platform veya hizmeti açmanız yasaklanmaz.

Basit görünüm

Uygulamanın ana penceresi, desteklenen tüm ülkeleri içeren bir listenin yanı sıra her bir konumu tanımlamanızı kolaylaştıran bir haritayı görüntüler.

Hatta bazı ülkeler birkaç sunucuyla birlikte gelir ve TomVPN size her birinin durumunu gösterir. Bu sayede her zaman sadece yüksek hız ve stabiliteye sahip olanlara bağlanabilirsiniz.

Başarılı bir bağlantı kurulur kurulmaz, sistem tepsisinden küçük bir bildirim görüntülenir - eğer işinizden rahatsız edilmek istemiyorsanız, bu bildirimleri Ayarlar bölümünden kolayca devre dışı bırakabilirsiniz.

Birden çok protokolü destekler

Another handy feature of TomVPN is that you get complete control over the type of protocol that is used for all connections.

More specifically, depending on the content you want to access, you can choose the one that best suits your needs. For example, you can select certain protocols if you are interested in performing bank transactions, whereas other are more suitable for gaming.

Additionally, there are also some that ensure increased speeds, yet they can be easily blocked by local ISP (Internet service providers).

To wrap it up

All in all, TomVPN cam help you bypass censorship and other types of restrictions even if you are not a tech-savvy user. You only need to select the country you prefer, choose the fastest server available, then browse the web without any more restrictions.


Going back to Eigenvectors and Eigenvalues

Suppose we have a square represented in 2d space where every point on the square is a vector of which I will be using only 3 vectors as shown below.

Suppose we scale the square by a factor of 2 along y-axis as shown below

If you notice the red vector has the same scale and direction after the linear transformation. NS green vector changes in scale but still has the same direction. Whereas the yellow vector neither has the same scale but also it’s angle with the x axis increased, hence it’s direction also changed. If we look closely, apart from the red vector ve the green vector all the other vectors direction changed. Hence we can say the red and green vector are special and they are characteristic of this linear transform. These vectors are called eigenvectors of this linear transformation. And their change in scale due to the transformation is called their eigenvalue. Which for the red vector the eigenvalue is 1 since it’s scale is constant after and before the transformation, where as for the green vector, it’s eigenvalue is 2 since it scaled up by a factor of 2.

Let’s have a look at another linear transformation where we shear the square along the x axis.

If you guessed the red vector to be the eigenvector, you’re right and its eigenvalue is 1.

What if we rotate the square by 90 degrees clockwise.

Here there are no eigenvectors (Academic people will argue that there are complex eigenvectors in this case, but they are far away from the scope of this article so let’s stick with this case having no eigenvectors for simplicity). What if instead of 90 degrees we rotated the square by 180 degrees.

Here all the vectors along with the three colored vectors are eigenvectors with an eigenvalue of -1.

Let’s have a look at a special case where we scale the square equally along x and y axis.

Here all the vectors are eigenvectors and their eigenvalue would be the scale factor.

Now let’s go back to Wikipedia’s definition of eigenvectors and eigenvalues:

Eğer T is a linear transformation from a vector space V over a field F into itself and v is a vector in V that is not the zero vector, then v is an eigenvector of T if T(v) is a scalar multiple of v. This condition can be written as the equation

T ( v ) = λ v

nerede λ is a scalar in the field F, known as the eigenvalue, characteristic value, or characteristic root associated with the eigenvector v.

Let’s see how the equation works for the first case we saw where we scaled a square by a factor of 2 along y axis where the red vector ve green vector were the eigenvectors.


Videoyu izle: วธการหาคาเฉพาะและเวกเตอรเฉพาะ พรอมตวอยาง (Aralık 2021).