Nesne

4.4: Ortogonallik ve Normalleştirme


Seriyi düşünün

[frac{a_0}{2} + sum_{n=1}igg[a_ncosigg(frac{npi x}{L}igg) + b_nsinigg(frac {npi x}{L}igg)igg], hspace{3cm} -L leq x leq L.]

Buna trigonometrik seri denir. Seri bir fonksiyona yaklaşıyorsa F (tartışılacağı gibi) buna Fourier serisi denir ve a ve B Fourier katsayıları F.

Tüm bunların mantıklı olması için önce fonksiyonları inceliyoruz.

[{1,cosigg(frac{npi x}{L}igg), sinigg( frac{npi x}{L}igg)}, hspace {3 cm} n=1,2, okta,]

ve özellikle entegrasyon altındaki özellikleri. bunu bulduk

[ int_{-L}^L 1cdot 1 dx = 2L,]

[ int_{-L}^L 1 cdot cosigg(frac{npi x}{L}igg) dx = 0]

[ int_{-L}^L 1 cdot sinigg(frac{npi x}{L}igg) dx = 0]

[ egin{align} int_{-L}^L cosigg(frac{mpi x}{L}igg) cdot cosigg(frac{npi x}{) L}igg) dx & = frac{1}{2}int_{-L}^L cosigg(frac{(m+n)pi x}{L}igg) + cos igg(frac{(mn)pi x}{L}igg) dx & = igg{ egin{array}{lr} 0 & mbox{if } n leq m L & mbox{if } n=m end{dizi}end{hiza}, ]

[ egin{align} int_{-L}^L sinigg(frac{mpi x}{L}igg) cdot sinigg(frac{npi x}{) L}igg) dx & = frac{1}{2}int_{-L}^L cosigg(frac{(m+n)pi x}{L}igg) + cos igg(frac{(mn)pi x}{L}igg) dx & = igg{ egin{array}{lr} 0 & mbox{if } n leq m L & mbox{if } n=m end{dizi}end{hiza}, ]

[egin{align} int_{-L}^L cosigg(frac{mpi x}{L}igg) cdot sinigg(frac{npi x}{ L}igg) dx & = frac{1}{2}int_{-L}^L cosigg(frac{(m+n)pi x}{L}igg) + cos igg(frac{(mn)pi x}{L}igg) dx & = igg{ egin{array}{lr} 0 & mbox{if } n leq m L & mbox{if } n=m end{dizi} end{hiza},]

Bu integralleri fonksiyonlar arasındaki bir tür iç çarpım olarak düşünürsek (standart vektör iç çarpımı gibi) bu fonksiyonları çağırabileceğimizi görürüz. dikey. Bu gerçekten standart bir uygulamadır, burada işlevler için Genel iç çarpım tanımı şeklini alır

[(f,g) = int_a^b w(x)f(x)g(x)dx.]

Bu sıfır ise, fonksiyonların F ve G aralıkta ortogonaldir [aB] ağırlık fonksiyonu ile w. Trigonometrik fonksiyonlarda olduğu gibi bu fonksiyon 1 ise, fonksiyonların [ üzerinde ortogonal olduğunu söyleriz.aB].

Bir fonksiyonun normu, artık bir fonksiyonun kendisiyle olan iç çarpımının karekökü olarak tanımlanır (yine vektörlerde olduğu gibi),

[ orm{f} = sqrt{int_a^b w(x)f(x)^2dx}.]

Normalleştirilmiş bir form tanımlarsak F (birim vektör gibi) ( f/ orm{f} olarak), elimizde

[ orm{frac{f}{ orm{f}}} = sqrt{frac{int_a^bw(x)f(x)^2dx}{ orm{f}^2}}= frac{sqrt{int_a^bw(x)f(x)^2dx}}{ orm{f}}=frac{ orm{f}}{ orm{f}}=1.]

Alıştırma (PageIndex{1})

(ig{1, cosig(frac{npi x}{L}ig), sinig(frac{npi x}{L})'nin normalleştirilmiş formu nedir? üyük)üyük}?)

Cevap

( ig{frac{1}{sqrt{2L}}, ig(frac{1}{sqrt{L}}ig)cosig(frac{n pi x} {L}ig),ig(frac{1}{sqrt{L}}ig)sinig(frac{n pi x}{L}ig) ig})

Tamamı normalize edilmiş karşılıklı olarak ortogonal fonksiyonlar kümesine ortonormal küme denir.


Neden standart normalleştirme yerine softmax kullanmalısınız?

Bir sinir ağının çıktı katmanında, bir olasılık dağılımını yaklaşık olarak tahmin etmek için softmax fonksiyonunun kullanılması tipiktir:

Üsler nedeniyle bunu hesaplamak pahalıdır. Neden tüm çıktıların pozitif olması için bir Z dönüşümü gerçekleştirmiyorsunuz ve ardından tüm çıktıları tüm çıktıların toplamına bölerek normalleştirmiyorsunuz?


Dielektrik dalga kılavuzlarında radyasyon modlarının ortogonalliği ve normalizasyonu

Maxwell denklemlerini lineer operatör formalizminde ifade ederek, keyfi kırılma indisi profiline ve kesit şekline sahip bir dielektrik dalga kılavuzundaki radyasyon modlarının sürekli spektrumunun ortogonallik ve normalizasyon özelliklerinin doğrudan aşağıdaki özelliklerden oluşturulabileceği gösterilmiştir. çok daha basit boş alan alanları.

© 1982 Amerika Optik Derneği

C. Vasallo
J. Opt. Soc. NS. 73(5) 680-683 (1983)

Dennis P. Nyquist, Dean R. Johnson ve S. Victor Hsu
J. Opt. Soc. NS. 71(1) 49-54 (1981)

Rowland Sammut ve Allan W. Snyder
Uygulama Seç. 15(4) 1040-1044 (1976)

C. Vassallo
J. Opt. Soc. NS. 69(2) 311-316 (1979)

Nikolaos K. Uzunoğlu ve John G. Fikioris
J. Opt. Soc. NS. 72(5) 628-637 (1982)

Referanslar

Bu dergiye abonelik erişiminiz yok. Giden alıntı bağlantılarına sahip alıntı listeleri yalnızca aboneler tarafından kullanılabilir. OSA üyesi olarak veya kurumunuzun yetkili kullanıcısı olarak abone olabilirsiniz.

Kütüphanecinize veya sistem yöneticinize başvurun
veya
OSA Üye Aboneliğine erişmek için giriş yapın

Alıntı Yapan

Bu dergiye abonelik erişiminiz yok. Bağlantılarla alıntılananlar yalnızca aboneler tarafından kullanılabilir. OSA üyesi olarak veya kurumunuzun yetkili kullanıcısı olarak abone olabilirsiniz.

Kütüphanecinize veya sistem yöneticinize başvurun
veya
OSA Üye Aboneliğine erişmek için giriş yapın

Şekiller (1)

Bu dergiye abonelik erişiminiz yok. Şekil dosyaları yalnızca abonelere açıktır. OSA üyesi olarak veya kurumunuzun yetkili kullanıcısı olarak abone olabilirsiniz.

Kütüphanecinize veya sistem yöneticinize başvurun
veya
OSA Üye Aboneliğine erişmek için giriş yapın

Denklemler (26)

Bu dergiye abonelik erişiminiz yok. Denklemler yalnızca aboneler tarafından kullanılabilir. OSA üyesi olarak veya kurumunuzun yetkili kullanıcısı olarak abone olabilirsiniz.

Kütüphanecinize veya sistem yöneticinize başvurun
veya
OSA Üye Aboneliğine erişmek için giriş yapın


4.4: Ortogonallik ve Normalleştirme

Tony D.DeRose
Pixar Animasyon Stüdyoları

David H. Salesin
Washington Üniversitesi

Önsöz önsöz gösterim 1. Giriş 1.1 Çoklu çözünürlük yöntemleri
1.2 Tarihsel perspektif
1.3 Kitaba genel bakış

Bölüm I: Görüntüler 2 Haar: En basit dalgacık temeli 2.1 Tek boyutlu Haar dalgacık dönüşümü
2.2 Tek boyutlu Haar tabanlı fonksiyonlar
2.3 Ortogonallik ve normalleştirme
2.4 Dalgacık sıkıştırma 3 Görüntü sıkıştırma 3.1 İki boyutlu Haar dalgacık dönüşümleri
3.2 İki boyutlu Haar tabanlı fonksiyonlar
3.3 Dalgacık görüntü sıkıştırma
3.4 Renkli görüntüler
3.5 Özet 4 Görüntü düzenleme 4.1 Çok çözünürlüklü görüntü veri yapıları
4.2 Görüntü düzenleme algoritması
4.3 Sınır koşulları
4.4 Kesirli çözünürlüklerde görüntüleme ve düzenleme
4.5 Görüntü düzenleme örnekleri 5 Görüntü sorgulama 5.1 İçeriğe göre görüntü sorgulama
5.2 Görüntü sorgulama için bir metrik geliştirme
5.3 Görüntü sorgulama algoritması
5.4 Görüntü sorgulama örnekleri
5.5 Uzantılar

Bölüm II: Eğriler 6 Alt bölüm eğrileri 6.1 Tek tip alt bölüm
6.2 Tek tip olmayan alt bölüm
6.3 Değerlendirme maskeleri
6.4 İç içe boşluklar ve iyileştirilebilir ölçeklendirme işlevleri 7 Çoklu çözünürlüklü analiz teorisi 7.1 Çoklu çözünürlük analizi
7.2 Ortogonal dalgacıklar
7.3 Yarı dik dalgacıklar
7.4 Biortogonal dalgacıklar
7.5 Özet 8 Çoklu çözünürlüklü eğriler 8.1 İlgili eğri gösterimleri
8.2 Bir eğriyi yumuşatma
8.3 Bir eğriyi düzenleme
8.4 Tarama dönüştürme ve eğri sıkıştırma 9 Çok çözünürlüklü döşeme 9.1 Döşeme sorununa önceki çözümler
9.2 Çok çözünürlüklü döşeme algoritması
9.3 Zaman karmaşıklığı
9.4 Döşeme örnekleri

Bölüm III: Yüzeyler 10 Yüzey dalgacıkları 10.1 Yüzeyler için çoklu çözünürlüklü analize genel bakış
10.2 Alt bölme yüzeyleri
10.3 Bir iç ürün seçme
10.4 Biortogonal yüzey dalgacık yapısı
10.5 Yüzeylerin çok çözünürlüklü gösterimleri 11 Yüzey uygulamaları 11.1 Çoklu çözünürlüklü forma dönüştürme
11.2 Yüzey sıkıştırma
11.3 Sürekli ayrıntı düzeyi kontrolü
11.4 Aşamalı iletim
11.5 Çok çözünürlüklü düzenleme
11.6 Yüzey dalgacıkları için gelecekteki yönler

Bölüm IV: Fiziksel simülasyon 12 Varyasyon modelleme 12.1 Amaç fonksiyonunun ayarlanması
12.2 Sonlu elemanlar yöntemi
12.3 Varyasyon modellemede sonlu elemanların kullanılması
12.4 Dalgacıkları kullanarak varyasyonel modelleme
12.5 Uyarlanabilir varyasyon modellemesi 13 Küresel aydınlatma 13.1 Radyosite
13.2 Sonlu elemanlar ve radyosite
13.3 Dalgacık radyozitesi
13.4 Dalgacık radyositesine yönelik geliştirmeler 14 İleri okuma 14.1 Çoklu çözünürlüklü analiz teorisi
14.2 Görüntü uygulamaları
14.3 Eğri ve yüzey uygulamaları
14.4 Fiziksel simülasyon

Bölüm V: Ekler Lineer cebir incelemesi A.1 Vektör uzayları
A.2 Bazlar ve boyut
A.3 İç çarpımlar ve ortogonallik
A.4 Normlar ve normalleştirme
A.5 Özvektörler ve özdeğerler B B-spline dalgacık matrisleri B.1 Haar dalgacıkları
B.2 Uç nokta enterpolasyonlu doğrusal B-spline dalgacıkları
B.3 Uç nokta enterpolasyonlu ikinci dereceden B-spline dalgacıkları
B.4 Uç nokta enterpolasyonlu kübik B-spline dalgacıkları B-spline dalgacıkları için C Matlab kodu bibliyografya dizin Renk plakaları


Krita 4.4.3 Kararlılık ve Performans İyileştirmeleri, Hata Düzeltmeleri ile Yayınlandı

Krita Vakfı, yaygın olarak kullanılan dijital boyama yazılımı Krita 5'in bir sonraki büyük sürümünün geliştirilmesini başlattı, bu nedenle çabalarını yalnızca Kriter 4.4 serisi daha kararlı ve güvenilir.

Bu nedenle, serinin üçüncüsü olan Krita 4.4.3 nokta sürümü, yeniden yönlendirme ile bir filtreyi yeniden uygularken veya bir vektör seçiminden oluşturulan bir filtre maskesi üzerinde boyama yaparken meydana gelen çeşitli çökmeleri ele almak için buradadır. geçersiz bir işaretçiye erişim nedeniyle yarı ton filtresinde.

Bu sürüm ayrıca Özel ve Pano fırçalarında ‘Color as Alpha’ ve ‘Preserve Alpha’'yi düzeltir, Akıllı Yama Aracındaki normalleştirmeyi iyileştirir, yakınlaştırma düzeyi senkronizasyonunun tuval ve karalama defteri arasında yeniden çalışmasını sağlar ve adresler karalama defterinin yanıt vermemesine neden olan bir sorun.

Ayrıca ön plan ve arka plan renk düğmesi, artımlı yedeklemelerin kaydedilmesi, kanal bayraklarının işlenmesi ve dönüş kutusunun düz olması ve yeni açı seçiciyi her yerde kullanması gerektiği durumlarda KisAngleSelector'daki stil ve RGBA_brushes ile ilgili bazı performans sorunları da düzeltildi. artık başlangıçta yeniden oluşturulmayacak olan paket.

Krita 5 serisi yoldayken, muhtemelen Krita 4.4 dalında daha az çalışma olacak, bu nedenle yeni bir nokta yayınının yapılıp yapılmayacağını (veya ne zaman) yapılacağına dair bir bilgi yok. Bu nedenle, Krita 4.4 kullanıyorsanız, resmi web sitesinden evrensel AppImage ikili dosyasını indirerek veya en sevdiğiniz GNU/Linux dağıtımının kararlı yazılım havuzları aracılığıyla mümkün olan en kısa sürede 4.4.3 sürümüne güncellemenizi öneririm.


2 Cevap 2

Sabit bir $ extbf için$ , bir Bloch faktörü $u_<>>$ aşağıdaki özdeğer denklemini karşılar: egin frac<(hat< extbf

> + hbar extbf)^2><2m>u_<>>( extbf) = E_<>> u_<>>( extbf) son Bir birim hücre üzerinde periyodik bir sınır koşuluna tabidir. Farklı Bloch dalga vektörlerine ( $ extbf) karşılık gelen Bloch faktörlerine dikkat edin.$ 's) ayrı özsistemler oluşturur. Bu nedenle, aynı $ extbf değerine sahip olmadıkça Bloch faktörleri arasında bir ortonormallik ilişkisini düşünmek anlamsızdır$ . Söyleyebileceğimiz tek şey, her $ extbf için$ ayrı olarak, ilişki aşlangıç int_ d^3 extbf, u_<>>^*( extbf)u_<>>( extbf) = delta_ son tutar. ( $Omega$ bir birim hücreyi belirtir.)

$u_ üzerinde benzer bir ortonormallik koşulu olduğunu sanmıyorum$ farklı $k$ 'ler için. Potansiyel $V(mathrm) o 0$ , Bloch dalga fonksiyonları esasen düzlem dalgalardır, böylece $1mathrm$ ve normalizasyon faktörüne kadar: $u_(mathrm) = exp left(i left( k + (-1)^n mathrm(k) matematik sol(frac <2> ight)frac<2 pi> ight) r ight)$ (lütfen ifadeyi kontrol edin, bant eşleme bir kabus olduğu için kolayca bir hata yapabilirdim).

Önemli sonuç şudur ki, sabit $k$'da hala ortonormallik koşulumuz varken:

Farklı $k$ için benzer bir koşulumuz yok. Örneğin, $1mathrm içinde kalmak$ ve en düşük banda baktığımızda ( $n=0$ ), şöyle bir şeye sahip olmalıyız:

(Ancak, $u_ arasında sıfır olmayan bir örtüşme de olabilir.$ ve $u_$n eq n'$ için $, eğer $k eq k'$ .)

Diğer sınırlayıcı durumda, $V(r)$ sonsuz güçlü olduğunda, bantlar düzdür ve $u_(mathrm) = 1$'a kadar bir faz ve bir normalizasyon faktörü. Bu durumda şöyle bir şeye sahip olacaksınız:

Not: İki $u_'u entegre ederken yazdıklarım(matematik)$ hala bir basitleştirmedir, çünkü $mathbf'ye bağlı olarak global bir aşama eklemek mümkündür.tüm $n$ için $, yani $u'_ ayarı<>>(matematik) = exp (i heta(mathbf)) u_<>>(matematik)$ fiziksel olarak önemli bir değişiklik olmadan. Bu, önceki sonuçları fazladan $exp (i( heta(mathbf) - heta(mathbf)))$ ama bu ana argümanı değiştirmez. Herhangi bir şey varsa, sizi iki $u_ karşılaştırmasının sizi ikna etmesi gerekir.Farklı $k$ değerlerine sahip $ çoğu zaman o kadar önemli değildir.


4.4: Ortogonallik ve Normalleştirme

Ortogonal Ağırlık Normalleştirme

Bu proje, makalenin Torch uygulamasıdır: Ortogonal Ağırlık Normalleştirme: Derin Sinir Ağlarında Çoklu Bağımlı Stiefel Manifoldları Üzerinden Optimizasyon Çözümü (arXiv:1709.06079 )

Gereksinimler ve Bağımlılık

  • Torch'u CUDA GPU ile kurun
  • cudnn v5'i yükleyin
  • Bağımlı lua paketlerini optnet'i çalıştırarak kurun: luarocks optnet'i kurun
  • Magma'yı kurun ('Install Magma.txt' dosyasındaki talimatları takip edebilirsiniz) Not: Magma, GPU'da SVD için kullanılır. Magma yüklemezseniz, kodu GPU'da çalıştıramazsınız (CNN'lerdeki tüm deneyler için, deneyi GPU'da çalıştırıyoruz)

1. OMSDM problemini çözmek için sonuçları yeniden üretin:

Bu betik MNIST veri setini otomatik olarak indirecektir ve 'mnist.t7'(dizin) dosyasını './dataset/' dizinine koymalısınız. Daha küçük öğrenme oranını deneyebilir ve daha fazla katman ekleyebilir veya bu komut dosyasına göre farklı toplu iş boyutu kullanabilirsiniz.

2. Sonuçları MLP mimarisinde yeniden üretin:

Veri kümesi hazırlıkları: PIE veri kümesini indirmeli ve veri dosyasını './dataset/' dizinine koymalısınız (Veri dosyalarının son yolları:'./dataset/PIE/PIE_train.dat' ve './ veri kümesi/PIE/PIE_test.dat')

--------------------------Yukarıdaki deneyin MLP altında olduğunu ve CPU üzerinde çalıştığını ve bu nedenle yüklemeye gerek olmadığını unutmayın. Yukarıdaki deney için magma --------------------

3. CIFAR veri kümesi üzerinden VGG stili, BN-Incption ve Geniş artık ağ üzerindeki sonuçları yeniden oluşturun:

Veri seti hazırlıkları: CIFAR-10 ve CIFAR-100 veri setlerini indirmeli ve veri dosyasını './dataset/' dizinine koymalısınız.

Deneysel sonuçları yeniden oluşturmak için, deney konfigürasyonlarının tüm bilgilerini içeren aşağıdaki betiği çalıştırabilirsiniz:

Geniş artık ağ modeli, facebook meşale projesine dayanmaktadır: https://github.com/szagoruyko/wide-residual-networks

4. Denemeyi imageNet veri kümesinde çalıştırın.

  • (1) Facebook artık ağ projesini şuradan klonlamalısınız:https://github.com/facebook/fb.resnet.torch
  • (2) imageNet veri setini indirmeli ve onu '/tmp/dataset/imageNet/' dizinine koymalısınız ('opts_imageNet.lua' içinde ayarlanan yolu da değiştirebilirsiniz)
  • (3) 'opts_imageNet.lua', 'exp_Conv_imageNet_expDecay.lua', 'train_expDecay.lua', 'module' ve 'models'i projenin kök yoluna kopyalayın.
  • (4) Yürüt:

'-model' parametresini kullanarak diğer ilgili modelleri eğitebilirsiniz.

[email protected], Her türlü tartışma ve öneriye açığız!


Normalleştirme ve Denormalizasyon Arasındaki Fark

İlişkisel veritabanları ilişkilerden (ilgili tablolar) oluşur. Tablolar sütunlardan oluşur. Tablolar iki büyükse (yani bir tabloda çok fazla sütun varsa), veritabanı anormallikleri oluşabilir. Tablolar iki küçükse (yani veritabanı birçok küçük tablodan oluşuyorsa), sorgulama için verimsiz olacaktır. Normalleştirme ve Denormalizasyon, veritabanının performansını optimize etmek için kullanılan iki işlemdir. Normalleştirme, veri tablolarında bulunan artıklıkları en aza indirir. Denormalizasyon (normalleştirmenin tersi), fazla veri veya grup verisi ekler.

Normalleşme nedir?

Normalleştirme, ilişkisel veritabanlarındaki verilerde bulunan fazlalıkları en aza indirmek için gerçekleştirilen bir işlemdir. Bu süreç esas olarak büyük tabloları daha az yedekli daha küçük tablolara böler (“Normal formlar” olarak adlandırılır). Bu daha küçük tablolar, iyi tanımlanmış ilişkiler yoluyla birbirleriyle ilişkilendirilecektir. İyi normalleştirilmiş bir veritabanında, verilerdeki herhangi bir değişiklik veya değişiklik yalnızca tek bir tablonun değiştirilmesini gerektirecektir. Birinci Normal Form (1NF), İkinci Normal Form (2NF) ve Üçüncü Normal Form (3NF), Edgar F. Codd tarafından tanıtıldı. Boyce-Codd Normal Form (BCNF), 1974 yılında Codd ve Raymond F. Boyce tarafından tanıtıldı. Daha Yüksek Normal Formlar (4NF, 5NF ve 6NF) tanımlanmıştır, ancak nadiren kullanılmaktadır.

1NF ile uyumlu bir tablo, gerçekte bir ilişkiyi temsil ettiğini (yani, tekrar eden kayıtları içermediğini) ve ilişkisel değerli nitelikler içermediğini (yani tüm niteliklerin atomik değerlere sahip olması gerektiğini) garanti eder. Bir tablonun 2NF ile uyumlu olması için 1NF ile uyumlu olması ve herhangi bir aday anahtarın parçası olmayan herhangi bir özniteliğin (yani asal olmayan öznitelikler) tablodaki aday anahtarlardan herhangi birine tamamen bağlı olması gerekir. Codd'un tanımına göre, bir tablonun 3NF'de olduğu söylenir, ancak ve ancak bu tablo ikinci normal formda (2NF) ise ve tablodaki bir aday anahtara ait olmayan her öznitelik doğrudan her birine bağlı olmalıdır. bu tablonun aday anahtarı. BCNF (3.5NF olarak da bilinir), 3NF tarafından ele alınmayan bazı anormallikleri yakalar.

Denormalizasyon nedir?

Denormalizasyon, normalizasyon sürecinin tersi işlemidir. Normalleştirme, performansı optimize etmek için gereksiz veriler ekleyerek veya verileri gruplayarak çalışır. Fazladan veri eklemek ters etki yaratsa da bazen denormalizasyon, ilişkisel veritabanı yazılımındaki normalleştirilmiş veritabanlarında (daha yüksek performans için ayarlanmış olsa bile) ağır performans cezalarına neden olabilecek bazı eksikliklerin üstesinden gelmek için çok önemli bir süreçtir. Bunun nedeni, bir sorguya sonuç üretmek için (normalleştirmenin sonuçları olan) birkaç ilişkinin birleştirilmesi, veritabanı sistemlerinin fiili fiziksel uygulamasına bağlı olarak bazen yavaş olabilir.

Normalleştirme ve Denormalizasyon arasındaki fark nedir?

– Normalleştirme ve denormalizasyon tamamen zıt iki süreçtir.

– Normalleştirme, daha büyük tabloları daha küçük tablolara bölme işlemi, gereksiz verileri azaltarak, denormalizasyon ise performansı optimize etmek için fazlalık verileri ekleme işlemidir.

– Veritabanlarındaki anormallikleri önlemek için normalleştirme yapılır.

– Denormalizasyon, genellikle veritabanının okuma performansını iyileştirmek için gerçekleştirilir, ancak denormalizasyon için kullanılan ek kısıtlamalar nedeniyle, yazma işlemleri (yani ekleme, güncelleme ve silme işlemleri) yavaşlayabilir. Bu nedenle, normalleştirilmiş bir veritabanı, normalleştirilmiş bir veritabanından daha kötü yazma performansı sunabilir.

– Sıklıkla “acıyana kadar normalleştirmeniz, işe yarayana kadar normalleştirmemeniz” önerilir.


SONUÇLAR

HapMap örneklerinden germ hattı varyasyonlarını çağırma

Normalleştirme prosedürünün etkinliği

İlk olarak 1000 Genom Projesi WES veri setinde CODEX'in önerilen normalleştirme modelinin etkinliğini inceliyoruz ( 29). Önceki çalışmalar, okuma derinliğinin GC içeriği ile tek modlu bir ilişkisi olduğunu göstermiştir; GC içeriği yüksek veya düşük olan bölgeler, okuma derinliğini düşürme eğilimindedir (44). |$f_j (GC),$| için düzleştirilmiş tahminlerimizde tüm örneklerin olmasa da çoğunun bu işlev için tek modlu bir şekle sahip olduğunu bulduk. |$f_j (GC)$| için tahmin edilen değerleri gösteriyoruz. Şekil 3'teki dört tipik örnek için. İlginç bir şekilde, bazı örneklerin |$f_j (GC),$| içinde birden fazla tepe noktası olan tahminlere sahip olduğunu bulduk. bu, tek modaliteyi varsayan bir parametrik fonksiyonel formun çok basit olabileceğini düşündürür. Örnekler arasında karşılaştırma yaptığımızda, |$f_j (GC)$| şekil değişiklikleri ve sadece bir ölçekleme faktörü ile değil. Bu nedenle, GC içerik yanlılığı örnekler arasında doğrusal değildir ve bu nedenle doğrusal gizli faktör modelleri tarafından tam olarak yakalanamaz. Bu, GC yanlılığı için modelimizde parametrik olmayan ayrı terimi motive eder.

|$f(GC)$| için tahmin edilen değerler 1000 Genom Projesi veri setinden dört örnek için. Çoğu model, okuma derinliğinin GC içeriği ile tek modlu bir ilişkisi olduğuna dair önceki gözlemlerle aynı fikirdedir. Ancak ikili modalite de gözlenmektedir. Ayrıca, fonksiyon sadece bir ölçekleme faktörü ile değil, şekil olarak da değişir.

|$f(GC)$| için tahmin edilen değerler 1000 Genom Projesi veri setinden dört örnek için. Çoğu model, okuma derinliğinin GC içeriği ile tek modlu bir ilişkisi olduğuna dair önceki gözlemlerle aynı fikirdedir. Ancak ikili modalite de gözlenmektedir. Ayrıca, fonksiyon sadece bir ölçekleme faktörü ile değil, şekil olarak da değişir.

Ayrıca, CODEX'in normalleştirme sonucunu, analiz ettiğimiz aynı örnekler üzerinde Uluslararası HapMap Konsorsiyumu'ndan ( 30) dizi tabanlı CNV çağrılarını kullanarak SVD tabanlı yöntemle karşılaştırırız. Homozigot silmeler, heterozigot silmeler ve çoğaltmalar gibi farklı CNV olay kategorileri için |$log (>>$| |$widehatlambda$| CODEX'in normalleştirme prosedüründen tahmini kontrol kapsamıdır. SVD tabanlı normalizasyon için ROC eğrileri, birincinin çıkarılmasıyla elde edilen artıklar üzerinde eşikleme yapılarak çizilir. K orijinal okuma derinliğinden temel bileşenler (PC'ler) Y. Aşağıdaki olay kategorisinin her biri için ayrı bir güç analizi yapılır: ortak homozigoz silme, ortak heterozigoz silme, ortak çoğaltma, nadir heterozigoz silme ve nadir çoğaltma (Ek Şekil S2). HapMap CNV çağrı setindeki tüm nadir silmeler yalnızca heterozigot formda mevcut olduğundan, nadir homozigot silme yoktur. CODEX'in normalleştirme prosedürünün hem yaygın hem de nadir CNV'ler ve hem silme hem de çoğaltmalar için daha iyi bir sinyal-gürültü oranına yol açtığını görüyoruz (Ek Şekil S2).

CNV çağrısının doğruluğu

Daha sonra, CODEX'in doğruluğunu popülasyon tabanlı CNV araması için tasarlanmış mevcut yaklaşımlarla karşılaştıracağız. Bu programlar, kontrol olarak dört ek örnek eklediğimiz 'havuzlama' modunda ConIFER ( 26), XHMM ( 28) ve EXCAVATOR ( 25) içerir (Ek Tablo S1).

Her bir kromozom örneğinde her bir program tarafından yapılan, yaygın ve nadir çağrılara ayrılmış çağrı sayısı Tablo 1'de gösterilmektedir. EXCAVATOR ve CODEX benzer sayıda çağrıya sahiptir. CoNIFER, Magi'de yapılan EXCAVATOR ile yapılan karşılaştırmalarla aynı fikirde olan toplamda en az CNV'yi tespit eder. ve diğerleri. (25). CoNIFER bilgisayarların sayısını otomatik olarak seçmediğinden, iki SVD tabanlı programı karşılaştırılabilir hale getirmek için XHMM tarafından yapılan seçimle mutabık kalarak CoNIFER tarafından filtrelenen bilgisayar sayısını 4'e sabitledik. Normalleştirmede 4 PC seçimi, CoNIFER tarafından yapılan aramaların düşük sayısını hesaba katmamalıdır, çünkü CoNIFER tarafından yapılan tarama grafiği çıktısı aracılığıyla, göreceli katkıda bulunan varyansın eğrisinin 4'te hala önemli ölçüde azaldığını görüyoruz, bu da 4 muhafazakardır (Ek Şekil S3). XHMM ve CoNIFER çağrılarının büyük bir kısmı nadir (<%5) varyantlardır - sırasıyla %52,46 (501/955) ve %83,07 (157/189). HMM ve ConIFER'in nadir varyantlara karşı duyarlılığındaki önyargıya rağmen, CODEX, orantılı olarak daha yaygın olanların yanı sıra toplamda daha da nadir CNV'leri tespit eder. Özellikle, gizli faktörlerin sayısı K CODEX tarafından seçilen çoğu kromozom için genom boyunca XHMM tarafından dışlanan PC sayısından bir eksiktir. Ayrıca, CODEX ve XHMM, hem kb (Şekil 4a) hem de ekson (Şekil 4b) birimlerinde ConIFER ve EXCAVATOR ile karşılaştırıldığında daha kısa CNV'leri algılama eğilimindedir. Dört yöntemle ayrıntılı CNV çağrı setleri Ek Tablo S2'de verilmiştir.

CODEX, XHMM, ConIFER ve EXCAVATOR tarafından CNV çağrılarının uzunlukları. CNV'lerin (a) genomik uzunlukları ve CNV bölgelerindeki (b) ekzonların sayısı dört farklı yöntemle karşılaştırılır. CODEX ve XHMM daha fazla kısa CNV saptar, buna karşın CoNIFER ve EXCAVATOR, uzunlukları 200 kb/20 eksondan büyük olan CNV'lerin önemli bir kısmını döndürür.

CODEX, XHMM, ConIFER ve EXCAVATOR tarafından CNV çağrılarının uzunlukları. CNV'lerin (a) genomik uzunlukları ve CNV bölgelerindeki (b) ekzonların sayısı dört farklı yöntemle karşılaştırılır. CODEX ve XHMM daha kısa CNV'leri algılarken, ConIFER ve EXCAVATOR, uzunlukları 200 kb/20 ekzondan büyük olan CNV'lerin önemli bir kısmını döndürür.

Uluslararası HapMap Konsorsiyumu ( 30), McCarroll tarafından bildirilen çağrılarla karşılaştırarak dört yöntemle yapılan CNV çağrılarını değerlendiriyoruz. ve diğerleri. (31) ve Conrad ve diğerleri. (32) aynı 90 HapMap örneğinde. Uluslararası HapMap 3 Konsorsiyumu, %99,0 ortalama çağrı oranı ve %0,3 Mendel tutarsızlığı ile 856 kopya sayısı polimorfizmi (CNP) içeren hem Affymetrix hem de Illumina dizilerinden prob düzeyinde yoğunluğu birleştirerek ve kullanarak temiz bir CNV çağrı seti üretti ( 30). Ayrı olarak, McCarroll ve diğerleri. Affymetrix SNP dizisi, dizi CGH ( 45) ve fosmid uç dizi çifti verilerinin ( 31, 46) ortak analizi ile 2 kb kesme noktası çözünürlüğünde 1320 CNV'den oluşan bir harita geliştirdi. Kullandığımız üçüncü doğrulama kaynağı, Conrad'dan gelen çağrı kümesidir. ve diğerleri., 8599'u bağımsız olarak doğrulanmış olan 443 baz çiftinden daha büyük 11.700 CNV'nin bir haritasını oluşturmak için Nimblegen döşeme oligonükleotit dizilerini kullanan . Ekson bölgeleriyle örtüşen bu üç kohort çalışmasından elde edilen genotipli CNP'ler (sırasıyla toplamda 73, 123 ve 377), Tablo 1'de karşılaştırılan dört yöntemin duyarlılığını ve özgüllüğünü değerlendirmek için 'doğrulama seti' olarak kullanılır (ayrıntılar Ek Tablo'da verilmiştir). S3). Şekil 5, kesinlik ve geri çağırma oranlarını göstermektedir (kesinlik, doğrulama kümesiyle örtüşen program tarafından yapılan çağrıların oranıdır ve geri çağırma, doğrulama kümesindeki çağrılan CNV'lerin oranıdır.) Farklı programlar, kesinlik ve geri çağırma açısından önemli ölçüde farklılık gösterir. oran. CODEX en yüksek F-hem yaygın hem de nadir CNV'ler için ölçüm (hassasiyet ve hatırlamanın harmonik ortalaması) (Şekil 5). XHMM, nadir varyantları tespit etmede iyi performans gösterir ancak yaygın olanlara karşı duyarsızdır (Şekil 5). CoNIFER, Uluslararası HapMap Konsorsiyumu (Şekil 5a) ve McCarroll'dan gelen çağrılarla karşılaştırıldığında en yüksek hassasiyete sahiptir. ve diğerleri. (Şekil 5c) ancak Conrad'a karşı zayıf sonuçlar veriyor ve diğerleri. (Şekil 5b). Ayrıca, CoNIFER'in yüksek hassasiyeti, geri çağırma konusunda önemli bir fedakarlık sağlar (Şekil 5). Üç SNP dizi ölçümüne dayalı ayrıntılı karşılaştırma sonuçları için Ek Tablo S4'e bakın.

CNV'nin değerlendirilmesi, 1000 Genom Projesi'ni dizi tabanlı yöntemlerle çağırır. CODEX, XHMM, ConIFER ve EXCAVATOR tarafından yapılan CNV çağrıları, Uluslararası HapMap Konsorsiyumu (a), Conrad'dan gelen genotipleme çağrılarına karşı doğrulanmıştır. ve diğerleri. (b) ve McCarroll ve diğerleri. (C). CODEX, iyi dengelenmiş hassasiyet ve en yüksek geri çağırma oranları sağlar F- yaygın, nadir ve tüm CNV'lerin tespiti için tüm yöntemler arasında ölçümler (gri konturlar harmonik hassasiyet ve geri çağırma oranları gösterilmiştir).

CNV'nin değerlendirilmesi, 1000 Genom Projesi'ni dizi tabanlı yöntemlerle çağırır. CODEX, XHMM, ConIFER ve EXCAVATOR tarafından yapılan CNV çağrıları, International HapMap Consortium (a), Conrad'dan gelen genotipleme çağrılarına karşı doğrulanmıştır. ve diğerleri. (b) ve McCarroll ve diğerleri. (C). CODEX, iyi dengelenmiş hassasiyet ve en yüksek geri çağırma oranları sağlar F- yaygın, nadir ve tüm CNV'lerin tespiti için tüm yöntemler arasında ölçümler (gri konturlar harmonik hassasiyet ve geri çağırma oranları gösterilmiştir).

Spike-in çalışması ile duyarlılık değerlendirmesi

Biz daha sonra bir silico'da Değişen popülasyon frekanslarında farklı yöntemlerin duyarlılığını değerlendirmek için ani artış çalışması. Kromozom 20'den WES verileriyle başlayarak m = 90 HapMap örneği önceki bölümde analiz edildiğinde, CNV sinyallerini kopya sayısı açısından nötr bölgelere akıtırız. CODEX, XHMM, EXCAVATOR ve CoNIFER tarafından yapılan CNV çağrılarıyla veya DGV tarafından daha önce bildirilen CNV bölgeleriyle (http://dgv.tcag.ca/dgv/app) örtüşmüyorsa, bir bölgeyi kopya numarası açısından nötr olarak tanımlarız. /) ve dbVar (http://www.ncbi.nlm.nih.gov/dbvar/). Kromozom 20 üzerindeki 3966 ekson hedefinden 1035'i kopya-numara-nötr için bu kriteri geçer. Yalnızca iki farklı uzunlukta (5 ve 10 ekzon) ve değişen popülasyon frekanslarında ( ⁠|$p in < 5\% ,10\% , ldots ,95\% >$|⁠ ) heterozigot silmeleri dikkate aldık. Heterozigot silmelere odaklanıyoruz çünkü (i) homozigos silmeler, Ek Şekil S4'te gösterildiği gibi tüm yöntemlerle (ii) kolayca tespit edilebilir. P popülasyonda |$1 - p.$| Spesifik olarak, popülasyon frekansları %50'den fazla olan silmeler için, kopya sayısı-nötr durumlar kopyalar olarak rapor edilirken, tüm kopya sayısı olayları bir popülasyon ortalamasına göre tanımlandığından silmeler normal olaylar olarak rapor edilir. Olaylar her yüzüncü ekzonda merkezlenir ve m × P numuneler rastgele olarak taşıyıcı olarak seçilir. Heterozigot silmeler için CNV sinyalleri oluşturmak için, CNV tarafından yayılan ekzonlar için ham kapsama derinliğini y için |$frak <2> imes y$|⁠ , burada C ortalama 1 ve standart sapma 0.1 olan normal bir dağılımdan örneklenir.

CODEX'i bu ani artış veri setlerine uyguluyoruz ve bunu SVD tabanlı normalleştirme ve ardından HMM tabanlı segmentasyon ile karşılaştırıyoruz. İkincisi için, ilkini kaldırıyoruz K Okuma derinliği matrisinden PC'ler ve artıkları dönüştürün z-her numune için ayrı ayrı puanlar. NS z-skorlar daha sonra parametreleri XHMM'de varsayılan değerler olarak ayarlanan bir HMM tarafından bölümlere ayrılır. Her iki yaklaşımın özgüllüğünün %99'dan yüksek olduğu kontrol edilir. Farklı popülasyon frekans seviyelerinde kısa CNV (5 ekzon) ve uzun CNV (10 ekzon) için duyarlılıklar Şekil 6'da gösterilmektedir. CODEX'in duyarlılığı, hem nadir hem de yaygın varyantlar için mevcut yaklaşımınkinden daha yüksektir (Şekil 6, Ek Şekil S5). Frekansları %50 civarında olan CNV olayları için, CNV sinyallerinin örnek bazında gizli bir faktör tarafından yanlış bir şekilde filtrelenmesi nedeniyle her iki yöntem de en düşük güce sahiptir (Şekil 6, Ek Şekiller S5 ve S6). Ayrıca, daha kısa CNV olayları SVD yaklaşımı tarafından daha sık kaçırılırken, CODEX bu ölçekte kısa ve uzun değişkenler için karşılaştırılabilir bir duyarlılığa sahiptir (Şekil 6, Ek Şekil S5). Ayrıca, farklı QC prosedürleri seçiminin etkisini inceliyoruz ve Ek Şekil S5, algılama gücünün gerçekten de olağanüstü aykırı değerleri ortadan kaldırmamasından muzdarip olduğunu gösteriyor.

Simülasyon veri setinde CODEX ve SVD tabanlı yöntemin güç analizi. Hassasiyetler, 10 simülasyondan elde edilen sonuçların ortalaması alınarak elde edilir. Her iki yöntem de 'ortak' CNV olaylarından (frekansları %50 civarında olan CNV'ler) muzdariptir. CNV frekansı %50'yi aştığında, silmeler ve kopya nötr durumlar kopya nötr durumlar ve bunun yerine tekrarlar olarak algılanır ve bu da hassasiyetleri geri kazanır. CODEX, daha yüksek güce sahip SVD tabanlı yöntemlere kıyasla daha iyi performans gösterir. Daha uzun CNV'lerin saptanması genellikle daha kolaydır.

Simülasyon veri setinde CODEX ve SVD tabanlı yöntemin güç analizi. Hassasiyetler, 10 simülasyondan elde edilen sonuçların ortalaması alınarak elde edilir. Her iki yöntem de 'ortak' CNV olaylarından (frekansları %50 civarında olan CNV'ler) muzdariptir. CNV frekansı %50'yi aştığında, silmeler ve kopya nötr durumlar kopya nötr durumlar ve bunun yerine tekrarlar olarak algılanır ve bu da hassasiyetleri geri kazanır. CODEX, daha yüksek güce sahip SVD tabanlı yöntemlere kıyasla daha iyi performans gösterir. Daha uzun CNV'lerin saptanması genellikle daha kolaydır.

To gain a better understanding of what the latent factors in CODEX and SVD-based methods are capturing, we show in Supplementary Figure S6 the correlation of the latent factors to measurable quantities. The exon-wise latent factors in both models and the estimated value of β in CODEX are compared to GC content, mean exon coverage and true copy number. The sample-wise latent factors in both models are compared to center, batch, population and total coverage (n). Based on these correlations, we make the following observations: First, mean exon coverage (represented by the pseudo-reference sample |$left < left ( prod olimits _^ Y_ ight )^<1/m>:1 leq i leq n ight >$|⁠ ) is captured by β in (correlation coefficient 0.99) in CODEX and the first exon-wise PC in SVD (correlation coefficient −0.98). Exon length and capture and amplification efficiency are confounded in this exon-specific bias and there is no way, nor any need, to estimate these individual quantities separately. Second, GC content is correlated with the third exon-wise PC in SVD (correlation coefficient −0.75). CODEX specifically models the GC content bias for each sample by the term |$left < ight>,$| and as we show later, the bias cannot be fully captured by a linear PC. Third, a CNV that is more frequent in the population has higher absolute correlation between copy number state and the exon-wise latent factors in both CODEX (−0.22) and SVD (0.57). This is why sensitivity is lower for common CNVs. Finally, other known sources of bias, such as sequencing center and batch, are captured by sample-wise latent factors in both CODEX (correlation coefficient −1 and 0.74) and SVD (correlation coefficient 0.97 and −0.71). In this data set, population does not seem to be captured by any of the top latent factors.

Analysis of WES of neuroblastoma

We also apply CODEX to the WES data of 222 neuroblastoma patients from the TARGET Project ( 20). Our discussion here focuses on the well-characterized ATRX gene region ( 20, 33, 34). The TARGET Project reported recurrent focal deletions with a complex nested structure spanning the ATRX gene. Since there are matched normal samples for this study that have also been sequenced by the same technology, the TARGET calls were made by comparing each tumor sample to its matched normal. This allows us to compare the effectiveness of CODEX's normalization model to that of taking a log ratio to the matched normal coverage. Also, focusing on this well-characterized region allows us to demonstrate in accuracy of CODEX for handling recurrent complex nested events.

The RPKM (reads per kilo bases per million reads) for each exon and each sample are plotted in Figure 7a. The RPKM profiles are very noisy and do not show any clear decrease in this region in any of the samples, highlighting the need for normalization. For comparison, we also show the TARGET Project's initial analysis, which reported 16 multi-exon deletions within ATRX by comparing tumor to matched normal samples ( 20). Specifically, we repeat their analysis by thresholding the log2-ratio of RPKM in tumor to RPKM in normal samples, illustrated in Figure 7b. Figure 7c shows the normalized intensities given by CODEX, which detects 18 samples with somatic focal deletions (plots for each individual sample are given in Supplementary Figure S7). We also apply XHMM to the tumor data set and detect 14 samples with focal deletions (Figure 7d).

Detection of rare somatic deletions within ATRX by WES of 222 neuroblastoma-matched tumor/blood samples. Location of ATRX is shown as blue bars in c and d. (a) RPKM computed from the tumor samples. There is no clear visual indication of presence of somatic CNVs from these raw quantities. (b) Log2-ratio of tumor versus blood read depth. Initial analysis by the TARGET Project did careful inspection of these values and discovered 16 samples with focal deletions. (c) Log2-ratio of the original tumor read depth Y versus the estimated control coverage |$widehatlambda$| (model fitted on tumor data set only) by CODEX. Poisson likelihood-based segmentation algorithm by CODEX discovers 18 samples (red bars) with somatic deletions that exhibit a nested structure across samples. The 4 samples that are called by CODEX but not by XHMM are colored in red in the embedded window. (d) XHMM's direct output: z-scores normalized by PC analysis. The HMM calling algorithm by XHMM detects 14 samples (red bars) with somatic deletions.

Detection of rare somatic deletions within ATRX by WES of 222 neuroblastoma-matched tumor/blood samples. Location of ATRX is shown as blue bars in c and d. (a) RPKM computed from the tumor samples. There is no clear visual indication of presence of somatic CNVs from these raw quantities. (b) Log2-ratio of tumor versus blood read depth. Initial analysis by the TARGET Project did careful inspection of these values and discovered 16 samples with focal deletions. (c) Log2-ratio of the original tumor read depth Y versus the estimated control coverage |$widehatlambda$| (model fitted on tumor data set only) by CODEX. Poisson likelihood-based segmentation algorithm by CODEX discovers 18 samples (red bars) with somatic deletions that exhibit a nested structure across samples. The 4 samples that are called by CODEX but not by XHMM are colored in red in the embedded window. (d) XHMM's direct output: z-scores normalized by PC analysis. The HMM calling algorithm by XHMM detects 14 samples (red bars) with somatic deletions.

Of the 18 samples with somatic deletions detected by CODEX, three are also called by the TARGET Project but missed by XHMM one is detected by XHMM and CODEX with exactly the same breakpoints but is missed by the Target Project one is uniquely called by CODEX (Supplementary Table S5a). The sample uniquely called by CODEX is a small deletion that overlaps significantly with deletions called in other samples. Detailed CNV calling and genotyping results by each method are in Supplementary Table S5b–d and the genome-wide blood and tumor CNV events discovered by CODEX are summarized in Supplementary Table S6. The comprehensive analysis results will be published separately.

It is clear by visual comparison of Figure 7c to b and d that the read depth normalization method within CODEX gives better signal-to-noise ratio than the SVD-based normalization method in XHMM (note the difference in range of the y-axes) and also better than the commonly prescribed method of normalizing to matched normal controls. This illustrates that by borrowing information across a large cohort, the estimated control coverage of |$widehatlambda$| from our normalization model is more effective in capturing the biases in WES than the matched normal. Whereas the matched normal sample is important to distinguish between germline and somatic variants, CODEX's normalization procedure can be used in case of unavailability of blood samples or contamination of blood samples from circulating tumor cells. When matched normal is available, somatic status can be determined by comparing CODEX calls in tumor to those in normal. This example also shows that CODEX's segmentation algorithm performs well in detecting multi-exon CNVs with a nested structure, and that it successfully detected a rare CNVs (18/222 = 8.11%) in a clinical setting.


How to show orthogonality of associated Laguerre polynomials?

Not sure whether it's too late, but here's my answer. I'm a bit confused by your notation (where did $ n$ come from?), so I'll use mine.

You want to start with Rodrigues form: egin L^k_n (x) &= frac> frac left( x^ e^ <-x> ight) &= frac> <2 pi i>oint frac <>e^<-s>><(s-x)^> ds end Now, make a substitution: $ z = frac $ $ L_n^k (x) = frac<1> <2 pi i>oint frac <1-z>> > <(1-z)^z^> dz $ With the help of Cauchy integral formula, we obtain the generating function of associated Laguerre Polynomials: $ sum_ < n=0 >^infty L_n ^k (x) t^n = frac <1-t>> ><(1-t)^> $ Now, to prove the orthogonality of the polynomials, we put two generating functions inside the inner product integral: egin & int _0 ^infty frac<1-t>>><(1-t)^> frak<1-s>>><(1-s)^> e^ <-x>x^k dx &= frac<1> <(1-t)^(1-s)^> int _0 ^infty e^< - frac<1-ts><(1-t)(1-s)>x > x^ dx &= frac<1><(1-ts )^> int _0 ^infty e^ <-x'>x'^ dx' end Here, we make another substitution, where $ x' = frac<1-ts> <(1-t)(1-s)>x $ Notice that the RHS is the Gamma function: $ int _0 ^infty e^ <-x'>x'^ dx' = k! $ and make use of the differentiation of geometric series: $ frac<1><(1-ts)^> = sum _ ^infty frac<(i+k)!> (ts)^i $ We get: egin & frac<1><(1-ts )^> int _0 ^infty e^ <-x'>x'^ dx' &= k! sum _ ^infty frac<(i+k)!> (ts)^i &= sum_^infty frac<(i+k)!> t^i s^i end But this result was deduced from the multiplication of two generating function, therefore: egin & int _0 ^infty frac<1-t>>><(1-t)^> frak<1-s>>><(1-s)^> e^ <-x>x^k dx &= sum_^infty sum_^infty left< L^k_n (x)| L^k _m (x) ight> t^n s^m end Where $ left< f(x) | g(x) ight> := int_0 ^infty e^ <-x>x^k f(x) g(x) dx $ Compare the coefficients of the two results, note that the innerproduct is 0 whenever $ n eq m $ , we get: $ left< L^k_n (x) | L^k_m (x) ight> = frac<(n+k)!> delta_ $


Videoyu izle: Range Rover L405 TDV8 Полный обзор, Замер разгона и Муки выбора (Aralık 2021).