Spektralsatsen är det i särklass mest avancerade resultat som faller inom ramen för den här kursen. Ett fullständigt bevis är ganska krävande, och boken når nästan, men inte riktigt ända fram. Den här bloggposten är tänkt att komplettera (och gnälla lite på!) boken.
Det finns inom matematiken ett antal "spektralsatser" för begränsade operatorer på Hilbertrum och ditten och datten. Vad vi menar med spektralsatsen i den här kursen är att en symmetrisk n×n-matris har en ortogonal bas av egenvektorer. Och vi pratar bara om reella matriser, reella egenvektorer, och reella egenvärden.
Lemma 1: Om A är en symmetrisk n×n-matris, gäller för alla vektorer u,v∈Rn att u⋅(Av)=v⋅(Au).
Bevis: Vänsterledet är lika med ∑1≤i,j≤nuiai,jvj, och högerledet är ∑1≤i,j≤nvjaj,iui. Dessa är lika eftersom ai,j=aj,i.
Omvändningen gäller också: Om A har egenskapen att u⋅(Av)=v⋅(Au) för alla u och v, så måste A vara symmetrisk. Matriselementet ai,j är nämligen lika med ei⋅(Aej), som då i sin tur är lika med ej⋅(Aei)=aj,i.
Det här gör att vi kan prata om symmetriska avbildningar V→V, för delrum V av Rn. Med det menar vi en linjär avbildning f som har egenskapen att u⋅f(v)=v⋅f(u) för alla u,v∈V. Symmetrin är en egenskap hos avbildningen, och är inte knuten till matrisen.
En av konsekvenserna av Lemma 1 är:
Lemma 2: Om A är en symmetrisk avbildning av ett n-dimensionellt rum V→V, och w är en egenvektor till A, så kommer rummet W av vektorer ortogonala mot w att avbildas på sig självt av A.
Bevis: Antag att v är ortogonal mot w, dvs att v⋅w=0. Eftersom w är en egenvektor, är v även ortogonal mot Aw, dvs v⋅(Aw)=0. Enligt lemmat är då w⋅(Av)=0, dvs även Av är ortogonal mot w och ligger alltså i W.
Avbildningen A kommer då att definiera en avbildning på rummet W av alla vektorer som är ortogonala mot w, och denna avbildning kommer givetvis fortfarande att ha egenskapen att u⋅(Av)=v⋅(Au). Den är alltså symmetrisk även som avbildning W→W.
Om vi tänker oss att spektralsatsen är bevisad för alla rum av dimension upp till n−1, och A är en symmetrisk n×n-matris med en egenvektor w, kommer spektralsatsen att vara sann även för matrisen A. Rummet W som är ortogonalt mot w har ju dimension n−1, och har en ortogonal bas av egenvektorer. Tillsammans med w ger detta en ortogonal bas av egenvektorer för hela Rn.
För att bevisa spektralsatsen med induktion behöver vi därför bara visa att varje symmetrisk matris har någon (nollskild) egenvektor.
En metod för att hitta en egenvektor baseras på att först hitta en enhetsvektor u som maximerar ‖Au‖ bland alla enhetsvektorer. Antag att u är en sådan vektor, och att ‖Au‖=M. Låt v vara enhetsvektorn i samma riktning som Au, dvs v=AuM. (Om M=0 går inte detta, men i så fall måste hela A vara noll och då är vi ändå klara).
Nu utnyttjar vi att u⋅Av=v⋅Au. Eftersom Au=M⋅v, har vi
u⋅Av=v⋅Au=M⋅(v⋅v)=M⋅‖v‖2=M.
Men samtidigt gäller att u⋅Av=‖u‖⋅‖Av‖⋅cosα=‖Av‖⋅cosα,
där α är vinkeln mellan u och Av. Vi har alltså ‖Av‖⋅cosα=M trots att ‖Av‖≤M. Enda möjligheten är då att ‖Av‖=M och α=0, dvs u och Av är också parallella (liksom v och Au), och Av=M⋅u.
Men då följer att A(u+v)=Au+Av=M⋅v+M⋅u=M⋅(u+v). Så u+v är en egenvektor!
Fast vänta, sakta i backarna! Det är ju bara nollskilda egenvektorer som räknas! Om u+v=0 har vi inte kommit någonstans. Men om u+v=0, så är Au=Mv=−Mu, så då är u en egenvektor. Och u var ju en enhetsvektor, så u är inte nollvektorn.
Den enda lucka vi har kvar att fylla är nu frågan om existensen av ett maximum av ‖Au‖ på mängden av alla enhetsvektorer. Ni har nog hört talas om att en sluten begränsad mängd av reella tal är kompakt, och att en kontinuerlig funktion från en kompakt mängd till de reella talen antar ett maximalt och ett minimalt värde. Detsamma gäller i högre dimensioner. Mängden av enhetsvektorer i Rn är en sluten och begränsad mängd, och därför kompakt enligt Heine-Borels sats. Funktionen u↦‖Au‖ är kontinuerlig, och måste därför anta ett största värde.
Nu har vi lämnat den rena algebran, men som ofta påpekas kan man inte förvänta sig ett "rent algebraiskt" bevis för spektralsatsen, eftersom den så att säga utnyttjar den mikroskopiska strukturen hos de reella talen. Detta är något som spektralsatsen har gemensamt med den nära relaterade "algebrans fundamentalsats", som handlar om algebra, men kräver analys och topologi, till exempel Heine-Borels sats, för att bevisas. Men allt hänger ju ihop!
I boken bevisar kollegan Lemurell ett par resultat som pekar i riktning mot spektralsatsen, men som inte fullt ut bevisar den. Jag förstår Lemurells ambition att på ett någorlunda enkelt sätt motivera spektralsatsen. Men jag är tveksam till hur de här resultaten presenteras i detalj, eftersom vi varken har pratat om komplexa vektorrum eller algebrans fundamentalsats tidigare i kursen. Det verkar strida mot anmärkning 8.11, s 236.
Det börjar med Sats 8.16, som säger att en symmetrisk reell matris har enbart reella egenvärden. Egenvärden som inte är reella är alltså komplexa tal med nollskild imaginärdel. Då ska vi plötsligt räkna med vektorer i Cn, alltså n-tupler av komplexa tal. Definitionen av egenvärde och egenvektor generaliseras ju på ett ganska rättframt sätt, så just det är väl egentligen inga problem. Så då vet vi att en symmetrisk reell matris med komplext egenvärde λ och komplex egenvektor v implicerar att λ är lika med sitt eget komplexkonjugat, dvs att λ måste vara ett reellt tal.
På s241 fortsätter resonemanget: "Dock kan det förstås inträffa att karakteristiska polynomet har multipla nollställen så att antalet olika egenvärden för en symmetrisk n×n-matris är strikt mindre än n".
Det verkar som om Lemurell här implicit menar att vi har visat att det karakteristiska polynomet har enbart reella nollställen. Men det följer ju inte direkt av Sats 8.16!
Om λ är en reell rot till det karakteristiska polynomet gäller, som Lemurell säger på s 235, att det(A−λI)=0 är
ekvivalent med att ekvationen (A−λI)v=0 har en icketrivial (dvs
nollskild) lösning.
Matrisen A−λI svarar då mot en linjär avbildning Rn→Rn som inte är inverterbar, dvs som avbildar hela Rn in i ett rum av lägre dimension. Den måste då avbilda någon nollskild vektor v på 0, vilket innebär att Av=λIv=λv, dvs v är en egenvektor till A med egenvärde λ.
Men Lemurell slarvar med detta för komplexa λ. Hur vet vi att ett komplext nollställe till karakteristiska ekvationen verkligen har en tillhörande egenvektor i Cn? Vi som har läst mycket mer algebra kanske känner i magtrakten att de resonemang som har förts om reella linjära avbildningar och determinanter fungerar lika bra med komplexa tal, men man kan inte förutsätta att den som går en första kurs i linjär algebra ska se detta med en gång.
Sedan kommer Sats 8.17 som säger att egenvektorer som svarar mot olika reella egenvärden är ortogonala mot varandra. Vårt Lemma 1 (början av den här posten) som karakteriserar symmetriska avbildningar visas inuti beviset för Sats 8.17, och formuleras inte som ett eget resultat.
I det sista stycket i avsnitt 242 säger Lemurell att satserna 8.16 och 8.17 visar att en symmetrisk n×n-matris har n ortogonala egenvektorer såvida inte det karakteristiska polynomet har en dubbelrot. Men så vitt jag ser håller inte resonemanget. Det har inte visats att ett komplext nollställe till den karakteristiska ekvationen verkligen är ett egenvärde. Det är egentligen inte så svårt, men man vill ju inte i kapitel 8 skriva om hela kapitel 4, 5, 6 och 7 och byta ut reella tal mot komplexa hela vägen. Dessutom används algebrans fundamentalsats utan att detta omnämns. Och algebrans fundamentalsats är mer avancerad än Heine-Borels lemma (och beviset använder Heine-Borel).
Samma typ av fel, fast inte lika lömskt maskerat, finns för övrigt på den svenska wikipediasidan om spektralsatsen. Alltså att man inte bevisar att det faktiskt finns en egenvektor.
No comments:
Post a Comment