Loading [MathJax]/extensions/Safe.js

Wednesday, October 29, 2014

Inför tentan

På tentan får man ha med sig ett A4-ark, handskrivet på båda sidor. Man får också ha med sig miniräknare, förutsatt att den inte kan göra matrisoperationer!

Det här med att man får ha med sig miniräknare ångrar jag lite, det visade sig bli krångligt att bestämma vilka miniräknare som är ok och vilka som inte är det. Det blir inte rättvist om någon har en miniräknare som kan kolla med förprogrammerade funktioner om till exempel en matrisinvers är korrekt.

Men nu har jag sagt att man får ha med sig miniräknare, och då får jag stå för det. Dock vill jag säga att den som bara har en värsting lugnt kan gå till tentan utan miniräknare. Det räcker att kunna multiplikationstabellen, värre uträkningar blir det inte.

Thursday, October 23, 2014

Snabbtest

Det här är tänkt att vara ett lite lättsammare sätt att få koll på kursen och eventuellt få bort några missförstånd. Inga tunga uträkningar som i hemuppgifterna, utan snabba frågor och snabba svar.

  1. I tre dimensioner, skriv upp ekvationen för $xy$-planet!
  2. Hur lång är vektorn $(1,1,1,1,1,1,1,1,1,1)$ i $\mathbb{R}^{10}$?  
  3. Flervalsfråga: Triangeln med hörn i punkterna $(0,1,3)$, $(-1,2,-1)$ och $(3,1,1)$ har area (a) $7\sqrt{6} + 6\sqrt{28} + \sqrt{42}$, (b) $84^{1/3}/2$ eller (c) $\sqrt{209}/2$?
  4. Hur kan man kontrollera att man har räknat rätt på en kryssprodukt av två vektorer?
  5. Hur kan man kontrollera att man har räknat rätt på en skalärprodukt av två vektorer?
  6. Hur kan man kontrollera att man har räknat rätt när man har inverterat en matris?
  7. Sant eller falskt: Man kan ta två A4-papper, göra ett hål med en nål mitt i det ena, och hänga det andra i hålet.
  8. Sant eller falskt: Om vi hade fyra rumsdimensioner, skulle man kunna ta två A4-papper, göra ett hål med en nål mitt i det ena, och hänga det andra i hålet.
  9. Flervalsfråga: Inversen till matrisen \[\pmatrix{3 & 1 & 3 \\ 1 & 3 & 0\\ 0 & 3 & 1}\] är (a) \[\frac1{7}\pmatrix{3 & 8 & -9 \\ -1 & 3 & 3\\ 3 & -9 & 8},\] (b) \[\frac1{17}\pmatrix{3 & 8 & -9 \\ -1 & 3 & 3\\ 3 & -9 & 8}\] eller (c) \[\frac1{31}\pmatrix{3 & 8 & -9 \\ -1 & 3 & 3\\ 3 & -9 & 8}.\]
  10. Sant eller falskt: ett ekvationssystem med fler variabler än ekvationer går alltid att lösa.
  11. Om jag kastar en tärning 100 gånger och fyller i utfallen (siffrorna 1 till 6) i en $10\times 10$-matris, vad är då mest troligt, att den blir inverterbar eller att den inte blir det?
  12. Låt avbildningen $h$ vara spegling i planet $2x-y+2z= 0$. Vilka är egenvärdena till $h$?
  13. Sant eller falskt: En (reell) $5\times 5$-matris har alltid ett (reellt) egenvärde.
  14. Sant eller falskt: En (reell) $6\times 6$-matris har alltid ett (reellt) egenvärde.
  15. Skriv upp en $3\times 3$-matris med egenvärden 3, 5 och 7.
  16. Sant eller falskt: Om ett tal (säg 17) är en rot till den karakteristiska kvationen, finns det alltid en (nollskild) egenvektor med egenvärde 17.
  17. Sant eller falskt: Om ett tal (säg 17) är en dubbelrot till den karakteristiska ekvationen, så finns det alltid två oberoende egenvektorer med egenvärde 17.
Svar:
  1. Ekvationen är $z=0$. Det här verkar en del ha missat på senaste duggan. $z$-axeln är där $z$ är vad det vill och de andra är noll. I $xy$-planet är $x$ och $y$ vad som helst och $z$ är noll!
  2. Den har längd $\sqrt{10}$. 
  3. Det enda som kan vara rätt är (c), $\sqrt{209}/2$. Flytta triangeln så att ett hörn hamnar i origo, till exempel subtrahera $(0,1,3)$ så att vi får $(0,0,0)$, $(-1,1,-4)$ och $(3,0,-2)$. Triangelns area är då halva längden av kryssprodukten \[\pmatrix{-1\\1\\-4} \times \pmatrix{3\\0\\-2}.\] Utan att räkna kan vi se att längden av kryssprodukten är kvadratroten ur ett heltal, så varken (a) eller (b) kan vara rätt.
  4. Kolla att svaret har skalärprodukt noll med var och en av faktorerna.
  5. Räkna om!
  6. Kolla att matrisen gånger inversen blir enhetsmatrisen.    
  7. Öh, falskt!?
  8. Sant. Typ. Två plan i $\mathbb{R}^4$ kan skära varandra i en punkt.
  9. Bara (b) kan vara rätt. Vi kan se med Sarrus regel att determinanten är $9+9-1=17$. Inversen måste då ha element som är heltal dividerat med 17, så varken (a) eller (c) kan vara rätt.
  10. Falskt. Systemet $x_1+x_2+x_3=0$ och $x_1+x_2+x_3=1$ till exempel går ju inte att lösa.
  11. Den blir nästan säkert inverterbar. Det är bara om determinanten blir 0 som den inte går att invertera (men jag vet inte vad sannolikheten är, testa med Maple?).
  12. 1 (dubbelrot), och $-1$. Det spelar ingen roll vad planet är, en spegling fixerar ett plan (dvs det får egenvärde 1) och vektorerna som är ortogonala mot planet får egenvärde $-1$.
  13. Sant. Det karakteristiska polynomet har ledande koefficient (dvs term av högst grad) $-\lambda^5$. Eftersom 5 är udda går det mot $+\infty$ när $\lambda\to-\infty$, och mot $-\infty$ när $\lambda\to+\infty$. Någonstans måste det bli noll på vägen.
  14. Falskt. Förra argumentet funkar inte eftersom 6 är jämnt, och här är ett motexempel: \[\pmatrix{0 & -1 & 0 & 0 & 0 & 0\\1 & 0 & 0 & 0 & 0 & 0\\0 & 0 & 0 & -1 & 0 & 0\\0 & 0 & 1 & 0 & 0 & 0\\0 & 0 & 0 & 0 & 0 & -1\\0 & 0 & 0 & 0 & 1 & 0}.\] Det karakteristiska polynomet blir $(\lambda^2+1)^3$, vilket inte har några reella nollställen. Den här avbildningen kan ses som att man roterar $90^\circ$ i $x_1x_2$-planet, och samtidigt i $x_3x_4$-planet och $x_5x_6$-planet.
  15. Enklaste lösningen är \[\pmatrix{3 & 0 & 0 \\ 0 & 5 & 0 \\ 0 & 0 & 7}.\]
  16. Sant. Subtraherar man 17 från diagonalen och Gaussar, blir det (minst) en nollrad och en fri kolumn. Så då finns det en nollskild lösning till ekvationen som säger att $x$ är en egenvektor med egenvärde 17.
  17. Falskt. Det här var Pontus fråga som vi inte hann med svaret på. Motexempel: \[\pmatrix{17 & 1\\ 0 & 17}.\]

Monday, October 20, 2014

Om hemdugga 4

På uppgift 1(b) är det karakteristiska ekvationen till $R$ vi pratar om!
Som några av er har noterat, blir det även två icke-reella egenvärden. Det är ingen tillfällighet att de ligger på enhetscirkeln i det komplexa talplanet. Isometrier bevarar längd, och det gäller även för komplexa vektorer (även om det här med längd av komplexa vektorer ligger utanför den här kursen). 

På 1(c), tänk på att rotationsaxeln består av de vektorer som inte flyttas av rotationen. Med andra ord de vektorer som har egenvärde 1.

På uppgift 2 finns, enligt spektralsatsen, inte bara en bas av egenvektorer, utan till och med en ortogonal bas av egenvektorer. För att diagonalisera övergångsmatrisen behöver man dock inte ha en ortogonal bas, utan det duger med vilken bas som helst av egenvektorer. Ofta har man inget val, men just här råkar ett av egenvärdena ha ett helt plan av egenvektorer och inte bara en linje.  

Sunday, October 19, 2014

Gamla tentor

Här ligger tentan från förra året. Och här en från året innan.

Tentan från 2013:
1(a) \[ u \cdot v = ad+be+cf = \left\|u\right\| \cdot \left\|v\right\| \cdot \cos\alpha\] där $\alpha$ är vinkeln mellan $u$ och $v$.

(b) $\left\|u\right\| = \sqrt{a^2+b^2+c^2}$.
(c) \[u\times v = \pmatrix{bf-ce\\cd-af\\ae-bd}.\]

2. Minsta avståndet fås för t=1, och är $\sqrt{2}$.

3. Determinanten är $4a-2b$. Invers saknas då detta är noll, dvs då $2a=b$.

4. \[AB=\pmatrix{10 & 5\\ 16 & 8}.\]
      \[ BA = \pmatrix{8 & 20 \\ 4 & 10}.\]
  \[ Ab = \pmatrix{6 \\10}.\]
\[ b^tA = \pmatrix{5 & 13}.\]
$A + b$ finns ej,
\[ A + B = \pmatrix{5 & 5 \\ 4 & 5}.\]
$\det(A) = -2$, $\det(B) = 0$.
\[A^{-1} = \pmatrix{-2 & 3/2 \\ 1 & -1/2}.\] 
$B^{-1}$ finns ej.
\[ B^tB = \pmatrix{20 & 10 \\ 10 & 5}.\]
$(B^tB)^{-1}$ existerar ej.

5. (a) Oändligt antal lösningar om alla tre linjerna sammanfaller, 1 lösning om linjerna skär varandra i en punkt men inte alla sammanfaller, 0 lösningar om linjerna inte skär i en punkt.
Går direkt till (c): Ekvationssystemet kan skrivas
\[\pmatrix{1 & 2 \\ 1 & -1 \\ 2 & -1} \cdot \pmatrix{x_1 \\ x_2} = \pmatrix{3\\ 2 \\ 2}.\]
Minsta-kvadratlösning fås genom att vi löser
\[\pmatrix{1 & 1 & 2\\ 2 & -1 & -1} \cdot \pmatrix{1 & 2 \\ 1 & -1 \\ 2 & -1} \cdot \pmatrix{x_1 \\ x_2} = \pmatrix{1 & 1 & 2\\ 2 & -1 & -1} \cdot \pmatrix{3\\ 2 \\ 2},\] dvs
\[\pmatrix{6 & -1\\ -1 & 6} \cdot \pmatrix{x_1 \\ x_2} = \pmatrix{9 \\ 2}.\]
Lösningen blir $x_1 = 8/5$ och $x_2 = 3/5$.
(b) För att visa att systemet saknar lösning räcker det att sätta in minsta-kvadratlösningen och kolla att den inte löser systemet. Hade det funnits en lösning, hade ju den varit minsta-kvadratlösning!

6. Antar att systemet i fråga är $Ax = b$. Går direkt på (b). Inversen till $A$ är
\[\frac1{11}\pmatrix{2 & 1 & -7 \\ -3 & 4 & 5\\ 5 & -3 & -1}.\] Eftersom inversen existerar finns exakt en lösning till $Ax = b$, och den ges av \[x = A^{-1} b = \pmatrix{-2 \\ 2 \\ 1}.\]

7. Typo, det ska vara $v_2 = \pmatrix{1\\ -1}$. Vi söker $A$ som uppfyller
\[A\cdot \pmatrix{1\\ 1} = \pmatrix{5 \\ 5}\] och
\[A\cdot \pmatrix{1\\ -1} = \pmatrix{7 \\ -7}.\]
Ansätter vi \[ A = \pmatrix{a & b \\ c & d}\] får vi ekvationssystemet
\[\begin{eqnarray} a + b =5\\ c+d = 5\\ a-b = 7\\ c-d = -7,\end{eqnarray}\] och det visar sig att
\[ A = \pmatrix{6 & -1 \\ -1 & 6}.\]

Wednesday, October 15, 2014

Spektralsatsen

Spektralsatsen är det i särklass mest avancerade resultat som faller inom ramen för den här kursen. Ett fullständigt bevis är ganska krävande, och boken når nästan, men inte riktigt ända fram. Den här bloggposten är tänkt att komplettera (och gnälla lite på!) boken.

Det finns inom matematiken ett antal "spektralsatser" för begränsade operatorer på Hilbertrum och ditten och datten. Vad vi menar med spektralsatsen i den här kursen är att en symmetrisk $n\times n$-matris har en ortogonal bas av egenvektorer. Och vi pratar bara om reella matriser, reella egenvektorer, och reella egenvärden.

Lemma 1: Om $A$ är en symmetrisk $n\times n$-matris, gäller för alla vektorer $u, v\in \mathbb{R}^n$ att \[u\cdot (Av) = v\cdot (Au).\]
Bevis: Vänsterledet är lika med \[ \sum_{1\leq i,j\leq n} u_ia_{i,j}v_j,\] och högerledet är \[ \sum_{1\leq i,j\leq n} v_ja_{j,i}u_i.\] Dessa är lika eftersom $a_{i,j} = a_{j,i}$.

Omvändningen gäller också: Om $A$ har egenskapen att $u\cdot (Av) = v\cdot (Au)$ för alla $u$ och $v$, så måste $A$ vara symmetrisk. Matriselementet $a_{i,j}$ är nämligen lika med \[e_i\cdot (Ae_j),\] som då i sin tur är lika med \[e_j\cdot (Ae_i) = a_{j,i}.\]
Det här gör att vi kan prata om symmetriska avbildningar $V\to V$, för delrum $V$ av $\mathbb{R}^n$. Med det menar vi en linjär avbildning $f$ som har egenskapen att $u\cdot f(v) = v\cdot f(u)$ för alla $u, v\in V$. Symmetrin är en egenskap hos avbildningen, och är inte knuten till matrisen.

En av konsekvenserna av Lemma 1 är:

Lemma 2: Om $A$ är en symmetrisk avbildning av ett $n$-dimensionellt rum $V\to V$, och $w$ är en egenvektor till $A$, så kommer rummet $W$ av vektorer ortogonala mot $w$ att avbildas på sig självt av $A$.

Bevis: Antag att $v$ är ortogonal mot $w$, dvs att $v\cdot w = 0$. Eftersom $w$ är en egenvektor, är $v$ även ortogonal mot $Aw$, dvs $v\cdot (Aw)=0$. Enligt lemmat är då $w\cdot (Av) = 0$, dvs även $Av$ är ortogonal mot $w$ och ligger alltså i $W$.

Avbildningen $A$ kommer då att definiera en avbildning på rummet $W$ av alla vektorer som är ortogonala mot $w$, och denna avbildning kommer givetvis fortfarande att ha egenskapen att $u\cdot (Av) = v\cdot (Au)$. Den är alltså symmetrisk även som avbildning $W\to W$.

Om vi tänker oss att spektralsatsen är bevisad för alla rum av dimension upp till $n-1$, och $A$ är en symmetrisk $n\times n$-matris med en egenvektor $w$, kommer spektralsatsen att vara sann även för matrisen $A$. Rummet $W$ som är ortogonalt mot $w$ har ju dimension $n-1$, och har en ortogonal bas av egenvektorer. Tillsammans med $w$ ger detta en ortogonal bas av egenvektorer för hela $\mathbb{R}^n$.

För att bevisa spektralsatsen med induktion behöver vi därför bara visa att varje symmetrisk matris har någon (nollskild) egenvektor.

En metod för att hitta en egenvektor baseras på att först hitta en enhetsvektor $u$ som maximerar $\left\| Au \right\|$ bland alla enhetsvektorer. Antag att $u$ är en sådan vektor, och att $\left\| Au \right\| = M$. Låt $v$ vara enhetsvektorn i samma riktning som $Au$, dvs \[v = \frac{Au}M.\] (Om $M=0$ går inte detta, men i så fall måste hela $A$ vara noll och då är vi ändå klara).

Nu utnyttjar vi att $u\cdot Av = v\cdot Au$. Eftersom $Au = M\cdot v$, har vi
\[ u\cdot Av = v\cdot Au = M\cdot (v\cdot v) = M\cdot \left\|v\right\|^2 = M.\]
Men samtidigt gäller att \[u \cdot Av = \left\|u\right\| \cdot \left\|Av\right\|\cdot \cos\alpha = \left\|Av\right\|\cdot \cos\alpha,\]
där $\alpha$ är vinkeln mellan $u$ och $Av$. Vi har alltså $\left\|Av\right\|\cdot \cos\alpha = M$ trots att $\left\|Av\right\|\leq M$. Enda möjligheten är då att $\left\|Av\right\| = M$ och $\alpha=0$, dvs $u$ och $Av$ är också parallella (liksom $v$ och $Au$), och $Av = M\cdot u$.

Men då  följer att \[A(u+v) = Au + Av = M\cdot v + M\cdot u = M\cdot (u+v).\] Så $u+v$ är en egenvektor!

Fast vänta, sakta i backarna! Det är ju bara nollskilda egenvektorer som räknas! Om $u+v=0$ har vi inte kommit någonstans. Men om $u+v=0$, så är $Au = Mv = -Mu$, så då är $u$ en egenvektor. Och $u$ var ju en enhetsvektor, så $u$ är inte nollvektorn.

Den enda lucka vi har kvar att fylla är nu frågan om existensen av ett maximum av $\left\|Au\right\|$ på mängden av alla enhetsvektorer. Ni har nog hört talas om att en sluten begränsad mängd av reella tal är kompakt, och att en kontinuerlig funktion från en kompakt mängd till de reella talen antar ett maximalt och ett minimalt värde. Detsamma gäller i högre dimensioner. Mängden av enhetsvektorer i $\mathbb{R}^n$ är en sluten och begränsad mängd, och därför kompakt enligt Heine-Borels sats. Funktionen $u\mapsto \left\|Au\right\|$ är kontinuerlig, och måste därför anta ett största värde.

Nu har vi lämnat den rena algebran, men som ofta påpekas kan man inte förvänta sig ett "rent algebraiskt" bevis för spektralsatsen, eftersom den så att säga utnyttjar den mikroskopiska strukturen hos de reella talen. Detta är något som spektralsatsen har gemensamt med den nära relaterade "algebrans fundamentalsats", som handlar om algebra, men kräver analys och topologi, till exempel Heine-Borels sats, för att bevisas. Men allt hänger ju ihop!

I boken bevisar kollegan Lemurell ett par resultat som pekar i riktning mot spektralsatsen, men som inte fullt ut bevisar den. Jag förstår Lemurells ambition att på ett någorlunda enkelt sätt motivera spektralsatsen. Men jag är tveksam till hur de här resultaten presenteras i detalj, eftersom vi varken har pratat om komplexa vektorrum eller algebrans fundamentalsats tidigare i kursen. Det verkar strida mot anmärkning 8.11, s 236.

Det börjar med Sats 8.16, som säger att en symmetrisk reell matris har enbart reella egenvärden. Egenvärden som inte är reella är alltså komplexa tal med nollskild imaginärdel. Då ska vi plötsligt räkna med vektorer i $\mathbb{C}^n$, alltså $n$-tupler av komplexa tal. Definitionen av egenvärde och egenvektor generaliseras ju på ett ganska rättframt sätt, så just det är väl egentligen inga problem. Så då vet vi att en symmetrisk reell matris med komplext egenvärde $\lambda$ och komplex egenvektor $v$ implicerar att $\lambda$ är lika med sitt eget komplexkonjugat, dvs att $\lambda$ måste vara ett reellt tal.

På s241 fortsätter resonemanget: "Dock kan det förstås inträffa att karakteristiska polynomet har multipla nollställen så att antalet olika egenvärden för en symmetrisk $n\times n$-matris är strikt mindre än $n$".

Det verkar som om Lemurell här implicit menar att vi har visat att det karakteristiska polynomet har enbart reella nollställen. Men det följer ju inte direkt av Sats 8.16!

Om $\lambda$ är en reell rot till det karakteristiska polynomet gäller, som Lemurell säger på s 235, att $\det(A-\lambda I) = 0$ är ekvivalent med att ekvationen $(A-\lambda I)v= 0$ har en icketrivial (dvs nollskild) lösning.

Matrisen $A-\lambda I$ svarar då mot en linjär avbildning $\mathbb{R}^n\to \mathbb{R}^n$ som inte är inverterbar, dvs som avbildar hela $\mathbb{R}^n$ in i ett rum av lägre dimension. Den måste då avbilda någon nollskild vektor $v$ på $0$, vilket innebär att $Av = \lambda Iv = \lambda v$, dvs $v$ är en egenvektor till $A$ med egenvärde $\lambda$.

Men Lemurell slarvar med detta för komplexa $\lambda$. Hur vet vi att ett komplext nollställe till karakteristiska ekvationen verkligen har en tillhörande egenvektor i $\mathbb{C}^n$? Vi som har läst mycket mer algebra kanske känner i magtrakten att de resonemang som har förts om reella linjära avbildningar och determinanter fungerar lika bra med komplexa tal, men man kan inte förutsätta att den som går en första kurs i linjär algebra ska se detta med en gång.

Sedan kommer Sats 8.17 som säger att egenvektorer som svarar mot olika reella egenvärden är ortogonala mot varandra. Vårt Lemma 1 (början av den här posten) som karakteriserar symmetriska avbildningar visas inuti beviset för Sats 8.17, och formuleras inte som ett eget resultat.

I det sista stycket i avsnitt 242 säger Lemurell att satserna 8.16 och 8.17 visar att en symmetrisk $n\times n$-matris har $n$ ortogonala egenvektorer såvida inte det karakteristiska polynomet har en dubbelrot. Men så vitt jag ser håller inte resonemanget. Det har inte visats att ett komplext nollställe till den karakteristiska ekvationen verkligen är ett egenvärde. Det är egentligen inte så svårt, men man vill ju inte i kapitel 8 skriva om hela kapitel 4, 5, 6 och 7 och byta ut reella tal mot komplexa hela vägen. Dessutom används algebrans fundamentalsats utan att detta omnämns. Och algebrans fundamentalsats är mer avancerad än Heine-Borels lemma (och beviset använder Heine-Borel).

Samma typ av fel, fast inte lika lömskt maskerat, finns för övrigt på den svenska wikipediasidan om spektralsatsen. Alltså att man inte bevisar att det faktiskt finns en egenvektor.






Tuesday, October 14, 2014

Knutteori

Knutteori handlar om huruvida ett trassel av en eller flera slutna kurvor i rummet kan trasslas upp utan att kurvorna rör sig genom varandra.

En treklöverknut:

kan till exempel inte trasslas upp till en så kallad oknut (även känd som cirkel). En treklöver kan inte heller överföras till sin spegelbild, utan finns i två olika versioner, en “vänsterorienterad” och en “högerorienterad” (hm, vilken är vilken?).

Att bevisa att det inte går att överföra en kurva till en annan kan vara knepigt och problemet har lett till fantastisk matematik. År 1990 gick en av Fieldsmedaljerna till Vaughan Jones från Nya Zeeland för upptäckten av det som nu kallas Jonespolynomet.

För att representera knutar kan man använda så kallade knutdiagram, som är tvådimensionella bilder av kurvan. På de ställen där kurvan ser ut att skära sig själv, är det markerat vilken del som går över och vilken som går under. Treklövern kan representeras som:

 Trasslandet kan då reduceras till tre tillåtna operationer, de så kallade Reidemeister moves:



De tre typerna av drag kan utföras lokalt, dvs i figuren ovan antar man att resten av diagrammet är oförändrat.

För att visa att ett diagram inte kan överföras i ett annat, måste man hitta en invariant, det vill säga en egenskap hos diagrammet som är oförändrad under Reidemeisterdragen. Om en invariant är olika för två diagram, kan de inte överföras i varandra. Vi ska använda linjär algebra för att bevisa att två länkade cirklar inte kan tas isär.




Låt oss säga att en funktion från kurvorna i ett diagram till de reella talen är kvasikonstant (det ordet har jag själv hittat på) om
  • den inte "byter" värde längs en kurva annat än när kurvan passerar under en annan kurvsnutt, och
  • medelvärdet av de två värdena på under-kurvan är lika med värdet på över-kurvan i varje korsning.
De kvasikonstanta avbildningarna utgör då ett linjärt rum (!), och bland dem finns alltid de konstanta avbildningarna. Rummet kan beskrivas genom att vi inför en variabel för varje kurvsnutt i diagrammet (från en underkorsning till nästa). För varje korsning gäller sedan en ekvation av typen \[x = \frac{y+z}2,\] där $x$ är variabeln för över-kurvan, och $y$ och $z$ är variablerna för under-kurvorna.

För Hopf-länken (de två länkade cirklarna) till exempel, får vi två variabler, $x$ och $y$, och ekvationerna
\[ x = \frac{y+y}2 \] och \[y = \frac{x+x}2. \]
Med andra ord $x=y$, så de enda kvasikonstanta avbildningarna är de konstanta. Värdena på de två cirklarna är så att säga länkade till varandra.

Poängen med de kvasikonstanta avbildningarna är att: 
Dimensionen av rummet av kvasikonstanta avbildningar är en invariant.
För att kontrollera att det stämmer, räcker det att kontrollera de tre Reidemeisterdragen. En twist (se figuren med Reidemeisterdrag) involverar två kurvsnuttar, låt oss sätta $x$ på den som går över, och $y$ på den som går under. Korsningen ger ekvationen $x= (x+y)/2$ som kan förenklas till $x=y$. Därför kan vi ersätta $x$ och $y$ med en enda variabel, vilket är vad vi får om vi gör en untwist!

En unpoke involverar två kurvsnuttar som vi kan kalla $x$ och $y$ (de skulle kunna vara samma, och även om de inte är samma snutt, är det möjligt att andra ekvationer i diagrammet tvingar dem att ha samma värde, men låt oss ändå kalla dem $x$ och $y$). När vi för in $x$-snutten under $y$-snutten, bildas en ny kurvsnutt som vi kan kalla $z$. Båda nya korsningarna ger samma ekvation, $y=(x+z)/2$ eller ekvivalent $z = 2y - x$. Eftersom $z$ inte förekommer i någon annan ekvation och $z$ helt styrs av $x$ och $y$, förändras inte dimensionen av lösningsrummet.

En slide är lite mer komplicerad, men låt oss införa variabler $x_1,\dots, x_6$ för tåtarna som går ut ur vänstra diagrammet i III, med början "klockan ett". Då är för det första $x_2 = x_5$, eftersom de är samma kurvsnutt. För det andra är $x_1+x_4 = x_2+x_5$, på grund av korsningen mellan tåtarna med de variablerna. Slutligen har vi tåtarna $x_3$ och $x_6$, och den mellanliggande snutten som vi kan kalla $y$. Vi kan lösa ut $y$ som $y=2x_2-x_6$, och det visar sig att resterande ekvationer kan förenklas till
\[ x_1+x_3+x_5 = x_2+x_4+x_6.\] 
I den högra delen av III kan vi numrera de utgående tåtarna på samma sätt med $x_1,\dots,x_6$. Vi har fortfarande $x_2=x_5$, och $x_1+x_4=x_2+x_5$ på grund av den korsning som bara involverar de tåtarna. Vi kan kalla den nya mellanliggande snutten för $z$, och det visar sig att övriga två ekvationern igen ger $x_1+x_3+x_5=x_2+x_4+x_6$. Enda skillnaden är att vi nu har ett extra $z = 2x_2-x_3$ i stället för $y=2x_2-x_6$, men detta påverkar inte dimensionen av lösningsrummet.

Inget av de tre Reidemeisterdragen kan alltså ändra dimensionen av rummet av kvasikonstanta avbildningar. Detta tal är således en invariant och är därför en egenskap hos knuten i sig, inte något som beror på den valda representationen som diagram.

Att dimensionen av de kvasikonstanta avbildningarna är invariant bevisar att det inte går att ta isär Hopf-länken med Reidemeisterdrag. För i ett diagram med två olänkade cirklar är dimensionen 2, vi kan ju välja värdena på de två cirklarna oberoende av varandra!

Jag lämnar åt läsaren att räkna ut dimensionen av kvasikonstanta funktioner från the Borromean rings:



Det finns 6 kurvsnuttar och 6 korsningar, så det blir 6 variabler och 6 ekvationer. Bara att Gausseliminera och få fram dimensionen av lösningsrummet! 

Om dimensionen blir något annat än 3, betyder det att ringarna inte går att ta isär. Notera att ringarna inte sitter ihop två och två. Skulle man få loss en av dem, skulle de övriga två också lossna från varandra!

De kvasikonstanta avbildningarna visar tyvärr inte att treklöverknuten inte kan lösas upp. Den har tre kurvsnuttar, och ekvationssystemet kokar ner till \[3x = 3y =3z.\] Vilket betyder att de enda kvasikonstanta funktionerna är konstanta, som på en oknuten cirkel. Såvida man inte räknar modulo 3...  



Monday, October 13, 2014

Hintar till hemdugga 3

Som vanligt kommer några kommentarer till duggan.

uppgift 1 kan det vara bra att titta på Proposition 7.6, sidan 206 i boken. Även Sats 7.16 på sida 210 är bra.

För att hitta svaret till uppgift 2 kan man förstås googla några nyckelord från kemin, men poängen här är att det blir ett linjärt ekvationssystem. 

uppgift 3, tänk på att det är $k$ och $m$ som blir variabler i ekvationssystemet. Och $\log$ betyder förstås den naturliga logaritmen. Men eftersom det bara är en konstant faktor som skiljer, går det egentligen lika bra med tiologaritmen, tvålogaritmen eller vilken logaritm som helst.

Uppgift 4 har att göra med Kirchhoffs "matrix-tree theorem" och Cayleys formel (vilket man förstås inte behöver veta för att lösa uppgiften, men det var så jag kokade ihop den). På 4(a) behövs bara en grov uppskattning under rimliga antaganden. Men på 4(b) vill jag ha ett exakt svar, inte bara en Fermiuppskattning till närmsta tiopotens (hihi!).
Kom ihåg att när det gäller determinanter, kan man göra "radoperationer" även på kolumnerna! 

En trivialitet

Ibland hoppar vi över de enklaste sakerna, trivialiteterna. Kanske för att de inte exemplifierar metoder på ett allmängiltigt sätt, eller för att de inte gör sig bra som tentauppgifter. Ibland är vi rädda att det ska förvirra om vi ordar för mycket om att saker går att se på olika sätt.

Men det här med att se saker på olika sätt, specifikt att kunna uppfatta saker som geometri i mångdimensionella rum, är på en abstrakt nivå ett av målen med kursen.

Vi har gått igenom minsta kvadrat-anpassning för att hitta “bästa” lösningen till olösliga ekvationssystem. Att på detta sätt anpassa en linjär funktion till brusiga mätdata kan betraktas som att projicera en punkt i ett mångdimensionellt rum ortogonalt på ett delrum. I statistikdelen av kursen handlar en hel del om väntevärde, även känt som medelvärde för ändliga utfallsrum. Här kommer trivialiteten: väntevärde och medelvärde är minstakvadratlösningar, och kan därmed också betraktas som projiceringar!

Låt mig förvirra förklara. Anta att vi har talen $a$, $b$, $c$, och $d$ som mätdata, resultat, eller statistik av något slag. Men vi vill presentera ett tal som vårt resultat. Det tal vi presenterar, låt oss kalla det $x$, ska helst ha egenskapen att $x=a$, $x=b$, $x=c$ och $x=d$, samtidigt, vilket förstås inte går såvida inte $a$, $b$, $c$ och $d$ råkar vara lika. På matrisform kan vi skriva det
\[\pmatrix{1\\1\\1\\1} \cdot \pmatrix{x} = \pmatrix{a\\b\\c\\d}.\]

Nu vill vi anpassa $x$ så att felet minimeras i minsta kvadrat-mening, dvs vi väljer $x$ så att $(x-a)^2+(x-b)^2+(x-c)^2+(x-d)^2$ blir så litet som möjligt. Enligt teorin i kapitel 5 multiplicerar vi med transponatet till koefficientmatrisen till vänster:
\[\pmatrix{1 & 1 & 1 & 1} \cdot \pmatrix{1\\1\\1\\1} \cdot \pmatrix{x} = \pmatrix{1 & 1 & 1 & 1} \cdot \pmatrix{a\\b\\c\\d},\] och löser det ekvationssystemet i stället. System och system förresten, här blir det ju bara en ekvation om man multiplicerar ut:
\[4x = a+b+c+d.\]
Så \[x=\frac{a+b+c+d}4,\] dvs $x$ är medelvärdet av $a$, $b$, $c$ och $d$. 
Att det är medelvärdet man ska ta om man vill minimera summan av kvadraterna på felen kan man för övrigt se även med den gamla hederliga analysmetoden att kolla var derivatan av det man vill minimera är noll: $(x-a)^2+(x-b)^2+(x-c)^2+(x-d)^2$ har derivatan
\[2(x-a)+2(x-b)+2(x-c)+2(x-d),\] som är noll när $4x = a+b+c+d$.

Så på vilket sätt är det här en projektion? Jo vi projicerar punkten $\pmatrix{a\\b\\c\\d}$ i $\mathbb{R}^4$ ortogonalt på delrummet (dvs linjen!) av alla $\pmatrix{x_1\\x_2\\x_3\\x_4}$ som uppfyller $x_1=x_2=x_3=x_4$.

Så nästa gång du räknar ut medelvärdet av fyra tal, tänk på att du håller på med geometri i fyra dimensioner!

Wednesday, October 1, 2014

$\mathbb{R}^n$ och Cauchy-Schwarz

I går tisdag 30 september var det inlämning av dugga 2 och så blåste vi igenom kapitel 4. I detta kapitel definieras vektoroperationer, skalärprodukt, vinklar, avstånd, linjära avbildningar, matriser mm igen, fast den här gången utan den i bokens titel omtalade geometriska utgångspunkten.

En skillnad är att nu definieras skalärprodukt rent algebraiskt (som summan av produkterna av koordinaterna). Därefter definieras avstånd och vinklar i termer av skalärprodukten.

Avståndsformeln aka Pythagoras sats gäller alltså fortfarande, men nu är den egentligen ingen sats, utan en definition!

Motsvarande gäller för vinklar, som nu definieras genom \[\cos \alpha = \frac{u\cdot v}{\left\|u\right\|\cdot \left\|v\right\|},\] för vinkeln $\alpha$ mellan vektorerna $u$ och $v$ (tänkta som pilar från origo).

För att denna definition ska vara ok måste högerledet ligga i intervallet $[-1,1]$, och det faktum att det gör det kallas Cauchy-Schwarz olikhet. Vi kan kvadrera och skriva den som
\[\cos^2\alpha = \frac{(u\cdot v)^2}{(u\cdot u)(v\cdot v)} \leq 1.\]
Cauchy [koʃi] var för övrigt fransman, född någon månad efter stormningen av bastiljen, och uttalet av hans namn är ganska olikt kautschuk.

I boken lämnas beviset av Cauchy-Schwarz som övning, med en ledtråd om att utnyttja att \[0 \leq \left\| u-\frac{(u\cdot v)}{\left\|v\right\|^2}\cdot v\right\|^2.\]
Mycket riktigt kokar det ner till Cauchy-Schwarz olikhet om man hela vägen utnyttjar att normen i kvadrat är lika med skalärprodukten av en vektor med sig själv, och multiplicerar ut och förenklar.
Men hur kommer man på att man ska titta på just det här uttrycket? Tja, man skulle kunna göra som först föreslås i boken och införa en parameter $t$ och börja med att \[0\leq \left\|u - tv\right\|^2.\] En fördel är att här kan vi välja $t$ hur vi vill, och olikheten gäller alltid. Vad den säger är alltså att skalärprodukten av $u-tv$ med sig själv är icke-negativ, vilket är klart från den algebraiska definitionen, eftersom det blir en summa av kvadrater.

Om vi mutiplicerar ut denna skalärprodukt får vi
\[0\leq (u\cdot u) - 2t(u\cdot v) + t^2(v\cdot v).\]
Nu kan vi tänka på högerledet som ett andragradspolynom $f(t)$ i variabeln $t$. Vad innebär det för koefficienterna i detta polynom att det aldrig är negativt? Om vi skulle lösa ekvationen $f(t)=0$, dvs \[(v\cdot v)t^2 - 2(u\cdot v)t + (u\cdot u) = 0\] med pq-formeln, skulle vi först skriva om den som \[t^2 - 2\frac{(u\cdot v)}{(v\cdot v)}\cdot t + \frac{(u\cdot u)}{(v \cdot v)} = 0,\] och sedan få rötterna \[t = \frac{(u\cdot v)}{(v\cdot v)} \pm \sqrt{\frac{(u\cdot v)^2}{(v\cdot v)^2} - \frac{(u\cdot u)}{(v\cdot v)}}.\]
Att $f(t)\geq 0$ för alla $t$ innebär att rötterna antingen måste vara icke-reella, dvs uttrycket under kvadratrotstecknet negativt, eller sammanfalla, vilket de gör om uttrycket under rottecknet är noll. Skulle uttrycket under rottecknet vara positivt, skulle det finnas två olika reella rötter, och i så fall skulle ju $f(t)$ byta tecken och alltså vara negativt mellan rötterna!
Vi drar alltså slutsatsen att uttrycket under rottecknet är $\leq 0$, vilket betyder att \[ \frac{(u\cdot v)^2}{(v\cdot v)^2} \leq \frac{(u\cdot u)}{(v\cdot v)},\]
eller om vi stuvar om: \[\frac{(u\cdot v)^2}{(u\cdot u)(v\cdot v)} \leq 1.\]
Hoppsan, där satt den! Vänsterledet här är ju det som skulle vara $\cos^2\alpha$, så vinkeldefinitionen är alltså okej!

I stället för pq-formeln kan man kolla var $f(t)$ antar sitt minimum. Att $f(t)\geq 0$ för alla $t$ är ju samma sak som att dess minimum är större än eller lika med 0.
Vi har \[f(t) = (v\cdot v)t^2 -2(u\cdot v)t + (u\cdot u),\] och \[f'(t) = 2(v\cdot v) t - 2(u\cdot v).\] Detta är noll när \[t=\frac{(u\cdot v)}{(v\cdot v)}.\] Aha, där har vi det. Det var därför vi skulle ta just det värdet på $t$! Notera att $v\cdot v = \left\|v\right\|^2$, så det här är det värde på $t$ som föreslås i hinten i boken.

Sätter vi in, får vi
\[f\left(\frac{u\cdot v}{v\cdot v}\right) = \frac{(u\cdot v)^2}{v\cdot v} - 2\frac{(u\cdot v)^2}{v\cdot v} +u\cdot u = - \frac{(u\cdot v)^2}{v\cdot v} + u\cdot u.\]
Att detta är ickenegativt betyder att \[u\cdot u\geq \frac{(u\cdot v)^2}{v\cdot v},\] och igen får vi att det som ska vara $\cos^2\alpha$ är högst $1$.



Kursen i punktform

Vi har pratat på lunchmötet och i klassen om att ha en sammanfattning av kursen, och kombinerad "formelsamling" i form av en bloggpost som efterhand uppdateras. Jag går emot perfektionisten inom mig och lägger ut en lista som bara är påbörjad. Kommentera gärna!

Förkunskaper, geometri och trigonometri:
  • Pythagoras sats.
  • Def av sinus, cosinus och tangens (sidlängder i rätvinklig triangel).
  • Sinus och cosinus som $x$- och $y$-koordinater till punkter på enhetscirkeln.
  • Cosinussatsen.
  • "Exakta värden" på sinus och cosinus för multipler av $30^\circ$ och $45^\circ$.
Förkunskaper, algebra: 
  •  Förlänga med konjugatet för att få bort rottecken ur nämnare.
Vektorer:
  • Pilar med längd och riktning. Vektorer med samma längd och riktning är lika!
  • Addition, multiplikation med skalär.
  • Skalärprodukt = produkten av längderna gånger cosinus för vinkeln.
  • Räkneregler för skalärprodukt.