På tentan får man ha med sig ett A4-ark, handskrivet på båda sidor. Man får också ha med sig miniräknare, förutsatt att den inte kan göra matrisoperationer!
Det här med att man får ha med sig miniräknare ångrar jag lite, det visade sig bli krångligt att bestämma vilka miniräknare som är ok och vilka som inte är det. Det blir inte rättvist om någon har en miniräknare som kan kolla med förprogrammerade funktioner om till exempel en matrisinvers är korrekt.
Men nu har jag sagt att man får ha med sig miniräknare, och då får jag stå för det. Dock vill jag säga att den som bara har en värsting lugnt kan gå till tentan utan miniräknare. Det räcker att kunna multiplikationstabellen, värre uträkningar blir det inte.
Wednesday, October 29, 2014
Thursday, October 23, 2014
Snabbtest
Det här är tänkt att vara ett lite lättsammare sätt att få koll på kursen och eventuellt få bort några missförstånd. Inga tunga uträkningar som i hemuppgifterna, utan snabba frågor och snabba svar.
- I tre dimensioner, skriv upp ekvationen för $xy$-planet!
- Hur lång är vektorn $(1,1,1,1,1,1,1,1,1,1)$ i $\mathbb{R}^{10}$?
- Flervalsfråga: Triangeln med hörn i punkterna $(0,1,3)$, $(-1,2,-1)$ och $(3,1,1)$ har area (a) $7\sqrt{6} + 6\sqrt{28} + \sqrt{42}$, (b) $84^{1/3}/2$ eller (c) $\sqrt{209}/2$?
- Hur kan man kontrollera att man har räknat rätt på en kryssprodukt av två vektorer?
- Hur kan man kontrollera att man har räknat rätt på en skalärprodukt av två vektorer?
- Hur kan man kontrollera att man har räknat rätt när man har inverterat en matris?
- Sant eller falskt: Man kan ta två A4-papper, göra ett hål med en nål mitt i det ena, och hänga det andra i hålet.
- Sant eller falskt: Om vi hade fyra rumsdimensioner, skulle man kunna ta två A4-papper, göra ett hål med en nål mitt i det ena, och hänga det andra i hålet.
- Flervalsfråga: Inversen till matrisen \[\pmatrix{3 & 1 & 3 \\ 1 & 3 & 0\\ 0 & 3 & 1}\] är (a) \[\frac1{7}\pmatrix{3 & 8 & -9 \\ -1 & 3 & 3\\ 3 & -9 & 8},\] (b) \[\frac1{17}\pmatrix{3 & 8 & -9 \\ -1 & 3 & 3\\ 3 & -9 & 8}\] eller (c) \[\frac1{31}\pmatrix{3 & 8 & -9 \\ -1 & 3 & 3\\ 3 & -9 & 8}.\]
- Sant eller falskt: ett ekvationssystem med fler variabler än ekvationer går alltid att lösa.
- Om jag kastar en tärning 100 gånger och fyller i utfallen (siffrorna 1 till 6) i en $10\times 10$-matris, vad är då mest troligt, att den blir inverterbar eller att den inte blir det?
- Låt avbildningen $h$ vara spegling i planet $2x-y+2z= 0$. Vilka är egenvärdena till $h$?
- Sant eller falskt: En (reell) $5\times 5$-matris har alltid ett (reellt) egenvärde.
- Sant eller falskt: En (reell) $6\times 6$-matris har alltid ett (reellt) egenvärde.
- Skriv upp en $3\times 3$-matris med egenvärden 3, 5 och 7.
- Sant eller falskt: Om ett tal (säg 17) är en rot till den karakteristiska kvationen, finns det alltid en (nollskild) egenvektor med egenvärde 17.
- Sant eller falskt: Om ett tal (säg 17) är en dubbelrot till den karakteristiska ekvationen, så finns det alltid två oberoende egenvektorer med egenvärde 17.
- Ekvationen är $z=0$. Det här verkar en del ha missat på senaste duggan. $z$-axeln är där $z$ är vad det vill och de andra är noll. I $xy$-planet är $x$ och $y$ vad som helst och $z$ är noll!
- Den har längd $\sqrt{10}$.
- Det enda som kan vara rätt är (c), $\sqrt{209}/2$. Flytta triangeln så att ett hörn hamnar i origo, till exempel subtrahera $(0,1,3)$ så att vi får $(0,0,0)$, $(-1,1,-4)$ och $(3,0,-2)$. Triangelns area är då halva längden av kryssprodukten \[\pmatrix{-1\\1\\-4} \times \pmatrix{3\\0\\-2}.\] Utan att räkna kan vi se att längden av kryssprodukten är kvadratroten ur ett heltal, så varken (a) eller (b) kan vara rätt.
- Kolla att svaret har skalärprodukt noll med var och en av faktorerna.
- Räkna om!
- Kolla att matrisen gånger inversen blir enhetsmatrisen.
- Öh, falskt!?
- Sant. Typ. Två plan i $\mathbb{R}^4$ kan skära varandra i en punkt.
- Bara (b) kan vara rätt. Vi kan se med Sarrus regel att determinanten är $9+9-1=17$. Inversen måste då ha element som är heltal dividerat med 17, så varken (a) eller (c) kan vara rätt.
- Falskt. Systemet $x_1+x_2+x_3=0$ och $x_1+x_2+x_3=1$ till exempel går ju inte att lösa.
- Den blir nästan säkert inverterbar. Det är bara om determinanten blir 0 som den inte går att invertera (men jag vet inte vad sannolikheten är, testa med Maple?).
- 1 (dubbelrot), och $-1$. Det spelar ingen roll vad planet är, en spegling fixerar ett plan (dvs det får egenvärde 1) och vektorerna som är ortogonala mot planet får egenvärde $-1$.
- Sant. Det karakteristiska polynomet har ledande koefficient (dvs term av högst grad) $-\lambda^5$. Eftersom 5 är udda går det mot $+\infty$ när $\lambda\to-\infty$, och mot $-\infty$ när $\lambda\to+\infty$. Någonstans måste det bli noll på vägen.
- Falskt. Förra argumentet funkar inte eftersom 6 är jämnt, och här är ett motexempel: \[\pmatrix{0 & -1 & 0 & 0 & 0 & 0\\1 & 0 & 0 & 0 & 0 & 0\\0 & 0 & 0 & -1 & 0 & 0\\0 & 0 & 1 & 0 & 0 & 0\\0 & 0 & 0 & 0 & 0 & -1\\0 & 0 & 0 & 0 & 1 & 0}.\] Det karakteristiska polynomet blir $(\lambda^2+1)^3$, vilket inte har några reella nollställen. Den här avbildningen kan ses som att man roterar $90^\circ$ i $x_1x_2$-planet, och samtidigt i $x_3x_4$-planet och $x_5x_6$-planet.
- Enklaste lösningen är \[\pmatrix{3 & 0 & 0 \\ 0 & 5 & 0 \\ 0 & 0 & 7}.\]
- Sant. Subtraherar man 17 från diagonalen och Gaussar, blir det (minst) en nollrad och en fri kolumn. Så då finns det en nollskild lösning till ekvationen som säger att $x$ är en egenvektor med egenvärde 17.
- Falskt. Det här var Pontus fråga som vi inte hann med svaret på. Motexempel: \[\pmatrix{17 & 1\\ 0 & 17}.\]
Monday, October 20, 2014
Om hemdugga 4
På uppgift 1(b) är det karakteristiska ekvationen till $R$ vi pratar om!
Som några av er har noterat, blir det även två icke-reella egenvärden. Det är ingen tillfällighet att de ligger på enhetscirkeln i det komplexa talplanet. Isometrier bevarar längd, och det gäller även för komplexa vektorer (även om det här med längd av komplexa vektorer ligger utanför den här kursen).
På 1(c), tänk på att rotationsaxeln består av de vektorer som inte flyttas av rotationen. Med andra ord de vektorer som har egenvärde 1.
På uppgift 2 finns, enligt spektralsatsen, inte bara en bas av egenvektorer, utan till och med en ortogonal bas av egenvektorer. För att diagonalisera övergångsmatrisen behöver man dock inte ha en ortogonal bas, utan det duger med vilken bas som helst av egenvektorer. Ofta har man inget val, men just här råkar ett av egenvärdena ha ett helt plan av egenvektorer och inte bara en linje.
Som några av er har noterat, blir det även två icke-reella egenvärden. Det är ingen tillfällighet att de ligger på enhetscirkeln i det komplexa talplanet. Isometrier bevarar längd, och det gäller även för komplexa vektorer (även om det här med längd av komplexa vektorer ligger utanför den här kursen).
På 1(c), tänk på att rotationsaxeln består av de vektorer som inte flyttas av rotationen. Med andra ord de vektorer som har egenvärde 1.
På uppgift 2 finns, enligt spektralsatsen, inte bara en bas av egenvektorer, utan till och med en ortogonal bas av egenvektorer. För att diagonalisera övergångsmatrisen behöver man dock inte ha en ortogonal bas, utan det duger med vilken bas som helst av egenvektorer. Ofta har man inget val, men just här råkar ett av egenvärdena ha ett helt plan av egenvektorer och inte bara en linje.
Sunday, October 19, 2014
Gamla tentor
Här ligger tentan från förra året. Och här en från året innan.
Tentan från 2013:
1(a) \[ u \cdot v = ad+be+cf = \left\|u\right\| \cdot \left\|v\right\| \cdot \cos\alpha\] där $\alpha$ är vinkeln mellan $u$ och $v$.
(b) $\left\|u\right\| = \sqrt{a^2+b^2+c^2}$.
(c) \[u\times v = \pmatrix{bf-ce\\cd-af\\ae-bd}.\]
2. Minsta avståndet fås för t=1, och är $\sqrt{2}$.
3. Determinanten är $4a-2b$. Invers saknas då detta är noll, dvs då $2a=b$.
4. \[AB=\pmatrix{10 & 5\\ 16 & 8}.\]
\[ BA = \pmatrix{8 & 20 \\ 4 & 10}.\]
\[ Ab = \pmatrix{6 \\10}.\]
\[ b^tA = \pmatrix{5 & 13}.\]
$A + b$ finns ej,
\[ A + B = \pmatrix{5 & 5 \\ 4 & 5}.\]
$\det(A) = -2$, $\det(B) = 0$.
\[A^{-1} = \pmatrix{-2 & 3/2 \\ 1 & -1/2}.\]
$B^{-1}$ finns ej.
\[ B^tB = \pmatrix{20 & 10 \\ 10 & 5}.\]
$(B^tB)^{-1}$ existerar ej.
5. (a) Oändligt antal lösningar om alla tre linjerna sammanfaller, 1 lösning om linjerna skär varandra i en punkt men inte alla sammanfaller, 0 lösningar om linjerna inte skär i en punkt.
Går direkt till (c): Ekvationssystemet kan skrivas
\[\pmatrix{1 & 2 \\ 1 & -1 \\ 2 & -1} \cdot \pmatrix{x_1 \\ x_2} = \pmatrix{3\\ 2 \\ 2}.\]
Minsta-kvadratlösning fås genom att vi löser
\[\pmatrix{1 & 1 & 2\\ 2 & -1 & -1} \cdot \pmatrix{1 & 2 \\ 1 & -1 \\ 2 & -1} \cdot \pmatrix{x_1 \\ x_2} = \pmatrix{1 & 1 & 2\\ 2 & -1 & -1} \cdot \pmatrix{3\\ 2 \\ 2},\] dvs
\[\pmatrix{6 & -1\\ -1 & 6} \cdot \pmatrix{x_1 \\ x_2} = \pmatrix{9 \\ 2}.\]
Lösningen blir $x_1 = 8/5$ och $x_2 = 3/5$.
(b) För att visa att systemet saknar lösning räcker det att sätta in minsta-kvadratlösningen och kolla att den inte löser systemet. Hade det funnits en lösning, hade ju den varit minsta-kvadratlösning!
6. Antar att systemet i fråga är $Ax = b$. Går direkt på (b). Inversen till $A$ är
\[\frac1{11}\pmatrix{2 & 1 & -7 \\ -3 & 4 & 5\\ 5 & -3 & -1}.\] Eftersom inversen existerar finns exakt en lösning till $Ax = b$, och den ges av \[x = A^{-1} b = \pmatrix{-2 \\ 2 \\ 1}.\]
7. Typo, det ska vara $v_2 = \pmatrix{1\\ -1}$. Vi söker $A$ som uppfyller
\[A\cdot \pmatrix{1\\ 1} = \pmatrix{5 \\ 5}\] och
\[A\cdot \pmatrix{1\\ -1} = \pmatrix{7 \\ -7}.\]
Ansätter vi \[ A = \pmatrix{a & b \\ c & d}\] får vi ekvationssystemet
\[\begin{eqnarray} a + b =5\\ c+d = 5\\ a-b = 7\\ c-d = -7,\end{eqnarray}\] och det visar sig att
\[ A = \pmatrix{6 & -1 \\ -1 & 6}.\]
Tentan från 2013:
1(a) \[ u \cdot v = ad+be+cf = \left\|u\right\| \cdot \left\|v\right\| \cdot \cos\alpha\] där $\alpha$ är vinkeln mellan $u$ och $v$.
(b) $\left\|u\right\| = \sqrt{a^2+b^2+c^2}$.
(c) \[u\times v = \pmatrix{bf-ce\\cd-af\\ae-bd}.\]
2. Minsta avståndet fås för t=1, och är $\sqrt{2}$.
3. Determinanten är $4a-2b$. Invers saknas då detta är noll, dvs då $2a=b$.
4. \[AB=\pmatrix{10 & 5\\ 16 & 8}.\]
\[ BA = \pmatrix{8 & 20 \\ 4 & 10}.\]
\[ Ab = \pmatrix{6 \\10}.\]
\[ b^tA = \pmatrix{5 & 13}.\]
$A + b$ finns ej,
\[ A + B = \pmatrix{5 & 5 \\ 4 & 5}.\]
$\det(A) = -2$, $\det(B) = 0$.
\[A^{-1} = \pmatrix{-2 & 3/2 \\ 1 & -1/2}.\]
$B^{-1}$ finns ej.
\[ B^tB = \pmatrix{20 & 10 \\ 10 & 5}.\]
$(B^tB)^{-1}$ existerar ej.
5. (a) Oändligt antal lösningar om alla tre linjerna sammanfaller, 1 lösning om linjerna skär varandra i en punkt men inte alla sammanfaller, 0 lösningar om linjerna inte skär i en punkt.
Går direkt till (c): Ekvationssystemet kan skrivas
\[\pmatrix{1 & 2 \\ 1 & -1 \\ 2 & -1} \cdot \pmatrix{x_1 \\ x_2} = \pmatrix{3\\ 2 \\ 2}.\]
Minsta-kvadratlösning fås genom att vi löser
\[\pmatrix{1 & 1 & 2\\ 2 & -1 & -1} \cdot \pmatrix{1 & 2 \\ 1 & -1 \\ 2 & -1} \cdot \pmatrix{x_1 \\ x_2} = \pmatrix{1 & 1 & 2\\ 2 & -1 & -1} \cdot \pmatrix{3\\ 2 \\ 2},\] dvs
\[\pmatrix{6 & -1\\ -1 & 6} \cdot \pmatrix{x_1 \\ x_2} = \pmatrix{9 \\ 2}.\]
Lösningen blir $x_1 = 8/5$ och $x_2 = 3/5$.
(b) För att visa att systemet saknar lösning räcker det att sätta in minsta-kvadratlösningen och kolla att den inte löser systemet. Hade det funnits en lösning, hade ju den varit minsta-kvadratlösning!
6. Antar att systemet i fråga är $Ax = b$. Går direkt på (b). Inversen till $A$ är
\[\frac1{11}\pmatrix{2 & 1 & -7 \\ -3 & 4 & 5\\ 5 & -3 & -1}.\] Eftersom inversen existerar finns exakt en lösning till $Ax = b$, och den ges av \[x = A^{-1} b = \pmatrix{-2 \\ 2 \\ 1}.\]
7. Typo, det ska vara $v_2 = \pmatrix{1\\ -1}$. Vi söker $A$ som uppfyller
\[A\cdot \pmatrix{1\\ 1} = \pmatrix{5 \\ 5}\] och
\[A\cdot \pmatrix{1\\ -1} = \pmatrix{7 \\ -7}.\]
Ansätter vi \[ A = \pmatrix{a & b \\ c & d}\] får vi ekvationssystemet
\[\begin{eqnarray} a + b =5\\ c+d = 5\\ a-b = 7\\ c-d = -7,\end{eqnarray}\] och det visar sig att
\[ A = \pmatrix{6 & -1 \\ -1 & 6}.\]
Wednesday, October 15, 2014
Spektralsatsen
Spektralsatsen är det i särklass mest avancerade resultat som faller inom ramen för den här kursen. Ett fullständigt bevis är ganska krävande, och boken når nästan, men inte riktigt ända fram. Den här bloggposten är tänkt att komplettera (och gnälla lite på!) boken.
Det finns inom matematiken ett antal "spektralsatser" för begränsade operatorer på Hilbertrum och ditten och datten. Vad vi menar med spektralsatsen i den här kursen är att en symmetrisk $n\times n$-matris har en ortogonal bas av egenvektorer. Och vi pratar bara om reella matriser, reella egenvektorer, och reella egenvärden.
Lemma 1: Om $A$ är en symmetrisk $n\times n$-matris, gäller för alla vektorer $u, v\in \mathbb{R}^n$ att \[u\cdot (Av) = v\cdot (Au).\]
Bevis: Vänsterledet är lika med \[ \sum_{1\leq i,j\leq n} u_ia_{i,j}v_j,\] och högerledet är \[ \sum_{1\leq i,j\leq n} v_ja_{j,i}u_i.\] Dessa är lika eftersom $a_{i,j} = a_{j,i}$.
Omvändningen gäller också: Om $A$ har egenskapen att $u\cdot (Av) = v\cdot (Au)$ för alla $u$ och $v$, så måste $A$ vara symmetrisk. Matriselementet $a_{i,j}$ är nämligen lika med \[e_i\cdot (Ae_j),\] som då i sin tur är lika med \[e_j\cdot (Ae_i) = a_{j,i}.\]
Det här gör att vi kan prata om symmetriska avbildningar $V\to V$, för delrum $V$ av $\mathbb{R}^n$. Med det menar vi en linjär avbildning $f$ som har egenskapen att $u\cdot f(v) = v\cdot f(u)$ för alla $u, v\in V$. Symmetrin är en egenskap hos avbildningen, och är inte knuten till matrisen.
En av konsekvenserna av Lemma 1 är:
Lemma 2: Om $A$ är en symmetrisk avbildning av ett $n$-dimensionellt rum $V\to V$, och $w$ är en egenvektor till $A$, så kommer rummet $W$ av vektorer ortogonala mot $w$ att avbildas på sig självt av $A$.
Bevis: Antag att $v$ är ortogonal mot $w$, dvs att $v\cdot w = 0$. Eftersom $w$ är en egenvektor, är $v$ även ortogonal mot $Aw$, dvs $v\cdot (Aw)=0$. Enligt lemmat är då $w\cdot (Av) = 0$, dvs även $Av$ är ortogonal mot $w$ och ligger alltså i $W$.
Avbildningen $A$ kommer då att definiera en avbildning på rummet $W$ av alla vektorer som är ortogonala mot $w$, och denna avbildning kommer givetvis fortfarande att ha egenskapen att $u\cdot (Av) = v\cdot (Au)$. Den är alltså symmetrisk även som avbildning $W\to W$.
Om vi tänker oss att spektralsatsen är bevisad för alla rum av dimension upp till $n-1$, och $A$ är en symmetrisk $n\times n$-matris med en egenvektor $w$, kommer spektralsatsen att vara sann även för matrisen $A$. Rummet $W$ som är ortogonalt mot $w$ har ju dimension $n-1$, och har en ortogonal bas av egenvektorer. Tillsammans med $w$ ger detta en ortogonal bas av egenvektorer för hela $\mathbb{R}^n$.
För att bevisa spektralsatsen med induktion behöver vi därför bara visa att varje symmetrisk matris har någon (nollskild) egenvektor.
En metod för att hitta en egenvektor baseras på att först hitta en enhetsvektor $u$ som maximerar $\left\| Au \right\|$ bland alla enhetsvektorer. Antag att $u$ är en sådan vektor, och att $\left\| Au \right\| = M$. Låt $v$ vara enhetsvektorn i samma riktning som $Au$, dvs \[v = \frac{Au}M.\] (Om $M=0$ går inte detta, men i så fall måste hela $A$ vara noll och då är vi ändå klara).
Nu utnyttjar vi att $u\cdot Av = v\cdot Au$. Eftersom $Au = M\cdot v$, har vi
\[ u\cdot Av = v\cdot Au = M\cdot (v\cdot v) = M\cdot \left\|v\right\|^2 = M.\]
Men samtidigt gäller att \[u \cdot Av = \left\|u\right\| \cdot \left\|Av\right\|\cdot \cos\alpha = \left\|Av\right\|\cdot \cos\alpha,\]
där $\alpha$ är vinkeln mellan $u$ och $Av$. Vi har alltså $\left\|Av\right\|\cdot \cos\alpha = M$ trots att $\left\|Av\right\|\leq M$. Enda möjligheten är då att $\left\|Av\right\| = M$ och $\alpha=0$, dvs $u$ och $Av$ är också parallella (liksom $v$ och $Au$), och $Av = M\cdot u$.
Men då följer att \[A(u+v) = Au + Av = M\cdot v + M\cdot u = M\cdot (u+v).\] Så $u+v$ är en egenvektor!
Fast vänta, sakta i backarna! Det är ju bara nollskilda egenvektorer som räknas! Om $u+v=0$ har vi inte kommit någonstans. Men om $u+v=0$, så är $Au = Mv = -Mu$, så då är $u$ en egenvektor. Och $u$ var ju en enhetsvektor, så $u$ är inte nollvektorn.
Den enda lucka vi har kvar att fylla är nu frågan om existensen av ett maximum av $\left\|Au\right\|$ på mängden av alla enhetsvektorer. Ni har nog hört talas om att en sluten begränsad mängd av reella tal är kompakt, och att en kontinuerlig funktion från en kompakt mängd till de reella talen antar ett maximalt och ett minimalt värde. Detsamma gäller i högre dimensioner. Mängden av enhetsvektorer i $\mathbb{R}^n$ är en sluten och begränsad mängd, och därför kompakt enligt Heine-Borels sats. Funktionen $u\mapsto \left\|Au\right\|$ är kontinuerlig, och måste därför anta ett största värde.
Nu har vi lämnat den rena algebran, men som ofta påpekas kan man inte förvänta sig ett "rent algebraiskt" bevis för spektralsatsen, eftersom den så att säga utnyttjar den mikroskopiska strukturen hos de reella talen. Detta är något som spektralsatsen har gemensamt med den nära relaterade "algebrans fundamentalsats", som handlar om algebra, men kräver analys och topologi, till exempel Heine-Borels sats, för att bevisas. Men allt hänger ju ihop!
I boken bevisar kollegan Lemurell ett par resultat som pekar i riktning mot spektralsatsen, men som inte fullt ut bevisar den. Jag förstår Lemurells ambition att på ett någorlunda enkelt sätt motivera spektralsatsen. Men jag är tveksam till hur de här resultaten presenteras i detalj, eftersom vi varken har pratat om komplexa vektorrum eller algebrans fundamentalsats tidigare i kursen. Det verkar strida mot anmärkning 8.11, s 236.
Det börjar med Sats 8.16, som säger att en symmetrisk reell matris har enbart reella egenvärden. Egenvärden som inte är reella är alltså komplexa tal med nollskild imaginärdel. Då ska vi plötsligt räkna med vektorer i $\mathbb{C}^n$, alltså $n$-tupler av komplexa tal. Definitionen av egenvärde och egenvektor generaliseras ju på ett ganska rättframt sätt, så just det är väl egentligen inga problem. Så då vet vi att en symmetrisk reell matris med komplext egenvärde $\lambda$ och komplex egenvektor $v$ implicerar att $\lambda$ är lika med sitt eget komplexkonjugat, dvs att $\lambda$ måste vara ett reellt tal.
På s241 fortsätter resonemanget: "Dock kan det förstås inträffa att karakteristiska polynomet har multipla nollställen så att antalet olika egenvärden för en symmetrisk $n\times n$-matris är strikt mindre än $n$".
Det verkar som om Lemurell här implicit menar att vi har visat att det karakteristiska polynomet har enbart reella nollställen. Men det följer ju inte direkt av Sats 8.16!
Om $\lambda$ är en reell rot till det karakteristiska polynomet gäller, som Lemurell säger på s 235, att $\det(A-\lambda I) = 0$ är ekvivalent med att ekvationen $(A-\lambda I)v= 0$ har en icketrivial (dvs nollskild) lösning.
Matrisen $A-\lambda I$ svarar då mot en linjär avbildning $\mathbb{R}^n\to \mathbb{R}^n$ som inte är inverterbar, dvs som avbildar hela $\mathbb{R}^n$ in i ett rum av lägre dimension. Den måste då avbilda någon nollskild vektor $v$ på $0$, vilket innebär att $Av = \lambda Iv = \lambda v$, dvs $v$ är en egenvektor till $A$ med egenvärde $\lambda$.
Men Lemurell slarvar med detta för komplexa $\lambda$. Hur vet vi att ett komplext nollställe till karakteristiska ekvationen verkligen har en tillhörande egenvektor i $\mathbb{C}^n$? Vi som har läst mycket mer algebra kanske känner i magtrakten att de resonemang som har förts om reella linjära avbildningar och determinanter fungerar lika bra med komplexa tal, men man kan inte förutsätta att den som går en första kurs i linjär algebra ska se detta med en gång.
Sedan kommer Sats 8.17 som säger att egenvektorer som svarar mot olika reella egenvärden är ortogonala mot varandra. Vårt Lemma 1 (början av den här posten) som karakteriserar symmetriska avbildningar visas inuti beviset för Sats 8.17, och formuleras inte som ett eget resultat.
I det sista stycket i avsnitt 242 säger Lemurell att satserna 8.16 och 8.17 visar att en symmetrisk $n\times n$-matris har $n$ ortogonala egenvektorer såvida inte det karakteristiska polynomet har en dubbelrot. Men så vitt jag ser håller inte resonemanget. Det har inte visats att ett komplext nollställe till den karakteristiska ekvationen verkligen är ett egenvärde. Det är egentligen inte så svårt, men man vill ju inte i kapitel 8 skriva om hela kapitel 4, 5, 6 och 7 och byta ut reella tal mot komplexa hela vägen. Dessutom används algebrans fundamentalsats utan att detta omnämns. Och algebrans fundamentalsats är mer avancerad än Heine-Borels lemma (och beviset använder Heine-Borel).
Samma typ av fel, fast inte lika lömskt maskerat, finns för övrigt på den svenska wikipediasidan om spektralsatsen. Alltså att man inte bevisar att det faktiskt finns en egenvektor.
Det finns inom matematiken ett antal "spektralsatser" för begränsade operatorer på Hilbertrum och ditten och datten. Vad vi menar med spektralsatsen i den här kursen är att en symmetrisk $n\times n$-matris har en ortogonal bas av egenvektorer. Och vi pratar bara om reella matriser, reella egenvektorer, och reella egenvärden.
Lemma 1: Om $A$ är en symmetrisk $n\times n$-matris, gäller för alla vektorer $u, v\in \mathbb{R}^n$ att \[u\cdot (Av) = v\cdot (Au).\]
Bevis: Vänsterledet är lika med \[ \sum_{1\leq i,j\leq n} u_ia_{i,j}v_j,\] och högerledet är \[ \sum_{1\leq i,j\leq n} v_ja_{j,i}u_i.\] Dessa är lika eftersom $a_{i,j} = a_{j,i}$.
Omvändningen gäller också: Om $A$ har egenskapen att $u\cdot (Av) = v\cdot (Au)$ för alla $u$ och $v$, så måste $A$ vara symmetrisk. Matriselementet $a_{i,j}$ är nämligen lika med \[e_i\cdot (Ae_j),\] som då i sin tur är lika med \[e_j\cdot (Ae_i) = a_{j,i}.\]
Det här gör att vi kan prata om symmetriska avbildningar $V\to V$, för delrum $V$ av $\mathbb{R}^n$. Med det menar vi en linjär avbildning $f$ som har egenskapen att $u\cdot f(v) = v\cdot f(u)$ för alla $u, v\in V$. Symmetrin är en egenskap hos avbildningen, och är inte knuten till matrisen.
En av konsekvenserna av Lemma 1 är:
Lemma 2: Om $A$ är en symmetrisk avbildning av ett $n$-dimensionellt rum $V\to V$, och $w$ är en egenvektor till $A$, så kommer rummet $W$ av vektorer ortogonala mot $w$ att avbildas på sig självt av $A$.
Bevis: Antag att $v$ är ortogonal mot $w$, dvs att $v\cdot w = 0$. Eftersom $w$ är en egenvektor, är $v$ även ortogonal mot $Aw$, dvs $v\cdot (Aw)=0$. Enligt lemmat är då $w\cdot (Av) = 0$, dvs även $Av$ är ortogonal mot $w$ och ligger alltså i $W$.
Avbildningen $A$ kommer då att definiera en avbildning på rummet $W$ av alla vektorer som är ortogonala mot $w$, och denna avbildning kommer givetvis fortfarande att ha egenskapen att $u\cdot (Av) = v\cdot (Au)$. Den är alltså symmetrisk även som avbildning $W\to W$.
Om vi tänker oss att spektralsatsen är bevisad för alla rum av dimension upp till $n-1$, och $A$ är en symmetrisk $n\times n$-matris med en egenvektor $w$, kommer spektralsatsen att vara sann även för matrisen $A$. Rummet $W$ som är ortogonalt mot $w$ har ju dimension $n-1$, och har en ortogonal bas av egenvektorer. Tillsammans med $w$ ger detta en ortogonal bas av egenvektorer för hela $\mathbb{R}^n$.
För att bevisa spektralsatsen med induktion behöver vi därför bara visa att varje symmetrisk matris har någon (nollskild) egenvektor.
En metod för att hitta en egenvektor baseras på att först hitta en enhetsvektor $u$ som maximerar $\left\| Au \right\|$ bland alla enhetsvektorer. Antag att $u$ är en sådan vektor, och att $\left\| Au \right\| = M$. Låt $v$ vara enhetsvektorn i samma riktning som $Au$, dvs \[v = \frac{Au}M.\] (Om $M=0$ går inte detta, men i så fall måste hela $A$ vara noll och då är vi ändå klara).
Nu utnyttjar vi att $u\cdot Av = v\cdot Au$. Eftersom $Au = M\cdot v$, har vi
\[ u\cdot Av = v\cdot Au = M\cdot (v\cdot v) = M\cdot \left\|v\right\|^2 = M.\]
Men samtidigt gäller att \[u \cdot Av = \left\|u\right\| \cdot \left\|Av\right\|\cdot \cos\alpha = \left\|Av\right\|\cdot \cos\alpha,\]
där $\alpha$ är vinkeln mellan $u$ och $Av$. Vi har alltså $\left\|Av\right\|\cdot \cos\alpha = M$ trots att $\left\|Av\right\|\leq M$. Enda möjligheten är då att $\left\|Av\right\| = M$ och $\alpha=0$, dvs $u$ och $Av$ är också parallella (liksom $v$ och $Au$), och $Av = M\cdot u$.
Men då följer att \[A(u+v) = Au + Av = M\cdot v + M\cdot u = M\cdot (u+v).\] Så $u+v$ är en egenvektor!
Fast vänta, sakta i backarna! Det är ju bara nollskilda egenvektorer som räknas! Om $u+v=0$ har vi inte kommit någonstans. Men om $u+v=0$, så är $Au = Mv = -Mu$, så då är $u$ en egenvektor. Och $u$ var ju en enhetsvektor, så $u$ är inte nollvektorn.
Den enda lucka vi har kvar att fylla är nu frågan om existensen av ett maximum av $\left\|Au\right\|$ på mängden av alla enhetsvektorer. Ni har nog hört talas om att en sluten begränsad mängd av reella tal är kompakt, och att en kontinuerlig funktion från en kompakt mängd till de reella talen antar ett maximalt och ett minimalt värde. Detsamma gäller i högre dimensioner. Mängden av enhetsvektorer i $\mathbb{R}^n$ är en sluten och begränsad mängd, och därför kompakt enligt Heine-Borels sats. Funktionen $u\mapsto \left\|Au\right\|$ är kontinuerlig, och måste därför anta ett största värde.
Nu har vi lämnat den rena algebran, men som ofta påpekas kan man inte förvänta sig ett "rent algebraiskt" bevis för spektralsatsen, eftersom den så att säga utnyttjar den mikroskopiska strukturen hos de reella talen. Detta är något som spektralsatsen har gemensamt med den nära relaterade "algebrans fundamentalsats", som handlar om algebra, men kräver analys och topologi, till exempel Heine-Borels sats, för att bevisas. Men allt hänger ju ihop!
I boken bevisar kollegan Lemurell ett par resultat som pekar i riktning mot spektralsatsen, men som inte fullt ut bevisar den. Jag förstår Lemurells ambition att på ett någorlunda enkelt sätt motivera spektralsatsen. Men jag är tveksam till hur de här resultaten presenteras i detalj, eftersom vi varken har pratat om komplexa vektorrum eller algebrans fundamentalsats tidigare i kursen. Det verkar strida mot anmärkning 8.11, s 236.
Det börjar med Sats 8.16, som säger att en symmetrisk reell matris har enbart reella egenvärden. Egenvärden som inte är reella är alltså komplexa tal med nollskild imaginärdel. Då ska vi plötsligt räkna med vektorer i $\mathbb{C}^n$, alltså $n$-tupler av komplexa tal. Definitionen av egenvärde och egenvektor generaliseras ju på ett ganska rättframt sätt, så just det är väl egentligen inga problem. Så då vet vi att en symmetrisk reell matris med komplext egenvärde $\lambda$ och komplex egenvektor $v$ implicerar att $\lambda$ är lika med sitt eget komplexkonjugat, dvs att $\lambda$ måste vara ett reellt tal.
På s241 fortsätter resonemanget: "Dock kan det förstås inträffa att karakteristiska polynomet har multipla nollställen så att antalet olika egenvärden för en symmetrisk $n\times n$-matris är strikt mindre än $n$".
Det verkar som om Lemurell här implicit menar att vi har visat att det karakteristiska polynomet har enbart reella nollställen. Men det följer ju inte direkt av Sats 8.16!
Om $\lambda$ är en reell rot till det karakteristiska polynomet gäller, som Lemurell säger på s 235, att $\det(A-\lambda I) = 0$ är ekvivalent med att ekvationen $(A-\lambda I)v= 0$ har en icketrivial (dvs nollskild) lösning.
Matrisen $A-\lambda I$ svarar då mot en linjär avbildning $\mathbb{R}^n\to \mathbb{R}^n$ som inte är inverterbar, dvs som avbildar hela $\mathbb{R}^n$ in i ett rum av lägre dimension. Den måste då avbilda någon nollskild vektor $v$ på $0$, vilket innebär att $Av = \lambda Iv = \lambda v$, dvs $v$ är en egenvektor till $A$ med egenvärde $\lambda$.
Men Lemurell slarvar med detta för komplexa $\lambda$. Hur vet vi att ett komplext nollställe till karakteristiska ekvationen verkligen har en tillhörande egenvektor i $\mathbb{C}^n$? Vi som har läst mycket mer algebra kanske känner i magtrakten att de resonemang som har förts om reella linjära avbildningar och determinanter fungerar lika bra med komplexa tal, men man kan inte förutsätta att den som går en första kurs i linjär algebra ska se detta med en gång.
Sedan kommer Sats 8.17 som säger att egenvektorer som svarar mot olika reella egenvärden är ortogonala mot varandra. Vårt Lemma 1 (början av den här posten) som karakteriserar symmetriska avbildningar visas inuti beviset för Sats 8.17, och formuleras inte som ett eget resultat.
I det sista stycket i avsnitt 242 säger Lemurell att satserna 8.16 och 8.17 visar att en symmetrisk $n\times n$-matris har $n$ ortogonala egenvektorer såvida inte det karakteristiska polynomet har en dubbelrot. Men så vitt jag ser håller inte resonemanget. Det har inte visats att ett komplext nollställe till den karakteristiska ekvationen verkligen är ett egenvärde. Det är egentligen inte så svårt, men man vill ju inte i kapitel 8 skriva om hela kapitel 4, 5, 6 och 7 och byta ut reella tal mot komplexa hela vägen. Dessutom används algebrans fundamentalsats utan att detta omnämns. Och algebrans fundamentalsats är mer avancerad än Heine-Borels lemma (och beviset använder Heine-Borel).
Samma typ av fel, fast inte lika lömskt maskerat, finns för övrigt på den svenska wikipediasidan om spektralsatsen. Alltså att man inte bevisar att det faktiskt finns en egenvektor.
Tuesday, October 14, 2014
Knutteori
Knutteori handlar om huruvida ett trassel av en eller flera slutna kurvor i rummet kan trasslas upp utan att kurvorna rör sig genom varandra.
En treklöverknut:
kan till exempel inte trasslas upp till en så kallad oknut (även känd som cirkel). En treklöver kan inte heller överföras till sin spegelbild, utan finns i två olika versioner, en “vänsterorienterad” och en “högerorienterad” (hm, vilken är vilken?).
Att bevisa att det inte går att överföra en kurva till en annan kan vara knepigt och problemet har lett till fantastisk matematik. År 1990 gick en av Fieldsmedaljerna till Vaughan Jones från Nya Zeeland för upptäckten av det som nu kallas Jonespolynomet.
För att representera knutar kan man använda så kallade knutdiagram, som är tvådimensionella bilder av kurvan. På de ställen där kurvan ser ut att skära sig själv, är det markerat vilken del som går över och vilken som går under. Treklövern kan representeras som:
Trasslandet kan då reduceras till tre tillåtna operationer, de så kallade Reidemeister moves:
De tre typerna av drag kan utföras lokalt, dvs i figuren ovan antar man att resten av diagrammet är oförändrat.
För att visa att ett diagram inte kan överföras i ett annat, måste man hitta en invariant, det vill säga en egenskap hos diagrammet som är oförändrad under Reidemeisterdragen. Om en invariant är olika för två diagram, kan de inte överföras i varandra. Vi ska använda linjär algebra för att bevisa att två länkade cirklar inte kan tas isär.
Låt oss säga att en funktion från kurvorna i ett diagram till de reella talen är kvasikonstant (det ordet har jag själv hittat på) om
För Hopf-länken (de två länkade cirklarna) till exempel, får vi två variabler, $x$ och $y$, och ekvationerna
\[ x = \frac{y+y}2 \] och \[y = \frac{x+x}2. \]
Med andra ord $x=y$, så de enda kvasikonstanta avbildningarna är de konstanta. Värdena på de två cirklarna är så att säga länkade till varandra.
Poängen med de kvasikonstanta avbildningarna är att:
En unpoke involverar två kurvsnuttar som vi kan kalla $x$ och $y$ (de skulle kunna vara samma, och även om de inte är samma snutt, är det möjligt att andra ekvationer i diagrammet tvingar dem att ha samma värde, men låt oss ändå kalla dem $x$ och $y$). När vi för in $x$-snutten under $y$-snutten, bildas en ny kurvsnutt som vi kan kalla $z$. Båda nya korsningarna ger samma ekvation, $y=(x+z)/2$ eller ekvivalent $z = 2y - x$. Eftersom $z$ inte förekommer i någon annan ekvation och $z$ helt styrs av $x$ och $y$, förändras inte dimensionen av lösningsrummet.
En slide är lite mer komplicerad, men låt oss införa variabler $x_1,\dots, x_6$ för tåtarna som går ut ur vänstra diagrammet i III, med början "klockan ett". Då är för det första $x_2 = x_5$, eftersom de är samma kurvsnutt. För det andra är $x_1+x_4 = x_2+x_5$, på grund av korsningen mellan tåtarna med de variablerna. Slutligen har vi tåtarna $x_3$ och $x_6$, och den mellanliggande snutten som vi kan kalla $y$. Vi kan lösa ut $y$ som $y=2x_2-x_6$, och det visar sig att resterande ekvationer kan förenklas till
\[ x_1+x_3+x_5 = x_2+x_4+x_6.\]
I den högra delen av III kan vi numrera de utgående tåtarna på samma sätt med $x_1,\dots,x_6$. Vi har fortfarande $x_2=x_5$, och $x_1+x_4=x_2+x_5$ på grund av den korsning som bara involverar de tåtarna. Vi kan kalla den nya mellanliggande snutten för $z$, och det visar sig att övriga två ekvationern igen ger $x_1+x_3+x_5=x_2+x_4+x_6$. Enda skillnaden är att vi nu har ett extra $z = 2x_2-x_3$ i stället för $y=2x_2-x_6$, men detta påverkar inte dimensionen av lösningsrummet.
Inget av de tre Reidemeisterdragen kan alltså ändra dimensionen av rummet av kvasikonstanta avbildningar. Detta tal är således en invariant och är därför en egenskap hos knuten i sig, inte något som beror på den valda representationen som diagram.
Att dimensionen av de kvasikonstanta avbildningarna är invariant bevisar att det inte går att ta isär Hopf-länken med Reidemeisterdrag. För i ett diagram med två olänkade cirklar är dimensionen 2, vi kan ju välja värdena på de två cirklarna oberoende av varandra!
Jag lämnar åt läsaren att räkna ut dimensionen av kvasikonstanta funktioner från the Borromean rings:
Det finns 6 kurvsnuttar och 6 korsningar, så det blir 6 variabler och 6 ekvationer. Bara att Gausseliminera och få fram dimensionen av lösningsrummet!
Om dimensionen blir något annat än 3, betyder det att ringarna inte går att ta isär. Notera att ringarna inte sitter ihop två och två. Skulle man få loss en av dem, skulle de övriga två också lossna från varandra!
De kvasikonstanta avbildningarna visar tyvärr inte att treklöverknuten inte kan lösas upp. Den har tre kurvsnuttar, och ekvationssystemet kokar ner till \[3x = 3y =3z.\] Vilket betyder att de enda kvasikonstanta funktionerna är konstanta, som på en oknuten cirkel. Såvida man inte räknar modulo 3...
En treklöverknut:
kan till exempel inte trasslas upp till en så kallad oknut (även känd som cirkel). En treklöver kan inte heller överföras till sin spegelbild, utan finns i två olika versioner, en “vänsterorienterad” och en “högerorienterad” (hm, vilken är vilken?).
Att bevisa att det inte går att överföra en kurva till en annan kan vara knepigt och problemet har lett till fantastisk matematik. År 1990 gick en av Fieldsmedaljerna till Vaughan Jones från Nya Zeeland för upptäckten av det som nu kallas Jonespolynomet.
För att representera knutar kan man använda så kallade knutdiagram, som är tvådimensionella bilder av kurvan. På de ställen där kurvan ser ut att skära sig själv, är det markerat vilken del som går över och vilken som går under. Treklövern kan representeras som:
Trasslandet kan då reduceras till tre tillåtna operationer, de så kallade Reidemeister moves:
De tre typerna av drag kan utföras lokalt, dvs i figuren ovan antar man att resten av diagrammet är oförändrat.
För att visa att ett diagram inte kan överföras i ett annat, måste man hitta en invariant, det vill säga en egenskap hos diagrammet som är oförändrad under Reidemeisterdragen. Om en invariant är olika för två diagram, kan de inte överföras i varandra. Vi ska använda linjär algebra för att bevisa att två länkade cirklar inte kan tas isär.
Låt oss säga att en funktion från kurvorna i ett diagram till de reella talen är kvasikonstant (det ordet har jag själv hittat på) om
- den inte "byter" värde längs en kurva annat än när kurvan passerar under en annan kurvsnutt, och
- medelvärdet av de två värdena på under-kurvan är lika med värdet på över-kurvan i varje korsning.
För Hopf-länken (de två länkade cirklarna) till exempel, får vi två variabler, $x$ och $y$, och ekvationerna
\[ x = \frac{y+y}2 \] och \[y = \frac{x+x}2. \]
Med andra ord $x=y$, så de enda kvasikonstanta avbildningarna är de konstanta. Värdena på de två cirklarna är så att säga länkade till varandra.
Poängen med de kvasikonstanta avbildningarna är att:
Dimensionen av rummet av kvasikonstanta avbildningar är en invariant.För att kontrollera att det stämmer, räcker det att kontrollera de tre Reidemeisterdragen. En twist (se figuren med Reidemeisterdrag) involverar två kurvsnuttar, låt oss sätta $x$ på den som går över, och $y$ på den som går under. Korsningen ger ekvationen $x= (x+y)/2$ som kan förenklas till $x=y$. Därför kan vi ersätta $x$ och $y$ med en enda variabel, vilket är vad vi får om vi gör en untwist!
En unpoke involverar två kurvsnuttar som vi kan kalla $x$ och $y$ (de skulle kunna vara samma, och även om de inte är samma snutt, är det möjligt att andra ekvationer i diagrammet tvingar dem att ha samma värde, men låt oss ändå kalla dem $x$ och $y$). När vi för in $x$-snutten under $y$-snutten, bildas en ny kurvsnutt som vi kan kalla $z$. Båda nya korsningarna ger samma ekvation, $y=(x+z)/2$ eller ekvivalent $z = 2y - x$. Eftersom $z$ inte förekommer i någon annan ekvation och $z$ helt styrs av $x$ och $y$, förändras inte dimensionen av lösningsrummet.
En slide är lite mer komplicerad, men låt oss införa variabler $x_1,\dots, x_6$ för tåtarna som går ut ur vänstra diagrammet i III, med början "klockan ett". Då är för det första $x_2 = x_5$, eftersom de är samma kurvsnutt. För det andra är $x_1+x_4 = x_2+x_5$, på grund av korsningen mellan tåtarna med de variablerna. Slutligen har vi tåtarna $x_3$ och $x_6$, och den mellanliggande snutten som vi kan kalla $y$. Vi kan lösa ut $y$ som $y=2x_2-x_6$, och det visar sig att resterande ekvationer kan förenklas till
\[ x_1+x_3+x_5 = x_2+x_4+x_6.\]
I den högra delen av III kan vi numrera de utgående tåtarna på samma sätt med $x_1,\dots,x_6$. Vi har fortfarande $x_2=x_5$, och $x_1+x_4=x_2+x_5$ på grund av den korsning som bara involverar de tåtarna. Vi kan kalla den nya mellanliggande snutten för $z$, och det visar sig att övriga två ekvationern igen ger $x_1+x_3+x_5=x_2+x_4+x_6$. Enda skillnaden är att vi nu har ett extra $z = 2x_2-x_3$ i stället för $y=2x_2-x_6$, men detta påverkar inte dimensionen av lösningsrummet.
Inget av de tre Reidemeisterdragen kan alltså ändra dimensionen av rummet av kvasikonstanta avbildningar. Detta tal är således en invariant och är därför en egenskap hos knuten i sig, inte något som beror på den valda representationen som diagram.
Att dimensionen av de kvasikonstanta avbildningarna är invariant bevisar att det inte går att ta isär Hopf-länken med Reidemeisterdrag. För i ett diagram med två olänkade cirklar är dimensionen 2, vi kan ju välja värdena på de två cirklarna oberoende av varandra!
Jag lämnar åt läsaren att räkna ut dimensionen av kvasikonstanta funktioner från the Borromean rings:
Det finns 6 kurvsnuttar och 6 korsningar, så det blir 6 variabler och 6 ekvationer. Bara att Gausseliminera och få fram dimensionen av lösningsrummet!
Om dimensionen blir något annat än 3, betyder det att ringarna inte går att ta isär. Notera att ringarna inte sitter ihop två och två. Skulle man få loss en av dem, skulle de övriga två också lossna från varandra!
De kvasikonstanta avbildningarna visar tyvärr inte att treklöverknuten inte kan lösas upp. Den har tre kurvsnuttar, och ekvationssystemet kokar ner till \[3x = 3y =3z.\] Vilket betyder att de enda kvasikonstanta funktionerna är konstanta, som på en oknuten cirkel. Såvida man inte räknar modulo 3...
Monday, October 13, 2014
Hintar till hemdugga 3
Som vanligt kommer några kommentarer till duggan.
På uppgift 1 kan det vara bra att titta på Proposition 7.6, sidan 206 i boken. Även Sats 7.16 på sida 210 är bra.
För att hitta svaret till uppgift 2 kan man förstås googla några nyckelord från kemin, men poängen här är att det blir ett linjärt ekvationssystem.
På uppgift 3, tänk på att det är $k$ och $m$ som blir variabler i ekvationssystemet. Och $\log$ betyder förstås den naturliga logaritmen. Men eftersom det bara är en konstant faktor som skiljer, går det egentligen lika bra med tiologaritmen, tvålogaritmen eller vilken logaritm som helst.
Uppgift 4 har att göra med Kirchhoffs "matrix-tree theorem" och Cayleys formel (vilket man förstås inte behöver veta för att lösa uppgiften, men det var så jag kokade ihop den). På 4(a) behövs bara en grov uppskattning under rimliga antaganden. Men på 4(b) vill jag ha ett exakt svar, inte bara en Fermiuppskattning till närmsta tiopotens (hihi!).
Kom ihåg att när det gäller determinanter, kan man göra "radoperationer" även på kolumnerna!
På uppgift 1 kan det vara bra att titta på Proposition 7.6, sidan 206 i boken. Även Sats 7.16 på sida 210 är bra.
För att hitta svaret till uppgift 2 kan man förstås googla några nyckelord från kemin, men poängen här är att det blir ett linjärt ekvationssystem.
På uppgift 3, tänk på att det är $k$ och $m$ som blir variabler i ekvationssystemet. Och $\log$ betyder förstås den naturliga logaritmen. Men eftersom det bara är en konstant faktor som skiljer, går det egentligen lika bra med tiologaritmen, tvålogaritmen eller vilken logaritm som helst.
Uppgift 4 har att göra med Kirchhoffs "matrix-tree theorem" och Cayleys formel (vilket man förstås inte behöver veta för att lösa uppgiften, men det var så jag kokade ihop den). På 4(a) behövs bara en grov uppskattning under rimliga antaganden. Men på 4(b) vill jag ha ett exakt svar, inte bara en Fermiuppskattning till närmsta tiopotens (hihi!).
Kom ihåg att när det gäller determinanter, kan man göra "radoperationer" även på kolumnerna!
En trivialitet
Ibland hoppar vi över de enklaste sakerna, trivialiteterna. Kanske för att de inte exemplifierar metoder på ett allmängiltigt sätt, eller för att de inte gör sig bra som tentauppgifter. Ibland är vi rädda att det ska förvirra om vi ordar för mycket om att saker går att se på olika sätt.
Men det här med att se saker på olika sätt, specifikt att kunna uppfatta saker som geometri i mångdimensionella rum, är på en abstrakt nivå ett av målen med kursen.
Vi har gått igenom minsta kvadrat-anpassning för att hitta “bästa” lösningen till olösliga ekvationssystem. Att på detta sätt anpassa en linjär funktion till brusiga mätdata kan betraktas som att projicera en punkt i ett mångdimensionellt rum ortogonalt på ett delrum. I statistikdelen av kursen handlar en hel del om väntevärde, även känt som medelvärde för ändliga utfallsrum. Här kommer trivialiteten: väntevärde och medelvärde är minstakvadratlösningar, och kan därmed också betraktas som projiceringar!
Låt migförvirra förklara. Anta att vi har talen $a$, $b$, $c$, och $d$ som mätdata, resultat, eller statistik av något slag. Men vi vill presentera ett tal som vårt resultat. Det tal vi presenterar, låt oss kalla det $x$, ska helst ha egenskapen att $x=a$, $x=b$, $x=c$ och $x=d$, samtidigt, vilket förstås inte går såvida inte $a$, $b$, $c$ och $d$ råkar vara lika. På matrisform kan vi skriva det
\[\pmatrix{1\\1\\1\\1} \cdot \pmatrix{x} = \pmatrix{a\\b\\c\\d}.\]
Nu vill vi anpassa $x$ så att felet minimeras i minsta kvadrat-mening, dvs vi väljer $x$ så att $(x-a)^2+(x-b)^2+(x-c)^2+(x-d)^2$ blir så litet som möjligt. Enligt teorin i kapitel 5 multiplicerar vi med transponatet till koefficientmatrisen till vänster:
\[\pmatrix{1 & 1 & 1 & 1} \cdot \pmatrix{1\\1\\1\\1} \cdot \pmatrix{x} = \pmatrix{1 & 1 & 1 & 1} \cdot \pmatrix{a\\b\\c\\d},\] och löser det ekvationssystemet i stället. System och system förresten, här blir det ju bara en ekvation om man multiplicerar ut:
\[4x = a+b+c+d.\]
Så \[x=\frac{a+b+c+d}4,\] dvs $x$ är medelvärdet av $a$, $b$, $c$ och $d$.
Att det är medelvärdet man ska ta om man vill minimera summan av kvadraterna på felen kan man för övrigt se även med den gamla hederliga analysmetoden att kolla var derivatan av det man vill minimera är noll: $(x-a)^2+(x-b)^2+(x-c)^2+(x-d)^2$ har derivatan
\[2(x-a)+2(x-b)+2(x-c)+2(x-d),\] som är noll när $4x = a+b+c+d$.
Så på vilket sätt är det här en projektion? Jo vi projicerar punkten $\pmatrix{a\\b\\c\\d}$ i $\mathbb{R}^4$ ortogonalt på delrummet (dvs linjen!) av alla $\pmatrix{x_1\\x_2\\x_3\\x_4}$ som uppfyller $x_1=x_2=x_3=x_4$.
Så nästa gång du räknar ut medelvärdet av fyra tal, tänk på att du håller på med geometri i fyra dimensioner!
Men det här med att se saker på olika sätt, specifikt att kunna uppfatta saker som geometri i mångdimensionella rum, är på en abstrakt nivå ett av målen med kursen.
Vi har gått igenom minsta kvadrat-anpassning för att hitta “bästa” lösningen till olösliga ekvationssystem. Att på detta sätt anpassa en linjär funktion till brusiga mätdata kan betraktas som att projicera en punkt i ett mångdimensionellt rum ortogonalt på ett delrum. I statistikdelen av kursen handlar en hel del om väntevärde, även känt som medelvärde för ändliga utfallsrum. Här kommer trivialiteten: väntevärde och medelvärde är minstakvadratlösningar, och kan därmed också betraktas som projiceringar!
Låt mig
\[\pmatrix{1\\1\\1\\1} \cdot \pmatrix{x} = \pmatrix{a\\b\\c\\d}.\]
Nu vill vi anpassa $x$ så att felet minimeras i minsta kvadrat-mening, dvs vi väljer $x$ så att $(x-a)^2+(x-b)^2+(x-c)^2+(x-d)^2$ blir så litet som möjligt. Enligt teorin i kapitel 5 multiplicerar vi med transponatet till koefficientmatrisen till vänster:
\[\pmatrix{1 & 1 & 1 & 1} \cdot \pmatrix{1\\1\\1\\1} \cdot \pmatrix{x} = \pmatrix{1 & 1 & 1 & 1} \cdot \pmatrix{a\\b\\c\\d},\] och löser det ekvationssystemet i stället. System och system förresten, här blir det ju bara en ekvation om man multiplicerar ut:
\[4x = a+b+c+d.\]
Så \[x=\frac{a+b+c+d}4,\] dvs $x$ är medelvärdet av $a$, $b$, $c$ och $d$.
Att det är medelvärdet man ska ta om man vill minimera summan av kvadraterna på felen kan man för övrigt se även med den gamla hederliga analysmetoden att kolla var derivatan av det man vill minimera är noll: $(x-a)^2+(x-b)^2+(x-c)^2+(x-d)^2$ har derivatan
\[2(x-a)+2(x-b)+2(x-c)+2(x-d),\] som är noll när $4x = a+b+c+d$.
Så på vilket sätt är det här en projektion? Jo vi projicerar punkten $\pmatrix{a\\b\\c\\d}$ i $\mathbb{R}^4$ ortogonalt på delrummet (dvs linjen!) av alla $\pmatrix{x_1\\x_2\\x_3\\x_4}$ som uppfyller $x_1=x_2=x_3=x_4$.
Så nästa gång du räknar ut medelvärdet av fyra tal, tänk på att du håller på med geometri i fyra dimensioner!
Wednesday, October 1, 2014
$\mathbb{R}^n$ och Cauchy-Schwarz
I går tisdag 30 september var det inlämning av dugga 2 och så blåste vi igenom kapitel 4. I detta kapitel definieras vektoroperationer, skalärprodukt, vinklar, avstånd, linjära avbildningar, matriser mm igen, fast den här gången utan den i bokens titel omtalade geometriska utgångspunkten.
En skillnad är att nu definieras skalärprodukt rent algebraiskt (som summan av produkterna av koordinaterna). Därefter definieras avstånd och vinklar i termer av skalärprodukten.
Avståndsformeln aka Pythagoras sats gäller alltså fortfarande, men nu är den egentligen ingen sats, utan en definition!
Motsvarande gäller för vinklar, som nu definieras genom \[\cos \alpha = \frac{u\cdot v}{\left\|u\right\|\cdot \left\|v\right\|},\] för vinkeln $\alpha$ mellan vektorerna $u$ och $v$ (tänkta som pilar från origo).
För att denna definition ska vara ok måste högerledet ligga i intervallet $[-1,1]$, och det faktum att det gör det kallas Cauchy-Schwarz olikhet. Vi kan kvadrera och skriva den som
\[\cos^2\alpha = \frac{(u\cdot v)^2}{(u\cdot u)(v\cdot v)} \leq 1.\]
Cauchy [koʃi] var för övrigt fransman, född någon månad efter stormningen av bastiljen, och uttalet av hans namn är ganska olikt kautschuk.
I boken lämnas beviset av Cauchy-Schwarz som övning, med en ledtråd om att utnyttja att \[0 \leq \left\| u-\frac{(u\cdot v)}{\left\|v\right\|^2}\cdot v\right\|^2.\]
Mycket riktigt kokar det ner till Cauchy-Schwarz olikhet om man hela vägen utnyttjar att normen i kvadrat är lika med skalärprodukten av en vektor med sig själv, och multiplicerar ut och förenklar.
Men hur kommer man på att man ska titta på just det här uttrycket? Tja, man skulle kunna göra som först föreslås i boken och införa en parameter $t$ och börja med att \[0\leq \left\|u - tv\right\|^2.\] En fördel är att här kan vi välja $t$ hur vi vill, och olikheten gäller alltid. Vad den säger är alltså att skalärprodukten av $u-tv$ med sig själv är icke-negativ, vilket är klart från den algebraiska definitionen, eftersom det blir en summa av kvadrater.
Om vi mutiplicerar ut denna skalärprodukt får vi
\[0\leq (u\cdot u) - 2t(u\cdot v) + t^2(v\cdot v).\]
Nu kan vi tänka på högerledet som ett andragradspolynom $f(t)$ i variabeln $t$. Vad innebär det för koefficienterna i detta polynom att det aldrig är negativt? Om vi skulle lösa ekvationen $f(t)=0$, dvs \[(v\cdot v)t^2 - 2(u\cdot v)t + (u\cdot u) = 0\] med pq-formeln, skulle vi först skriva om den som \[t^2 - 2\frac{(u\cdot v)}{(v\cdot v)}\cdot t + \frac{(u\cdot u)}{(v \cdot v)} = 0,\] och sedan få rötterna \[t = \frac{(u\cdot v)}{(v\cdot v)} \pm \sqrt{\frac{(u\cdot v)^2}{(v\cdot v)^2} - \frac{(u\cdot u)}{(v\cdot v)}}.\]
Att $f(t)\geq 0$ för alla $t$ innebär att rötterna antingen måste vara icke-reella, dvs uttrycket under kvadratrotstecknet negativt, eller sammanfalla, vilket de gör om uttrycket under rottecknet är noll. Skulle uttrycket under rottecknet vara positivt, skulle det finnas två olika reella rötter, och i så fall skulle ju $f(t)$ byta tecken och alltså vara negativt mellan rötterna!
Vi drar alltså slutsatsen att uttrycket under rottecknet är $\leq 0$, vilket betyder att \[ \frac{(u\cdot v)^2}{(v\cdot v)^2} \leq \frac{(u\cdot u)}{(v\cdot v)},\]
eller om vi stuvar om: \[\frac{(u\cdot v)^2}{(u\cdot u)(v\cdot v)} \leq 1.\]
Hoppsan, där satt den! Vänsterledet här är ju det som skulle vara $\cos^2\alpha$, så vinkeldefinitionen är alltså okej!
I stället för pq-formeln kan man kolla var $f(t)$ antar sitt minimum. Att $f(t)\geq 0$ för alla $t$ är ju samma sak som att dess minimum är större än eller lika med 0.
Vi har \[f(t) = (v\cdot v)t^2 -2(u\cdot v)t + (u\cdot u),\] och \[f'(t) = 2(v\cdot v) t - 2(u\cdot v).\] Detta är noll när \[t=\frac{(u\cdot v)}{(v\cdot v)}.\] Aha, där har vi det. Det var därför vi skulle ta just det värdet på $t$! Notera att $v\cdot v = \left\|v\right\|^2$, så det här är det värde på $t$ som föreslås i hinten i boken.
Sätter vi in, får vi
\[f\left(\frac{u\cdot v}{v\cdot v}\right) = \frac{(u\cdot v)^2}{v\cdot v} - 2\frac{(u\cdot v)^2}{v\cdot v} +u\cdot u = - \frac{(u\cdot v)^2}{v\cdot v} + u\cdot u.\]
Att detta är ickenegativt betyder att \[u\cdot u\geq \frac{(u\cdot v)^2}{v\cdot v},\] och igen får vi att det som ska vara $\cos^2\alpha$ är högst $1$.
En skillnad är att nu definieras skalärprodukt rent algebraiskt (som summan av produkterna av koordinaterna). Därefter definieras avstånd och vinklar i termer av skalärprodukten.
Avståndsformeln aka Pythagoras sats gäller alltså fortfarande, men nu är den egentligen ingen sats, utan en definition!
Motsvarande gäller för vinklar, som nu definieras genom \[\cos \alpha = \frac{u\cdot v}{\left\|u\right\|\cdot \left\|v\right\|},\] för vinkeln $\alpha$ mellan vektorerna $u$ och $v$ (tänkta som pilar från origo).
För att denna definition ska vara ok måste högerledet ligga i intervallet $[-1,1]$, och det faktum att det gör det kallas Cauchy-Schwarz olikhet. Vi kan kvadrera och skriva den som
\[\cos^2\alpha = \frac{(u\cdot v)^2}{(u\cdot u)(v\cdot v)} \leq 1.\]
Cauchy [koʃi] var för övrigt fransman, född någon månad efter stormningen av bastiljen, och uttalet av hans namn är ganska olikt kautschuk.
I boken lämnas beviset av Cauchy-Schwarz som övning, med en ledtråd om att utnyttja att \[0 \leq \left\| u-\frac{(u\cdot v)}{\left\|v\right\|^2}\cdot v\right\|^2.\]
Mycket riktigt kokar det ner till Cauchy-Schwarz olikhet om man hela vägen utnyttjar att normen i kvadrat är lika med skalärprodukten av en vektor med sig själv, och multiplicerar ut och förenklar.
Men hur kommer man på att man ska titta på just det här uttrycket? Tja, man skulle kunna göra som först föreslås i boken och införa en parameter $t$ och börja med att \[0\leq \left\|u - tv\right\|^2.\] En fördel är att här kan vi välja $t$ hur vi vill, och olikheten gäller alltid. Vad den säger är alltså att skalärprodukten av $u-tv$ med sig själv är icke-negativ, vilket är klart från den algebraiska definitionen, eftersom det blir en summa av kvadrater.
Om vi mutiplicerar ut denna skalärprodukt får vi
\[0\leq (u\cdot u) - 2t(u\cdot v) + t^2(v\cdot v).\]
Nu kan vi tänka på högerledet som ett andragradspolynom $f(t)$ i variabeln $t$. Vad innebär det för koefficienterna i detta polynom att det aldrig är negativt? Om vi skulle lösa ekvationen $f(t)=0$, dvs \[(v\cdot v)t^2 - 2(u\cdot v)t + (u\cdot u) = 0\] med pq-formeln, skulle vi först skriva om den som \[t^2 - 2\frac{(u\cdot v)}{(v\cdot v)}\cdot t + \frac{(u\cdot u)}{(v \cdot v)} = 0,\] och sedan få rötterna \[t = \frac{(u\cdot v)}{(v\cdot v)} \pm \sqrt{\frac{(u\cdot v)^2}{(v\cdot v)^2} - \frac{(u\cdot u)}{(v\cdot v)}}.\]
Att $f(t)\geq 0$ för alla $t$ innebär att rötterna antingen måste vara icke-reella, dvs uttrycket under kvadratrotstecknet negativt, eller sammanfalla, vilket de gör om uttrycket under rottecknet är noll. Skulle uttrycket under rottecknet vara positivt, skulle det finnas två olika reella rötter, och i så fall skulle ju $f(t)$ byta tecken och alltså vara negativt mellan rötterna!
Vi drar alltså slutsatsen att uttrycket under rottecknet är $\leq 0$, vilket betyder att \[ \frac{(u\cdot v)^2}{(v\cdot v)^2} \leq \frac{(u\cdot u)}{(v\cdot v)},\]
eller om vi stuvar om: \[\frac{(u\cdot v)^2}{(u\cdot u)(v\cdot v)} \leq 1.\]
Hoppsan, där satt den! Vänsterledet här är ju det som skulle vara $\cos^2\alpha$, så vinkeldefinitionen är alltså okej!
I stället för pq-formeln kan man kolla var $f(t)$ antar sitt minimum. Att $f(t)\geq 0$ för alla $t$ är ju samma sak som att dess minimum är större än eller lika med 0.
Vi har \[f(t) = (v\cdot v)t^2 -2(u\cdot v)t + (u\cdot u),\] och \[f'(t) = 2(v\cdot v) t - 2(u\cdot v).\] Detta är noll när \[t=\frac{(u\cdot v)}{(v\cdot v)}.\] Aha, där har vi det. Det var därför vi skulle ta just det värdet på $t$! Notera att $v\cdot v = \left\|v\right\|^2$, så det här är det värde på $t$ som föreslås i hinten i boken.
Sätter vi in, får vi
\[f\left(\frac{u\cdot v}{v\cdot v}\right) = \frac{(u\cdot v)^2}{v\cdot v} - 2\frac{(u\cdot v)^2}{v\cdot v} +u\cdot u = - \frac{(u\cdot v)^2}{v\cdot v} + u\cdot u.\]
Att detta är ickenegativt betyder att \[u\cdot u\geq \frac{(u\cdot v)^2}{v\cdot v},\] och igen får vi att det som ska vara $\cos^2\alpha$ är högst $1$.
Kursen i punktform
Vi har pratat på lunchmötet och i klassen om att ha en sammanfattning av kursen, och kombinerad "formelsamling" i form av en bloggpost som efterhand uppdateras. Jag går emot perfektionisten inom mig och lägger ut en lista som bara är påbörjad. Kommentera gärna!
Förkunskaper, geometri och trigonometri:
Förkunskaper, geometri och trigonometri:
- Pythagoras sats.
- Def av sinus, cosinus och tangens (sidlängder i rätvinklig triangel).
- Sinus och cosinus som $x$- och $y$-koordinater till punkter på enhetscirkeln.
- Cosinussatsen.
- "Exakta värden" på sinus och cosinus för multipler av $30^\circ$ och $45^\circ$.
- Förlänga med konjugatet för att få bort rottecken ur nämnare.
- Pilar med längd och riktning. Vektorer med samma längd och riktning är lika!
- Addition, multiplikation med skalär.
- Skalärprodukt = produkten av längderna gånger cosinus för vinkeln.
- Räkneregler för skalärprodukt.
Monday, September 29, 2014
Fibonaccitalen
Den här posten är, hur ska jag säga, överkurs låter bara svårt, men optional. Den är tänkt att ge ytterligare ett perspektiv, men inget man behöver sitta och plugga inför tentan.
Fibonaccitalen definieras av de två startvärdena $F_0=0$ och $F_1=1$, och den rekursiva ekvationen
\[F_{n+2} = F_n+F_{n+1}.\]
Med andra ord, varje tal i följden är summan av de två föregående, så det börjar
\[0,1,1,2,3,5,8,13,21,34,55,89,144,\dots.\] Fibonaccitalen dyker upp lite här och där i matematiken, men jag ska inte prata här om historien och varför de är viktiga, det är bara att googla!
Det finns en märklig "exakt formel" för Fibonaccitalen,
\[F_n = \frac1{\sqrt{5}}\left(\frac{1+\sqrt{5}}2\right)^n - \frac1{\sqrt{5}}\left(\frac{1-\sqrt{5}}2\right)^n.\]
Det här ser konstigt ut första gången man stöter på det. Det är en massa roten ur 5 överallt, så det är inte självklart att det ens blir heltal, men testar man att sätta in några värden på $n$ verkar det stämma. Och hur kommer man på en sådan formel?
Jag vet inte hur den först upptäcktes, men vi kan härleda den med lite modernt linjär algebra-tänk.
Först struntar vi i startvärdena, och definierar rummet av alla talföljder $(a_0, a_1, a_2,\dots)$ som uppfyller ekvationen $a_{n+2} = a_n+a_{n+1}$ för alla $n$. Det här är ett linjärt rum (under termvis addition och multiplikation). Vi kan kalla det $V$, och Fibonacciföljden är en punkt i $V$!
Några andra punkter i $V$ är nollan: \[(0,0,0,0,0,0\dots),\] minus Fibonacci: \[(0,-1,-1,-2,-3,-5\dots),\] Fibonacci förskjutet ett steg: \[(1,1,2,3,5,8\dots),\] och Lucastalen: \[(2,1,3,4,7,11\dots).\]
Rummet $V$ har två dimensioner, vilket man informellt inser genom att det finns två frihetsgrader. Vi kan välja $a_0$ och $a_1$ hur vi vill, men de bestämmer sedan hela resten av följden. Vi skulle kunna "koda" punkterna i $V$ genom att bara ange de två första talen i varje följd. Fibonaccitalen blir då $(0,1)$, och den andra vektorn i standardbasen, $(1,0)$, representerar en förskjuten Fibonacci: \[(1,0,1,1,2,3,5,\dots).\]
En följd i $V$ som börjar med $a_0=x$ och $a_1=y$ kan skrivas med "koordinaterna" $x$ och $y$, som \[x\cdot (1,0,1,1,2,3,5,\dots) + y\cdot (0,1,1,2,3,5,8,\dots).\]
Men det finns ett par ännu mer speciella punkter i $V$, nämligen de som är geometriska följder, och mer exakt, som har formen:
\[(1, x, x^2, x^3, x^4, x^5,\dots).\]
Det fiffiga är att eftersom en geometrisk följd växer (krymper) med samma faktor hela tiden, behöver vi bara kolla för vilka $x$ det stämmer att tredje talet i följden är summan av de två första, dvs för vilka $x$ som \[x^2 = 1+x.\]
Om den ekvationen gäller, så följer att $x^{n+2} = x^n+x^{n+1}$ för alla $n$.
Löser vi ekvationen, får vi rötterna \[\alpha = \frac{1+\sqrt{5}}2\] och \[\beta = \frac{1-\sqrt{5}}2.\]
Rummet $V$ innehåller alltså punkterna \[(1,\alpha, \alpha^2,\alpha^3,\dots)\] och \[(1,\beta, \beta^2,\beta^3,\dots).\]
Eftersom de här två vektorerna inte är parallella, och inte är noll, spänner de upp hela $V$ ($V$ har ju bara två dimensioner). Fibonaccitalen kan därför skrivas som en linjärkombination av $(1,\alpha, \alpha^2,\alpha^3,\dots)$ och $(1,\beta, \beta^2,\beta^3,\dots)$. Då återstår bara att beräkna koordinaterna. Vi söker alltså $A$ och $B$ så att \[(0,1,1,2,3,5,\dots) = A\cdot (1,\alpha, \alpha^2,\alpha^3,\dots) + B \cdot (1,\beta, \beta^2,\beta^3,\dots).\]
Tittar vi på första talen i respektive följd, får vi att $0 = A + B$, så $B=-A$. Det andra talet i respektive följd ger att \[1 = A\cdot \alpha + B\cdot \beta = A\cdot \alpha + (-A)\cdot \beta = A\cdot (\alpha-\beta) = A \cdot \sqrt{5},\] så $A=1/\sqrt{5}$ och $B = -1/\sqrt{5}$, och då har vi faktiskt härlett den exakta formeln. Vi har \[(0,1,1,2,3,5,\dots) = \frac1{\sqrt{5}}\cdot (1,\alpha, \alpha^2,\alpha^3,\dots) - \frac1{\sqrt{5}}\cdot (1,\beta, \beta^2,\beta^3,\dots),\] eller om man tittar på det $n$:te talet i följden och sätter in de kända värdena på $\alpha$ och $\beta$: \[F_n = \frac1{\sqrt{5}}\left(\frac{1+\sqrt{5}}2\right)^n - \frac1{\sqrt{5}}\left(\frac{1-\sqrt{5}}2\right)^n.\] Lägg märke till att den andra termen går mot noll, så skulle man använda det här numeriskt, behöver man bara räkna ut första termen och avrunda till närmaste heltal.
Fibonaccitalen definieras av de två startvärdena $F_0=0$ och $F_1=1$, och den rekursiva ekvationen
\[F_{n+2} = F_n+F_{n+1}.\]
Med andra ord, varje tal i följden är summan av de två föregående, så det börjar
\[0,1,1,2,3,5,8,13,21,34,55,89,144,\dots.\] Fibonaccitalen dyker upp lite här och där i matematiken, men jag ska inte prata här om historien och varför de är viktiga, det är bara att googla!
Det finns en märklig "exakt formel" för Fibonaccitalen,
\[F_n = \frac1{\sqrt{5}}\left(\frac{1+\sqrt{5}}2\right)^n - \frac1{\sqrt{5}}\left(\frac{1-\sqrt{5}}2\right)^n.\]
Det här ser konstigt ut första gången man stöter på det. Det är en massa roten ur 5 överallt, så det är inte självklart att det ens blir heltal, men testar man att sätta in några värden på $n$ verkar det stämma. Och hur kommer man på en sådan formel?
Jag vet inte hur den först upptäcktes, men vi kan härleda den med lite modernt linjär algebra-tänk.
Först struntar vi i startvärdena, och definierar rummet av alla talföljder $(a_0, a_1, a_2,\dots)$ som uppfyller ekvationen $a_{n+2} = a_n+a_{n+1}$ för alla $n$. Det här är ett linjärt rum (under termvis addition och multiplikation). Vi kan kalla det $V$, och Fibonacciföljden är en punkt i $V$!
Några andra punkter i $V$ är nollan: \[(0,0,0,0,0,0\dots),\] minus Fibonacci: \[(0,-1,-1,-2,-3,-5\dots),\] Fibonacci förskjutet ett steg: \[(1,1,2,3,5,8\dots),\] och Lucastalen: \[(2,1,3,4,7,11\dots).\]
Rummet $V$ har två dimensioner, vilket man informellt inser genom att det finns två frihetsgrader. Vi kan välja $a_0$ och $a_1$ hur vi vill, men de bestämmer sedan hela resten av följden. Vi skulle kunna "koda" punkterna i $V$ genom att bara ange de två första talen i varje följd. Fibonaccitalen blir då $(0,1)$, och den andra vektorn i standardbasen, $(1,0)$, representerar en förskjuten Fibonacci: \[(1,0,1,1,2,3,5,\dots).\]
En följd i $V$ som börjar med $a_0=x$ och $a_1=y$ kan skrivas med "koordinaterna" $x$ och $y$, som \[x\cdot (1,0,1,1,2,3,5,\dots) + y\cdot (0,1,1,2,3,5,8,\dots).\]
Men det finns ett par ännu mer speciella punkter i $V$, nämligen de som är geometriska följder, och mer exakt, som har formen:
\[(1, x, x^2, x^3, x^4, x^5,\dots).\]
Det fiffiga är att eftersom en geometrisk följd växer (krymper) med samma faktor hela tiden, behöver vi bara kolla för vilka $x$ det stämmer att tredje talet i följden är summan av de två första, dvs för vilka $x$ som \[x^2 = 1+x.\]
Om den ekvationen gäller, så följer att $x^{n+2} = x^n+x^{n+1}$ för alla $n$.
Löser vi ekvationen, får vi rötterna \[\alpha = \frac{1+\sqrt{5}}2\] och \[\beta = \frac{1-\sqrt{5}}2.\]
Rummet $V$ innehåller alltså punkterna \[(1,\alpha, \alpha^2,\alpha^3,\dots)\] och \[(1,\beta, \beta^2,\beta^3,\dots).\]
Eftersom de här två vektorerna inte är parallella, och inte är noll, spänner de upp hela $V$ ($V$ har ju bara två dimensioner). Fibonaccitalen kan därför skrivas som en linjärkombination av $(1,\alpha, \alpha^2,\alpha^3,\dots)$ och $(1,\beta, \beta^2,\beta^3,\dots)$. Då återstår bara att beräkna koordinaterna. Vi söker alltså $A$ och $B$ så att \[(0,1,1,2,3,5,\dots) = A\cdot (1,\alpha, \alpha^2,\alpha^3,\dots) + B \cdot (1,\beta, \beta^2,\beta^3,\dots).\]
Tittar vi på första talen i respektive följd, får vi att $0 = A + B$, så $B=-A$. Det andra talet i respektive följd ger att \[1 = A\cdot \alpha + B\cdot \beta = A\cdot \alpha + (-A)\cdot \beta = A\cdot (\alpha-\beta) = A \cdot \sqrt{5},\] så $A=1/\sqrt{5}$ och $B = -1/\sqrt{5}$, och då har vi faktiskt härlett den exakta formeln. Vi har \[(0,1,1,2,3,5,\dots) = \frac1{\sqrt{5}}\cdot (1,\alpha, \alpha^2,\alpha^3,\dots) - \frac1{\sqrt{5}}\cdot (1,\beta, \beta^2,\beta^3,\dots),\] eller om man tittar på det $n$:te talet i följden och sätter in de kända värdena på $\alpha$ och $\beta$: \[F_n = \frac1{\sqrt{5}}\left(\frac{1+\sqrt{5}}2\right)^n - \frac1{\sqrt{5}}\left(\frac{1-\sqrt{5}}2\right)^n.\] Lägg märke till att den andra termen går mot noll, så skulle man använda det här numeriskt, behöver man bara räkna ut första termen och avrunda till närmaste heltal.
Saturday, September 27, 2014
Lite om kapitel 3, lunch med studentrepresentanter mm
Hemdugga 2 finns sedan i tisdags på den officiella kurshemsidan, och delades ut på papper i torsdags. Den ska lämnas in vid början av föreläsningen på tisdag, 30 september. Så om ni inte har kollat på den än, gör det! Se även mina hintar.
Vi kommer att ha samma tentaregler på båda delarna av kursen, dvs miniräknare tillåten (men inte förprogrammerad eller som kan anslutas till internet), samt egenhändigt handskriven "formelsamling" (eller exempellösningar eller vad ni vill) på ett a4-ark.
Henrike, jag, Pontus och Daniel åt lunch i torsdags och pratade om kursen. Henrike fick beröm för sina repetitioner i början av föreläsningarna, och för struktur på föreläsningarna, med föreläsningens mål i punktform. Jag ska försöka ta efter.
Exempel är bra och viktigt, var alla överens om.
Jag ska inte vara rädd för att dra över tiden med mina föreläsningar, eftersom vi har hela förmiddagen.
Bloggen är bra, var i alla fall Pontus och Daniels åsikt. Jag skulle gärna vilja att alla läser den, men jag ser på statistiken över nedladdningar att det inte är så. Det vore bra att bygga upp något slags formelsamling, och punkter som man ska kunna, i form av en bloggpost.
Dugga 1 höll en hög svår nivå, men var givande. Bra tycker jag. Det ska inte vara lätta duggor och sedan kalldusch på tentan. Hellre tvärtom.
Vi pratade också om miljön i lektionssalen och hur arbetet där fungerar. Jag tycker det är väldigt bra att så många är där och att ni samarbetar, och det är kul att se att folk är där redan innan jag kommer strax efter 8.00 och sitter kvar med kaffetermosarna när jag går på lunch. Kan det rentav bli lite för fnittrigt och högljutt?
Vi kommer att ha ett utvärderingsmöte direkt efter linjär-algebratentan den 30 oktober.
Den här veckan har vi gått igenom kapitel 3. I min ursprungliga planering av kursen hade jag skrivit att tisdagens föreläsning skulle handla om bland annat begreppet linjärt rum. När det var dags för en mer detaljerad förberedelse av föreläsningen, upptäckte jag till min förvåning att kollegan Lemurell har lyckats undvika att definiera detta begrepp!
Medan vi är inne på det här med att gnälla på boken, kolla listan med "tryckfel" och rätta med en penna direkt i era böcker, det dyker nämligen upp mer fel!
Det här med linjära rum är inte så märkvärdigt att det behöver censureras bort. Högst upp på sidan 88 definieras linjära avbildningar (Def 3.1), och definitionen av linjärt rum borde stå parallellt med denna. För att definition 3.1 ska fungera krävs nämligen att åtminstone $V$, och helst också $W$, ska vara slutna under addition och multiplikation med skalär. Om $\mathbf{u}$ och $\mathbf{v}$ ligger i $V$, säger den första ekvationen att \[f(\mathbf{u}+\mathbf{v}) = f(\mathbf{u})+f(\mathbf{v}).\]
Då är det ju bra om $\mathbf{u}+\mathbf{v}$ ligger i $V$ så att vänsterledet är definierat. Motsvarande gäller den andra ekvationen.
Så låt oss klargöra vad som menas med ett linjärt rum (eller synonymt vektorrum). Definitionen är så att säga inte från grunden, utan vi antar att vektoraddition och multiplikation är definierade och uppfyller räknereglerna i Proposition 1.8 på sidan 10 (se även ovan länkade wikipediasida om Vector Spaces). En mängd $V$ av vektorer kallas då ett linjärt rum om
Förresten kan vi väl upprepa definitionen av linjär avbildning här. En funktion $f$ från ett linjärt rum $V$ till ett linjärt rum $W$ kallas linjär om den uppfyller:
Ovanstående punkter är alltså bara exempel, inte en fullständig klassifikation.
Bassatsen säger att avbildningar från $\mathbf{R}^n$ till $\mathbf{R}^m$ (se kap 4!) representeras av $m\times n$-matriser, dvs matriser med $m$ rader och $n$ kolumner. Varje matris svarar mot en avbildning, och varje avbildning svarar mot en matris. Men sök inte på internet efter "bassatsen" eller "basis theorem", för då hittar ni bara Hilberts basis theorem om Noetherska ringar och Bengt Ove Turessons föreläsningsanteckningar i Fourieranalys. Så vad heter satsen på riktigt? Jag vet inte, säg till om ni vet. No offense, men en del saker som är viktiga satser i grundkurser blir sedan så naturliga och triviala att de inte betraktas som satser överhuvudtaget.
Sammansättning av linjära avbildningar svarar mot multiplikation av matriser. Kom ihåg att den operation som görs först svarar mot den matris som står längst till höger! Säg till exempel att matrisen $R$ beskriver en viss rotation, och matrisen $S$ beskriver en viss spegling. Att först rotera och sedan spegla svarar då mot matrisprodukten $S\cdot R$. Det här ser man bäst om man tänker på vad som händer med en godtycklig punkt $\pmatrix{x\\y\\z}$. Först ska den roteras, då får vi vektorn $R\cdot \pmatrix{x\\y\\z}$. Sedna ska den vektorn speglas, och då får vi \[S\cdot\left(R\cdot \pmatrix{x\\y\\z}\right).\]
Men matrismultiplikation är ju associativ, så vi kan ta bort parenteserna:
\[S\cdot R\cdot \pmatrix{x\\y\\z}.\]
Eller sätta dem runt $S\cdot R$ och tänka att det är den matrisen som multipliceras med $\pmatrix{x\\y\\z}$:
\[\left(S\cdot R\right)\cdot \pmatrix{x\\y\\z}.\]
Det här med determinanter och hur de svarar mot area och volym har jag inte pratat så mycket om, men det är inte enbart slarv och lathet. I kapitel 6 kommer vi att gå igenom determinanter ordentligt, så det gör inte så mycket om vi missar några saker på det just nu.
Vi pratade om affina avbildningar, dvs avbildningar på formen $Ax+b$, där $A$ är en matris och $b$ är en vektor. De affina avbildningarna inkluderar de linjära, och även klassen av affina avbildningar är sluten under sammansättning. För att hitta matrisen $A$ och vektorn $b$ utifrån en geometrisk beskrivning (t ex spegling/rotation/projektion i/runt/på linje/plan som inte går genom origo) kan man börja med att undersöka vart origo avbildas. Bilden av origo är nämligen vektorn $b$. Har man hittat vektorn $b$ kan man sedan få fram matrisen $A$ genom att undersöka vart standardbasvektorerna avbildas.
Vi gick igenom ett par exempel på detta, se även Exempel 3.38 i boken.
Vi kommer att ha samma tentaregler på båda delarna av kursen, dvs miniräknare tillåten (men inte förprogrammerad eller som kan anslutas till internet), samt egenhändigt handskriven "formelsamling" (eller exempellösningar eller vad ni vill) på ett a4-ark.
Henrike, jag, Pontus och Daniel åt lunch i torsdags och pratade om kursen. Henrike fick beröm för sina repetitioner i början av föreläsningarna, och för struktur på föreläsningarna, med föreläsningens mål i punktform. Jag ska försöka ta efter.
Exempel är bra och viktigt, var alla överens om.
Jag ska inte vara rädd för att dra över tiden med mina föreläsningar, eftersom vi har hela förmiddagen.
Bloggen är bra, var i alla fall Pontus och Daniels åsikt. Jag skulle gärna vilja att alla läser den, men jag ser på statistiken över nedladdningar att det inte är så. Det vore bra att bygga upp något slags formelsamling, och punkter som man ska kunna, i form av en bloggpost.
Dugga 1 höll en hög svår nivå, men var givande. Bra tycker jag. Det ska inte vara lätta duggor och sedan kalldusch på tentan. Hellre tvärtom.
Vi pratade också om miljön i lektionssalen och hur arbetet där fungerar. Jag tycker det är väldigt bra att så många är där och att ni samarbetar, och det är kul att se att folk är där redan innan jag kommer strax efter 8.00 och sitter kvar med kaffetermosarna när jag går på lunch. Kan det rentav bli lite för fnittrigt och högljutt?
Vi kommer att ha ett utvärderingsmöte direkt efter linjär-algebratentan den 30 oktober.
Den här veckan har vi gått igenom kapitel 3. I min ursprungliga planering av kursen hade jag skrivit att tisdagens föreläsning skulle handla om bland annat begreppet linjärt rum. När det var dags för en mer detaljerad förberedelse av föreläsningen, upptäckte jag till min förvåning att kollegan Lemurell har lyckats undvika att definiera detta begrepp!
Medan vi är inne på det här med att gnälla på boken, kolla listan med "tryckfel" och rätta med en penna direkt i era böcker, det dyker nämligen upp mer fel!
Det här med linjära rum är inte så märkvärdigt att det behöver censureras bort. Högst upp på sidan 88 definieras linjära avbildningar (Def 3.1), och definitionen av linjärt rum borde stå parallellt med denna. För att definition 3.1 ska fungera krävs nämligen att åtminstone $V$, och helst också $W$, ska vara slutna under addition och multiplikation med skalär. Om $\mathbf{u}$ och $\mathbf{v}$ ligger i $V$, säger den första ekvationen att \[f(\mathbf{u}+\mathbf{v}) = f(\mathbf{u})+f(\mathbf{v}).\]
Då är det ju bra om $\mathbf{u}+\mathbf{v}$ ligger i $V$ så att vänsterledet är definierat. Motsvarande gäller den andra ekvationen.
Så låt oss klargöra vad som menas med ett linjärt rum (eller synonymt vektorrum). Definitionen är så att säga inte från grunden, utan vi antar att vektoraddition och multiplikation är definierade och uppfyller räknereglerna i Proposition 1.8 på sidan 10 (se även ovan länkade wikipediasida om Vector Spaces). En mängd $V$ av vektorer kallas då ett linjärt rum om
- mängden $V$ är sluten under addition, dvs om $\mathbf{u}\in V$ och $\mathbf{v}\in V$, så $\mathbf{u}+\mathbf{v}\in V$.
- mängden $V$ är sluten under multiplikation med skalär, dvs om $\mathbf{v}\in V$ och $c\in \mathbb{R}$, så $cv \in V$.
- $0\in V$.
Förresten kan vi väl upprepa definitionen av linjär avbildning här. En funktion $f$ från ett linjärt rum $V$ till ett linjärt rum $W$ kallas linjär om den uppfyller:
- $f(\mathbf{u}+\mathbf{v}) = f(\mathbf{u})+f(\mathbf{v})$, och
- $f(c\cdot \mathbf{v}) = c\cdot f(\mathbf{v})$.
- Omskalningar, dvs multiplikation med skalär (även omskalningar med olika faktorer i olika koordinatriktningar).
- Rotationer kring origo respektive linje genom origo i 2 resp 3 dimensioner.
- Speglingar kring linjer/plan genom origo.
- Projektioner på linjer/plan genom origo.
- Skjuvningar (fast just dem pratar vi nog inte så mycket om).
Ovanstående punkter är alltså bara exempel, inte en fullständig klassifikation.
Bassatsen säger att avbildningar från $\mathbf{R}^n$ till $\mathbf{R}^m$ (se kap 4!) representeras av $m\times n$-matriser, dvs matriser med $m$ rader och $n$ kolumner. Varje matris svarar mot en avbildning, och varje avbildning svarar mot en matris. Men sök inte på internet efter "bassatsen" eller "basis theorem", för då hittar ni bara Hilberts basis theorem om Noetherska ringar och Bengt Ove Turessons föreläsningsanteckningar i Fourieranalys. Så vad heter satsen på riktigt? Jag vet inte, säg till om ni vet. No offense, men en del saker som är viktiga satser i grundkurser blir sedan så naturliga och triviala att de inte betraktas som satser överhuvudtaget.
Sammansättning av linjära avbildningar svarar mot multiplikation av matriser. Kom ihåg att den operation som görs först svarar mot den matris som står längst till höger! Säg till exempel att matrisen $R$ beskriver en viss rotation, och matrisen $S$ beskriver en viss spegling. Att först rotera och sedan spegla svarar då mot matrisprodukten $S\cdot R$. Det här ser man bäst om man tänker på vad som händer med en godtycklig punkt $\pmatrix{x\\y\\z}$. Först ska den roteras, då får vi vektorn $R\cdot \pmatrix{x\\y\\z}$. Sedna ska den vektorn speglas, och då får vi \[S\cdot\left(R\cdot \pmatrix{x\\y\\z}\right).\]
Men matrismultiplikation är ju associativ, så vi kan ta bort parenteserna:
\[S\cdot R\cdot \pmatrix{x\\y\\z}.\]
Eller sätta dem runt $S\cdot R$ och tänka att det är den matrisen som multipliceras med $\pmatrix{x\\y\\z}$:
\[\left(S\cdot R\right)\cdot \pmatrix{x\\y\\z}.\]
Det här med determinanter och hur de svarar mot area och volym har jag inte pratat så mycket om, men det är inte enbart slarv och lathet. I kapitel 6 kommer vi att gå igenom determinanter ordentligt, så det gör inte så mycket om vi missar några saker på det just nu.
Vi pratade om affina avbildningar, dvs avbildningar på formen $Ax+b$, där $A$ är en matris och $b$ är en vektor. De affina avbildningarna inkluderar de linjära, och även klassen av affina avbildningar är sluten under sammansättning. För att hitta matrisen $A$ och vektorn $b$ utifrån en geometrisk beskrivning (t ex spegling/rotation/projektion i/runt/på linje/plan som inte går genom origo) kan man börja med att undersöka vart origo avbildas. Bilden av origo är nämligen vektorn $b$. Har man hittat vektorn $b$ kan man sedan få fram matrisen $A$ genom att undersöka vart standardbasvektorerna avbildas.
Vi gick igenom ett par exempel på detta, se även Exempel 3.38 i boken.
Lite hintar för dugga 2
Som några av er hade kommit på, måste matrisen $B$ i uppgift 2(b) vara inversen till matrisen $A$ i 2(a). Vi har inte gått igenom hur man beräknar inverser, men ni klarar det nog ändå!
Man kan göra ungefär som i uppgift 3.5 i boken. Fast det är lite taskigt att ge det rådet, när det inte finns någon lösning till 3.5 varken i boken eller på webben. Here goes.
$f$ är en linjär avbildning som uppfyller $f\pmatrix{1\\1\\1} = \pmatrix{2\\3\\4}$, $f\pmatrix{1\\1\\0} = \pmatrix{2\\8\\9}$, och $f\pmatrix{0\\1\\1} = \pmatrix{1\\5\\2}$.
Kolumnerna i matrisen utgörs av $f\pmatrix{1\\0\\0}$, $f\pmatrix{0\\1\\0}$, och $f\pmatrix{0\\0\\1}$, så det är dem vi försöker beräkna. Eftersom $\pmatrix{1\\1\\1} - \pmatrix{1\\1\\0} = \pmatrix{0\\0\\1}$, får vi $f\pmatrix{0\\0\\1} = f\pmatrix{1\\1\\1} - f\pmatrix{1\\1\\0} = \pmatrix{2\\3\\4} - \pmatrix{2\\8\\9} = \pmatrix{0\\-5\\-5}$.
Och eftersom $\pmatrix{0\\1\\1} - \pmatrix{0\\0\\1} = \pmatrix{0\\1\\0}$, får vi på samma sätt $f\pmatrix{0\\1\\0} = f\pmatrix{0\\1\\1} - f\pmatrix{0\\0\\1} = \pmatrix{1\\5\\2} - \pmatrix{0\\-5\\-5} = \pmatrix{1\\10\\7}$.
Slutligen är $\pmatrix{1\\0\\0} = \pmatrix{1\\1\\0} - \pmatrix{0\\1\\0}$, så
\[f\pmatrix{1\\0\\0} = f\pmatrix{1\\1\\0} - f\pmatrix{0\\1\\0} = \pmatrix{2\\8\\9} - \pmatrix{1\\10\\7} = \pmatrix{1\\-2\\2}.\]
Matrisen är alltså
\[\pmatrix {1 & 1& 0 \\-2 & 10 & -5\\2 & 7 & -5}.\]
Kontrollräkna!
Lägg märke till att högerleden i de givna ekvationerna, alltså $\pmatrix{2\\3\\4}$, $\pmatrix{2\\8\\9}$, och $\pmatrix{1\\5\\2}$, inte spelar någon roll i själva problemlösningen! Vad det handlar om är att pussla ihop standardbasvektorerna $\pmatrix{1\\0\\0}$, $\pmatrix{0\\1\\0}$,och $\pmatrix{0\\0\\1}$ av pusselbitarna $\pmatrix{1\\1\\1}$, $\pmatrix{1\\1\\0}$,och $\pmatrix{0\\1\\1}$. En plan för hur problemet ska lösas är att eftersom vi vet $f\pmatrix{1\\1\\1}$ och $f\pmatrix{1\\1\\0}$, kan vi räkna ut $f\pmatrix{0\\0\\1}$. Eftersom vi vet $f\pmatrix{0\\1\\1}$ och $f\pmatrix{0\\0\\1}$, kan vi sedan räkna ut $f\pmatrix{0\\1\\0}$. Och eftersom vi vet $f\pmatrix{1\\1\\0}$ och $f\pmatrix{0\\1\\0}$, kan vi slutligen räkna ut $f\pmatrix{1\\0\\0}$. Klart! I princip.
Man kan göra på olika sätt och ta stegen i olika ordning, exempelvis kunde vi räkna ut $f\pmatrix{1\\0\\0}$ först, eftersom vi vet $f\pmatrix{1\\1\\1}$ och $f\pmatrix{0\\1\\1}$.
Och hur är det här samma sak som uppgift 2(b)? Jo för att om vi sätter in valfria värden på $x$, $y$ och $z$, får vi fram ekvationer liknande de som ges i uppgift 3.5. Om vi till exempel tar $x=1$ och $y=z=0$, får vi $B\cdot\pmatrix{-1\\1\\-2} = \pmatrix{1\\0\\0}$. Kom i håg att för problemlösningen spelar högerledet här inte någon roll! Tänk "nu vet vi $B\cdot\pmatrix{-1\\1\\-2}$".
Om man tycker det verkar för trassligt att få fram $B$ gånger standardbasvektorerna på det sättet kan man kolla lite på internet hur man inverterar en matris. Några hade hittat en "grand formula for inverse of 3 by 3 matrix". Nu vet man ju aldrig om det man hittar på nätet är korrekt, men har man en kandidat för $B$, är det ju bara att sätta in och kolla om det stämmer.
Vill man göra ordentligt, kan man annars tjuvtitta i förväg i boken. Exempel 5.30, sid 169-170, visar hur man inverterar en $3\times 3$-matris.
Om man tycker att det ser konstigt ut, men inte är rädd för linjära ekvationssystem, kan man ställa upp ekvationer för att hitta värden på $x$, $y$ och $z$ som ger standardbasvektorerna. För att vektorn $\pmatrix{-x+y-2z\\x-y+z\\3y-2x}$ ska vara lika med $\pmatrix{1\\0\\0}$ till exempel, måste vi ha
\[\begin{cases} -x+y-2z&=1\\x-y+z&=0\\3y-2x&=0\end{cases}\]
Bara att lösa ut variablerna i tur och ordning!
Slutligen, inte att underskatta, finns brute-forcemetoden. Ta fram datorn och låt $x$, $y$ och $z$ gå från, säg, $-100$ till $100$. Det är bara 8 miljoner fall. För vart och ett, beräkna $\pmatrix{-x+y-2z\\x-y+z\\3y-2x}$ och kolla om det är en standardbasvektor. Klart på någon sekund.
Men vänta, elementen i inversen behöver ju inte vara heltal! I allmänhet är de ju rationella tal, där nämnaren är matrisens determinant. Så metoden blir att först räkna ut determinanten av matrisen $A$ med Sarrus regel, och sedan låta $x$, $y$, och $z$ vara heltal dividerat med denna determinant.
Fast vänta igen, säg att determinanten är 14, och att värdena $x=a/14$, $y=b/14$ och $z=c/14$ ger $\pmatrix{-x+y-2z\\x-y+z\\3y-2x} = \pmatrix{1\\0\\0}$. Då skulle ju värdena $x=a$, $y=b$ och $z=c$ ha gett $\pmatrix{-x+y-2z\\x-y+z\\3y-2x} = \pmatrix{14\\0\\0}$. Så vi behöver inte räkna ut determinanten först. I stället testar vi heltalsvärden på $x$, $y$ och $z$, och låter vårt program skriva ut de värden som ger någon multipel av standardbasvektorerna, dvs någon vektor som har två av tre komponenter lika med noll.
Nog om uppgift 2(b), lycka till!
På uppgift 4 är det några som har funderat kring detta med att rotera i positiv riktning eller motsols, i tre dimensioner. Vad betyder det? Det beror ju på från vilket håll man tittar. Om man sitter i en satellit ovanför nordpolen och tittar ner på jorden, snurrar den motsols, men tittar man från ovanför sydpolen (under??), snurrar den medsols. I princip behöver man en riktning på linjen för att kunna tala om rotation i positiv riktning runt linjen. Nu handlar det om $z$-axeln, och då finns en naturlig riktning. Vi gör alltså som i Exempel 3.21 på sid 97-98 i boken. Det innebär att $xy$-planet i sig roterar på det sätt som vi kallar positiv riktning i två dimensioner.
När ni har fått fram något som ni tror är rätt svar, kontrollräkna! Gäller det mesta i den här kursen.
Man kan göra ungefär som i uppgift 3.5 i boken. Fast det är lite taskigt att ge det rådet, när det inte finns någon lösning till 3.5 varken i boken eller på webben. Here goes.
$f$ är en linjär avbildning som uppfyller $f\pmatrix{1\\1\\1} = \pmatrix{2\\3\\4}$, $f\pmatrix{1\\1\\0} = \pmatrix{2\\8\\9}$, och $f\pmatrix{0\\1\\1} = \pmatrix{1\\5\\2}$.
Kolumnerna i matrisen utgörs av $f\pmatrix{1\\0\\0}$, $f\pmatrix{0\\1\\0}$, och $f\pmatrix{0\\0\\1}$, så det är dem vi försöker beräkna. Eftersom $\pmatrix{1\\1\\1} - \pmatrix{1\\1\\0} = \pmatrix{0\\0\\1}$, får vi $f\pmatrix{0\\0\\1} = f\pmatrix{1\\1\\1} - f\pmatrix{1\\1\\0} = \pmatrix{2\\3\\4} - \pmatrix{2\\8\\9} = \pmatrix{0\\-5\\-5}$.
Och eftersom $\pmatrix{0\\1\\1} - \pmatrix{0\\0\\1} = \pmatrix{0\\1\\0}$, får vi på samma sätt $f\pmatrix{0\\1\\0} = f\pmatrix{0\\1\\1} - f\pmatrix{0\\0\\1} = \pmatrix{1\\5\\2} - \pmatrix{0\\-5\\-5} = \pmatrix{1\\10\\7}$.
Slutligen är $\pmatrix{1\\0\\0} = \pmatrix{1\\1\\0} - \pmatrix{0\\1\\0}$, så
\[f\pmatrix{1\\0\\0} = f\pmatrix{1\\1\\0} - f\pmatrix{0\\1\\0} = \pmatrix{2\\8\\9} - \pmatrix{1\\10\\7} = \pmatrix{1\\-2\\2}.\]
Matrisen är alltså
\[\pmatrix {1 & 1& 0 \\-2 & 10 & -5\\2 & 7 & -5}.\]
Kontrollräkna!
Lägg märke till att högerleden i de givna ekvationerna, alltså $\pmatrix{2\\3\\4}$, $\pmatrix{2\\8\\9}$, och $\pmatrix{1\\5\\2}$, inte spelar någon roll i själva problemlösningen! Vad det handlar om är att pussla ihop standardbasvektorerna $\pmatrix{1\\0\\0}$, $\pmatrix{0\\1\\0}$,och $\pmatrix{0\\0\\1}$ av pusselbitarna $\pmatrix{1\\1\\1}$, $\pmatrix{1\\1\\0}$,och $\pmatrix{0\\1\\1}$. En plan för hur problemet ska lösas är att eftersom vi vet $f\pmatrix{1\\1\\1}$ och $f\pmatrix{1\\1\\0}$, kan vi räkna ut $f\pmatrix{0\\0\\1}$. Eftersom vi vet $f\pmatrix{0\\1\\1}$ och $f\pmatrix{0\\0\\1}$, kan vi sedan räkna ut $f\pmatrix{0\\1\\0}$. Och eftersom vi vet $f\pmatrix{1\\1\\0}$ och $f\pmatrix{0\\1\\0}$, kan vi slutligen räkna ut $f\pmatrix{1\\0\\0}$. Klart! I princip.
Man kan göra på olika sätt och ta stegen i olika ordning, exempelvis kunde vi räkna ut $f\pmatrix{1\\0\\0}$ först, eftersom vi vet $f\pmatrix{1\\1\\1}$ och $f\pmatrix{0\\1\\1}$.
Och hur är det här samma sak som uppgift 2(b)? Jo för att om vi sätter in valfria värden på $x$, $y$ och $z$, får vi fram ekvationer liknande de som ges i uppgift 3.5. Om vi till exempel tar $x=1$ och $y=z=0$, får vi $B\cdot\pmatrix{-1\\1\\-2} = \pmatrix{1\\0\\0}$. Kom i håg att för problemlösningen spelar högerledet här inte någon roll! Tänk "nu vet vi $B\cdot\pmatrix{-1\\1\\-2}$".
Om man tycker det verkar för trassligt att få fram $B$ gånger standardbasvektorerna på det sättet kan man kolla lite på internet hur man inverterar en matris. Några hade hittat en "grand formula for inverse of 3 by 3 matrix". Nu vet man ju aldrig om det man hittar på nätet är korrekt, men har man en kandidat för $B$, är det ju bara att sätta in och kolla om det stämmer.
Vill man göra ordentligt, kan man annars tjuvtitta i förväg i boken. Exempel 5.30, sid 169-170, visar hur man inverterar en $3\times 3$-matris.
Om man tycker att det ser konstigt ut, men inte är rädd för linjära ekvationssystem, kan man ställa upp ekvationer för att hitta värden på $x$, $y$ och $z$ som ger standardbasvektorerna. För att vektorn $\pmatrix{-x+y-2z\\x-y+z\\3y-2x}$ ska vara lika med $\pmatrix{1\\0\\0}$ till exempel, måste vi ha
\[\begin{cases} -x+y-2z&=1\\x-y+z&=0\\3y-2x&=0\end{cases}\]
Bara att lösa ut variablerna i tur och ordning!
Slutligen, inte att underskatta, finns brute-forcemetoden. Ta fram datorn och låt $x$, $y$ och $z$ gå från, säg, $-100$ till $100$. Det är bara 8 miljoner fall. För vart och ett, beräkna $\pmatrix{-x+y-2z\\x-y+z\\3y-2x}$ och kolla om det är en standardbasvektor. Klart på någon sekund.
Men vänta, elementen i inversen behöver ju inte vara heltal! I allmänhet är de ju rationella tal, där nämnaren är matrisens determinant. Så metoden blir att först räkna ut determinanten av matrisen $A$ med Sarrus regel, och sedan låta $x$, $y$, och $z$ vara heltal dividerat med denna determinant.
Fast vänta igen, säg att determinanten är 14, och att värdena $x=a/14$, $y=b/14$ och $z=c/14$ ger $\pmatrix{-x+y-2z\\x-y+z\\3y-2x} = \pmatrix{1\\0\\0}$. Då skulle ju värdena $x=a$, $y=b$ och $z=c$ ha gett $\pmatrix{-x+y-2z\\x-y+z\\3y-2x} = \pmatrix{14\\0\\0}$. Så vi behöver inte räkna ut determinanten först. I stället testar vi heltalsvärden på $x$, $y$ och $z$, och låter vårt program skriva ut de värden som ger någon multipel av standardbasvektorerna, dvs någon vektor som har två av tre komponenter lika med noll.
Nog om uppgift 2(b), lycka till!
På uppgift 4 är det några som har funderat kring detta med att rotera i positiv riktning eller motsols, i tre dimensioner. Vad betyder det? Det beror ju på från vilket håll man tittar. Om man sitter i en satellit ovanför nordpolen och tittar ner på jorden, snurrar den motsols, men tittar man från ovanför sydpolen (under??), snurrar den medsols. I princip behöver man en riktning på linjen för att kunna tala om rotation i positiv riktning runt linjen. Nu handlar det om $z$-axeln, och då finns en naturlig riktning. Vi gör alltså som i Exempel 3.21 på sid 97-98 i boken. Det innebär att $xy$-planet i sig roterar på det sätt som vi kallar positiv riktning i två dimensioner.
När ni har fått fram något som ni tror är rätt svar, kontrollräkna! Gäller det mesta i den här kursen.
Monday, September 22, 2014
Om hemdugga 1
Det var lite småfel här och där och några har fått rest, men alla som lämnade in hade rätt på det mesta, och jag räknar med att alla till slut blir godkända. Bra att ni pratar med varandra och samarbetar!
Uppgift 1 (a) visade sig bli en slamkrypare. Tydligen är boken och Wikipedia inte överens, och kanske finns en subtil skillnad mellan att vara definierad och att kunna definieras. Nog tjafsat om sjudimensionella produkter!
(b), (c) och (d) är alla falska!
Uppgift 2 handlade om att projicera punkten $(1,3,4)$ först på planet $x-2y+z = 0$ och sedan på linjen $(1, 2t, 3t)$. Projektionen på planet är $(1+1/6, 3-1/3, 4+1/6)$, och projektionen på linjen är $(19/14, 38/14, 57/14)$.
Den här uppgiften har att göra med minsta kvadrat-metoden för att anpassa en rät linje till tre punkter $(1,1), (2,3)$ och $(3,4)$. Jag pratade om det på föreläsningen, men jag ska inte beskriva det i detalj här. Minsta kvadratmetoden kommer tillbaka i ett senare kapitel.
Uppgift 3 handlade om en boll som studsar mot ett plan. Den var lite snällt gjord för att kunna lösas på ett par olika sätt. Bollen träffar planet efter 2 sekunder, eftersom punkten $(2,0,0)$ ligger i det givna planet. En riktningsvektor för bollens rörelse före studsen är $(1,0,0)$, och planets normal är bara att läsa av från ekvationen: $(4,2,1)$. Vinkeln mellan $(1,0,0)$ och $(4,2,1)$, kalla den $\alpha$, ges av
\[\cos \alpha = \frac{(4,2,1) \cdot (1,0,0)}{\left\|(4,2,1)\right\| \left\|(1,0,0)\right\|} = \frac4{\sqrt{21}}.\]
För att få bollens position efter 4 sekunder kan man beräkna speglingen i planet av den punkt där bollen hade befunnit sig om den inte hade studsat, alltså $(4,0,0)$. För att finna speglingen räcker det att beräkna projektionen, och sedan utnyttja att projektionen är medelvärdet av punkten och dess spegling. Projektionen av punkten $(4,0,0)$ på planet $4x+2y+z=8$ är $(52/21, -16/21, -8/21)$, och speglingen, dvs den sökta punkten, är $(20/21, -32/21, -16/21)$.
Ganska många hade fått svaret $(-22/21, -32/21, -16/21)$, vilket är riktningsvektorn från punkten $(2,0,0)$ till den sökta punkten. Själva räkningarna är rätt, men tänk igenom vad det är ni har räknat ut!
Uppgift 4 handlade om bindningsvinkeln i metan, som visar sig vara $\arccos(-1/3)$. I barycentriska koordinater sitter kolatomen i punkten $(1/4, 1/4, 1/4, 1/4)$. Riktningsvektorer därifrån till två av väteatomerna blir $(1,0,0,0) - (1/4, 1/4, 1/4, 1/4) = (3/4, -1/4, -1/4, -1/4)$ och $(0,1,0,0) - (1/4, 1/4, 174, 1/4) = (-1/4, 3/4, -1/4. -1/4)$. Det gäller alltså att räkna ut vinkeln mellan dessa, som är
\[\arccos\left(\frac{\pmatrix{3/4\\-1/4\\-1/4\\-1/4}\cdot \pmatrix{-1/4\\3/4\\-1/4\\-1/4}}{\left\|\pmatrix{3/4\\-1/4\\-1/4\\-1/4}\right\| \cdot \left\|\pmatrix{-1/4\\3/4\\-1/4\\-1/4}\right\|} \right) = \arccos\left(\frac{-1/4}{3/4}\right) = \arccos\left(-\frac13\right).\]
Uppgift 1 (a) visade sig bli en slamkrypare. Tydligen är boken och Wikipedia inte överens, och kanske finns en subtil skillnad mellan att vara definierad och att kunna definieras. Nog tjafsat om sjudimensionella produkter!
(b), (c) och (d) är alla falska!
Uppgift 2 handlade om att projicera punkten $(1,3,4)$ först på planet $x-2y+z = 0$ och sedan på linjen $(1, 2t, 3t)$. Projektionen på planet är $(1+1/6, 3-1/3, 4+1/6)$, och projektionen på linjen är $(19/14, 38/14, 57/14)$.
Den här uppgiften har att göra med minsta kvadrat-metoden för att anpassa en rät linje till tre punkter $(1,1), (2,3)$ och $(3,4)$. Jag pratade om det på föreläsningen, men jag ska inte beskriva det i detalj här. Minsta kvadratmetoden kommer tillbaka i ett senare kapitel.
Uppgift 3 handlade om en boll som studsar mot ett plan. Den var lite snällt gjord för att kunna lösas på ett par olika sätt. Bollen träffar planet efter 2 sekunder, eftersom punkten $(2,0,0)$ ligger i det givna planet. En riktningsvektor för bollens rörelse före studsen är $(1,0,0)$, och planets normal är bara att läsa av från ekvationen: $(4,2,1)$. Vinkeln mellan $(1,0,0)$ och $(4,2,1)$, kalla den $\alpha$, ges av
\[\cos \alpha = \frac{(4,2,1) \cdot (1,0,0)}{\left\|(4,2,1)\right\| \left\|(1,0,0)\right\|} = \frac4{\sqrt{21}}.\]
För att få bollens position efter 4 sekunder kan man beräkna speglingen i planet av den punkt där bollen hade befunnit sig om den inte hade studsat, alltså $(4,0,0)$. För att finna speglingen räcker det att beräkna projektionen, och sedan utnyttja att projektionen är medelvärdet av punkten och dess spegling. Projektionen av punkten $(4,0,0)$ på planet $4x+2y+z=8$ är $(52/21, -16/21, -8/21)$, och speglingen, dvs den sökta punkten, är $(20/21, -32/21, -16/21)$.
Ganska många hade fått svaret $(-22/21, -32/21, -16/21)$, vilket är riktningsvektorn från punkten $(2,0,0)$ till den sökta punkten. Själva räkningarna är rätt, men tänk igenom vad det är ni har räknat ut!
Uppgift 4 handlade om bindningsvinkeln i metan, som visar sig vara $\arccos(-1/3)$. I barycentriska koordinater sitter kolatomen i punkten $(1/4, 1/4, 1/4, 1/4)$. Riktningsvektorer därifrån till två av väteatomerna blir $(1,0,0,0) - (1/4, 1/4, 1/4, 1/4) = (3/4, -1/4, -1/4, -1/4)$ och $(0,1,0,0) - (1/4, 1/4, 174, 1/4) = (-1/4, 3/4, -1/4. -1/4)$. Det gäller alltså att räkna ut vinkeln mellan dessa, som är
\[\arccos\left(\frac{\pmatrix{3/4\\-1/4\\-1/4\\-1/4}\cdot \pmatrix{-1/4\\3/4\\-1/4\\-1/4}}{\left\|\pmatrix{3/4\\-1/4\\-1/4\\-1/4}\right\| \cdot \left\|\pmatrix{-1/4\\3/4\\-1/4\\-1/4}\right\|} \right) = \arccos\left(\frac{-1/4}{3/4}\right) = \arccos\left(-\frac13\right).\]
Sammanfattande kommentarer, kapitel 1
Några av de begrepp man ska känna till från kapitel 1 är: Vektor, linjärkombination, enhetsvektor, skalärprodukt, ortogonalitet, projektion, spegling, vektorprodukt, koordinatsystem, bas, ON-bas, avstånd.
Förkunskaper man bör ha (repetera?) är definitioner av sinus, cosinus och tangens, cosinussatsen, värden på sinus och cosinus för multipler av $30^\circ$ och $45^\circ$, Pythagoras sats.
Bland det man förväntas kunna från kapitel 1 är hur plan och linjer kan beskrivas i ekvations- och parameterform, och hur man går fram och tillbaka mellan dessa.
Exempelvis kan ett plan i tre dimensioner ges av en ekvation som \[x+2y-4z = 5.\]
För att skriva detta plan på parameterform behöver man två "frihetsgrader", variabler som kan varieras hur som helst. Här ser man (till exempel) att $y$ och $z$ kan få vilka värden som helst, och dessa bestämmer värdet på $x$ genom \[x = -2y+4z+5.\]
Om parametrarna kallas $s$ och $t$, kan vi skriva planet som
\[
\begin{cases}
x = -2s+4t+5\\
y = s\\
z = t
\end{cases}
\]
Alternativt ges planet av tre punkter. Låt oss säga att vi bara vet att punkterna $(3,1,0)$, $(9,0,1)$ och $(5,0,0)$ ligger i planet. På parameterform kan vi då skriva planet som
\[s \cdot \pmatrix{3\\1\\0} + t\cdot \pmatrix{9\\0\\1} + (1-s-t)\cdot \pmatrix{5\\0\\0}.\]
Lägg märke till det smarta tricket med koefficienterna. När $s=1$ och $t=0$ får man punkten $\pmatrix{3\\1\\0}$. När tvärtom $s=0$ och $t=1$ får man punkten $\pmatrix{9\\0\\1}$. Och slutligen om $s=t=0$ får vi den tredje punkten $\pmatrix{5\\0\\0}$. Om vi skriver ut vad $x$, $y$ och $z$ blir, får vi
\[
\begin{cases}
x = 3s + 9t + 5(1-s-t) = -2s+4t+5\\
y = s\\
z = t
\end{cases}
\]
För att gå åt andra hållet och komma från parameter till ekvationsform, gäller det först att hitta normalriktningen till planet. Genom att sätta in olika parametervärden, till exempel $(s.t) = (1,0), (0,1)$ och $(0,0)$, får vi tre punkter i planet. Med "huvud minus svans" kan vi då hitta två vektorer som är parallella med planet. I det här fallet får vi till exempel vektorerna $\pmatrix{3\\1\\0} - \pmatrix{9\\0\\1} = \pmatrix{-6\\1\\-1}$ och $\pmatrix{3\\1\\0} - \pmatrix{5\\0\\0} = \pmatrix{-2\\1\\0}$.
För att hitta en vektor som är normal till (alltså ortogonal mot) planet, tar vi vektorprodukten av dessa två:
\[\pmatrix{-6\\1\\-1} \times \pmatrix{-2\\1\\0} = \pmatrix{1\\2\\-4}.\]
Det här är ett ad hoc-trick, som bara fungerar i tre dimensioner. Det mer systematiska sättet kommer vi till i avsnittet om Gausselimination.
Det är lätt att göra teckenfel på kryssprodukten, så kom ihåg att kontrollera att resultatet är ortogonalt mot båda faktorerna. dvs att
\[\pmatrix{-6\\1\\-1} \cdot \pmatrix{1\\2\\-4} = 0\] och
\[ \pmatrix{-2\\1\\0} \cdot \pmatrix{1\\2\\-4} = 0.\]
Nu har vi en normalvektor, och den ger koefficienterna $(1,2,-4)$ i ekvationen, som alltså har formen
\[x +2y -4z = konstant.\]
Genom att sätta in en av punkterna, till exempel $(3,1,0)$, får vi att konstanten är 5. Sätt in de andra två punkterna också, för att kontrollera att det blir samma värde på konstanten! Blir det inte det har vi räknat fel.
I planet har vi ingen vektorprodukt, utan där är ad hoc-tricket att "byta plats och byta tecken". Om vi till exempel ska hitta normalriktningen till en linje genom punkterna $(1,2)$ och $(-1,5)$ tar vi riktningsvektorn $\pmatrix{1\\2} - \pmatrix{-1\\5} = \pmatrix{2\\-3}$, och byter plats på 2:an och 3:an och byter tecken på den ena (till exempel från $-3$ till $3$), dvs vi får $\pmatrix{3\\2}$. Linjens ekvation är alltså $3x+2y = konstant$, och konstanten får vi genom att sätta in punkten $(1,2)$, dvs $x=1$ och $y=2$. Konstanten är alltså $3\cdot 1 + 2\cdot 2 = 7$.
Kom ihåg att göra kontroller när det går! Vi kan lika gärna sätta in den andra punkten, $(-1,5)$. Då ska det stämma att $3\cdot (-1) + 2\cdot 5$ också är lika med 7. Det gör det. Annars hade vi fått räkna om!
Lite blandade kommentarer:
Varje parameter ger en dimension, varje ekvation tar bort en dimension (annars är de onödiga!).
Kom ihåg att linjer/plan kan vara lika även om de inte ser lika ut!
För att jämföra linjer/plan på parameterform, se till att ha olika parametrar!
Mittpunkt ges av medelvärde koordinatvis (gäller alla symmetriska geometriska figurer).
Kom ihåg Pythagoras sats, och hur den generaliseras till högre dimensioner, även känt som avståndsformeln.
"Huvud minus svans". En vektorpil från punkten $P$ (svansen) till punkten $Q$ (huvudet) svarar i koordinater mot punkten $Q$ minus punkten $P$.
Räkneregler för vektorer, skalärprodukt och vektorprodukt. Hur skalärprodukt kan användas för att räkna ut vinklar, och hur vektorprodukt kan användas för att hitta vektorer ortogonala mot givet plan eller vektorer.
Man ska kunna beräkna (kortaste) avståndet mellan punkter, linjer, plan. Knepet är att minimalt avstånd svarar mot rät vinkel. Till exempel fås kortaste avståndet mellan två räta linjer genom att man hittar punkter $P$ och $Q$ på respektive linje så att linjen genom $P$ och $Q$ skär båda de givna linjerna i rät vinkel.
Kom ihåg vad som menas med projektion! Projektionen av en punkt $P$ på ett plan är en punkt i planet, inte riktningsvektorn från $P$ till denna punkt! Med "projektionen" menas så att säga resultatet av att projicera, inte hur punkten flyttas när den projiceras. Motsvarande gäller för begreppet spegling.
Kom ihåg att resultatet av vektorprodukt kan kontrolleras med skalärprodukt! Vektorprodukten ska vara ortogonal mot båda faktorerna, dvs ha skalärprodukt noll.
Kom ihåg att vektorer räknas som lika om de har samma längd och samma riktning! Kom ihåg att vektorer räknas som parallella även om de har motsatt riktning!
Gå igenom listan av tryckfel, och rätta i era böcker!
Friday, September 12, 2014
Lite hintar för hemdugga 1
Uppgift 1
Det här med att multiplicera vektorer i 7 dimensioner var inte tänkt att bli någon slamkrypare. Den ena sortens multiplikation finns i alla dimensioner, och den andra sorten kan bara definieras i vissa speciella dimensioner. Det är alltså tänkt att ett av de två första påståendena är sant och det andra är falskt.
Uppgift 3
Observera att den punkt där bollen befinner sig efter 4 sekunder är speglingen i det givna planet av var den hade befunnit sig om den hade gått rakt genom planet utan att studsa. Detta är ett annat sätt att formulera fysiklagen om att bollen studsar ut i samma vinkel som den studsar in. Kanske var det lite opedagogiskt att först fråga i (a) efter vinkeln, och därefter om var bollen befinner sig efter en viss tid. Det ger intrycket att man ska använda vinkeln i beräkningen i (b), vilket inte är nödvändigt.
Uppgift 4
Här är det bra att känna till att medelpunkten i en polygon eller polyeder (om den är så pass symmetrisk att den har en tydlig medelpunkt) fås som medelvärdet (koordinatvis) av hörnen. Ett specialfall av detta är att mittpunkten på en sträcka $PQ$ är $(P+Q)/2$, om man tänker sig punkterna $P$ och $Q$ som vektorer, alltså givna av koordinater (detta är relevant även i uppgift 3!). I en liksidig triangel med hörn $P$, $Q$ och $R$ är mittpunkten \[\frac{P+Q+R}3.\]
En liksidig triangel kan läggas i ett tredimensionellt koordinatsystem så att hörnen hamnar i standardbasvektorerna $(1,0,0)$, $(0,1,0)$ och $(0,0,1)$ som i följande figur. Det här kallas barycentriska koordinater.
Barycentriska koordinater kan man använda även för en tetraeder, som i uppgift 4. Här är en bild på en tetraeder gjord av M-tic. Om man tittar ordentligt ser man att den har 35 kulor, varav 34 sitter "på ytan", och en kan skymtas i det inre.
Man kan se det som att konstruktionen har fyra våningar, där kulan i mitten sitter en våning upp. Och ställer man tetraedern på någon annan sida sitter kulan i mitten fortfarande en våning upp!
Det här med att multiplicera vektorer i 7 dimensioner var inte tänkt att bli någon slamkrypare. Den ena sortens multiplikation finns i alla dimensioner, och den andra sorten kan bara definieras i vissa speciella dimensioner. Det är alltså tänkt att ett av de två första påståendena är sant och det andra är falskt.
Uppgift 3
Observera att den punkt där bollen befinner sig efter 4 sekunder är speglingen i det givna planet av var den hade befunnit sig om den hade gått rakt genom planet utan att studsa. Detta är ett annat sätt att formulera fysiklagen om att bollen studsar ut i samma vinkel som den studsar in. Kanske var det lite opedagogiskt att först fråga i (a) efter vinkeln, och därefter om var bollen befinner sig efter en viss tid. Det ger intrycket att man ska använda vinkeln i beräkningen i (b), vilket inte är nödvändigt.
Uppgift 4
Här är det bra att känna till att medelpunkten i en polygon eller polyeder (om den är så pass symmetrisk att den har en tydlig medelpunkt) fås som medelvärdet (koordinatvis) av hörnen. Ett specialfall av detta är att mittpunkten på en sträcka $PQ$ är $(P+Q)/2$, om man tänker sig punkterna $P$ och $Q$ som vektorer, alltså givna av koordinater (detta är relevant även i uppgift 3!). I en liksidig triangel med hörn $P$, $Q$ och $R$ är mittpunkten \[\frac{P+Q+R}3.\]
En liksidig triangel kan läggas i ett tredimensionellt koordinatsystem så att hörnen hamnar i standardbasvektorerna $(1,0,0)$, $(0,1,0)$ och $(0,0,1)$ som i följande figur. Det här kallas barycentriska koordinater.
Barycentriska koordinater kan man använda även för en tetraeder, som i uppgift 4. Här är en bild på en tetraeder gjord av M-tic. Om man tittar ordentligt ser man att den har 35 kulor, varav 34 sitter "på ytan", och en kan skymtas i det inre.
Man kan se det som att konstruktionen har fyra våningar, där kulan i mitten sitter en våning upp. Och ställer man tetraedern på någon annan sida sitter kulan i mitten fortfarande en våning upp!
Monday, September 8, 2014
Några kommentarer efter andra tillfället
Vi bestämde att själva föreläsandet fortsättningsvis ska börja klockan 8.15, eftersom några ska hinna med tåg utifrån. Jag kommer ändå att vara på plats runt 8.00.
Det visade sig vara problem med att registrera sig på Hållbar Utveckling, vi hoppas det funkar den här veckan.
Daniel och Pontus valdes till studentrepresentanter.
Vi pratade lite om hemdugga 1, som ska in tisdagen 16 september, början av föreläsningen.
Nu var det dags att plocka fram fingrarna och räkna ut kryssprodukter. Kryssprodukten är bara definierad i tre dimensioner (och sju säger en del, men det bryr vi oss inte om här). Kryssprodukten av två vektorer $\mathbf{u}$ och $\mathbf{v}$ med vinkel $\alpha$ definieras genom egenskaperna att
Och varför kallas den här orienteringen höger förresten? Det ligger något naturligt i att enhetsvektorn i $x$-led gånger enhetsvektorn i $y$-led blir enhetsvektorn i $z$-led. Men att det naturliga kallas höger och det bakvända kallas vänster är nog ett utslag av samhällets högernormativitet.
Vi skulle kunna börja med villkoren 1 och 2 samt kravet att vektorprodukten ska vara linjär i båda argumenten, vilket bland annat innebär att den ska uppfylla den den distributiva lagen. En produkt av två summor kan alltså utvecklas, till exempel \[(\mathbf{a}+\mathbf{b}+\mathbf{c}) \times (\mathbf{d}+\mathbf{e}) = \mathbf{a}\times \mathbf{d} + \mathbf{a}\times \mathbf{e} + \mathbf{b}\times \mathbf{d} + \mathbf{b}\times \mathbf{e} + \mathbf{c}\times \mathbf{d} + \mathbf{c}\times \mathbf{e}.\]
Lägg dock märke till att ordningen på faktorerna spelar roll, och inte får ändras på. Det är till exempel INTE (alltid) sant att
\[(\mathbf{a}+\mathbf{b})\times(\mathbf{a}+\mathbf{b}) = \mathbf{a}\times\mathbf{a} + 2\cdot (\mathbf{a}\times\mathbf{b}) + \mathbf{b}\times\mathbf{b}.\]
Utvecklar man vänsterledet korrekt, får man i stället \[(\mathbf{a}+\mathbf{b})\times(\mathbf{a}+\mathbf{b}) = \mathbf{a}\times\mathbf{a} + \mathbf{a}\times\mathbf{b} + \mathbf{b}\times\mathbf{a} + \mathbf{b}\times\mathbf{b}.\]
Eftersom kryssprodukten av en vektor med sig själv är noll, visar det här i själva verket att
\[ 0 = \mathbf{a}\times\mathbf{b} + \mathbf{b}\times\mathbf{a}.\]
Med andra ord $ \mathbf{a}\times\mathbf{b}= - \mathbf{b}\times\mathbf{a}$, byter man ordning på faktorerna, så byter produkten tecken.
Tillbaka till det här med lineariteten och de distributiva lagarna. Eftersom vi håller till i det tredimensionella rummet, kan varje vektor skrivas som en linjärkombination av standardbasvektorerna $\mathbf{e}_1 = \begin{pmatrix}1\\0\\0\end{pmatrix}$, $\mathbf{e}_2= \begin{pmatrix}0\\1\\0\end{pmatrix}$, och $\mathbf{e}_3= \begin{pmatrix}0\\0\\1\end{pmatrix}$. Kryssprodukten av två vektorer vilka som helst kan alltså i princip alltid skrivas som
\[ \left(a\cdot \begin{pmatrix}1\\0\\0\end{pmatrix}+b\cdot \begin{pmatrix}0\\1\\0\end{pmatrix}+c\cdot \begin{pmatrix}0\\0\\1\end{pmatrix}\right) \times \left(d\cdot \begin{pmatrix}1\\0\\0\end{pmatrix}+e\cdot \begin{pmatrix}0\\1\\0\end{pmatrix}+f\cdot \begin{pmatrix}0\\0\\1\end{pmatrix}\right).\]
När vi utvecklar den här produkten, kan vi slänga bort termer som $ad\cdot\begin{pmatrix}1\\0\\0\end{pmatrix}\times\begin{pmatrix}1\\0\\0\end{pmatrix}$, eftersom kryssprodukten av en vektor med sig själv är noll. Vi kan också samla ihop termer som svarar mot samma faktorer men i olika ordning, fast då måste vi komma ihåg att tecknet ändras när man ändrar ordningen. Till exempel är
\[bd \cdot\begin{pmatrix}0\\1\\0\end{pmatrix}\times\begin{pmatrix}1\\0\\0\end{pmatrix} = -bd\cdot\begin{pmatrix}1\\0\\0\end{pmatrix}\times\begin{pmatrix}0\\1\\0\end{pmatrix}.\]
Hela produkten blir då
\[(ae-bd)\cdot \begin{pmatrix}1\\0\\0\end{pmatrix}\times\begin{pmatrix}0\\1\\0\end{pmatrix}
+ (bf-ce)\cdot \begin{pmatrix}0\\1\\0\end{pmatrix}\times\begin{pmatrix}0\\0\\1\end{pmatrix}
+ (cd-af)\cdot \begin{pmatrix}0\\0\\1\end{pmatrix}\times\begin{pmatrix}1\\0\\0\end{pmatrix}. \]
Villkoren 1+2+linearitet innebär alltså att allt bestäms av de tre produkterna
\[\begin{pmatrix}1\\0\\0\end{pmatrix}\times\begin{pmatrix}0\\1\\0\end{pmatrix},\] \[\begin{pmatrix}0\\1\\0\end{pmatrix}\times\begin{pmatrix}0\\0\\1\end{pmatrix},\] och \[\begin{pmatrix}0\\0\\1\end{pmatrix}\times\begin{pmatrix}1\\0\\0\end{pmatrix}.\]
Vi har bara två alternativ för var och en av dem, men i själva verket har vi ännu mindre valfrihet än så. Produkten $\begin{pmatrix}1\\0\\0\end{pmatrix}\times\begin{pmatrix}0\\1\\0\end{pmatrix}$ måste vara antingen $\begin{pmatrix}0\\0\\1\end{pmatrix}$ eller $\begin{pmatrix}0\\0\\-1\end{pmatrix}$. Säg att vi bestämmer oss för det förstnämnda alternativet. Då skulle det inte funka att $\begin{pmatrix}1\\0\\0\end{pmatrix}\times\begin{pmatrix}0\\0\\1\end{pmatrix} = \begin{pmatrix}0\\1\\0\end{pmatrix}$. För la vi ihop dem skulle vi få att
\[\begin{pmatrix}1\\0\\0\end{pmatrix}\times\begin{pmatrix}0\\1\\1\end{pmatrix} = \begin{pmatrix}0\\1\\1\end{pmatrix},\]
och då skulle produkten inte vara ortogonal mot andra faktorn. Alltså måste $\begin{pmatrix}1\\0\\0\end{pmatrix}\times\begin{pmatrix}0\\0\\1\end{pmatrix} = \begin{pmatrix}0\\-1\\0\end{pmatrix}$, och på samma sätt måste vi ha $\begin{pmatrix}0\\1\\0\end{pmatrix}\times\begin{pmatrix}0\\0\\1\end{pmatrix} = \begin{pmatrix}1\\0\\0\end{pmatrix}$.
Om vi bestämmer oss för att \[\begin{pmatrix}1\\0\\0\end{pmatrix}\times\begin{pmatrix}0\\1\\0\end{pmatrix} = \begin{pmatrix}0\\0\\1\end{pmatrix},\] måste alltså allt annat "följa färg", och vi får en "högerorienterad" vektorprodukt. Det enda alternativet vore en helt igenom vänsterorienterad vektorprodukt.
Vi pratade lite om hur man kan använda vektorprodukt för att hitta normalriktningen till ett plan om man vet tre punkter i planet (till exempel origo och två andra punkter).
Det dök upp en del frågor kring att det bara finns två enhetsvektorer som är parallella med en given vektor, till exempel $\begin{pmatrix}5\\-7\end{pmatrix}$ (övning 1.10). Kan man inte köra runt med en pil i hela planet och få oändligt många parallella vektorer av längd 1? Nej, och det har att göra med när två vektorer är lika. Vektorbegreppet definieras (informellt) som något som har riktning och längd. I detta ligger att om två vektorer (pilar) har samma riktning och samma längd, så betraktas de som lika. Och då finns det bara två enhetsvektorer som är parallella med en given vektor. Lägg alltså märke till att två vektorer är parallella även när de pekar i motsatt riktning.
En sak som kan vara bra att ha i arsenalen av utantillkunskaper (till exempel när man löser problem som har att göra med spegling) är att den punkt, kalla den $M$, som ligger mitt emellan två punkter $P$ och $Q$ kan ses som medelvärdet av $P$ och $Q$. Koordinatvis, eller om vi tänker oss $P$, $Q$ och $M$ som vektorer (med pilstart i origo), gäller
\[M = \frac{P+Q}2.\]
Det visade sig vara problem med att registrera sig på Hållbar Utveckling, vi hoppas det funkar den här veckan.
Daniel och Pontus valdes till studentrepresentanter.
Vi pratade lite om hemdugga 1, som ska in tisdagen 16 september, början av föreläsningen.
Nu var det dags att plocka fram fingrarna och räkna ut kryssprodukter. Kryssprodukten är bara definierad i tre dimensioner (och sju säger en del, men det bryr vi oss inte om här). Kryssprodukten av två vektorer $\mathbf{u}$ och $\mathbf{v}$ med vinkel $\alpha$ definieras genom egenskaperna att
- $\left\|\mathbf{u}\times\mathbf{v}\right\| = \left\|\mathbf{u}\right\| \cdot \left\|\mathbf{v}\right\| \cdot \sin \alpha$.
- Vektorn $\mathbf{u}\times\mathbf{v}$ är ortogonal mot både $\mathbf{u}$ och $\mathbf{v}$.
- Trippeln $\mathbf{u}$, $\mathbf{v}$, $\mathbf{u}\times\mathbf{v}$ är högerorienterad.
Och varför kallas den här orienteringen höger förresten? Det ligger något naturligt i att enhetsvektorn i $x$-led gånger enhetsvektorn i $y$-led blir enhetsvektorn i $z$-led. Men att det naturliga kallas höger och det bakvända kallas vänster är nog ett utslag av samhällets högernormativitet.
Vi skulle kunna börja med villkoren 1 och 2 samt kravet att vektorprodukten ska vara linjär i båda argumenten, vilket bland annat innebär att den ska uppfylla den den distributiva lagen. En produkt av två summor kan alltså utvecklas, till exempel \[(\mathbf{a}+\mathbf{b}+\mathbf{c}) \times (\mathbf{d}+\mathbf{e}) = \mathbf{a}\times \mathbf{d} + \mathbf{a}\times \mathbf{e} + \mathbf{b}\times \mathbf{d} + \mathbf{b}\times \mathbf{e} + \mathbf{c}\times \mathbf{d} + \mathbf{c}\times \mathbf{e}.\]
Lägg dock märke till att ordningen på faktorerna spelar roll, och inte får ändras på. Det är till exempel INTE (alltid) sant att
\[(\mathbf{a}+\mathbf{b})\times(\mathbf{a}+\mathbf{b}) = \mathbf{a}\times\mathbf{a} + 2\cdot (\mathbf{a}\times\mathbf{b}) + \mathbf{b}\times\mathbf{b}.\]
Utvecklar man vänsterledet korrekt, får man i stället \[(\mathbf{a}+\mathbf{b})\times(\mathbf{a}+\mathbf{b}) = \mathbf{a}\times\mathbf{a} + \mathbf{a}\times\mathbf{b} + \mathbf{b}\times\mathbf{a} + \mathbf{b}\times\mathbf{b}.\]
Eftersom kryssprodukten av en vektor med sig själv är noll, visar det här i själva verket att
\[ 0 = \mathbf{a}\times\mathbf{b} + \mathbf{b}\times\mathbf{a}.\]
Med andra ord $ \mathbf{a}\times\mathbf{b}= - \mathbf{b}\times\mathbf{a}$, byter man ordning på faktorerna, så byter produkten tecken.
Tillbaka till det här med lineariteten och de distributiva lagarna. Eftersom vi håller till i det tredimensionella rummet, kan varje vektor skrivas som en linjärkombination av standardbasvektorerna $\mathbf{e}_1 = \begin{pmatrix}1\\0\\0\end{pmatrix}$, $\mathbf{e}_2= \begin{pmatrix}0\\1\\0\end{pmatrix}$, och $\mathbf{e}_3= \begin{pmatrix}0\\0\\1\end{pmatrix}$. Kryssprodukten av två vektorer vilka som helst kan alltså i princip alltid skrivas som
\[ \left(a\cdot \begin{pmatrix}1\\0\\0\end{pmatrix}+b\cdot \begin{pmatrix}0\\1\\0\end{pmatrix}+c\cdot \begin{pmatrix}0\\0\\1\end{pmatrix}\right) \times \left(d\cdot \begin{pmatrix}1\\0\\0\end{pmatrix}+e\cdot \begin{pmatrix}0\\1\\0\end{pmatrix}+f\cdot \begin{pmatrix}0\\0\\1\end{pmatrix}\right).\]
När vi utvecklar den här produkten, kan vi slänga bort termer som $ad\cdot\begin{pmatrix}1\\0\\0\end{pmatrix}\times\begin{pmatrix}1\\0\\0\end{pmatrix}$, eftersom kryssprodukten av en vektor med sig själv är noll. Vi kan också samla ihop termer som svarar mot samma faktorer men i olika ordning, fast då måste vi komma ihåg att tecknet ändras när man ändrar ordningen. Till exempel är
\[bd \cdot\begin{pmatrix}0\\1\\0\end{pmatrix}\times\begin{pmatrix}1\\0\\0\end{pmatrix} = -bd\cdot\begin{pmatrix}1\\0\\0\end{pmatrix}\times\begin{pmatrix}0\\1\\0\end{pmatrix}.\]
Hela produkten blir då
\[(ae-bd)\cdot \begin{pmatrix}1\\0\\0\end{pmatrix}\times\begin{pmatrix}0\\1\\0\end{pmatrix}
+ (bf-ce)\cdot \begin{pmatrix}0\\1\\0\end{pmatrix}\times\begin{pmatrix}0\\0\\1\end{pmatrix}
+ (cd-af)\cdot \begin{pmatrix}0\\0\\1\end{pmatrix}\times\begin{pmatrix}1\\0\\0\end{pmatrix}. \]
Villkoren 1+2+linearitet innebär alltså att allt bestäms av de tre produkterna
\[\begin{pmatrix}1\\0\\0\end{pmatrix}\times\begin{pmatrix}0\\1\\0\end{pmatrix},\] \[\begin{pmatrix}0\\1\\0\end{pmatrix}\times\begin{pmatrix}0\\0\\1\end{pmatrix},\] och \[\begin{pmatrix}0\\0\\1\end{pmatrix}\times\begin{pmatrix}1\\0\\0\end{pmatrix}.\]
Vi har bara två alternativ för var och en av dem, men i själva verket har vi ännu mindre valfrihet än så. Produkten $\begin{pmatrix}1\\0\\0\end{pmatrix}\times\begin{pmatrix}0\\1\\0\end{pmatrix}$ måste vara antingen $\begin{pmatrix}0\\0\\1\end{pmatrix}$ eller $\begin{pmatrix}0\\0\\-1\end{pmatrix}$. Säg att vi bestämmer oss för det förstnämnda alternativet. Då skulle det inte funka att $\begin{pmatrix}1\\0\\0\end{pmatrix}\times\begin{pmatrix}0\\0\\1\end{pmatrix} = \begin{pmatrix}0\\1\\0\end{pmatrix}$. För la vi ihop dem skulle vi få att
\[\begin{pmatrix}1\\0\\0\end{pmatrix}\times\begin{pmatrix}0\\1\\1\end{pmatrix} = \begin{pmatrix}0\\1\\1\end{pmatrix},\]
och då skulle produkten inte vara ortogonal mot andra faktorn. Alltså måste $\begin{pmatrix}1\\0\\0\end{pmatrix}\times\begin{pmatrix}0\\0\\1\end{pmatrix} = \begin{pmatrix}0\\-1\\0\end{pmatrix}$, och på samma sätt måste vi ha $\begin{pmatrix}0\\1\\0\end{pmatrix}\times\begin{pmatrix}0\\0\\1\end{pmatrix} = \begin{pmatrix}1\\0\\0\end{pmatrix}$.
Om vi bestämmer oss för att \[\begin{pmatrix}1\\0\\0\end{pmatrix}\times\begin{pmatrix}0\\1\\0\end{pmatrix} = \begin{pmatrix}0\\0\\1\end{pmatrix},\] måste alltså allt annat "följa färg", och vi får en "högerorienterad" vektorprodukt. Det enda alternativet vore en helt igenom vänsterorienterad vektorprodukt.
Vi pratade lite om hur man kan använda vektorprodukt för att hitta normalriktningen till ett plan om man vet tre punkter i planet (till exempel origo och två andra punkter).
Det dök upp en del frågor kring att det bara finns två enhetsvektorer som är parallella med en given vektor, till exempel $\begin{pmatrix}5\\-7\end{pmatrix}$ (övning 1.10). Kan man inte köra runt med en pil i hela planet och få oändligt många parallella vektorer av längd 1? Nej, och det har att göra med när två vektorer är lika. Vektorbegreppet definieras (informellt) som något som har riktning och längd. I detta ligger att om två vektorer (pilar) har samma riktning och samma längd, så betraktas de som lika. Och då finns det bara två enhetsvektorer som är parallella med en given vektor. Lägg alltså märke till att två vektorer är parallella även när de pekar i motsatt riktning.
En sak som kan vara bra att ha i arsenalen av utantillkunskaper (till exempel när man löser problem som har att göra med spegling) är att den punkt, kalla den $M$, som ligger mitt emellan två punkter $P$ och $Q$ kan ses som medelvärdet av $P$ och $Q$. Koordinatvis, eller om vi tänker oss $P$, $Q$ och $M$ som vektorer (med pilstart i origo), gäller
\[M = \frac{P+Q}2.\]
Tuesday, September 2, 2014
Några anteckningar efter första tillfället
Nu har vi haft ett föreläsnings- och övningstillfälle, och jag tänkte skriva ner några saker medan jag har dem i minnet.
Vi pratade om vektorer (något som har längd och riktning), vektoraddition, multiplikation skalär gånger vektor (som blir ny vektor), vinklar och längd.
De inledande övningsuppgifterna gav nyttig träning i geometri och trigonometri. Man fick använda Pythagoras sats, dra sig till minnes definitionerna av sinus, cosinus och tangens (det var någonting med cosy och närstående). Cosinussatsen var också bra att komma ihåg.
Det viktiga nya begreppet var skalärprodukt, en sorts produkt där man multiplicerar två vektorer och resultatet blir ett tal (tal = skalär). Skalärprodukten av två vektorer $u$ och $v$ med mellanliggande vinkel $\alpha$ definieras som
\[ u\cdot v = \left\| u \right\|\cdot\left\| v \right\| \cdot \cos \alpha. \]
Längden av vektorn $u$ skrivs $\left\| u \right\|$, vilket förstås påminner om hur man skriver belopp av tal.
En viktig insikt som behöver smältas är att även om vinkeln mellan $u$ och $v$ används i definitionen av skalärprodukt, så kommer skalärpodukten att bli ett redskap för att beräkna bland annat vinklar. Detta kan i förstone verka paradoxalt - vi måste väl veta vinkeln $\alpha$ för att beräkna $u\cdot v$?
Nja, det fiffiga med skalärprodukten är att den uppfyller ett antal räkneregler, bland annat den distributiva lagen:
\[u\cdot (v + w) = u\cdot v + u\cdot w.\]
Det gör att man exempelvis kan räkna ut vinkeln mellan två rymddiagonaler i en kub (övning 1.40 i boken). Om $e_1$, $e_2$ och $e_3$ är parvis ortogonala enhetsvektorer (parallella med sidorna i kuben), kan vi räkna ut skalärprodukten av rymddiagonalerna \[u = e_1+e_2+e_3\] och \[v= e_1+e_2-e_3\] som \[ u\cdot v = (e_1+e_2+e_3)\cdot (e_1+e_2-e_3) = e_1\cdot e_1 + e_2\cdot e_2 - e_3\cdot e_3 = 1+1-1 = 1.\]
Lägg märke till att alla "blandade" termer av typen $e_1\cdot e_2$ är noll. Eftersom $u$ och $v$ vardera har längden $\sqrt{3}$, får vi \[ u\cdot v = \sqrt{3}\cdot \sqrt{3} \cdot \cos \alpha,\] där $\alpha$ är vinkeln, så när vi vet att skalärprodukten är 1, leder det till att $\cos\alpha =1/3$, eller om man så vill (det är en typo i facit i boken) \[\alpha = \arccos\left(\frac13\right)\approx 70.5^\circ.\]
Att $u$ och $v$ har längd $\sqrt{3}$ kan man se genom att använda "Pythagoras sats i tre dimensioner". Man kan också få fram det genom att använda skalärprodukt:
\[u\cdot u = (e_1+e_2+e_3)\cdot (e_1+e_2+e_3) = e_1\cdot e_1+e_2\cdot e_2+e_3\cdot e_3 = 3.\]Men samtidigt gäller enligt definitionen att
\[u\cdot u = \left\| u \right\| \cdot \left\| u \right\| \cdot \cos 0 = \left\| u \right\|^2,\] så $\left\| u \right\|$ måste vara lika med $\sqrt{3}$.
Skalärprodukten definieras i termer av längd och vinklar, men definitionen är inte godtycklig. Genom att skalärpodukten uppfyller vissa räkneregler inklusive den distributiva lagen, kan den användas som ett redskap för att räkna ut vinklar och avstånd.
Skalärprodukten av en vektor med sig själv brukar skrivas $u\cdot u$, inte $u^2$. Anledningen, rent logiskt, är att skalärprodukten bara funkar för två vektorer. Det finns ingen analog definition av till exempel $u^3$. Däremot kan man skriva $\left\| u\right\|^2$, för det är samma sak som $u\cdot u$.
Förutom trigonometrin var det också dags att damma av en del algebra. I uppgift 1.2 (b) kunde man få det till \[\arctan\left(\frac{\frac{10}{\sqrt{2}}}{40-\frac{10}{\sqrt{2}}}\right),\]
men i facit står det \[\arctan\left(\frac{4\sqrt{2}+1}{31}\right).\]
Det kan väl inte vara samma, för vad kommer talet 31 ifrån? Jo faktiskt,
\[\frac{\frac{10}{\sqrt{2}}}{40-\frac{10}{\sqrt{2}}} = \frac{5\sqrt{2}}{40-5\sqrt{2}} =
\frac{\sqrt{2}}{8-\sqrt{2}} = \frac{\sqrt{2}\cdot (8+\sqrt{2})}{(8-\sqrt{2})\cdot (8+\sqrt{2})} = \frac{8\sqrt{2}+2}{64-2} = \frac{4\sqrt{2}+1}{31}.\]
Du skall alltid förlänga med konjugatet! Notera också att en sydvästlig vind kommer från sydväst, och blåser mot nordost!
För övrigt har jag nu lyckats komma åt den officiella kurshemsidan, så nu finns planeringen även där.
Ses på torsdag, då även den första omgången hemuppgifter ska ut.
Vi pratade om vektorer (något som har längd och riktning), vektoraddition, multiplikation skalär gånger vektor (som blir ny vektor), vinklar och längd.
De inledande övningsuppgifterna gav nyttig träning i geometri och trigonometri. Man fick använda Pythagoras sats, dra sig till minnes definitionerna av sinus, cosinus och tangens (det var någonting med cosy och närstående). Cosinussatsen var också bra att komma ihåg.
Det viktiga nya begreppet var skalärprodukt, en sorts produkt där man multiplicerar två vektorer och resultatet blir ett tal (tal = skalär). Skalärprodukten av två vektorer $u$ och $v$ med mellanliggande vinkel $\alpha$ definieras som
\[ u\cdot v = \left\| u \right\|\cdot\left\| v \right\| \cdot \cos \alpha. \]
Längden av vektorn $u$ skrivs $\left\| u \right\|$, vilket förstås påminner om hur man skriver belopp av tal.
En viktig insikt som behöver smältas är att även om vinkeln mellan $u$ och $v$ används i definitionen av skalärprodukt, så kommer skalärpodukten att bli ett redskap för att beräkna bland annat vinklar. Detta kan i förstone verka paradoxalt - vi måste väl veta vinkeln $\alpha$ för att beräkna $u\cdot v$?
Nja, det fiffiga med skalärprodukten är att den uppfyller ett antal räkneregler, bland annat den distributiva lagen:
\[u\cdot (v + w) = u\cdot v + u\cdot w.\]
Det gör att man exempelvis kan räkna ut vinkeln mellan två rymddiagonaler i en kub (övning 1.40 i boken). Om $e_1$, $e_2$ och $e_3$ är parvis ortogonala enhetsvektorer (parallella med sidorna i kuben), kan vi räkna ut skalärprodukten av rymddiagonalerna \[u = e_1+e_2+e_3\] och \[v= e_1+e_2-e_3\] som \[ u\cdot v = (e_1+e_2+e_3)\cdot (e_1+e_2-e_3) = e_1\cdot e_1 + e_2\cdot e_2 - e_3\cdot e_3 = 1+1-1 = 1.\]
Lägg märke till att alla "blandade" termer av typen $e_1\cdot e_2$ är noll. Eftersom $u$ och $v$ vardera har längden $\sqrt{3}$, får vi \[ u\cdot v = \sqrt{3}\cdot \sqrt{3} \cdot \cos \alpha,\] där $\alpha$ är vinkeln, så när vi vet att skalärprodukten är 1, leder det till att $\cos\alpha =1/3$, eller om man så vill (det är en typo i facit i boken) \[\alpha = \arccos\left(\frac13\right)\approx 70.5^\circ.\]
Att $u$ och $v$ har längd $\sqrt{3}$ kan man se genom att använda "Pythagoras sats i tre dimensioner". Man kan också få fram det genom att använda skalärprodukt:
\[u\cdot u = (e_1+e_2+e_3)\cdot (e_1+e_2+e_3) = e_1\cdot e_1+e_2\cdot e_2+e_3\cdot e_3 = 3.\]Men samtidigt gäller enligt definitionen att
\[u\cdot u = \left\| u \right\| \cdot \left\| u \right\| \cdot \cos 0 = \left\| u \right\|^2,\] så $\left\| u \right\|$ måste vara lika med $\sqrt{3}$.
Skalärprodukten definieras i termer av längd och vinklar, men definitionen är inte godtycklig. Genom att skalärpodukten uppfyller vissa räkneregler inklusive den distributiva lagen, kan den användas som ett redskap för att räkna ut vinklar och avstånd.
Skalärprodukten av en vektor med sig själv brukar skrivas $u\cdot u$, inte $u^2$. Anledningen, rent logiskt, är att skalärprodukten bara funkar för två vektorer. Det finns ingen analog definition av till exempel $u^3$. Däremot kan man skriva $\left\| u\right\|^2$, för det är samma sak som $u\cdot u$.
Förutom trigonometrin var det också dags att damma av en del algebra. I uppgift 1.2 (b) kunde man få det till \[\arctan\left(\frac{\frac{10}{\sqrt{2}}}{40-\frac{10}{\sqrt{2}}}\right),\]
men i facit står det \[\arctan\left(\frac{4\sqrt{2}+1}{31}\right).\]
Det kan väl inte vara samma, för vad kommer talet 31 ifrån? Jo faktiskt,
\[\frac{\frac{10}{\sqrt{2}}}{40-\frac{10}{\sqrt{2}}} = \frac{5\sqrt{2}}{40-5\sqrt{2}} =
\frac{\sqrt{2}}{8-\sqrt{2}} = \frac{\sqrt{2}\cdot (8+\sqrt{2})}{(8-\sqrt{2})\cdot (8+\sqrt{2})} = \frac{8\sqrt{2}+2}{64-2} = \frac{4\sqrt{2}+1}{31}.\]
Du skall alltid förlänga med konjugatet! Notera också att en sydvästlig vind kommer från sydväst, och blåser mot nordost!
För övrigt har jag nu lyckats komma åt den officiella kurshemsidan, så nu finns planeringen även där.
Ses på torsdag, då även den första omgången hemuppgifter ska ut.
Sunday, August 31, 2014
En kursblogg
Då drar vi igång med linjär algebra! Jag har de senaste dagarna försökt förstå hur jag lägger ut material på den officiella kurshemsidan. Mysteriet är ännu inte löst, men jag har i alla fall lärt mig att det enligt officiell policy inte är ok att länka där till egna sidor, vilket betyder att jag får marknadsföra den här bloggen på annat sätt... Nåja, meningen med policyn är väl att informationen ska finnas kvar på Chalmers och inte försvinna när externa sidor editeras eller tas bort. Inte att det är förbjudet att också ha information på andra ställen.
När jag nu har gjort ett tappert men misslyckat försök att få ut kursplaneringen på kurshemsidan, tror jag det är bättre att jag lägger ut den på en nystartad blogg, än att den inte finns någonstans. Tanken att blogga om kursen fanns redan. En blogg är ju lätt att starta, och blir ett praktiskt sätt att kommunicera.
Den kursbok vi kommer att använda heter Linjär algebra från en geometrisk utgångspunkt och är skriven av min chalmerskollega Stefan Lemurell. Den ska finnas på bokhandeln i kårhuset, men jag har inte kollat.
Boken har, som titeln antyder, en geometrisk utgångspunkt, vilket innebär att vektorer introduceras som pilar med längd och riktning, och att nästan alla begrepp diskuteras i två och tre dimensioner först, innan de generaliseras till godtycklig dimension. Jag tror att det här i allt väsentligt är det pedagogiskt sunda sättet att starta med linjär algebra. En nackdel är att det i viss mån mystifierar fyra och högre dimensioner (finns fyrdimensionella rum på riktigt?). Med en mer "koordinatbunden" utgångspunkt skulle det vara uppenbart att det inte finns någon principiell tröskel mellan tripler och kvadrupler av tal, men då blir det svårare att få med den geometriska intuitionen från början.
Ett av målen på hög nivå är just att kombinera den geometriska intuitionen (som funkar i låga dimensioner) med mer "formella" kunskaper som gäller oavsett dimension. Till exempel gäller detta minsta-kvadratmetoden, som kan läras in rent mekaniskt, men som också kan ses som att man projicerar en punkt i ett mångdimensionellt rum ner på den närmaste punkten i ett lägredimensionellt delrum. Att "lyfta" den geometriska intuitionen från 2-3 till flera dimensioner gör att man kan se varför det är vettigt att anpassa data till en rät linje på just det här sättet.
Vilket osökt leder till ytterligare en sak jag hade tänkt säga, nämligen att det inte kommer att finnas några vattentäta skott mellan algebradelen och statistikdelen i kursen. På åtminstone två ställen finns det direkta kontaktpunkter: nämnda minsta kvadratmetod, och det avslutande kapitlet om slumpvandringar på grafer. Under kursens gång kommer jag att ha regelbunden kontakt med Henrike som har hand om statistikdelen, och det går bra att fråga om statistik även på algebraövningarna.
Boken ja. Det kanske låter lite konstigt, men det är ganska skönt för mig som lärare att den inte innehåller så mycket roligt extramaterial och hejsan-hoppsan om tillämpningar och det ena med det tredje. Förutom att boken därigenom kan transporteras behändigt, gör det att jag kan säga med ett ord vad man förväntas kunna efter avslutad kurs och inför tentan: Boken.
Sedan kan jag krydda anrättningen med google pagerank, knutteori, anekdoter om Evariste Galois och Lewis Carroll och vad det nu kan tänkas bli.
Och så var det planeringen. Alla föreläsningar och lektioner kommer att äga rum i sal MVF26 klockan 8.00 - 11.45 (men inte tentan!). Se även schemat. Lägg märke till att vi kör igenom hela boken med avsnitten i ordningsföljd, enkelt och bra! Möjligen kan det bli en rivstart, men då blir det mer tid till repetition. Och jag vill ganska snabbt komma fram till avsnittet om Gausselimination, så att det blir tillräckligt tid för att träna och smälta den räknemetoden.
Något om examinationen: Som synes kommer det att bli fyra hemduggor. Från början tänkte jag att två får räcka, men jag tror det är bättre att ha ett större antal, och att var och en av dem inte behöver vara så skräckinjagande. Hemduggorna kommer att, om de görs ordentligt, kunna ge bonuspoäng på tentan, men detta förutsätter, utan pardon, att de lämnas in senast vid starten av respektive föreläsning, för sedan är det är meningen att vi ska kunna diskutera dem. Men det är fyra stycken, så missar man en är det inte hela världen.
När jag nu har gjort ett tappert men misslyckat försök att få ut kursplaneringen på kurshemsidan, tror jag det är bättre att jag lägger ut den på en nystartad blogg, än att den inte finns någonstans. Tanken att blogga om kursen fanns redan. En blogg är ju lätt att starta, och blir ett praktiskt sätt att kommunicera.
Den kursbok vi kommer att använda heter Linjär algebra från en geometrisk utgångspunkt och är skriven av min chalmerskollega Stefan Lemurell. Den ska finnas på bokhandeln i kårhuset, men jag har inte kollat.
Boken har, som titeln antyder, en geometrisk utgångspunkt, vilket innebär att vektorer introduceras som pilar med längd och riktning, och att nästan alla begrepp diskuteras i två och tre dimensioner först, innan de generaliseras till godtycklig dimension. Jag tror att det här i allt väsentligt är det pedagogiskt sunda sättet att starta med linjär algebra. En nackdel är att det i viss mån mystifierar fyra och högre dimensioner (finns fyrdimensionella rum på riktigt?). Med en mer "koordinatbunden" utgångspunkt skulle det vara uppenbart att det inte finns någon principiell tröskel mellan tripler och kvadrupler av tal, men då blir det svårare att få med den geometriska intuitionen från början.
Ett av målen på hög nivå är just att kombinera den geometriska intuitionen (som funkar i låga dimensioner) med mer "formella" kunskaper som gäller oavsett dimension. Till exempel gäller detta minsta-kvadratmetoden, som kan läras in rent mekaniskt, men som också kan ses som att man projicerar en punkt i ett mångdimensionellt rum ner på den närmaste punkten i ett lägredimensionellt delrum. Att "lyfta" den geometriska intuitionen från 2-3 till flera dimensioner gör att man kan se varför det är vettigt att anpassa data till en rät linje på just det här sättet.
Vilket osökt leder till ytterligare en sak jag hade tänkt säga, nämligen att det inte kommer att finnas några vattentäta skott mellan algebradelen och statistikdelen i kursen. På åtminstone två ställen finns det direkta kontaktpunkter: nämnda minsta kvadratmetod, och det avslutande kapitlet om slumpvandringar på grafer. Under kursens gång kommer jag att ha regelbunden kontakt med Henrike som har hand om statistikdelen, och det går bra att fråga om statistik även på algebraövningarna.
Boken ja. Det kanske låter lite konstigt, men det är ganska skönt för mig som lärare att den inte innehåller så mycket roligt extramaterial och hejsan-hoppsan om tillämpningar och det ena med det tredje. Förutom att boken därigenom kan transporteras behändigt, gör det att jag kan säga med ett ord vad man förväntas kunna efter avslutad kurs och inför tentan: Boken.
Sedan kan jag krydda anrättningen med google pagerank, knutteori, anekdoter om Evariste Galois och Lewis Carroll och vad det nu kan tänkas bli.
Och så var det planeringen. Alla föreläsningar och lektioner kommer att äga rum i sal MVF26 klockan 8.00 - 11.45 (men inte tentan!). Se även schemat. Lägg märke till att vi kör igenom hela boken med avsnitten i ordningsföljd, enkelt och bra! Möjligen kan det bli en rivstart, men då blir det mer tid till repetition. Och jag vill ganska snabbt komma fram till avsnittet om Gausselimination, så att det blir tillräckligt tid för att träna och smälta den räknemetoden.
Tillfälle | Datum | Bokavsnitt | Innehåll |
---|---|---|---|
1 | må 1/9 | 1.1-1.3 | Översikt. Vektorbegreppet, linjärkombination, span. Skalärprodukt, ortogonalitet, projektion, spegling. |
2 | to 4/9 | 1.4-1.5 | Vektorprodukt (kryssprodukt). Koordinatsystem, bas, ON-bas, avstånd. |
3 | to 11/9 | 1.6 | Räta linjer och plan, ekvations- och parameterform. |
4 | ti 16/9 | 1.1-1.6 | Hemuppgift 1 in. Repetition kap 1. Geometrisk problemlösning, tillämpning av skalär- och vektorprodukt. |
5 | to 18/9 | 2.1-2.3 | Matriser och matrismultiplikation. Determinanter av 2x2- och 3x3-matriser. |
6 | ti 23/9 | 3.1-3.4 | Begreppet linjärt rum. Linjära avbildningar. Exempel, geometriska egenskaper, bassatsen. |
7 | to 25/9 | 3.5-3.7 | Sammansatta avbildningar, area- och volymförändring, affina avbildningar. |
8 | ti 30/9 | 4.1-4.3 | Hemuppgift 2 in. Rummet R^n. Geometri i n dimensioner, bassatsen. |
9 | to 2/10 | 5.1-5.3 | Linjära ekvationssystem. Matrisform, Gausselimination. |
10 | ti 7/10 | 5.4-5.6 | Matrisinvertering. Överbestämda system, minsta kvadratmetoden. |
11 | to 9/10 | 6.1-6.3 | Determinanter. Definitioner, egenskaper, effektiv beräkning. |
12 | ti 14/10 | 7.1-7.4 | |
13 | to 16/10 | 8.1-8.4 | Hemuppgift 3 in. Egenvärden och egenvektorer. Spektralsatsen, diagonalisering. |
14 | må 20/10 | 9.1-9.4 | Grafer, slumpvandring, Markovkedjor. |
15 | ti 21/10 | 1.1-9.4 | Hemuppgift 4 in. Repetition. |
16 | må 27/10 | 1.1-9.4 | Repetition. |
Tenta! | to 30/10 kl. 8.30-12.30 | Hela boken! | Tenta! |
Något om examinationen: Som synes kommer det att bli fyra hemduggor. Från början tänkte jag att två får räcka, men jag tror det är bättre att ha ett större antal, och att var och en av dem inte behöver vara så skräckinjagande. Hemduggorna kommer att, om de görs ordentligt, kunna ge bonuspoäng på tentan, men detta förutsätter, utan pardon, att de lämnas in senast vid starten av respektive föreläsning, för sedan är det är meningen att vi ska kunna diskutera dem. Men det är fyra stycken, så missar man en är det inte hela världen.
Subscribe to:
Posts (Atom)