Loading [MathJax]/extensions/Safe.js

Monday, September 29, 2014

Fibonaccitalen

Den här posten är, hur ska jag säga, överkurs låter bara svårt, men optional. Den är tänkt att ge ytterligare ett perspektiv, men inget man behöver sitta och plugga inför tentan.

Fibonaccitalen definieras av de två startvärdena $F_0=0$ och $F_1=1$, och den rekursiva ekvationen
\[F_{n+2} = F_n+F_{n+1}.\]
Med andra ord, varje tal i följden är summan av de två föregående, så det börjar
\[0,1,1,2,3,5,8,13,21,34,55,89,144,\dots.\] Fibonaccitalen dyker upp lite här och där i matematiken, men jag ska inte prata här om historien och varför de är viktiga, det är bara att googla!

Det finns en märklig "exakt formel" för Fibonaccitalen,
\[F_n = \frac1{\sqrt{5}}\left(\frac{1+\sqrt{5}}2\right)^n - \frac1{\sqrt{5}}\left(\frac{1-\sqrt{5}}2\right)^n.\]
Det här ser konstigt ut första gången man stöter på det. Det är en massa roten ur 5 överallt, så det är inte självklart att det ens blir heltal, men testar man att sätta in några värden på $n$ verkar det stämma. Och hur kommer man på en sådan formel?

Jag vet inte hur den först upptäcktes, men vi kan härleda den med lite modernt linjär algebra-tänk.

Först struntar vi i startvärdena, och definierar rummet av alla talföljder $(a_0, a_1, a_2,\dots)$ som uppfyller ekvationen $a_{n+2} = a_n+a_{n+1}$ för alla $n$. Det här är ett linjärt rum (under termvis addition och multiplikation). Vi kan kalla det $V$, och Fibonacciföljden är en punkt i $V$!

Några andra punkter i $V$ är nollan: \[(0,0,0,0,0,0\dots),\] minus Fibonacci: \[(0,-1,-1,-2,-3,-5\dots),\] Fibonacci förskjutet ett steg: \[(1,1,2,3,5,8\dots),\] och Lucastalen: \[(2,1,3,4,7,11\dots).\]
Rummet $V$ har två dimensioner, vilket man informellt inser genom att det finns två frihetsgrader. Vi kan välja $a_0$ och $a_1$ hur vi vill, men de bestämmer sedan hela resten av följden. Vi skulle kunna "koda" punkterna i $V$ genom att bara ange de två första talen i varje följd. Fibonaccitalen blir då $(0,1)$, och den andra vektorn i standardbasen, $(1,0)$, representerar en förskjuten Fibonacci: \[(1,0,1,1,2,3,5,\dots).\]
En följd i $V$ som börjar med $a_0=x$ och $a_1=y$ kan skrivas med "koordinaterna" $x$ och $y$, som \[x\cdot (1,0,1,1,2,3,5,\dots) + y\cdot (0,1,1,2,3,5,8,\dots).\]
Men det finns ett par ännu mer speciella punkter i $V$, nämligen de som är geometriska följder, och mer exakt, som har formen:
\[(1, x, x^2, x^3, x^4, x^5,\dots).\]
Det fiffiga är att eftersom en geometrisk följd växer (krymper) med samma faktor hela tiden, behöver vi bara kolla för vilka $x$ det stämmer att tredje talet i följden är summan av de två första, dvs för vilka $x$ som \[x^2 = 1+x.\]
Om den ekvationen gäller, så följer att $x^{n+2} = x^n+x^{n+1}$ för alla $n$.
Löser vi ekvationen, får vi rötterna \[\alpha = \frac{1+\sqrt{5}}2\] och \[\beta = \frac{1-\sqrt{5}}2.\]
Rummet $V$ innehåller alltså punkterna \[(1,\alpha, \alpha^2,\alpha^3,\dots)\] och \[(1,\beta, \beta^2,\beta^3,\dots).\]
Eftersom de här två vektorerna inte är parallella, och inte är noll, spänner de upp hela $V$ ($V$ har ju bara två dimensioner). Fibonaccitalen kan därför skrivas som en linjärkombination av $(1,\alpha, \alpha^2,\alpha^3,\dots)$ och $(1,\beta, \beta^2,\beta^3,\dots)$. Då återstår bara att beräkna koordinaterna. Vi söker alltså $A$ och $B$ så att \[(0,1,1,2,3,5,\dots) = A\cdot (1,\alpha, \alpha^2,\alpha^3,\dots) + B \cdot (1,\beta, \beta^2,\beta^3,\dots).\]
Tittar vi på första talen i respektive följd, får vi att $0 = A + B$, så $B=-A$. Det andra talet i respektive följd ger att \[1 = A\cdot \alpha + B\cdot \beta =  A\cdot \alpha + (-A)\cdot \beta = A\cdot (\alpha-\beta) = A \cdot \sqrt{5},\] så $A=1/\sqrt{5}$ och $B = -1/\sqrt{5}$, och då har vi faktiskt härlett den exakta formeln. Vi har \[(0,1,1,2,3,5,\dots) = \frac1{\sqrt{5}}\cdot (1,\alpha, \alpha^2,\alpha^3,\dots) - \frac1{\sqrt{5}}\cdot (1,\beta, \beta^2,\beta^3,\dots),\] eller om man tittar på det $n$:te talet i följden och sätter in de kända värdena på $\alpha$ och $\beta$: \[F_n = \frac1{\sqrt{5}}\left(\frac{1+\sqrt{5}}2\right)^n - \frac1{\sqrt{5}}\left(\frac{1-\sqrt{5}}2\right)^n.\] Lägg märke till att den andra termen går mot noll, så skulle man använda det här numeriskt, behöver man bara räkna ut första termen och avrunda till närmaste heltal.





Saturday, September 27, 2014

Lite om kapitel 3, lunch med studentrepresentanter mm

Hemdugga 2 finns sedan i tisdags på den officiella kurshemsidan, och delades ut på papper i torsdags. Den ska lämnas in vid början av föreläsningen på tisdag, 30 september. Så om ni inte har kollat på den än, gör det! Se även mina hintar.

Vi kommer att ha samma tentaregler på båda delarna av kursen, dvs miniräknare tillåten (men inte förprogrammerad eller som kan anslutas till internet), samt egenhändigt handskriven "formelsamling" (eller exempellösningar eller vad ni vill) på ett a4-ark.

Henrike, jag, Pontus och Daniel åt lunch i torsdags och pratade om kursen. Henrike fick beröm för sina repetitioner i början av föreläsningarna, och för struktur på föreläsningarna, med föreläsningens mål i punktform. Jag ska försöka ta efter.
Exempel är bra och viktigt, var alla överens om.
Jag ska inte vara rädd för att dra över tiden med mina föreläsningar, eftersom vi har hela förmiddagen.
Bloggen är bra, var i alla fall Pontus och Daniels åsikt. Jag skulle gärna vilja att alla läser den, men jag ser på statistiken över nedladdningar att det inte är så. Det vore bra att bygga upp något slags formelsamling, och punkter som man ska kunna, i form av en bloggpost.
Dugga 1 höll en hög svår nivå, men var givande. Bra tycker jag. Det ska inte vara lätta duggor och sedan kalldusch på tentan. Hellre tvärtom.
Vi pratade också om miljön i lektionssalen och hur arbetet där fungerar. Jag tycker det är väldigt bra att så många är där och att ni samarbetar, och det är kul att se att folk är där redan innan jag kommer strax efter 8.00 och sitter kvar med kaffetermosarna när jag går på lunch. Kan det rentav bli lite för fnittrigt och högljutt?
Vi kommer att ha ett utvärderingsmöte direkt efter linjär-algebratentan den 30 oktober.

Den här veckan har vi gått igenom kapitel 3. I min ursprungliga planering av kursen hade jag skrivit att tisdagens föreläsning skulle handla om bland annat begreppet linjärt rum. När det var dags för en mer detaljerad förberedelse av föreläsningen, upptäckte jag till min förvåning att kollegan Lemurell har lyckats undvika att definiera detta begrepp!

Medan vi är inne på det här med att gnälla på boken, kolla listan med "tryckfel" och rätta med en penna direkt i era böcker, det dyker nämligen upp mer fel!

Det här med linjära rum är inte så märkvärdigt att det behöver censureras bort. Högst upp på sidan 88 definieras linjära avbildningar (Def 3.1), och definitionen av linjärt rum borde stå parallellt med denna. För att definition 3.1 ska fungera krävs nämligen att åtminstone $V$, och helst också $W$, ska vara slutna under addition och multiplikation med skalär. Om $\mathbf{u}$ och $\mathbf{v}$ ligger i $V$, säger den första ekvationen att \[f(\mathbf{u}+\mathbf{v}) = f(\mathbf{u})+f(\mathbf{v}).\]
Då är det ju bra om $\mathbf{u}+\mathbf{v}$ ligger i $V$ så att vänsterledet är definierat. Motsvarande gäller den andra ekvationen.

Så låt oss klargöra vad som menas med ett linjärt rum (eller synonymt vektorrum). Definitionen är så att säga inte från grunden, utan vi antar att vektoraddition och multiplikation är definierade och uppfyller räknereglerna i Proposition 1.8 på sidan 10 (se även ovan länkade wikipediasida om Vector Spaces). En mängd $V$ av vektorer kallas då ett linjärt rum om
  • mängden $V$ är sluten under addition, dvs om $\mathbf{u}\in V$ och $\mathbf{v}\in V$, så $\mathbf{u}+\mathbf{v}\in V$.
  • mängden $V$ är sluten under multiplikation med skalär, dvs om $\mathbf{v}\in V$ och $c\in \mathbb{R}$, så $cv \in V$.
 Det finns en liten ytterligare nitpick, nämligen att den tomma mängden inte räknas som ett vektorrum. Vi kan lägga till punkten
  • $0\in V$.
Vi kan se det som att detta med sluten under addition även ska innefatta den tomma summan.

Förresten kan vi väl upprepa definitionen av linjär avbildning här. En funktion $f$ från ett linjärt rum $V$ till ett linjärt rum $W$ kallas linjär om den uppfyller:
  • $f(\mathbf{u}+\mathbf{v}) = f(\mathbf{u})+f(\mathbf{v})$, och
  •  $f(c\cdot \mathbf{v}) = c\cdot f(\mathbf{v})$.
På tisdagens föreläsning pratade vi om standardexempel på linjära avbildningar, alltså typer av avbildningar som man förväntas känna till är linjära. Dessa är
  • Omskalningar, dvs multiplikation med skalär (även omskalningar med olika faktorer i olika koordinatriktningar). 
  • Rotationer kring origo respektive linje genom origo i 2 resp 3 dimensioner.
  • Speglingar kring linjer/plan genom origo.
  • Projektioner på linjer/plan genom origo.
  • Skjuvningar (fast just dem pratar vi nog inte så mycket om).
Dessutom (viktigt!) gäller att sammansättningar av linjära avbildningar är linjära!
Ovanstående punkter är alltså bara exempel, inte en fullständig klassifikation.

Bassatsen säger att avbildningar från $\mathbf{R}^n$ till $\mathbf{R}^m$ (se kap 4!) representeras av $m\times n$-matriser, dvs matriser med $m$ rader och $n$ kolumner. Varje matris svarar mot en avbildning, och varje avbildning svarar mot en matris. Men sök inte på internet efter "bassatsen" eller "basis theorem", för då hittar ni bara Hilberts basis theorem om Noetherska ringar och Bengt Ove Turessons föreläsningsanteckningar i Fourieranalys. Så vad heter satsen på riktigt? Jag vet inte, säg till om ni vet. No offense, men en del saker som är viktiga satser i grundkurser blir sedan så naturliga och triviala att de inte betraktas som satser överhuvudtaget.

Sammansättning av linjära avbildningar svarar mot multiplikation av matriser. Kom ihåg att den operation som görs först svarar mot den matris som står längst till höger! Säg till exempel att matrisen $R$ beskriver en viss rotation, och matrisen $S$ beskriver en viss spegling. Att först rotera och sedan spegla svarar då mot matrisprodukten $S\cdot R$. Det här ser man bäst om man tänker på vad som händer med en godtycklig punkt $\pmatrix{x\\y\\z}$. Först ska den roteras, då får vi vektorn $R\cdot \pmatrix{x\\y\\z}$. Sedna ska den vektorn speglas, och då får vi \[S\cdot\left(R\cdot \pmatrix{x\\y\\z}\right).\]
Men matrismultiplikation är ju associativ, så vi kan ta bort parenteserna:
\[S\cdot R\cdot \pmatrix{x\\y\\z}.\]
Eller sätta dem runt $S\cdot R$ och tänka att det är den matrisen som multipliceras med $\pmatrix{x\\y\\z}$:
\[\left(S\cdot R\right)\cdot \pmatrix{x\\y\\z}.\]

Det här med determinanter och hur de svarar mot area och volym har jag inte pratat så mycket om, men det är inte enbart slarv och lathet. I kapitel 6 kommer vi att gå igenom determinanter ordentligt, så det gör inte så mycket om vi missar några saker på det just nu.

Vi pratade om affina avbildningar, dvs avbildningar på formen $Ax+b$, där $A$ är en matris och $b$ är en vektor. De affina avbildningarna inkluderar de linjära, och även klassen av affina avbildningar är sluten under sammansättning. För att hitta matrisen $A$ och vektorn $b$ utifrån en geometrisk beskrivning (t ex spegling/rotation/projektion i/runt/på linje/plan som inte går genom origo) kan man börja med att undersöka vart origo avbildas. Bilden av origo är nämligen vektorn $b$. Har man hittat vektorn $b$ kan man sedan få fram matrisen $A$ genom att undersöka vart standardbasvektorerna avbildas.
Vi gick igenom ett par exempel på detta, se även Exempel 3.38 i boken.

Lite hintar för dugga 2

Som några av er hade kommit på, måste matrisen $B$ i uppgift 2(b) vara inversen till matrisen $A$ i 2(a). Vi har inte gått igenom hur man beräknar inverser, men ni klarar det nog ändå!

Man kan göra ungefär som i uppgift 3.5 i boken. Fast det är lite taskigt att ge det rådet, när det inte finns någon lösning till 3.5 varken i boken eller på webben. Here goes.

$f$ är en linjär avbildning som uppfyller $f\pmatrix{1\\1\\1} = \pmatrix{2\\3\\4}$, $f\pmatrix{1\\1\\0} = \pmatrix{2\\8\\9}$, och $f\pmatrix{0\\1\\1} = \pmatrix{1\\5\\2}$.   
Kolumnerna i matrisen utgörs av $f\pmatrix{1\\0\\0}$,  $f\pmatrix{0\\1\\0}$, och  $f\pmatrix{0\\0\\1}$, så det är dem vi försöker beräkna. Eftersom $\pmatrix{1\\1\\1} - \pmatrix{1\\1\\0} = \pmatrix{0\\0\\1}$, får vi $f\pmatrix{0\\0\\1} = f\pmatrix{1\\1\\1} - f\pmatrix{1\\1\\0} = \pmatrix{2\\3\\4} - \pmatrix{2\\8\\9} = \pmatrix{0\\-5\\-5}$.
Och eftersom  $\pmatrix{0\\1\\1} - \pmatrix{0\\0\\1} = \pmatrix{0\\1\\0}$, får vi på samma sätt  $f\pmatrix{0\\1\\0} = f\pmatrix{0\\1\\1} - f\pmatrix{0\\0\\1} = \pmatrix{1\\5\\2} - \pmatrix{0\\-5\\-5} = \pmatrix{1\\10\\7}$.
Slutligen är $\pmatrix{1\\0\\0} = \pmatrix{1\\1\\0} - \pmatrix{0\\1\\0}$, så
\[f\pmatrix{1\\0\\0} = f\pmatrix{1\\1\\0} - f\pmatrix{0\\1\\0} = \pmatrix{2\\8\\9} - \pmatrix{1\\10\\7} = \pmatrix{1\\-2\\2}.\]
Matrisen är alltså
\[\pmatrix {1 & 1& 0 \\-2 & 10 & -5\\2 & 7 & -5}.\]
Kontrollräkna!
Lägg märke till att högerleden i de givna ekvationerna, alltså $\pmatrix{2\\3\\4}$,  $\pmatrix{2\\8\\9}$, och $\pmatrix{1\\5\\2}$, inte spelar någon roll i själva problemlösningen! Vad det handlar om är att pussla ihop standardbasvektorerna $\pmatrix{1\\0\\0}$, $\pmatrix{0\\1\\0}$,och $\pmatrix{0\\0\\1}$ av pusselbitarna $\pmatrix{1\\1\\1}$, $\pmatrix{1\\1\\0}$,och $\pmatrix{0\\1\\1}$. En plan för hur problemet ska lösas är att eftersom vi vet $f\pmatrix{1\\1\\1}$ och $f\pmatrix{1\\1\\0}$, kan vi räkna ut $f\pmatrix{0\\0\\1}$. Eftersom vi vet $f\pmatrix{0\\1\\1}$ och $f\pmatrix{0\\0\\1}$, kan vi sedan räkna ut $f\pmatrix{0\\1\\0}$. Och eftersom vi vet $f\pmatrix{1\\1\\0}$ och $f\pmatrix{0\\1\\0}$, kan vi slutligen räkna ut $f\pmatrix{1\\0\\0}$. Klart! I princip.
Man kan göra på olika sätt och ta stegen i olika ordning, exempelvis kunde vi räkna ut $f\pmatrix{1\\0\\0}$ först, eftersom vi vet $f\pmatrix{1\\1\\1}$ och $f\pmatrix{0\\1\\1}$.

Och hur är det här samma sak som uppgift 2(b)? Jo för att om vi sätter in valfria värden på $x$, $y$ och $z$, får vi fram ekvationer liknande de som ges i uppgift 3.5. Om vi till exempel tar $x=1$ och $y=z=0$, får vi $B\cdot\pmatrix{-1\\1\\-2} = \pmatrix{1\\0\\0}$. Kom i håg att för problemlösningen spelar högerledet här inte någon roll! Tänk "nu vet vi $B\cdot\pmatrix{-1\\1\\-2}$".

Om man tycker det verkar för trassligt att få fram $B$ gånger standardbasvektorerna på det sättet kan man kolla lite på internet hur man inverterar en matris. Några hade hittat en "grand formula for inverse of 3 by 3 matrix". Nu vet man ju aldrig om det man hittar på nätet är korrekt, men har man en kandidat för $B$, är det ju bara att sätta in och kolla om det stämmer.

Vill man göra ordentligt, kan man annars tjuvtitta i förväg i boken. Exempel 5.30, sid 169-170, visar hur man inverterar en $3\times 3$-matris.

Om man tycker att det ser konstigt ut, men inte är rädd för linjära ekvationssystem, kan man ställa upp ekvationer för att hitta värden på $x$, $y$ och $z$ som ger standardbasvektorerna. För att vektorn $\pmatrix{-x+y-2z\\x-y+z\\3y-2x}$ ska vara lika med $\pmatrix{1\\0\\0}$ till exempel, måste vi ha
\[\begin{cases} -x+y-2z&=1\\x-y+z&=0\\3y-2x&=0\end{cases}\]
Bara att lösa ut variablerna i tur och ordning!

Slutligen, inte att underskatta, finns brute-forcemetoden. Ta fram datorn och låt $x$, $y$ och $z$ gå från, säg, $-100$ till $100$. Det är bara 8 miljoner fall. För vart och ett, beräkna $\pmatrix{-x+y-2z\\x-y+z\\3y-2x}$ och kolla om det är en standardbasvektor. Klart på någon sekund.
Men vänta, elementen i inversen behöver ju inte vara heltal! I allmänhet är de ju rationella tal, där nämnaren är matrisens determinant. Så metoden blir att först räkna ut determinanten av matrisen $A$ med Sarrus regel, och sedan låta $x$, $y$, och $z$ vara heltal dividerat med denna determinant.
Fast vänta igen, säg att determinanten är 14, och att värdena $x=a/14$, $y=b/14$ och $z=c/14$ ger $\pmatrix{-x+y-2z\\x-y+z\\3y-2x} = \pmatrix{1\\0\\0}$. Då skulle ju värdena $x=a$, $y=b$ och $z=c$ ha gett $\pmatrix{-x+y-2z\\x-y+z\\3y-2x} = \pmatrix{14\\0\\0}$. Så vi behöver inte räkna ut determinanten först. I stället testar vi heltalsvärden på $x$, $y$ och $z$, och låter vårt program skriva ut de värden som ger någon multipel av standardbasvektorerna, dvs någon vektor som har två av tre komponenter lika med noll. 
Nog om uppgift 2(b), lycka till!

På uppgift 4 är det några som har funderat kring detta med att rotera i positiv riktning eller motsols, i tre dimensioner. Vad betyder det? Det beror ju på från vilket håll man tittar. Om man sitter i en satellit ovanför nordpolen och tittar ner på jorden, snurrar den motsols, men tittar man från ovanför sydpolen (under??), snurrar den medsols. I princip behöver man en riktning på linjen för att kunna tala om rotation i positiv riktning runt linjen. Nu handlar det om $z$-axeln, och då finns en naturlig riktning. Vi gör alltså som i Exempel 3.21 på sid 97-98 i boken. Det innebär att $xy$-planet i sig roterar på det sätt som vi kallar positiv riktning i två dimensioner.

När ni har fått fram något som ni tror är rätt svar, kontrollräkna! Gäller det mesta i den här kursen.







Monday, September 22, 2014

Om hemdugga 1

Det var lite småfel här och där och några har fått rest, men alla som lämnade in hade rätt på det mesta, och jag räknar med att alla till slut blir godkända. Bra att ni pratar med varandra och samarbetar!

Uppgift 1 (a) visade sig bli en slamkrypare. Tydligen är boken och Wikipedia inte överens, och kanske finns en subtil skillnad mellan att vara definierad och att kunna definieras. Nog tjafsat om sjudimensionella produkter!
(b), (c) och (d) är alla falska!

Uppgift 2 handlade om att projicera punkten $(1,3,4)$ först på planet $x-2y+z = 0$ och sedan på linjen $(1, 2t, 3t)$. Projektionen på planet är $(1+1/6, 3-1/3, 4+1/6)$, och projektionen på linjen är $(19/14, 38/14, 57/14)$.

Den här uppgiften har att göra med minsta kvadrat-metoden för att anpassa en rät linje till tre punkter $(1,1), (2,3)$ och $(3,4)$. Jag pratade om det på föreläsningen, men jag ska inte beskriva det i detalj här. Minsta kvadratmetoden kommer tillbaka i ett senare kapitel.

Uppgift 3 handlade om en boll som studsar mot ett plan. Den var lite snällt gjord för att kunna lösas på ett par olika sätt. Bollen träffar planet efter 2 sekunder, eftersom punkten $(2,0,0)$ ligger i det givna planet. En riktningsvektor för bollens rörelse före studsen är $(1,0,0)$, och planets normal är bara att läsa av från ekvationen: $(4,2,1)$. Vinkeln mellan $(1,0,0)$ och $(4,2,1)$, kalla den $\alpha$, ges av
\[\cos \alpha = \frac{(4,2,1) \cdot (1,0,0)}{\left\|(4,2,1)\right\| \left\|(1,0,0)\right\|} = \frac4{\sqrt{21}}.\]
För att få bollens position efter 4 sekunder kan man beräkna speglingen i planet av den punkt där bollen hade befunnit sig om den inte hade studsat, alltså $(4,0,0)$. För att finna speglingen räcker det att beräkna projektionen, och sedan utnyttja att projektionen är medelvärdet av punkten och dess spegling. Projektionen av punkten $(4,0,0)$ på planet $4x+2y+z=8$ är $(52/21, -16/21, -8/21)$, och speglingen, dvs den sökta punkten, är $(20/21, -32/21, -16/21)$.

Ganska många hade fått svaret $(-22/21, -32/21, -16/21)$, vilket är riktningsvektorn från punkten $(2,0,0)$ till den sökta punkten. Själva räkningarna är rätt, men tänk igenom vad det är ni har räknat ut!


Uppgift 4 handlade om bindningsvinkeln i metan, som visar sig vara $\arccos(-1/3)$. I barycentriska koordinater sitter kolatomen i punkten $(1/4, 1/4, 1/4, 1/4)$. Riktningsvektorer därifrån till två av väteatomerna blir $(1,0,0,0) - (1/4, 1/4, 1/4, 1/4) = (3/4, -1/4, -1/4, -1/4)$ och $(0,1,0,0) - (1/4, 1/4, 174, 1/4) = (-1/4, 3/4, -1/4. -1/4)$. Det gäller alltså att räkna ut vinkeln mellan dessa, som är
\[\arccos\left(\frac{\pmatrix{3/4\\-1/4\\-1/4\\-1/4}\cdot \pmatrix{-1/4\\3/4\\-1/4\\-1/4}}{\left\|\pmatrix{3/4\\-1/4\\-1/4\\-1/4}\right\| \cdot \left\|\pmatrix{-1/4\\3/4\\-1/4\\-1/4}\right\|} \right) = \arccos\left(\frac{-1/4}{3/4}\right) = \arccos\left(-\frac13\right).\]

Sammanfattande kommentarer, kapitel 1


Några av de begrepp man ska känna till från kapitel 1 är: Vektor, linjärkombination, enhetsvektor, skalärprodukt, ortogonalitet, projektion, spegling, vektorprodukt, koordinatsystem, bas, ON-bas, avstånd.

Förkunskaper man bör ha (repetera?) är definitioner av sinus, cosinus och tangens, cosinussatsen, värden på sinus och cosinus för multipler av $30^\circ$ och $45^\circ$, Pythagoras sats.

Bland det man förväntas kunna från kapitel 1 är hur plan och linjer kan beskrivas i ekvations- och parameterform, och hur man går fram och tillbaka mellan dessa.

Exempelvis kan ett plan i tre dimensioner ges av en ekvation som \[x+2y-4z = 5.\]
För att skriva detta plan på parameterform behöver man två "frihetsgrader", variabler som kan varieras hur som helst. Här ser man (till exempel) att $y$ och $z$ kan få vilka värden som helst, och dessa bestämmer värdet på $x$ genom \[x = -2y+4z+5.\]
Om parametrarna kallas $s$ och $t$, kan vi skriva planet som
\[
\begin{cases}
x = -2s+4t+5\\
y = s\\
z = t
\end{cases}
\]
Alternativt ges planet av tre punkter. Låt oss säga att vi bara vet att punkterna $(3,1,0)$, $(9,0,1)$ och $(5,0,0)$ ligger i planet. På parameterform kan vi då skriva planet som
\[s \cdot \pmatrix{3\\1\\0} + t\cdot \pmatrix{9\\0\\1} + (1-s-t)\cdot \pmatrix{5\\0\\0}.\]
Lägg märke till det smarta tricket med koefficienterna. När $s=1$ och $t=0$ får man punkten $\pmatrix{3\\1\\0}$. När tvärtom $s=0$ och $t=1$ får man punkten $\pmatrix{9\\0\\1}$. Och slutligen om $s=t=0$ får vi den tredje punkten $\pmatrix{5\\0\\0}$. Om vi skriver ut vad $x$, $y$ och $z$ blir, får vi
\[
\begin{cases}
x = 3s + 9t + 5(1-s-t) = -2s+4t+5\\
y = s\\
z = t
\end{cases}
\]

För att gå åt andra hållet och komma från parameter till ekvationsform, gäller det först att hitta normalriktningen till planet. Genom att sätta in olika parametervärden, till exempel $(s.t) = (1,0), (0,1)$ och $(0,0)$, får vi tre punkter i planet. Med "huvud minus svans" kan vi då hitta två vektorer som är parallella med planet. I det här fallet får vi till exempel vektorerna $\pmatrix{3\\1\\0} - \pmatrix{9\\0\\1} = \pmatrix{-6\\1\\-1}$ och $\pmatrix{3\\1\\0} - \pmatrix{5\\0\\0} = \pmatrix{-2\\1\\0}$.

För att hitta en vektor som är normal till (alltså ortogonal mot) planet, tar vi vektorprodukten av dessa två:
\[\pmatrix{-6\\1\\-1} \times \pmatrix{-2\\1\\0} = \pmatrix{1\\2\\-4}.\]
Det här är ett ad hoc-trick, som bara fungerar i tre dimensioner. Det mer systematiska sättet kommer vi till i avsnittet om Gausselimination.

Det är lätt att göra teckenfel på kryssprodukten, så kom ihåg att kontrollera att resultatet är ortogonalt mot båda faktorerna. dvs att
\[\pmatrix{-6\\1\\-1} \cdot \pmatrix{1\\2\\-4} = 0\] och
\[ \pmatrix{-2\\1\\0} \cdot \pmatrix{1\\2\\-4} = 0.\]
Nu har vi en normalvektor, och den ger koefficienterna $(1,2,-4)$ i ekvationen, som alltså har formen
\[x +2y -4z = konstant.\]
Genom att sätta in en av punkterna, till exempel $(3,1,0)$, får vi att konstanten är 5. Sätt in de andra två punkterna också, för att kontrollera att det blir samma värde på konstanten! Blir det inte det har vi räknat fel.

I planet har vi ingen vektorprodukt, utan där är ad hoc-tricket att "byta plats och byta tecken". Om vi till exempel ska hitta normalriktningen till en linje genom punkterna $(1,2)$ och $(-1,5)$ tar vi riktningsvektorn $\pmatrix{1\\2} - \pmatrix{-1\\5} = \pmatrix{2\\-3}$, och byter plats på 2:an och 3:an och byter tecken på den ena (till exempel från $-3$ till $3$), dvs vi får $\pmatrix{3\\2}$. Linjens ekvation är alltså $3x+2y = konstant$, och konstanten får vi genom att sätta in punkten $(1,2)$, dvs $x=1$ och $y=2$. Konstanten är alltså $3\cdot 1 + 2\cdot 2 = 7$.

Kom ihåg att göra kontroller när det går! Vi kan lika gärna sätta in den andra punkten, $(-1,5)$. Då ska det stämma att $3\cdot (-1) + 2\cdot 5$ också är lika med 7. Det gör det. Annars hade vi fått räkna om! 

Lite blandade kommentarer:

Varje parameter ger en dimension, varje ekvation tar bort en dimension (annars är de onödiga!).

Kom ihåg att linjer/plan kan vara lika även om de inte ser lika ut! 

För att jämföra linjer/plan på parameterform, se till att ha olika parametrar!

Mittpunkt ges av medelvärde koordinatvis (gäller alla symmetriska geometriska figurer).

Kom ihåg Pythagoras sats, och hur den generaliseras till högre dimensioner, även känt som avståndsformeln.

"Huvud minus svans". En vektorpil från punkten $P$ (svansen) till punkten $Q$ (huvudet) svarar i koordinater mot punkten $Q$ minus punkten $P$.

Räkneregler för vektorer, skalärprodukt och vektorprodukt. Hur skalärprodukt kan användas för att räkna ut vinklar, och hur vektorprodukt kan användas för att hitta vektorer ortogonala mot givet plan eller vektorer.

Man ska kunna beräkna (kortaste) avståndet mellan punkter, linjer, plan. Knepet är att minimalt avstånd svarar mot rät vinkel. Till exempel fås kortaste avståndet mellan två räta linjer genom att man hittar punkter $P$ och $Q$ på respektive linje så att linjen genom $P$ och $Q$ skär båda de givna linjerna i rät vinkel.

Kom ihåg vad som menas med projektion! Projektionen av en punkt $P$ på ett plan är en punkt i planet, inte riktningsvektorn från $P$ till denna punkt! Med "projektionen" menas så att säga  resultatet av att projicera, inte hur punkten flyttas när den projiceras. Motsvarande gäller för begreppet spegling.

Kom ihåg att resultatet av vektorprodukt kan kontrolleras med skalärprodukt! Vektorprodukten ska vara ortogonal mot båda faktorerna, dvs ha skalärprodukt noll.

Kom ihåg att vektorer räknas som lika om de har samma längd och samma riktning! Kom ihåg att vektorer räknas som parallella även om de har motsatt riktning!

Gå igenom listan av tryckfel, och rätta i era böcker!







Friday, September 12, 2014

Lite hintar för hemdugga 1

Uppgift 1 
Det här med att multiplicera vektorer i 7 dimensioner var inte tänkt att bli någon slamkrypare. Den ena sortens multiplikation finns i alla dimensioner, och den andra sorten kan bara definieras i vissa speciella dimensioner. Det är alltså tänkt att ett av de två första påståendena är sant och det andra är falskt.

Uppgift 3
Observera att den punkt där bollen befinner sig efter 4 sekunder är speglingen i det givna planet av var den hade befunnit sig om den hade gått rakt genom planet utan att studsa. Detta är ett annat sätt att formulera fysiklagen om att bollen studsar ut i samma vinkel som den studsar in. Kanske var det lite opedagogiskt att först fråga i (a) efter vinkeln, och därefter om var bollen befinner sig efter en viss tid. Det ger intrycket att man ska använda vinkeln i beräkningen i (b), vilket inte är nödvändigt.

Uppgift 4 
Här är det bra att känna till att medelpunkten i en polygon eller polyeder (om den är så pass symmetrisk att den har en tydlig medelpunkt) fås som medelvärdet (koordinatvis) av hörnen. Ett specialfall av detta är att mittpunkten på en sträcka $PQ$ är $(P+Q)/2$, om man tänker sig punkterna $P$ och $Q$ som vektorer, alltså givna av koordinater (detta är relevant även i uppgift 3!). I en liksidig triangel med hörn $P$, $Q$ och $R$ är mittpunkten \[\frac{P+Q+R}3.\]
En liksidig triangel kan läggas i ett tredimensionellt koordinatsystem så att hörnen hamnar i standardbasvektorerna $(1,0,0)$, $(0,1,0)$ och $(0,0,1)$ som i följande figur. Det här kallas barycentriska koordinater.
Barycentriska koordinater kan man använda även för en tetraeder, som i uppgift 4. Här är en bild på en tetraeder gjord av M-tic. Om man tittar ordentligt ser man att den har 35 kulor, varav 34 sitter "på ytan", och en kan skymtas i det inre.
Man kan se det som att konstruktionen har fyra våningar, där kulan i mitten sitter en våning upp. Och ställer man tetraedern på någon annan sida sitter kulan i mitten fortfarande en våning upp!

Monday, September 8, 2014

Några kommentarer efter andra tillfället

Vi bestämde att själva föreläsandet fortsättningsvis ska börja klockan 8.15, eftersom några ska hinna med tåg utifrån. Jag kommer ändå att vara på plats runt 8.00.

Det visade sig vara problem med att registrera sig på Hållbar Utveckling, vi hoppas det funkar den här veckan.

Daniel och Pontus valdes till studentrepresentanter.

Vi pratade lite om hemdugga 1, som ska in tisdagen 16 september, början av föreläsningen.

Nu var det dags att plocka fram fingrarna och räkna ut kryssprodukter. Kryssprodukten är bara definierad i tre dimensioner (och sju säger en del, men det bryr vi oss inte om här). Kryssprodukten av två vektorer $\mathbf{u}$ och $\mathbf{v}$ med vinkel $\alpha$ definieras genom egenskaperna att
  1. $\left\|\mathbf{u}\times\mathbf{v}\right\| = \left\|\mathbf{u}\right\| \cdot \left\|\mathbf{v}\right\| \cdot \sin \alpha$.
  2. Vektorn $\mathbf{u}\times\mathbf{v}$ är ortogonal mot både $\mathbf{u}$ och $\mathbf{v}$.
  3. Trippeln $\mathbf{u}$, $\mathbf{v}$, $\mathbf{u}\times\mathbf{v}$ är högerorienterad.
Villkoren 1 och 2 bestämmer nästan, men inte riktigt, vad kryssprodukten måste vara. Om $\mathbf{u}$ och $\mathbf{v}$ inte spänner upp ett plan är vinkeln noll, och då är kryssprodukten nollvektorn. Spänner de upp ett plan, finns det bara en linje som är ortogonal mot båda, och eftersom längden är bestämd, finns det bara två möjligheter kvar. Vilken av dem det är bestäms av det tredje villkoret.
Det här med vad som är höger- och vänsterorienterat kan verka krångligt (särskilt eftersom vi inte har kommit till avsnittet om determinanter än!). Även om man förstår intuitivt vad det innebär, hur räknar man med det?

Och varför kallas den här orienteringen höger förresten? Det ligger något naturligt i att enhetsvektorn i $x$-led gånger enhetsvektorn i $y$-led blir enhetsvektorn i $z$-led. Men att det naturliga kallas höger och det bakvända kallas vänster är nog ett utslag av samhällets högernormativitet.

Vi skulle kunna börja med villkoren 1 och 2 samt kravet att vektorprodukten ska vara linjär i båda argumenten, vilket bland annat innebär att den ska uppfylla den den distributiva lagen. En produkt av två summor kan alltså utvecklas, till exempel \[(\mathbf{a}+\mathbf{b}+\mathbf{c}) \times (\mathbf{d}+\mathbf{e}) = \mathbf{a}\times \mathbf{d} + \mathbf{a}\times \mathbf{e} + \mathbf{b}\times \mathbf{d} + \mathbf{b}\times \mathbf{e} + \mathbf{c}\times \mathbf{d} + \mathbf{c}\times \mathbf{e}.\]
Lägg dock märke till att ordningen på faktorerna spelar roll, och inte får ändras på. Det är till exempel INTE (alltid) sant att
\[(\mathbf{a}+\mathbf{b})\times(\mathbf{a}+\mathbf{b}) = \mathbf{a}\times\mathbf{a} + 2\cdot (\mathbf{a}\times\mathbf{b}) + \mathbf{b}\times\mathbf{b}.\]
Utvecklar man vänsterledet korrekt, får man i stället \[(\mathbf{a}+\mathbf{b})\times(\mathbf{a}+\mathbf{b}) = \mathbf{a}\times\mathbf{a} + \mathbf{a}\times\mathbf{b} + \mathbf{b}\times\mathbf{a} + \mathbf{b}\times\mathbf{b}.\]
Eftersom kryssprodukten av en vektor med sig själv är noll, visar det här i själva verket att
\[ 0 = \mathbf{a}\times\mathbf{b} + \mathbf{b}\times\mathbf{a}.\]
Med andra ord $ \mathbf{a}\times\mathbf{b}= - \mathbf{b}\times\mathbf{a}$, byter man ordning på faktorerna, så byter produkten tecken.

Tillbaka till det här med lineariteten och de distributiva lagarna. Eftersom vi håller till i det tredimensionella rummet, kan varje vektor skrivas som en linjärkombination av standardbasvektorerna $\mathbf{e}_1 = \begin{pmatrix}1\\0\\0\end{pmatrix}$,  $\mathbf{e}_2= \begin{pmatrix}0\\1\\0\end{pmatrix}$, och $\mathbf{e}_3= \begin{pmatrix}0\\0\\1\end{pmatrix}$. Kryssprodukten av två vektorer vilka som helst kan alltså i princip alltid skrivas som
\[ \left(a\cdot \begin{pmatrix}1\\0\\0\end{pmatrix}+b\cdot \begin{pmatrix}0\\1\\0\end{pmatrix}+c\cdot \begin{pmatrix}0\\0\\1\end{pmatrix}\right) \times \left(d\cdot \begin{pmatrix}1\\0\\0\end{pmatrix}+e\cdot \begin{pmatrix}0\\1\\0\end{pmatrix}+f\cdot \begin{pmatrix}0\\0\\1\end{pmatrix}\right).\]
När vi utvecklar den här produkten, kan vi slänga bort termer som $ad\cdot\begin{pmatrix}1\\0\\0\end{pmatrix}\times\begin{pmatrix}1\\0\\0\end{pmatrix}$, eftersom kryssprodukten av en vektor med sig själv är noll. Vi kan också samla ihop termer som svarar mot samma faktorer men i olika ordning, fast då måste vi komma ihåg att tecknet ändras när man ändrar ordningen. Till exempel är
\[bd \cdot\begin{pmatrix}0\\1\\0\end{pmatrix}\times\begin{pmatrix}1\\0\\0\end{pmatrix} = -bd\cdot\begin{pmatrix}1\\0\\0\end{pmatrix}\times\begin{pmatrix}0\\1\\0\end{pmatrix}.\]
Hela produkten blir då
\[(ae-bd)\cdot \begin{pmatrix}1\\0\\0\end{pmatrix}\times\begin{pmatrix}0\\1\\0\end{pmatrix}
+ (bf-ce)\cdot \begin{pmatrix}0\\1\\0\end{pmatrix}\times\begin{pmatrix}0\\0\\1\end{pmatrix}
+ (cd-af)\cdot \begin{pmatrix}0\\0\\1\end{pmatrix}\times\begin{pmatrix}1\\0\\0\end{pmatrix}. \]
Villkoren 1+2+linearitet innebär alltså att allt bestäms av de tre produkterna
\[\begin{pmatrix}1\\0\\0\end{pmatrix}\times\begin{pmatrix}0\\1\\0\end{pmatrix},\] \[\begin{pmatrix}0\\1\\0\end{pmatrix}\times\begin{pmatrix}0\\0\\1\end{pmatrix},\] och \[\begin{pmatrix}0\\0\\1\end{pmatrix}\times\begin{pmatrix}1\\0\\0\end{pmatrix}.\]
Vi har bara två alternativ för var och en av dem, men i själva verket har vi ännu mindre valfrihet än så. Produkten $\begin{pmatrix}1\\0\\0\end{pmatrix}\times\begin{pmatrix}0\\1\\0\end{pmatrix}$ måste vara antingen $\begin{pmatrix}0\\0\\1\end{pmatrix}$ eller $\begin{pmatrix}0\\0\\-1\end{pmatrix}$. Säg att vi bestämmer oss för det förstnämnda alternativet. Då skulle det inte funka att $\begin{pmatrix}1\\0\\0\end{pmatrix}\times\begin{pmatrix}0\\0\\1\end{pmatrix} = \begin{pmatrix}0\\1\\0\end{pmatrix}$. För la vi ihop dem skulle vi få att
\[\begin{pmatrix}1\\0\\0\end{pmatrix}\times\begin{pmatrix}0\\1\\1\end{pmatrix} = \begin{pmatrix}0\\1\\1\end{pmatrix},\]
och då skulle produkten inte vara ortogonal mot andra faktorn. Alltså måste $\begin{pmatrix}1\\0\\0\end{pmatrix}\times\begin{pmatrix}0\\0\\1\end{pmatrix} = \begin{pmatrix}0\\-1\\0\end{pmatrix}$, och på samma sätt måste vi ha $\begin{pmatrix}0\\1\\0\end{pmatrix}\times\begin{pmatrix}0\\0\\1\end{pmatrix} = \begin{pmatrix}1\\0\\0\end{pmatrix}$.

Om vi bestämmer oss för att \[\begin{pmatrix}1\\0\\0\end{pmatrix}\times\begin{pmatrix}0\\1\\0\end{pmatrix} = \begin{pmatrix}0\\0\\1\end{pmatrix},\] måste alltså allt annat "följa färg", och vi får en "högerorienterad" vektorprodukt. Det enda alternativet vore en helt igenom vänsterorienterad vektorprodukt.

Vi pratade lite om hur man kan använda vektorprodukt för att hitta normalriktningen till ett plan om man vet tre punkter i planet (till exempel origo och två andra punkter).

Det dök upp en del frågor kring att det bara finns två enhetsvektorer som är parallella med en given vektor, till exempel $\begin{pmatrix}5\\-7\end{pmatrix}$ (övning 1.10). Kan man inte köra runt med en pil i hela planet och få oändligt många parallella vektorer av längd 1? Nej, och det har att göra med när två vektorer är lika. Vektorbegreppet definieras (informellt) som något som har riktning och längd. I detta ligger att om två vektorer (pilar) har samma riktning och samma längd, så betraktas de som lika. Och då finns det bara två enhetsvektorer som är parallella med en given vektor. Lägg alltså märke till att två vektorer är parallella även när de pekar i motsatt riktning.

En sak som kan vara bra att ha i arsenalen av utantillkunskaper (till exempel när man löser problem som har att göra med spegling) är att den punkt, kalla den $M$, som ligger mitt emellan två punkter $P$ och $Q$ kan ses som medelvärdet av $P$ och $Q$. Koordinatvis, eller om vi tänker oss $P$, $Q$ och $M$ som vektorer (med pilstart i origo), gäller
\[M = \frac{P+Q}2.\]

Tuesday, September 2, 2014

Några anteckningar efter första tillfället

Nu har vi haft ett föreläsnings- och övningstillfälle, och jag tänkte skriva ner några saker medan jag har dem i minnet. 

Vi pratade om vektorer (något som har längd och riktning), vektoraddition, multiplikation skalär gånger vektor (som blir ny vektor), vinklar och längd.

De inledande övningsuppgifterna gav nyttig träning i geometri och trigonometri. Man fick använda Pythagoras sats, dra sig till minnes definitionerna av sinus, cosinus och tangens (det var någonting med cosy och närstående). Cosinussatsen var också bra att komma ihåg.

Det viktiga nya begreppet var skalärprodukt, en sorts produkt där man multiplicerar två vektorer och resultatet blir ett tal (tal = skalär). Skalärprodukten av två vektorer $u$ och $v$ med mellanliggande vinkel $\alpha$ definieras som
\[ u\cdot v = \left\| u \right\|\cdot\left\| v \right\| \cdot \cos \alpha. \]
Längden av vektorn $u$ skrivs $\left\| u \right\|$, vilket förstås påminner om hur man skriver belopp av tal.

En viktig insikt som behöver smältas är att även om vinkeln mellan $u$ och $v$ används i definitionen av skalärprodukt, så kommer skalärpodukten att bli ett redskap för att beräkna bland annat vinklar. Detta kan i förstone verka paradoxalt - vi måste väl veta vinkeln $\alpha$ för att beräkna $u\cdot v$?

Nja, det fiffiga med skalärprodukten är att den uppfyller ett antal räkneregler, bland annat den distributiva lagen:
\[u\cdot (v + w) = u\cdot v + u\cdot w.\]  
Det gör att man exempelvis kan räkna ut vinkeln mellan två rymddiagonaler i en kub (övning 1.40 i boken). Om $e_1$, $e_2$ och $e_3$ är parvis ortogonala enhetsvektorer (parallella med sidorna i kuben), kan vi räkna ut skalärprodukten av rymddiagonalerna \[u = e_1+e_2+e_3\] och \[v= e_1+e_2-e_3\] som \[ u\cdot v = (e_1+e_2+e_3)\cdot (e_1+e_2-e_3) = e_1\cdot e_1 + e_2\cdot e_2 - e_3\cdot e_3 = 1+1-1 = 1.\]
Lägg märke till att alla "blandade" termer av typen $e_1\cdot  e_2$ är noll. Eftersom $u$ och $v$ vardera har längden $\sqrt{3}$, får vi \[ u\cdot v = \sqrt{3}\cdot \sqrt{3} \cdot \cos \alpha,\] där $\alpha$ är vinkeln, så när vi vet att skalärprodukten är 1, leder det till att $\cos\alpha =1/3$, eller om man så vill (det är en typo i facit i boken) \[\alpha = \arccos\left(\frac13\right)\approx 70.5^\circ.\]
Att $u$ och $v$ har längd $\sqrt{3}$ kan man se genom att använda "Pythagoras sats i tre dimensioner". Man kan också få fram det genom att använda skalärprodukt:
\[u\cdot u = (e_1+e_2+e_3)\cdot (e_1+e_2+e_3) = e_1\cdot e_1+e_2\cdot e_2+e_3\cdot e_3 = 3.\]Men samtidigt gäller enligt definitionen att
\[u\cdot u = \left\| u \right\| \cdot \left\| u \right\| \cdot \cos 0 = \left\| u \right\|^2,\] så $\left\| u \right\|$ måste vara lika med $\sqrt{3}$.

Skalärprodukten definieras i termer av längd och vinklar, men definitionen är inte godtycklig. Genom att skalärpodukten uppfyller vissa räkneregler inklusive den distributiva lagen, kan den användas som ett redskap för att räkna ut vinklar och avstånd.

Skalärprodukten av en vektor med sig själv brukar skrivas $u\cdot u$, inte $u^2$. Anledningen, rent logiskt, är att skalärprodukten bara funkar för två vektorer. Det finns ingen analog definition av till exempel $u^3$. Däremot kan man skriva $\left\| u\right\|^2$, för det är samma sak som $u\cdot u$.

Förutom trigonometrin var det också dags att damma av en del algebra. I uppgift 1.2 (b) kunde man få det till \[\arctan\left(\frac{\frac{10}{\sqrt{2}}}{40-\frac{10}{\sqrt{2}}}\right),\]
men i facit står det \[\arctan\left(\frac{4\sqrt{2}+1}{31}\right).\]
Det kan väl inte vara samma, för vad kommer talet 31 ifrån? Jo faktiskt,
\[\frac{\frac{10}{\sqrt{2}}}{40-\frac{10}{\sqrt{2}}} = \frac{5\sqrt{2}}{40-5\sqrt{2}} =
\frac{\sqrt{2}}{8-\sqrt{2}} = \frac{\sqrt{2}\cdot (8+\sqrt{2})}{(8-\sqrt{2})\cdot (8+\sqrt{2})} = \frac{8\sqrt{2}+2}{64-2} = \frac{4\sqrt{2}+1}{31}.\]
Du skall alltid förlänga med konjugatet! Notera också att en sydvästlig vind kommer från sydväst, och blåser mot nordost!

För övrigt har jag nu lyckats komma åt den officiella kurshemsidan, så nu finns planeringen även där.

Ses på torsdag, då även den första omgången hemuppgifter ska ut.