Hur man multiplicerar matriser


Ju mer matteförklaringar är intuitiva, desto mer gillar jag dem. Matematik är svårare att förklara bättre på video än IRL på en tavla, men det finns undantag och det är då videoformen utnyttjas som mest.

Jag är nöjd över att ha hittat följande undantag: en video som berättar om matriser. Om du själv har svårt för att komma ihåg hur man multiplicerar matriser eller har en kompis som är det, rekommenderar jag att kolla på denna mästerverk i 4 minuter.

4 reaktioner till “Hur man multiplicerar matriser”

  1. Fast ger videon någon som helst intuitiv känsla/förklaring av matriser? Den beskriver det tekniska hur man beräknar produkt/summa korrekt (även om det känns lite tveksamt att säga att man kan multiplicera dem precis som tal när matrismultiplikation inte är kommutativt), men jag kan inte säga att det ger någon intuition utan det är mer upplagt som att det finns en magiska formel att följa (som vi inte vet/förstår varifrån den kommer). För att få en intuitiv känsla så skulle man t.ex titta på geometriska tolkningar eller, om man är mer algebraiskt lagd, se matriser som speciella funktioner. Det ger en mycket bättre förståelse av exempelvis vilka matriser som är rimliga att multiplicera med varandra.

  2. Du har rätt Johan, egentligen är inte videon fantastisk för förståelsen, men däremot fantastisk för att komma ihåg tekniken (som många har svårt för i första hand).

    Hur brukar/brukade du förklara matrismultiplikation för dina studenter?

  3. Själva tekniken brukar jag också beskriva på samma sätt (skriva upp en matris ovanför och sedan använda vertikala/horisontala linjer för att kolla vilka element som ska multipliceras). Det är lättare att beskriva med en tavla men jag gör ett försök att beskriva ungefär hur jag går tillväga med betydligt mindre detaljer.

    Vanligen så brukar man väl börja med att prata litegrann om linjära avbildningar av planet till planet, då får man dels en abstrakt definition och dels en bild i huvudet av hur det “ser ut” (det finns tillexempel en trevlig introduktion på http://mattebloggen.com/2009/03/linjar-avbildning/ :) ). När man väl har lite känsla för vad en linjär funktion är så vill man givetvis kunna beskriva den på något bra sätt precis som att vi beskriver polynom som f(x)=x^2.
    Efter att man övertygat sig om att det räcker med att vi vet var basvektorerna tar vägen för att bestämma hela funktionen (syns kanske enklast visuellt genom att man ritar upp bilden av ett rutnät som föreställer ursprungliga koordinatsystemet och dess kanske lutande bild) så kan man helt enkelt säga att vi skriver upp bilden av varje basvektor som en kolumnvektor på en rad efter varandra för att beskriva den linjära funktionen och kallar detta för dess matris (då ju detta räcker för att beskriva hela funktionen, här är det lätt att se att summan av två matriser kan tas koordinatvis). Om vi nu ser en matris så är det lätt att veta mellan vilka storlekar på rum den går, kolumnvektorn ligger ju i målrummet så matrisens höjd är dess dimension. Matrisens bredd måste nu vara antalet basvektorer vi behövde kolla vart de tog vägen, dvs det ursprungligarummets dimension.
    Då vet vi vad en matris är, och vill förstå multiplikation. Vi börjar med att titta på matrisen A och funderar på hur vi ska räkna ut vad A(v) är där v är en vektor (i rätt rum, uttryckt i basvektorer). Vi vet pga linjaritet att A(v+w)=A(v)+A(w) så vi kan se att om v=(a,b,c,…) så kommer A(a,0,0,0,…) per definition att vara a * första kolumnvektorn (då vi ju skrev upp den just som bilden av första basvektorn). Det följer nu ganska lätt att A(v)= a ggr första basvektorn + b ggr andra basvektorn + … . (Vanligen så kanske man först gör ett exempel med siffor och sedan tar den abstraktare beskrivningen).
    Detta ger oss en baby-matrismultplikationsregel där ena matrisen är en kolonnvektor (som vi beskriver på samma sätt som i videon). Då matriser var funktioner så är det ju intressant att veta vad A(B(v)) är för matris (givet att A,B är matriser). De måste ha rätt storlek för att det överhuvudtaget ska vara vettigt att prata om funktionssammansättningen. Vi minns nu att vi ursprungligen definierade vår matris som att vi skrev upp bilden av varje basvektor som kolonnvektorer, en i taget, alltås så måste vi börja med att kolla bilden av e_1 och sedan e_2 osv. B(e_1) var ju B:s första kolonn, så vi vill alltså ta reda på bilden av B:s första kolonn när vi applicerar A på den och skriva upp det som första kolonnen i AB. Men vi kan använda vår babyregel här (skriva upp den vektorn ovanför och sedan multiplicera som i videon. För nästa kolonn så skriver vi upp B:s andra kolonnvektorer ovanför och multiplicerar som i videon osv. En ickesovande student ser nu att vi faktiskt skrivit upp hela B-matrisen ovanför och multiplicerar som i videon och vi får vår vanliga matrismultiplikation (sedan så kan man givetvis motivera det algebraiskt med ett gäng summasymboler också).
    Då vi “vet” att det egentligen är funktionsammansättning så inser vi snabbt att den är associativ men inte nödvändigtvis kommutativ. Inte heller en superintuitiv förklaring, men man ser varfrån regeln kommer, och det är hyfsat lätt att följa genom att ta steget via babyregeln med bilden av en vektor.

  4. Det var bra beskrivet, men tyvärr är det en förutsättning att man förstår funktionssammansättning och linearitetsprincipen, vilket många inte gör i början av kursen, utan oftast i slutet. Detta gör att man inte heller förstår vad matrismultiplikation kommer ifrån, just eftersom det berättas i början på linjär algebra-kursen. För om man förstår, behöver man knappast några minnesregler för att komma ihåg multiplikationsuppställningen, då är det bara att härleda :)

Kommentera