$$ \newcommand{\vnabla}{\vec{\nabla}} $$

 

 

 

FFM234, Klassisk fysik och vektorfält - Föreläsningsanteckningar

Christian Forssén, Institutionen för fysik, Chalmers, Göteborg, Sverige


Aug 18, 2020


5. Indexnotation

Precis som vi har räkneregler för derivatorer, så kan vi härleda räkneregler för våra differentialoperatorer. Det är då viktigt att komma ihåg att fälten på de båda sidorna av likhetstecknet skall vara av samma typ, det vill säga om vi har ett skalärt fält till vänster om likhetstecknet skall vi ha ett skalärt fält till höger om likhetstecknet, och om vi har ett vektorfält till vänster om likhetstecknet skall också fältet till höger vara ett vektorfält. På så sätt kan man resonera sig fram till några av räknereglerna.

Gradient, divergens och rotation av en produkt av fält

För vanliga funktioner \( f \) och \( g \) gäller att $$ \begin{equation} \frac{\mbox{d}}{\mbox{d}x}\left(fg\right) = \frac{\mbox{d}f}{\mbox{d}x}g + f\frac{\mbox{d}g}{\mbox{d}x}. \label{_auto1} \end{equation} $$

Om vi istället betraktar \( \vnabla (fg) \), där \( f \) och \( g \) är skalära fält, ser vi att det resulterande fältet skall vara ett vektorfält, och att vi måste derivera ett av fälten åt gången. Om vi tar gradienten av ett skalärt fält, så får vi ett vektorfält och om vi sedan multiplicerar med ytterligare ett skalärt fält, så har vi fortfarande ett vektorfält, alltså bör räknereglen $$ \begin{equation} \vnabla \left(fg\right) = f \vnabla g + g\vnabla f \label{_auto2} \end{equation} $$ gälla. På liknande sätt kan vi resonera oss fram till $$ \begin{equation} \vnabla \cdot \left(f\vec{u}\right) = \vnabla f \cdot \vec{u} + f \vnabla \cdot \vec{u}, \label{_auto3} \end{equation} $$ och $$ \begin{equation} \vnabla \times \left(f\vec{u}\right) = \vnabla f\times \vec{u} + f \vnabla \times \vec{u}. \label{_auto4} \end{equation} $$

Mer komplexa samband är dock svårare att resonera sig fram till. Detta gäller även kombinationer av flera vektoroperatorer. Vad blir t.ex. \( \vnabla \times (\vnabla \times \vec{A}) \)? I princip kan man visa dem genom att skriva ut ekvationerna komponentvis, men en effektivare metod är att använda indexnotation. Indexnotationen är ett effektivt verktyg i stora delar av den teoretiska fysiken.

Indexnotation

Vektorn \( \vec{A} \) är densamma i alla koordinatsystem, Cartesiska såväl som kroklinjiga. I någon given bas kan dess komponenter skrivas ut: \( \vec{A}=\sum_{i=1}^3A_i\vec{e}_i \).

Produkter av vektorer

Skalärprodukten av två vektorer \( \vec{A} \) och \( \vec{B} \) är \( \vec{A}\cdot\vec{B}=\sum_{i=1}^3A_iB_i \). För att göra notationen mer kompakt inför vi nu Einsteins summationskonvention, som säger att summation är underförstådd så snart ett index förekommer två gånger. Med dessa skrivregler har vi då $$ \begin{equation} \vec{A}\cdot\vec{B}=A_iB_i \label{_auto5} \end{equation} $$

Kommentar

Att vi skriver lägre index har ingen betydelse, om man vill kan man t.ex. skriva \( A_iB^i \). Först när man sysslar med vektorer/tensorer i icke-Cartesiska system behöver man göra åtskillnad på index uppe och nere. Detta gäller t.ex. i speciell relativitetsteori.

Det här uttrycket för skalärprodukten gäller i godtyckligt antal dimensioner. Resultatet av skalärprodukten är förstås en skalär. Indexen \( i \) ovan är inte fria index, utan summationsindex, eller kontraherade index.

Exempel: matris-vektor-multiplikation

En matris representeras av sina matriselement (precis som enhetsmatrisen ovan). Det första indexet är rad- och det andra kolumnindex. Matris-vektor-multiplikationen \( \mathbf{M} \vec{v} \) kan skrivas med indexnotation $$ \begin{equation} \left[ \mathbf{M} \vec{v} \right]_i = M_{ij} v_j \label{_auto6} \end{equation} $$

Enhetsmatrisen

Vi har redan sett Kroneckers delta, \( \delta_{ij} \), som definieras av $$ \begin{equation} \delta_{ij}=\left\{ \begin{matrix} 1,&i=j\cr 0,&i\neq j\cr \end{matrix} \right. \label{_auto7} \end{equation} $$ (notera att detta helt enkelt är matriselementen av enhetsmatrisen).

Betrakta uttrycket \( \delta_{ij}A_j \). Här är indexet \( j \) repeterat och därför ett summationsindex, och uttrycket skall utläsas \( \sum_{j=1}^3\delta_{ij}A_j=A_i \), dvs. helt enkelt multiplikation av vektorn \( \vec{A} \) med enhetsmatrisen.

Kommentar

Notera att Kroneckers delta leder till att ett summationsindex "elimineras"; den plockar ut en term ur summan.

Exempel: matris-matris-multiplikation och spår av en matris

Matrismultiplikation \( \mathbf{M}\mathbf{N}=\mathbf{P} \) skrivs som \( M_{ik}N_{kj}=P_{ij} \). Spåret av en matris, dvs. summan av diagonalelementen är \( \mathrm{tr}\mathbf{M}=M_{ii} \).

Kryssprodukt

Låt \( \vec{A}\times\vec{B}=\vec{C} \). Komponentvis gäller \( C_1=A_2B_3-A_3B_2 \), och de andra komponenterna ges av cykliska permutationer av indexen. Vi inför nu objektet \( \varepsilon_{ijk} \), som definieras av $$ \begin{equation} \varepsilon_{ijk}=\left\{ \begin{matrix} \phantom{-}1,\quad\hfill&ijk\hbox{ jämn permutation av 123,}\hfill\cr -1,\quad\hfill&ijk\hbox{ udda permutation av 123,}\hfill\cr \phantom{-}0,\hfill&\hbox{annars, dvs. om minst två index tar samma värde.} \end{matrix} \right. \label{_auto8} \end{equation} $$ \( \varepsilon_{ijk} \) kallas "$\varepsilon$-tensorn", eller Levi-Civita-tensorn.

Kommentar

Vi har inte riktigt definierat vad en tensor är ännu. Det kommer senare, och är inte speciellt dramatiskt. För tillfället kan vi bara tänka på det som ett objekt som har ett antal index, alltså en naturlig generalisering av vektor- och matrisbegreppen.

Definitionen gör att \( \varepsilon_{ijk} \) har egenskapen att den byter tecken om man byter plats på två index, vilka som helst. Man säger att den är fullständigt antisymmetrisk.

Eftersom \( \varepsilon_{ijk} \) har tre index, kan vi kontrahera två av dem med index på vektorer, och alltså bilda \( C_i=\varepsilon_{ijk}A_jB_k \). Med hjälp av definitionen kan vi räkna ut t.ex. \( C_1 \) (vi sätter \( i=1 \) och summerar över \( j,k \)): $$ \begin{equation} \begin{array}{ccccc} i & j & k & \varepsilon_{ijk} & \mathrm{term}\\ 1 & 2 & 3 & +1 & A_2 B_3\\ 1 & 3 & 2 & -1 & -A_3 B_2 \\ 1 & \multicolumn{2}{c}{\mathrm{alla~andra}} & 0 & 0 \end{array} \label{_auto9} \end{equation} $$ och vi får resultatet \( C_1=A_2B_3-A_3B_2 \), dvs. samma som första komponenten av \( \vec{A}\times\vec{B} \). Detsamma gäller de andra komponenterna. Kryssprodukten skrivs alltså $$ \begin{equation} [\vec{A}\times\vec{B}]_i=\varepsilon_{ijk}A_jB_k . \label{_auto10} \end{equation} $$ Kryssprodukten är specifik för tre dimensioner, just för att \( \varepsilon \)-tensorn har tre index i tre dimensioner. Motsvarande objekt i \( D \) dimensioner har \( D \) index: \( \varepsilon_{i_1i_2\ldots i_D} \).

Produkter av flera vektorer

Låt oss studera följande vektorprodukt $$ \begin{equation} \vec{A} \times \left( \vec{B} \times \vec{C} \right) \label{_auto11} \end{equation} $$ vilket blir en vektor. Denna skrivs med indexnotation $$ \begin{equation} \label{eq:ABC} \left[ \vec{A} \times \left( \vec{B} \times \vec{C} \right) \right]_i = \varepsilon_{ijk} A_j \varepsilon_{klm} B_l C_m = \varepsilon_{ijk} \varepsilon_{klm} A_j B_l C_m. \end{equation} $$ Låt oss först poängtera att vi kan byta plats på faktorerna som vi gjorde ovan. Eftersom dessa är reella tal gäller t.ex. att \( A_j B_l = B_l A_j \) och motsvarande för \( \varepsilon \)-tensorerna.

Här dyker en produkt av två Levi-Cevita-tensorer upp. Låt oss se om sådana produkter kan förenklas

Produkter av två \( \varepsilon_{ijk} \)

Först produkten med enbart två fria index $$ \begin{equation} \varepsilon_{ikl} \varepsilon_{jkl} = 2 \delta_{ij}. \label{_auto12} \end{equation} $$ Detta inses ganska enkelt eftersom

  • Produkten måste bli noll då \( i \neq j \). T.ex. \( i=1 \) innebär att \( kl \) måste vara 23 eller 32, och då måste även \( j=1 \) för att den andra tensorn skall vara nollskild.
  • Med \( i=j \) måste summan över \( kl \) bli 2. Studera t.ex. \( i=j=1 \); de nollskilda termerna i summan blir \( ikl=jkl \in [123,132] \), dvs
$$ \begin{equation} \sum_{k,l=1}^3 \varepsilon_{1kl} \varepsilon_{1kl} = \varepsilon_{123} \varepsilon_{123} + \varepsilon_{132} \varepsilon_{132} = 1 \cdot 1 + (-1) \cdot (-1) = 2 \label{_auto13} \end{equation} $$
------------
Nu produkten med enbart ett kontraherat index. Vi kommer att visa att $$ \begin{equation} \label{eq:ijkklm} \varepsilon_{ijk} \varepsilon_{klm} = \delta_{il} \delta_{jm} - \delta_{im} \delta_{jl}. \end{equation} $$ Först, genom cyklisk permutation, $$ \begin{equation} \varepsilon_{ijk} \varepsilon_{klm} = \varepsilon_{ijk} \varepsilon_{lmk} . \label{_auto14} \end{equation} $$ Det inses lätt att \( i \neq j \) och \( l \neq m \) (annars blir termerna lika med noll). Vidare inses att paret \( ij \) måste vara lika med \( lm \) eller \( ml \). Betrakta ett sådant par, t.ex. \( i,j \in [1,2] \) (alla andra möjligheter visas helt analogt). Då kommer enbart \( k=3 \) termen från summan att bidra och vi har följande möjligheter $$ \begin{equation} \begin{array}{llcccc} & & \multicolumn{2}{c}{\sum_k: \mathrm{bara~} k=3.} \\ ij & lm & ijk & lmk & \mathrm{Resultat} & \delta_{il}\delta_{jm}-\delta_{im}\delta_{jl}\\ 12 & 12 & 123 & 123 & = 1 & =1-0\\ 12 & 21 & 123 & 213 & = -1 & =0-1\\ 21 & 12 & 213 & 123 & = -1 & =0-1\\ 21 & 21 & 213 & 213 & = 1 & =1-0, \end{array} \label{_auto15} \end{equation} $$ dvs, resultaten motsvarar exakt kombinationen av deltafunktioner i Ekv \eqref{eq:ijkklm} ovan.

Ekv \eqref{eq:ijkklm} motsvarar precis den produkt som dök upp i Ekv \eqref{eq:ABC} ovan. Vi fortsätter $$ \begin{align} \left[ \vec{A} \times \left( \vec{B} \times \vec{C} \right) \right]_i &= \left( \delta_{il} \delta_{jm} - \delta_{im} \delta_{jl} \right) A_j B_l C_m \nonumber \\ &= B_i A_m C_m - A_j B_j C_i = B_i \vec{A}\cdot\vec{C} - \vec{A}\cdot\vec{B} C_i \label{_auto16} \end{align} $$ Här har vi bytt plats på \( A_m B_i = B_i A_m \). Notera vidare att vi lika gärna kunde ha bytt t.ex. \( m \to j \) i den första termen. Dessa blir ändå ett summationsindex och det spelar ingen roll om det heter \( m \) eller \( j \).

Till slut finner vi alltså likheten $$ \begin{equation} \label{eq:ABCresultat} \vec{A} \times \left( \vec{B} \times \vec{C} \right) = \vec{B} (\vec{A}\cdot\vec{C}) - (\vec{A}\cdot\vec{B}) \vec{C}. \end{equation} $$

Kombinationer med två vektoroperatorer

En viktig konsekvens av Ekv \eqref{eq:ABCresultat} är $$ \begin{equation} \vnabla \times \left( \vnabla \times \vec{F} \right) = \vnabla \left( \vnabla \cdot \vec{F} \right) - \vnabla \cdot \vnabla \vec{F}, \label{_auto17} \end{equation} $$ vilket ger oss följande uttryck för Laplacianen $$ \begin{equation} \Delta \vec{F} = \vnabla \cdot \vnabla \vec{F} = \vnabla \left( \vnabla \cdot \vec{F} \right) - \vnabla \times \left( \vnabla \times \vec{F} \right), \label{_auto18} \end{equation} $$ eller VektorLaplace = grad div - rot rot.

Slutligen, två viktiga samband, vilka dessutom är enkla att härleda, är $$ \begin{equation} \label{eq:ddf} \vnabla \times \vnabla f = 0 \end{equation} $$ och $$ \begin{equation} \label{eq:ddf2} \vnabla \cdot \left( \vnabla \times \vec{F}\right) = 0. \end{equation} $$ Visa gärna dessa själv (eller se bevis nedan)

Bevis av Ekv \eqref{eq:ddf}

$$ \begin{equation} \left[ \vnabla \times \vnabla f \right]_i = \varepsilon_{ijk} \partial_j \partial_k f \label{_auto19} \end{equation} $$ Till exempel för \( i=1 \) $$ \begin{equation} \begin{array}{llll} ijk & \partial_j & \partial_k & \mathrm{faktor} \\ 123 & 2 & 3 & +1 \\ 132 & 3 & 2 & -1 \\ \end{array} \label{_auto20} \end{equation} $$ vilket betyder att \( \left[ \vnabla \times \vnabla f \right]_1 = \left( \partial_2\partial_3 - \partial_3\partial_2 \right) f = 0 \).

Bevis av Ekv \eqref{eq:ddf2}

$$ \begin{equation} \left[ \vnabla \cdot \left( \vnabla \times \vec{F} \right) \right] = \partial_i \varepsilon_{ijk} \partial_j F_k = \varepsilon_{ijk} \partial_i \partial_j F_k \label{_auto21} \end{equation} $$

  • En viktig poäng är att de sista två faktorerna inte får byta plats eftersom \( \partial_j F_k \neq F_k \partial_j \).
  • Däremot har vi att \( \partial_i \partial_j F_k = \partial_j \partial_i F_k \), vilket betyder att dessa två faktorer kan byta plats.
Summan ovan har 27 termer, men enbart sex nollskilda
\( ijk \) term
123 \( \partial_1 \partial_2 F_3 \)
231 \( \partial_2 \partial_3 F_1 \)
312 \( \partial_3 \partial_1 F_2 \)
132 \( -\partial_1 \partial_3 F_2 \)
213 \( -\partial_2 \partial_1 F_3 \)
321 \( -\partial_3 \partial_2 F_1 \)

och eftersom dessa tar ut varandra parvis blir summan noll.

Tillbaks till början

Vi startade med diverse räkneregler för differentialekvationer. Låt oss studera en av dem med de tekniker som vi nu har lärt oss. $$ \begin{align*} \vnabla \times \left(f\vec{u}\right) &= \left[ \vnabla \times \left(f\vec{u}\right)\right]_i = \varepsilon_{ijk} \partial_j (f u_k) = \varepsilon_{ijk} (\partial_j f) u_k + f \varepsilon_{ijk} \partial_j u_k \\ &=\vnabla f\times \vec{u} + f \vnabla \times \vec{u}, \end{align*} $$ där vi använt oss av att \( \partial_j (f u_k) = (\partial_j f) u_k + f \partial_j u_k \). Vi reproducerar alltså det resultat som vi resonerade oss fram till vid starten av föreläsningen.