Precis som vi har räkneregler för derivatorer, så kan vi härleda räkneregler för våra differentialoperatorer. Det är då viktigt att komma ihåg att fälten på de båda sidorna av likhetstecknet skall vara av samma typ, det vill säga om vi har ett skalärt fält till vänster om likhetstecknet skall vi ha ett skalärt fält till höger om likhetstecknet, och om vi har ett vektorfält till vänster om likhetstecknet skall också fältet till höger vara ett vektorfält. På så sätt kan man resonera sig fram till några av räknereglerna.
För vanliga funktioner \( f \) och \( g \) gäller att $$ \begin{equation} \frac{\mbox{d}}{\mbox{d}x}\left(fg\right) = \frac{\mbox{d}f}{\mbox{d}x}g + f\frac{\mbox{d}g}{\mbox{d}x}. \label{_auto1} \end{equation} $$
Om vi istället betraktar \( \vnabla (fg) \), där \( f \) och \( g \) är skalära fält, ser vi att det resulterande fältet skall vara ett vektorfält, och att vi måste derivera ett av fälten åt gången. Om vi tar gradienten av ett skalärt fält, så får vi ett vektorfält och om vi sedan multiplicerar med ytterligare ett skalärt fält, så har vi fortfarande ett vektorfält, alltså bör räknereglen $$ \begin{equation} \vnabla \left(fg\right) = f \vnabla g + g\vnabla f \label{_auto2} \end{equation} $$ gälla. På liknande sätt kan vi resonera oss fram till $$ \begin{equation} \vnabla \cdot \left(f\vec{u}\right) = \vnabla f \cdot \vec{u} + f \vnabla \cdot \vec{u}, \label{_auto3} \end{equation} $$ och $$ \begin{equation} \vnabla \times \left(f\vec{u}\right) = \vnabla f\times \vec{u} + f \vnabla \times \vec{u}. \label{_auto4} \end{equation} $$
Mer komplexa samband är dock svårare att resonera sig fram till. Detta gäller även kombinationer av flera vektoroperatorer. Vad blir t.ex. \( \vnabla \times (\vnabla \times \vec{A}) \)? I princip kan man visa dem genom att skriva ut ekvationerna komponentvis, men en effektivare metod är att använda indexnotation. Indexnotationen är ett effektivt verktyg i stora delar av den teoretiska fysiken.
Vektorn \( \vec{A} \) är densamma i alla koordinatsystem, Cartesiska såväl som kroklinjiga. I någon given bas kan dess komponenter skrivas ut: \( \vec{A}=\sum_{i=1}^3A_i\vec{e}_i \).
Skalärprodukten av två vektorer \( \vec{A} \) och \( \vec{B} \) är \( \vec{A}\cdot\vec{B}=\sum_{i=1}^3A_iB_i \). För att göra notationen mer kompakt inför vi nu Einsteins summationskonvention, som säger att summation är underförstådd så snart ett index förekommer två gånger. Med dessa skrivregler har vi då $$ \begin{equation} \vec{A}\cdot\vec{B}=A_iB_i \label{_auto5} \end{equation} $$
Att vi skriver lägre index har ingen betydelse, om man vill kan man t.ex. skriva \( A_iB^i \). Först när man sysslar med vektorer/tensorer i icke-Cartesiska system behöver man göra åtskillnad på index uppe och nere. Detta gäller t.ex. i speciell relativitetsteori.
Det här uttrycket för skalärprodukten gäller i godtyckligt antal dimensioner. Resultatet av skalärprodukten är förstås en skalär. Indexen \( i \) ovan är inte fria index, utan summationsindex, eller kontraherade index.
En matris representeras av sina matriselement (precis som enhetsmatrisen ovan). Det första indexet är rad- och det andra kolumnindex. Matris-vektor-multiplikationen \( \mathbf{M} \vec{v} \) kan skrivas med indexnotation $$ \begin{equation} \left[ \mathbf{M} \vec{v} \right]_i = M_{ij} v_j \label{_auto6} \end{equation} $$
Betrakta uttrycket \( \delta_{ij}A_j \). Här är indexet \( j \) repeterat och därför ett summationsindex, och uttrycket skall utläsas \( \sum_{j=1}^3\delta_{ij}A_j=A_i \), dvs. helt enkelt multiplikation av vektorn \( \vec{A} \) med enhetsmatrisen.
Notera att Kroneckers delta leder till att ett summationsindex "elimineras"; den plockar ut en term ur summan.
Matrismultiplikation \( \mathbf{M}\mathbf{N}=\mathbf{P} \) skrivs som \( M_{ik}N_{kj}=P_{ij} \). Spåret av en matris, dvs. summan av diagonalelementen är \( \mathrm{tr}\mathbf{M}=M_{ii} \).
Vi har inte riktigt definierat vad en tensor är ännu. Det kommer senare, och är inte speciellt dramatiskt. För tillfället kan vi bara tänka på det som ett objekt som har ett antal index, alltså en naturlig generalisering av vektor- och matrisbegreppen.
Definitionen gör att \( \varepsilon_{ijk} \) har egenskapen att den byter tecken om man byter plats på två index, vilka som helst. Man säger att den är fullständigt antisymmetrisk.
Eftersom \( \varepsilon_{ijk} \) har tre index, kan vi kontrahera två av dem med index på vektorer, och alltså bilda \( C_i=\varepsilon_{ijk}A_jB_k \). Med hjälp av definitionen kan vi räkna ut t.ex. \( C_1 \) (vi sätter \( i=1 \) och summerar över \( j,k \)): $$ \begin{equation} \begin{array}{ccccc} i & j & k & \varepsilon_{ijk} & \mathrm{term}\\ 1 & 2 & 3 & +1 & A_2 B_3\\ 1 & 3 & 2 & -1 & -A_3 B_2 \\ 1 & \multicolumn{2}{c}{\mathrm{alla~andra}} & 0 & 0 \end{array} \label{_auto9} \end{equation} $$ och vi får resultatet \( C_1=A_2B_3-A_3B_2 \), dvs. samma som första komponenten av \( \vec{A}\times\vec{B} \). Detsamma gäller de andra komponenterna. Kryssprodukten skrivs alltså $$ \begin{equation} [\vec{A}\times\vec{B}]_i=\varepsilon_{ijk}A_jB_k . \label{_auto10} \end{equation} $$ Kryssprodukten är specifik för tre dimensioner, just för att \( \varepsilon \)-tensorn har tre index i tre dimensioner. Motsvarande objekt i \( D \) dimensioner har \( D \) index: \( \varepsilon_{i_1i_2\ldots i_D} \).
Låt oss studera följande vektorprodukt $$ \begin{equation} \vec{A} \times \left( \vec{B} \times \vec{C} \right) \label{_auto11} \end{equation} $$ vilket blir en vektor. Denna skrivs med indexnotation $$ \begin{equation} \label{eq:ABC} \left[ \vec{A} \times \left( \vec{B} \times \vec{C} \right) \right]_i = \varepsilon_{ijk} A_j \varepsilon_{klm} B_l C_m = \varepsilon_{ijk} \varepsilon_{klm} A_j B_l C_m. \end{equation} $$ Låt oss först poängtera att vi kan byta plats på faktorerna som vi gjorde ovan. Eftersom dessa är reella tal gäller t.ex. att \( A_j B_l = B_l A_j \) och motsvarande för \( \varepsilon \)-tensorerna.
Här dyker en produkt av två Levi-Cevita-tensorer upp. Låt oss se om sådana produkter kan förenklas
Först produkten med enbart två fria index $$ \begin{equation} \varepsilon_{ikl} \varepsilon_{jkl} = 2 \delta_{ij}. \label{_auto12} \end{equation} $$ Detta inses ganska enkelt eftersom
Ekv \eqref{eq:ijkklm} motsvarar precis den produkt som dök upp i Ekv \eqref{eq:ABC} ovan. Vi fortsätter $$ \begin{align} \left[ \vec{A} \times \left( \vec{B} \times \vec{C} \right) \right]_i &= \left( \delta_{il} \delta_{jm} - \delta_{im} \delta_{jl} \right) A_j B_l C_m \nonumber \\ &= B_i A_m C_m - A_j B_j C_i = B_i \vec{A}\cdot\vec{C} - \vec{A}\cdot\vec{B} C_i \label{_auto16} \end{align} $$ Här har vi bytt plats på \( A_m B_i = B_i A_m \). Notera vidare att vi lika gärna kunde ha bytt t.ex. \( m \to j \) i den första termen. Dessa blir ändå ett summationsindex och det spelar ingen roll om det heter \( m \) eller \( j \).
Till slut finner vi alltså likheten $$ \begin{equation} \label{eq:ABCresultat} \vec{A} \times \left( \vec{B} \times \vec{C} \right) = \vec{B} (\vec{A}\cdot\vec{C}) - (\vec{A}\cdot\vec{B}) \vec{C}. \end{equation} $$
En viktig konsekvens av Ekv \eqref{eq:ABCresultat} är $$ \begin{equation} \vnabla \times \left( \vnabla \times \vec{F} \right) = \vnabla \left( \vnabla \cdot \vec{F} \right) - \vnabla \cdot \vnabla \vec{F}, \label{_auto17} \end{equation} $$ vilket ger oss följande uttryck för Laplacianen $$ \begin{equation} \Delta \vec{F} = \vnabla \cdot \vnabla \vec{F} = \vnabla \left( \vnabla \cdot \vec{F} \right) - \vnabla \times \left( \vnabla \times \vec{F} \right), \label{_auto18} \end{equation} $$ eller VektorLaplace = grad div - rot rot.
Slutligen, två viktiga samband, vilka dessutom är enkla att härleda, är $$ \begin{equation} \label{eq:ddf} \vnabla \times \vnabla f = 0 \end{equation} $$ och $$ \begin{equation} \label{eq:ddf2} \vnabla \cdot \left( \vnabla \times \vec{F}\right) = 0. \end{equation} $$ Visa gärna dessa själv (eller se bevis nedan)
$$ \begin{equation} \left[ \vnabla \times \vnabla f \right]_i = \varepsilon_{ijk} \partial_j \partial_k f \label{_auto19} \end{equation} $$ Till exempel för \( i=1 \) $$ \begin{equation} \begin{array}{llll} ijk & \partial_j & \partial_k & \mathrm{faktor} \\ 123 & 2 & 3 & +1 \\ 132 & 3 & 2 & -1 \\ \end{array} \label{_auto20} \end{equation} $$ vilket betyder att \( \left[ \vnabla \times \vnabla f \right]_1 = \left( \partial_2\partial_3 - \partial_3\partial_2 \right) f = 0 \).
$$ \begin{equation} \left[ \vnabla \cdot \left( \vnabla \times \vec{F} \right) \right] = \partial_i \varepsilon_{ijk} \partial_j F_k = \varepsilon_{ijk} \partial_i \partial_j F_k \label{_auto21} \end{equation} $$
\( ijk \) | term |
123 | \( \partial_1 \partial_2 F_3 \) |
231 | \( \partial_2 \partial_3 F_1 \) |
312 | \( \partial_3 \partial_1 F_2 \) |
132 | \( -\partial_1 \partial_3 F_2 \) |
213 | \( -\partial_2 \partial_1 F_3 \) |
321 | \( -\partial_3 \partial_2 F_1 \) |
och eftersom dessa tar ut varandra parvis blir summan noll.
Vi startade med diverse räkneregler för differentialekvationer. Låt oss studera en av dem med de tekniker som vi nu har lärt oss. $$ \begin{align*} \vnabla \times \left(f\vec{u}\right) &= \left[ \vnabla \times \left(f\vec{u}\right)\right]_i = \varepsilon_{ijk} \partial_j (f u_k) = \varepsilon_{ijk} (\partial_j f) u_k + f \varepsilon_{ijk} \partial_j u_k \\ &=\vnabla f\times \vec{u} + f \vnabla \times \vec{u}, \end{align*} $$ där vi använt oss av att \( \partial_j (f u_k) = (\partial_j f) u_k + f \partial_j u_k \). Vi reproducerar alltså det resultat som vi resonerade oss fram till vid starten av föreläsningen.