Cálculo tensorial

De testwiki
Ir a la navegación Ir a la búsqueda
Un tensor de segundo orden, en tres dimensiones.

En matemáticas, el término cálculo tensorial (también conocido como cálculo de Ricci) hace referencia a las operaciones y algoritmos utilizados para operar con tensores.

En matemáticas y en física, un tensor es cierta clase de entidad algebraica de varios componentes que generaliza los conceptos de escalar, vector y matriz de una manera que sea independiente de cualquier sistema de coordenadas elegido. Se usa para ello el convenio de suma de Einstein.

Una vez elegida una base vectorial, los componentes de un tensor en una base vendrán dadas por una multimatriz. El orden de un tensor será el número de índices necesario para especificar sin ambigüedad un componente de un tensor: un escalar será considerado como un tensor de orden 0; un vector, un tensor de orden 1; y dada una base vectorial, los tensores de segundo orden pueden ser representados por una matriz.

El cálculo tensorial describe las reglas de notación y manipulación de índices para tensores y campos tensoriales en una variedad diferenciable, con o sin tensor métrico o conexión.Plantilla:Refn[1][2][3]

Historia

La palabra "tensor" se utiliza a menudo como abreviatura de campo tensorial, que es un valor tensorial definido en cada punto en una variedad. El primero en utilizar esta palabra fue William Rowan Hamilton en 1846, empleándola para lo que actualmente se conoce como módulo y fue Woldemar Voigt en 1899 quien la empleó en su acepción actual. La palabra tensor proviene del latín tensus, participio pasado de tendere 'estirar, extender'. El nombre se extendió porque la teoría de la elasticidad fue una de las primeras aplicaciones físicas donde se usaron tensores.

También es el nombre moderno de lo que solía llamarse cálculo diferencial absoluto (la base de cálculo tensorial), desarrollado por Gregorio Ricci-Curbastro entre 1887 y 1896, posteriormente popularizado en un artículo escrito con su alumno Tullio Levi-Civita en 1900.[4] Jan Arnoldus Schouten desarrolló la notación y el formalismo modernos para este marco matemático e hizo contribuciones a la teoría durante sus aplicaciones a la relatividad general y a la geometría diferencial a principios del Plantilla:Siglo.[5] La introducción de relatividad general por parte de Albert Einstein alrededor de 1915 supuso su aplicación práctica. El propio Albert Einstein había aprendido de Levi-Civita el uso de tensores.[6]

Trabajando con uno de los principales defensores de las formas diferenciales, Élie Cartan, el influyente geómetra Shiing-Shen Chern resumió el papel del cálculo tensorial en la geometría moderna:[7]

Plantilla:Cita

Características y uso

Las cantidades geométricas y físicas pueden ser categorizadas considerando los grados de libertad inherentes a su descripción. Las cantidades escalares son las que se pueden representar por un solo número, por ejemplo la masa. Hay también cantidades tipo vector, por ejemplo fuerza, que requieren una lista de números para su descripción. Finalmente, las cantidades tales como formas cuadráticas requieren de una matriz para su representación.

Los tensores generalizan los conceptos de escalar, vector y matriz, que son casos particulares de tensores. La propiedad que distingue un escalar de un vector, y distingue ambos de una cantidad tensorial más general es el número de índices en la matriz de la representación. Este número se llama rango u orden de un tensor. Así, los escalares son los tensores de rango cero (sin índices), los vectores son los tensores de rango uno y las matrices son tensores de rango 2.

Uso de tensores

No todas las relaciones en la naturaleza son lineales, pero la mayoría es diferenciable y así se pueden aproximar localmente con sumas de funciones multilineales. Así la mayoría de las magnitudes en física se pueden expresar como tensores.

Un ejemplo simple es la descripción de una fuerza aplicada al movimiento de una nave en el agua. La fuerza es un vector, y la nave responderá con una aceleración, que es también un vector. La aceleración en general no estará en la misma dirección que la fuerza, debido a la forma particular del cuerpo de la nave. Sin embargo, resulta que la relación entre la fuerza y la aceleración es lineal. Tal relación es descrita por un tensor del tipo (1, 1), es decir, que transforma un vector en otro vector. El tensor se puede representar como una matriz que cuando es multiplicada por un vector, dé lugar a otro vector. Así como los números que representan un vector cambiarán si uno cambia el conjunto de coordenadas, los números en la matriz que representa el tensor también cambiarán cuando se cambie el conjunto de coordenadas.

En la ingeniería, las tensiones en el interior de un sólido rígido o líquido también son descritas por un tensor. Si se selecciona un elemento superficial particular en el material, el material en un lado de la superficie aplicará una fuerza en el otro lado. En general, esta fuerza no será ortogonal a la superficie, sino que dependerá de la orientación de la superficie de una manera lineal. Esto es descrito por un tensor del tipo (2, 0), o más exactamente por un campo tensorial del tipo (2, 0) puesto que las tensiones pueden cambiar punto a punto.

Algunos ejemplos bien conocidos de tensores en geometría son las formas cuadráticas, y el tensor de curvatura. Algunos ejemplos de tensores físicos son el tensor de energía-momento, el tensor de polarización y el tensor dieléctrico.

Conceptos básicos

En un sentido práctico un tensor es un objeto matemático representado por un cierto conjunto de componentes. Para definir un tensor es necesario partir de un espacio físico o variedad diferenciable que define cuál es el espacio vectorial base V sobre el que se construirán tensores de diferente tipo y orden. En mecánica clásica, por ejemplo, el espacio es 3, aunque en la teoría de la relatividad especial el espacio base es isomorfo a 4 y en la teoría general de la relatividad es el espacio tangente a una variedad lorentziana de cuatro dimensiones. En matemáticas lo más usual es construir la teoría sobre una variedad riemanniana o variedad pseudoriemanniana n-dimensional.

Tratamiento clásico de los tensores

El enfoque clásico visualiza los tensores como "matrices" de orden superior que son generalizaciones n-dimensionales de los escalares, vectores de 1 dimensión y matrices de 2 dimensiones. En este enfoque los números reales que aparecen en dichas "matrices" son los componentes del tensor en una base concreta. Si bien para los casos prácticos este modo de representación puede ser muy intuitivo dificulta la manipulación formal para otros fines menos prácticos.

Los "componentes" tensoriales son los índices del arreglo. Esta idea puede ser generalizada aún más a los campos tensoriales, donde los elementos del tensor son funciones, o incluso diferenciales. La teoría del campo tensorial se puede ver, grosso modo, como otra extensión de la idea del jacobiano.

Enfoque moderno

El enfoque moderno visualiza los tensores inicialmente como objetos abstractos, construidos sobre espacios vectoriales abstractos, en los que se define un producto tensorial que permite construir estructuras típicas del álgebra multilineal. Sus propiedades bien conocidas se pueden derivar de sus definiciones, como funciones lineales o incluso más generales; y las reglas para las manipulaciones de tensores se presentan como extensión del álgebra lineal al álgebra multilineal.

Este tratamiento ha sustituido en gran parte el tratamiento basado en componentes para el estudio avanzado, a la manera en que el tratamiento más moderno de los vectores, libre de componentes, sustituye el tratamiento basado en componentes tradicional aunque este último se haya utilizado para proporcionar una motivación elemental para el concepto de un vector. Se podría decir que el lema es 'tensores son elementos de un cierto espacio tensorial'.

El enfoque moderno está más estrechamente asociado al tratamiento que los matemáticos han hecho del cálculo tensorial en el que las notaciones generalmente representan el objeto tensorial y secundariamente los componentes. Esto contrasta con el tratamiento clásico de los tensores en las ciencias físicas que suele representar los tensores mediante sus componentes y enfatiza mucho las propiedades asociadas a la transformación de coordenadas al pasar de un sistema de referencia a otro, o cuando se cambian las coordenadas.

Definición de tensor

Hay varias maneras de definir un tensor, que resultan en enfoques equivalentes:

  • la manera clásica, forma usual en física de definir los tensores, en términos de objetos cuyos componentes se transforman bajo cambios de coordenadas según ciertas reglas, introduciendo la idea de transformaciones covariantes o contravariantes.
  • la manera usual de la matemática, que implica definir ciertos espacios vectoriales definidos a partir de un espacio vectorial dado, sin fijar cualesquiera conjuntos de coordenadas hasta que las bases se introduzcan por necesidad. Existen dos definiciones de este tipo:
    • La de tensores como aplicaciones multilineales, que nos obliga a usar el dual de un espacio vectorial.
    • La que usa una operación definida axiomáticamente llamada producto tensorial de espacios vectoriales.

Definición clásica

Los físicos especialmente en tratamientos informales de los tensores, consideran que un tensor es simplemente una magnitud física multi-índice dada por un conjunto de números reales o "componentes" del tensor que se transforman de "manera adecuada". Es decir, si en un determinado sistema de referencia S una magnitud tensorial está dada por un conjunto de componentes Tα'1,...α'mβ'1...β'n al cambiar a un sistema de referencia diferente S¯ tendrá componentes con valores numéricos diferentes T¯α1,...αmβ1...βn siendo la relación entre los componentes de la magnitud en uno y otro sistema de referencia la siguiente: Plantilla:Ecuación donde en la última expresión se ha usado el convenio de sumación de Einstein y además:

Aαnα'n es la matriz del cambio de base de coordenadas
ATαnα'n es la matriz del cambio de base inverso, que es la matriz traspuesta de la anterior.

Las magnitudes escalares de la física en general son tensores de orden cero, y varios de los tensores físicos importantes (tensor de inercia, tensor de tensiones, etc.) son tensores de segundo orden.

Como aplicación multilineal

Dado un espacio vectorial V de dimensión n sobre un cuerpo K, recordemos que su espacio dual V* es el conjunto de todas las aplicaciones lineales f:VK. El espacio dual es un espacio vectorial de la misma dimensión que V. Nos referiremos normalmente a los elementos de V y de V* como vectores y covectores, respectivamente.

Un tensor es una aplicación multilineal, es decir, una aplicación lineal en cada uno de sus argumentos, de la forma:

T:V*××V*r×V××VsK

De este modo, un tensor T asocia cada r covectores w1,,wr y s vectores v1,,vs, un escalar

T(w1,,wr,v1,,vs).

Llamamos tipo del tensor al par (r,s).

Usando producto tensorial de espacios vectoriales

En el enfoque más matemático del cálculo tensorial se considera un espacio vectorial V y se considera su espacio dual V*. Si {e^1,,e^n} es una base del espacio vectorial V y {ω^1,,ω^n} la correspondiente base dual de V*, se construye el espacio vectorial producto de r copias de V y s copias de V*, es decir, V=(rV)(sV*) o producto tensorial de espacios vectoriales. Un tensor es un elemento de dicho espacio vectorial: Plantilla:Ecuación Las propiedades de transformación de los tensores se siguen de las propiedades de transformación de los vectores de la base de manera trivial.

Ejemplos de tensores de distinto orden

A los tensores se los puede clasificar por su orden, es decir el número de componentes que requiere para ser descrito. En general, si n es la dimensión del tensor (dimensión del espacio vectorial sobre el que se construye) y r+s el orden, un tensor requiere de nr+s componentes para ser descrito.

Tensores de orden cero: escalares

Como se dijo anteriormente, un escalar es una cantidad que requiere solo un número real en cualquier sistema de coordenadas para ser descrito. Es decir es invariante ante cualquier cambio de coordenadas en cualquier sistema. De esta manera si ϕ es un escalar en un sistema de coordenadas y ϕ es el mismo escalar en otro sistema de coordenadas entonces ϕ=ϕ Un escalar es un tensor de orden cero porque requiere un solo número para ser descrito: n0=1.

Tensores de orden uno: vectores y covectores

En general, un vector requiere n componentes para ser descrito. En un espacio tridimensional, un vector se define mediante tres componentes. La transformación de coordenadas de un vector de un espacio a otro se realiza mediante una transformación lineal. De esta manera, un vector es un tensor de orden uno porque requiere n números para definirlo.

Si tenemos un vector expresado por sus componentes Ai en un sistema y A'i en otro sistema, la transformación de coordenadas para que el vector se mantenga invariante se puede expresar:

A'i=αikAk

donde αik es el coseno del ángulo entre el i-ésimo eje de coordenadas y el k-ésimo.

Tensores de orden dos: matrices

Siguiendo la misma lógica, el siguiente elemento es el que requiere nxn=n2 componentes para ser descrito. Se denomina tensor de orden dos al objeto, normalmente representado por una matriz nxn, que representado en un sistema de coordenadas como A'ik su transformación invariante en otro sistema con componentes Aik es:

A'ik=αilαkmAlm

donde αil es el coseno del ángulo entre el i-ésimo eje de un sistema con el l-ésimo eje del otro sistema.

Tensores de orden m generalizados

Representación del Tensor de Levi-Civita, tensor de orden tres.

Finalmente, la generalización de los tipos anteriores viene dada por un elemento que necesita nm coordenadas para ser especificado. Como generalización de las transformaciones anteriores tenemos:

A'i1,i2,...in=αi1'k1αi2'k2...αin'knAk1,k2,...kn

donde Ak1k2...kn son los componentes del tensor en un sistema de coordenadas, Ai1i2...in son los componentes del mismo tensor en otras coordenadas y los αi1'k1 son los cosenos de los ángulos entre los i1-ésimos ejes del un sistema y los k1-ésimos en el otro sistema.

Notación y nomenclatura

Covarianza y contravarianza

Plantilla:AP El concepto de covarianza y contravarianza está arraigado en la descripción de un elemento en dos sistemas de coordenadas. Para simplificar su descripción se puede tomar un vector en un espacio tridimensional. La posición de un punto arbitrario en este espacio puede ser expresado en términos de tres coordenadas u1,u2,u3 y si r(u1,u2,u3) es el vector posición de ese punto entonces en P existen dos conjuntos de vectores base:

ei=rui y ϵi=ui donde i=1,2,3

En general, estos vectores no son unitarios ni forman una base ortogonal. Sin embargo los conjuntos ei y ϵi son sistemas recíprocos de vectores y por eso:

eiϵj=δij

En el cálculo tensorial es usual denotar al conjunto de vectores base ϵi como ei, el cual lo diferencia de la base ei. Con esta notación, la relación de reciprocidad anterior sería:

eiej=δij

donde δij es la delta de Kronecker.

Así, dadas dos bases ei y ei se puede escribir un vector general a en términos de estas bases:

a=a1e1+a2e2+a3e3=aiei
a=a1e1+a2e2+a3e3=aiei

Los ai se los llama componentes contravariantes del vector a y los ai se los llama componentes covariantes. De igual manera, ei se los llama base contravariante y ei se los llama base covariante.

Convenio de sumación de Einstein

Plantilla:AP Existe una convención para escribir tensores, conocida como convenio de sumación de Einstein. En esta notación todo subíndice que aparece dos veces en cualquier término de una expresión indica que éstos deben ser sumados sobre todos los valores que ese índice toma. Por ejemplo, en un caso tridimensional:

aixi implica que a1x1+a2x2+a3x3
aijbjk implica que ai1b1k+ai2b2k+ai3b3k

Conjunto Ox,αn(h) de operadores fraccionales

El cálculo fraccional de conjuntos (Fractional Calculus of Sets (FCS)), mencionado por primera vez en el artículo titulado "Sets of Fractional Operators and Numerical Estimation of the Order of Convergence of a Family of Fractional Fixed-Point Methods",[8] es una metodología derivada del cálculo fraccional.[9] El concepto principal detrás del FCS es la caracterización de los elementos del cálculo fraccional utilizando conjuntos debido a la gran cantidad de operadores fraccionales disponibles.[10][11][12] Esta metodología se originó a partir del desarrollo del método de Newton-Raphson fraccional [13] y trabajos relacionados posteriores.[14][15][16]

Ilustración de algunas líneas generadas por el método de Newton–Raphson fraccional para la misma condición inicial x0 pero con diferentes órdenes α del operador fraccional implementado. Fuente: Applied Mathematics and Computation

El cálculo fraccional, una rama de las matemáticas que trata con derivadas de orden no entero, surgió casi simultáneamente con el cálculo tradicional. Esta emergencia fue en parte debido a la notación de Leibniz para derivadas de orden entero: dndxn. Gracias a esta notación, L'Hopital pudo preguntar en una carta a Leibniz sobre la interpretación de tomar n=12 en una derivada. En ese momento, Leibniz no pudo proporcionar una interpretación física o geométrica para esta pregunta, por lo que simplemente respondió a L'Hopital en una carta que «... es una aparente paradoja de la cual, algún día, se derivarán consecuencias útiles».

El nombre «cálculo fraccional» se origina a partir de una pregunta histórica, ya que esta rama del análisis matemático estudia derivadas e integrales de un cierto orden α. Actualmente, el cálculo fraccional carece de una definición unificada de lo que constituye una derivada fraccional. En consecuencia, cuando no es necesario especificar explícitamente la forma de una derivada fraccional, típicamente se denota de la siguiente manera:

dαdxα.

Los operadores fraccionales tienen varias representaciones, pero una de sus propiedades fundamentales es que recuperan los resultados del cálculo tradicional a medida que αn. Considerando una función escalar h:m y la base canónica de m denotada por {e^k}k1, el siguiente operador fraccional de orden α se define utilizando notación de Einstein:[17]

oxαh(x):=e^kokαh(x).

Denotando kn como la derivada parcial de orden n con respecto al componente k-ésimo del vector x, se define el siguiente conjunto de operadores fraccionales:

Ox,αn(h):={oxα:okαh(x) y limαnokαh(x)=knh(x) k1},

cuyo complemento es:

Ox,αn,c(h):={oxα:okαh(x) k1 y limαnokαh(x)knh(x) para al menos un k1}.

Como consecuencia, se define el siguiente conjunto:

Ox,αn,u(h):=Ox,αn(h)Ox,αn,c(h).

Extensión a funciones vectoriales

Para una función h:Ωmm, el conjunto se define como:

mOx,αn,u(h):={oxα:oxαOx,αn,u([h]k) km},

donde [h]k:Ωm denota el k-ésimo componente de la función h.

Notación en cálculo en variedades

Otra notación ampliamente usada en el cálculo tensorial es la forma usada para los vectores de la base. Cuando se hace cálculo tensorial en una variedad diferencial o superficie curva, el espacio básico que sirve para definir las magnitudes es el espacio tangente a dicha variedad en cada punto. Cuando se emplean coordenadas curvilíneas (x1,,xn), dada la relación isomórfica que existe entre derivaciones sobre la variedad y el conjunto de elementos del espacio tangente, se puede construir una base del espacio vectorial tangente formada por las derivadas direccionales según las direcciones dadas por las coordenadas; así una base vectorial del espacio tangente en cada punto p viene dada por: Plantilla:Ecuación Por otra parte la base del espacio cotangente, que es el espacio dual del espacio tangente, se puede expresar mediante la diferencial exterior de las coordenadas consideradas como funciones reales sobre la variedad: Plantilla:Ecuación

Álgebra de tensores

Plantilla:AP Debido a que las operaciones de los tensores de orden cero (escalares), uno (vectores) y dos (matrices) son conocidas, para los tensores se espera que solo se generalicen algunas operaciones. El conjunto de todos los tensores p-veces covariantes y q-veces contravariantes definidos sobre el espacio vectorial V se denota como 𝒯qp(V) (algunos autores usan la notación inversa 𝒯pq(V)) forman un espacio vectorial (𝒯qp(V),+,) con la suma y la resta definidas como, ya que la suma está bien definida para tensores de los mismos órdenes Vij...k y Wij...k; así su suma y resta estaría dada por:

Sij..k=Vij...k+Wij...k
Dij..k=Vij...kWij...k

Este espacio vectorial es de dimensión nq+p donde n es la dimensión del espacio vectorial V.

Otro conjunto de operaciones importantes tienen que ver con el cambio de orden de los índices de un tensor. Si Tij..k son los componentes de un tensor, de la misma manera el conjunto formado por el intercambio de dos índices, es decir Tji..k, también lo es. En términos de esos intercambios de índices pueden identificarse subespacios vectoriales:

  • Se dice que el tensor es simétrico si el intercambio de cualquier par de índices no altera el tensor:
Tij..k=Tji..k el conjunto de todos los tensores simétricos del espacio (𝒯qp(V),+,) forma un subespacio del mismo denotado como (Sym(𝒯qp(V)),+,)
  • Se dice que el tensor es antisimétrico si el intercambio de cualquier par de índices altera el signo del tensor:
Tij..k=Tji..k el conjunto de todos los tensores antisimétricos de orden k de un espacio tensorial también forma un subespacio denotado como (Alt(𝒯qp(V)),+,) es de dimensión n!/(k!(nk)!)

Por otra parte, un tensor arbitrario no es simétrico ni antisimétrico. Un tensor de orden 2 siempre puede expresarse como la suma de un tensor simétrico (Sij) y uno antisimétrico (Aij):

Tij=12(Tij+Tji)+12(TijTji)=Sij+Aij. Esto no es posible para tensores de orden superior a 2.

Operaciones con tensores

Producto tensorial y producto exterior

Plantilla:AP Dados dos tensores se puede definir entre ellos el llamado producto tensorial cuyo resultado es un tensor de tipo más complejo cuyos componentes pueden obtenerse a partir de los tensores originales.

El producto de dos tensores es un tensor cuyo rango es la suma de los rangos dados por los dos tensores. Este producto implica la multiplicación ordinaria de los componentes de un tensor y es llamado producto exterior.

Por ejemplo:

AijkBml=Cimjkl

Subir y bajar índices

Plantilla:AP En una variedad riemanniana existe la posibilidad de definir una operación sobre tensores, que en general no puede realizarse en una variedad cualquiera. Esa operación permite sustituir en los cálculos un tensor de tipo Tlk por otro de tipo Tlk con tal que k+l=k+l. Esta operación se denomina usualmente ley de subir o bajar índices. Esa operación se basa en la existencia de un isomorfismo entre espacios de tensores covariantes y contravariantes definidos sobre una variedad riemanniana o pseudoriemanniana (,gij). Por tanto para emplear la subida y bajada de índices es necesario usar el tensor métrico gij (y su inverso gij, llamado co-tensor métrico).

Estas operaciones resultan muy útiles en la teoría general de la relatividad donde cualquier magnitud física puede ser representada por tensores covariantes o contravariantes indistintamente, y sin alterar el significado físico, según las necesidades del problema planteado. Así para cualquier magnitud física representada por un tensor de tercer rango, puede ser representado por varios conjuntos de magnitudes relacionables gracias a la operación de "subir y bajar índices":

Tαβγ, Tαβγ, Tαβγ, Tαβγ, Tαβγ, Tαβγ, Tαβγ, Tαβγ

Contracción

Plantilla:AP La contracción de tensores es una operación que reduce el orden total de un tensor. Esta operación reduce un tensor tipo (n,m) a otro tipo (n1,m1). En términos de componentes, esta operación se logra sumando el índice de un tensor contravariante y un covariante. Por ejemplo, un tensor (1,1) Tji puede ser contraído a un escalar a través de Tii; donde el convenio de sumación de Einstein es empleado. Cuando el tensor (1,1) se interpreta como un mapeo lineal, esta operación es conocida como la traza.

La contracción se utiliza usualmente con el producto tensorial para contraer el índice de cada tensor. La contracción puede también entenderse en términos de la definición de un tensor como un elemento de un producto tensorial de copias del espacio V con el espacio V*, descomponiendo primero el tensor en una combinación lineal de tensores más simples, y posteriormente aplicando un factor de V* a un factor de V. Por ejemplo Plantilla:Ecuación puede ser escrito como la combinación lineal de Plantilla:Ecuación La contracción de T en el primero y último espacio es entonces el vector Plantilla:Ecuación

Producto Interno

Plantilla:AP El producto interno de dos tensores se produce al contraer el producto exterior de los tensores. Por ejemplo, dados dos tensores Akij y Bml su producto externo es AkijBml. Igualando índices, k=l, se obtiene el producto interno: AkijBmk.

Dual de Hodge

Plantilla:AP

El operador estrella de Hodge en un espacio vectorial V es un operador lineal en el álgebra exterior de V, intercambiando los subespacios de k-vectores y el de n−k-vectores, donde n = dim V, para 0 ≤ kn. Un ejemplo común del uso del dual de Hodge es el producto vectorial sobre un espacio euclídeo tridimensional dotado de la métrica ordinaria: Plantilla:Ecuación

Cálculo tensorial en variedades

Tanto la geometría diferencial avanzada como la teoría general de la relatividad requieren el uso de tensores construidos sobre espacios vectoriales diferentes. Esto sucede porque tanto en las superficies curvas como en el espacio-tiempo curvo el espacio tangente de diferentes puntos no coincide y es necesario "conectarlos" o construir aplicaciones entre ellos de alguna manera. Una manera de hacer cálculo tensorial en esas situaciones es definir una conexión matemática que permita definir la derivación covariante. Además la estructura diferenciable permite construir la aplicación diferencial tangente que permite construir isomorfismo entre los diferentes espacios tangentes. El cálculo tensorial en esas situaciones se construye a partir de secciones sobre fibrados tangentes asociados a cada tipo de tensor.

Aplicaciones progrediente y regrediente

Plantilla:AP Dadas dos variedades diferenciables de dimensión m y 𝒩 de dimensión n y una aplicación entre ellas ϕ:𝒩 el concepto de aplicación diferencial tangente (o pushforward) es una aplicación lineal entre los fibrados tangentes de ambas variedades.

Una aplicación entre variedades se dice diferenciable si dada una carta local (U,ψU) (U) que contenga al punto p y (V,ψV) (V𝒩) que contenga a ϕ(p), la aplicación F:ψU(U)mψV(V)nes diferenciable como función de m a n.

La aplicación lineal tangente (llamada frecuentemente pushforward) se puede definir para una aplicación diferenciable entre variedades. Dado un vector del espacio tangente 𝐯 en un punto, queda definida una aplicación sobre el conjunto de funciones definidas en el entorno de dicho punto, que asigna a cada función (a valores reales) la derivada direccional de la función según el vector 𝐯: Plantilla:Ecuación Teniendo presente la anterior operación de vectores sobre funciones y dada la aplicación diferenciable ϕ:𝒩 se define la aplicación lineal tangente: Plantilla:Ecuación Tal que a un vector en p (p,𝐯) le asigna el único vector (ϕ(p),𝐰) que hace que se cumpla que: Plantilla:Ecuación Donde:

f~:=fϕ:,ϕ*(𝐯)=𝐰

Una vez definida la aplicación lineal tangente puede definirse la aplicación (diferencial) cotangente (o pullback) sobre 1-formas como: Plantilla:Ecuación

Tensor métrico

Si la variedad diferenciable tiene estructura de variedad riemanniana o pseudoriemanniana entonces se pueden definir estructuras más complejas y enriquecer el conjunto de herramientas del cálculo tensorial sobre esa variedad. Un tensor métrico g es en esencia un tensor 2-covariante y simétrico definido sobre toda la variedad y no degenerado:

  1. g(X,Y)=g(Y,X),X,YTp
  2. det(g)0,XTp

Derivada covariante

Plantilla:AP Puede probarse que una variedad riemanniana o pseudoriemanniana nes localmente isométrica al espacio euclídeo si y sólo si su tensor de curvatura de Riemann se anula. Si la variedad tiene curvatura no nula puede demostrarse que la particularización de las derivadas direccionales de n no tienen las propiedades de invariancia esperadas. En concreto, la derivada no covariante de un vector tangente en general no resulta en un vector tangente también a la variedad, y por lo tanto, no da lugar a un objeto tensorial definible sobre la variedad.

Para resolver esos problemas se define una conexión que permita relacionar el espacio tangente en puntos diferentes de la variedad (a diferencia del caso euclídeo si la variedad es curva la orientación del espacio tangente), considerado como subconjunto de n, variará de un punto a otro.

Derivada de Lie

Plantilla:AP

La derivada de Lie se define como un operador en un álgebra de funciones diferenciables sobre una variedad diferenciable , cuya definición puede extenderse al álgebra tensorial de la variedad, es decir, una aplicación -lineal sobre el conjunto de tensores de tipo (r,s), que preserva el tipo tensorial y satisface la regla del producto de Leibniz y que conmuta con las contracciones.

Para definir la derivada de Lie sobre el conjunto de tensores de tipo (r,s) bastará con definir su acción sobre funciones y sobre campos de vectores. Así, si X es un campo diferenciable de vectores, se define la derivada de Lie con respecto a X como la única derivación tensorial tal que:[18]

  • Xf=X(f) para toda función diferenciable f.
  • XY=[X,Y] para todo campo diferenciable Y, y donde [,] es el corchete de Lie.

Derivación exterior

Dada una n-forma (tensor n-covariante totalmente antisimétrico): Plantilla:Ecuación La diferenciación exterior d es una aplicación en el álgebra graduada de n-formas que opera según: Plantilla:Ecuación De forma que la diferenciación exterior es una combinación lineal de n+1 derivadas parciales de los componentes de la n-forma original. Es interesante notar que la diferenciación exterior generaliza las operaciones de gradiente, rotacional o divergencia, así cuando se considera el cálculo tensorial sobre 3: Plantilla:Ecuación Donde * denota el operador dual de Hodge.

Notación indexada

La notación tensorial utiliza índices superiores e inferiores en objetos, que sirven para etiquetar un objeto variable como covariante (índices inferiores), contravariante (índices superiores) o covariante y contravariante mixto (que tiene índices superiores e inferiores). De hecho, en la sintaxis matemática convencional se utilizan índices covariantes cuando se trabaja con sistemas de coordenadas cartesianas (x1,x2,x3) con frecuencia sin tener en cuenta que se trata de un uso limitado de la sintaxis tensorial como componentes indexados covariantes. Por otro lado, hay que evitar confundir el índice superior de un objeto con las operación de potenciación de la sintaxis matemática convencional.

Descomposición vectorial

La notación tensorial permite descomponer un vector (V) en una suma de Einstein que representa la contracción tensorial de una base (Zi o Zi) con un vector componente (Vi o Vi).

V=ViZi=ViZi

Cada vector tiene dos representaciones diferentes, una denominada componente contravariante (Vi) con base covariante (Zi) y la otra como componente covariante (Vi) con base contravariante (Zi). Los objetos tensoriales con todos los índices superiores se denominan contravariantes y los objetos tensoriales con todos los índices inferiores se denominan covariantes. La necesidad de distinguir entre contravariante y covariante surge del hecho de que cuando se puntea un vector arbitrario con su vector base relacionado con un sistema de coordenadas particular, hay dos formas de interpretar este producto escalar, o se ve como la proyección del vector base sobre el vector arbitrario, o se ve como la proyección del vector arbitrario sobre el vector base. Ambas formas de ver el producto escalar son completamente equivalentes, pero tienen diferentes elementos componentes y diferentes vectores base:

VZi=Vi=VTZi=ZiTV=projZi(V)Zi=projV(Zi)V
VZi=Vi=VTZi=ZiTV=projZi(V)Zi=projV(Zi)V

Por ejemplo, en física se empieza con un campo vectorial, se descompone con respecto a la base covariante y así se obtienen las coordenadas contravariantes. Para coordenadas cartesianas ortonormales, las bases covariante y contravariante son idénticas, ya que la base establecida en este caso es solo la matriz identidad. Sin embargo, para sistemas de coordenadas no afines como polares o esféricos, es necesario distinguir entre descomposición mediante el uso de bases contravariantes o covariantes para generar los componentes del sistema de coordenadas.

Descomposición vectorial covariante

V=ViZi

Variable Descripción Tipo
V Vector Invariante
Vi Componentes contravariantes (conjunto ordenado de escalares) Variante
Zi Bases covariantes (conjunto ordenado de vectores) Variante

Descomposición vectorial contravariante

V=ViZi

Variable Descripción Tipo
V Vector Invariante
Vi Componentes covariantes (conjunto ordenado de escalares) Variante
Zi Bases contravariantes (conjunto ordenado de covectores) Variante

Tensor métrico

El tensor métrico representa una matriz con elementos escalares (Zij o Zij) y es un objeto tensorial que se utiliza para subir o bajar el índice de otro objeto tensorial mediante una operación llamada contracción, permitiendo así convertir un tensor covariante en un tensor contravariante y viceversa.

Ejemplo de reducción de índice usando un tensor métrico:

Ti=ZijTj

Ejemplo de aumento de índice usando un tensor métrico:

Ti=ZijTj

El tensor métrico se define como:

Zij=ZiZj
Zij=ZiZj

Esto significa que si se toma cada permutación de un conjunto de vectores base y las comparamos entre sí, y luego se organizan en una matriz cuadrada, se tendría un tensor métrico. La advertencia aquí es cuál de los dos vectores en la permutación se usa para la proyección contra el otro vector, es decir, la propiedad distintiva del tensor métrico covariante en comparación con el tensor métrico contravariante.

Existen dos tipos de tensores métricos: (1) el tensor métrico contravariante (Zij) y (2) el tensor métrico covariante (Zij). Estos dos tipos de tensor métrico están relacionados por la identidad:

ZikZjk=δij

Para un sistema de coordenadas cartesianas ortonormal, el tensor métrico es solo la delta de Kronecker δij o δij, que es solo un tensor equivalente de la matriz identidad y δij=δij=δji.

Jacobiano

Además, un tensor se puede convertir fácilmente de un sistema de coordenadas sin barras (x) a uno con barras (x¯) que tiene diferentes conjuntos de vectores base:

f(x1,x2,,xn)=f(x1(x¯),x2(x¯),,xn(x¯))=f¯(x¯1,x¯2,,x¯n)=f¯(x¯1(x),x¯2(x),,x¯n(x))

mediante el uso de la matriz jacobiana entre el sistema de coordenadas barrado y el no barrado (J¯=J1). El jacobiano entre el sistema barrado y no barrado es fundamental para definir los vectores base covariantes y contravariantes, ya que para que estos vectores existan deben satisfacer la siguiente relación relativa al sistema barrado y no barrado:

Se requiere que los vectores contravariantes obedezcan las leyes siguientes:

vi=v¯rxi(x¯)x¯r
v¯i=vrx¯i(x)xr

Se requiere que los vectores covariantes obedezcan las leyes siguientes:

vi=v¯rx¯i(x)xr
v¯i=vrxr(x¯)x¯i

Hay dos tipos de matriz jacobiana:

1. La matriz J que representa el cambio de coordenadas sin barras a coordenadas con barras. Para encontrar J, se toma el "gradiente barrado", es decir, la derivada parcial con respecto a x¯i:

J=¯f(x(x¯))

2. La matriz J¯, que representa el cambio de coordenadas barradas a coordenadas no barradas. Para encontrar J¯, se toma el "gradiente sin barras", es decir, la derivada parcial con respecto a xi:

J¯=f¯(x¯(x))

Vector gradiente

El cálculo tensorial proporciona una generalización de la fórmula vectorial de gradiente del cálculo estándar, que funciona en todos los sistemas de coordenadas:

F=iFZi

donde:

iF=FZi

Por el contrario, para el cálculo estándar, la fórmula del gradiente vectorial depende del sistema de coordenadas en uso (por ejemplo: la fórmula del gradiente vectorial cartesiano frente a la fórmula del gradiente vectorial polar, o frente a la fórmula del gradiente vectorial esférico). En el cálculo estándar, cada sistema de coordenadas tiene su propia fórmula específica, a diferencia del cálculo tensorial, que tiene solo una fórmula de gradiente que es equivalente para todos los sistemas de coordenadas. Esto es posible gracias a la comprensión del tensor métrico que utiliza el cálculo tensorial.

Criterios generales para la notación y operaciones con índices

Dos tensores son iguales si y solo si todos sus componentes correspondientes son iguales. Por ejemplo, el tensor Plantilla:Math es igual al tensor Plantilla:Math si y solo si:

Aαβγ=Bαβγ

para todos los Plantilla:Math. En consecuencia, hay facetas de la notación que son útiles para comprobar que una ecuación tiene sentido (un procedimiento análogo al análisis dimensional).

Los índices que no participan en las contracciones se denominan índices libres. Los índices utilizados en las contracciones se denominan índices ficticios o índices de suma.

Una ecuación tensorial representa muchas ecuaciones ordinarias (de valor real)

Los componentes de los tensores (como Plantilla:Math o Plantilla:Math) son solo números reales. Dado que los índices toman varios valores enteros para seleccionar componentes específicos de los tensores, una única ecuación tensorial representa muchas ecuaciones ordinarias. Si una igualdad tensorial tiene Plantilla:Math índices libres, y si la dimensionalidad del espacio vectorial subyacente es Plantilla:Math, la igualdad representa Plantilla:Math ecuaciones: cada índice toma cada valor de un conjunto específico de valores.

Por ejemplo, si

AαBβγCγδ+DαβEδ=Tαβδ

está en cuatro dimensiones (es decir, cada índice va de 0 a 3 o de 1 a 4), entonces como hay tres índices libres (Plantilla:Math), hay 43 = 64 ecuaciones. Tres de estas son:

A0B10C00+A0B11C10+A0B12C20+A0B13C30+D01E0=T010A1B00C00+A1B01C10+A1B02C20+A1B03C30+D10E0=T100A1B20C02+A1B21C12+A1B22C22+A1B23C32+D12E2=T122.

Esto ilustra la compacidad y eficiencia del uso de la notación de índices: muchas ecuaciones que comparten una estructura similar se pueden recopilar en una ecuación tensorial simple.

Los índices son etiquetas reemplazables

Reemplazar cualquier símbolo de índice por otro deja la ecuación del tensor sin cambios (siempre que no haya conflicto con otros símbolos ya utilizados). Esto puede resultar útil al manipular índices, como utilizar la notación de índices para verificar identidades del cálculo vectorial o las identidades de la delta de Kronecker y del símbolo de Levi-Civita (véase más adelante). Un ejemplo de un cambio correcto es:

AαBβγCγδ+DαβEδAλBβμCμδ+DλβEδ,

mientras que un cambio erróneo es:

AαBβγCγδ+DαβEδAλBβγCμδ+DαβEδ.

En el primer reemplazo, Plantilla:Math reemplazó a Plantilla:Math y Plantilla:Math reemplazó a Plantilla:Math en todas partes, por lo que la expresión todavía tiene el mismo significado. En el segundo, Plantilla:Math no reemplazó completamente a Plantilla:Math, y Plantilla:Math no reemplazó completamente a Plantilla:Math (por cierto, la contracción en el índice Plantilla:Math se convirtió en un producto tensorial), lo cual es completamente inconsistente por las razones que se muestran a continuación.

Los índices son los mismos en todos los términos

Los índices libres en una expresión tensorial siempre aparecen en la misma posición (superior o inferior) en cada término, y en una ecuación tensorial los índices libres son los mismos en cada lado. Los índices ficticios (lo que implica una suma sobre ese índice) no tienen por qué ser iguales, por ejemplo:

AαBβγCγδ+DαδEβ=Tαβδ

en cuanto a una expresión errónea:

AαBβγCγδ+DαβγEδ.

En otras palabras, los índices no repetidos deben ser del mismo tipo en todos los términos de la ecuación. En la identidad anterior, Plantilla:Math se alinea en todo momento y Plantilla:Math aparece dos veces en un término debido a una contracción (una vez como índice superior y otra como índice inferior) y, por lo tanto, es una expresión válida. En la expresión no válida, mientras Plantilla:Math se alinea, Plantilla:Math y Plantilla:Math no lo hacen, y Plantilla:Math aparece dos veces en un término (contracción) y una vez en otro término, lo cual es inconsistente.

Los corchetes y la puntuación se utilizan una vez cuando están implícitos

Cuando se aplica una regla a varios índices (como por ejemplo diferenciación o simetrización, como se muestra a continuación), los símbolos de puntuación o corchetes que denotan las reglas solo se muestran en un grupo de índices al que se aplican.

Si los corchetes incluyen índices covariantes, la regla se aplica solo a todos los índices covariantes incluidos entre corchetes, no a ningún índice contravariante que se encuentre ubicado intermediamente entre los corchetes.

De manera similar, si los corchetes incluyen índices contravariantes, la regla se aplica solo a todos los índices contravariantes incluidos, no a los índices covariantes colocados en un lugar intermedio.

Partes simétricas y antisimétricas

Parte de un tensor simétrica

Los paréntesis ( ) colocados alrededor de múltiples índices, denotan la parte simetrizada del tensor. Al simetrizar índices Plantilla:Math usando Plantilla:Math para abarcar permutaciones de los números 1 a Plantilla:Math, se toma una suma de las permutaciones de esos índices Plantilla:Math para Plantilla:Math y luego se divide por el número de permutaciones:

A(α1α2αp)αp+1αq=1p!σAασ(1)ασ(p)αp+1αq.

Por ejemplo, dos índices simétricos significan que hay dos índices para permutar y sumar:

A(αβ)γ=12!(Aαβγ+Aβαγ)

mientras que para tres índices simétricos, hay tres índices para sumar y permutar:

A(αβγ)δ=13!(Aαβγδ+Aγαβδ+Aβγαδ+Aαγβδ+Aγβαδ+Aβαγδ)

La simetrización es distributiva respecto a la suma

A(α(Bβ)γ+Cβ)γ)=A(αBβ)γ+A(αCβ)γ

Los índices no forman parte de la simetrización cuando:

  • No están al mismo nivel, por ejemplo;
A(αBβγ)=12!(AαBβγ+AγBβα)
  • Dentro de paréntesis y entre barras verticales (es decir |⋅⋅⋅|), modificando el ejemplo anterior
A(αB|β|γ)=12!(AαBβγ+AγBβα)

Aquí los índices Plantilla:Math y Plantilla:Math están simetrizados, pero Plantilla:Math no lo está.

Parte de un tensor antisimétrica o alterna

Los corchetes [ ]]] alrededor de múltiples índices denotan la parte antisimetrizada del tensor. Para índices antisimetrizantes Plantilla:Math se toma la suma de las permutaciones de esos índices Plantilla:Math multiplicada por paridad de la permutación Plantilla:Math y luego se divide por el número de permutaciones:

A[α1αp]αp+1αq=1p!σsgn(σ)Aασ(1)ασ(p)αp+1αq=δα1αpβ1βpAβ1βpαp+1αq

donde Plantilla:Math es la delta de Kronecker de grado Plantilla:Math, con la escala definida a continuación.

Por ejemplo, dos índices antisimetrizantes implican que:

A[αβ]γ=12!(AαβγAβαγ)

mientras que tres índices antisimetrizantes implican que:

A[αβγ]δ=13!(Aαβγδ+Aγαβδ+AβγαδAαγβδAγβαδAβαγδ)

En cuanto a un ejemplo más específico, si Plantilla:Math representa el tensor de campo electromagnético, entonces la ecuación

0=F[αβ,γ]=13!(Fαβ,γ+Fγα,β+Fβγ,αFβα,γFαγ,βFγβ,α)

representa la ley del magnetismo de Gauss y la ley de Faraday.

Como antes, la antisimetrización es distributiva con respecto a la suma

A[α(Bβ]γ+Cβ]γ)=A[αBβ]γ+A[αCβ]γ

Al igual que con la simetrización, los índices no están antisimetrizados cuando:

  • No están al mismo nivel, como por ejemplo
A[αBβγ]=12!(AαBβγAγBβα)
  • Dentro de los corchetes y entre las barras verticales (es decir, |⋅⋅⋅|), modificando el ejemplo anterior
A[αB|β|γ]=12!(AαBβγAγBβα)

Aquí los índices Plantilla:Math y Plantilla:Math están antisimetrizados, pero Plantilla:Math no lo está.

Suma de partes simétricas y antisimétricas

Cualquier tensor se puede escribir como la suma de sus partes simétricas y antisimétricas en dos índices:

Aαβγ=A(αβ)γ+A[αβ]γ

lo que puede verse sumando las expresiones anteriores para Plantilla:Math y Plantilla:Math. Esto no es válido más que para dos índices.

Diferenciación

Plantilla:VT

Para que la notación sea más compacta, las derivadas pueden indicarse añadiendo índices después de una coma o punto y coma.[19][20]

Si bien la mayoría de las expresiones del cálculo de Ricci son válidas para bases arbitrarias, las expresiones que involucran derivadas parciales de componentes tensoriales con respecto a coordenadas se aplican solo con una base holonómica, es decir, una base que se define mediante diferenciación con respecto a las coordenadas. Las coordenadas normalmente se denotan por Plantilla:Math, pero en general no forman los componentes de un vector. En el espacio-tiempo plano con coordinatización lineal, una tupla de diferencias de coordenadas, Plantilla:Math, puede tratarse como un vector contravariante. Con las mismas restricciones en el espacio y en la elección del sistema de coordenadas, las derivadas parciales con respecto a las coordenadas producen un resultado que es efectivamente covariante. Aparte de su uso en este caso especial, las derivadas parciales de los componentes de los tensores en general no se transforman de manera covariante, pero son útiles para construir expresiones que son covariantes, aunque todavía con una base de coordenadas si las derivadas parciales se usan explícitamente, como ocurre con la covariante exterior y las derivadas de Lie que figuran a continuación.

Para indicar una diferenciación parcial de los componentes de un campo tensorial con respecto a una variable de coordenadas Plantilla:Math, se coloca una coma antes de un índice inferior adjunto de la variable de coordenadas.

Aαβ,γ=xγAαβ

Esto puede repetirse (sin añadir más comas) de la forma siguiente:

Aα1α2αp,αp+1αq=xαqxαp+2xαp+1Aα1α2αp.

Estos componentes no se transforman covariantemente, a menos que la expresión que se diferencia sea un escalar. Esta derivada se caracteriza por la regla del producto y las derivadas de las coordenadas

xα,γ=δγα,

donde Plantilla:Math es la delta de Kronecker.

La derivada covariante solo se define si se define una conexión. Para cualquier campo tensorial, un punto y coma (Plantilla:Math) colocado antes de un índice inferior (covariante) adjunto indica la diferenciación covariante. Las alternativas menos comunes al punto y coma incluyen la barra hacia adelante (Plantilla:Math)[21] o, en un espacio curvo tridimensional, una única barra vertical (Plantilla:Math).[22]

La derivada covariante de una función escalar, un vector contravariante y un vector covariante son:

f;β=f,β
Aα;β=Aα,β+ΓαγβAγ
Aα;β=Aα,βΓγαβAγ,

donde Plantilla:Math son los coeficientes de conexión.

Para un tensor arbitrario:[23]

Tα1αrβ1βs;γ=Tα1αrβ1βs,γ+Γα1δγTδα2αrβ1βs++ΓαrδγTα1αr1δβ1βsΓδβ1γTα1αrδβ2βsΓδβsγTα1αrβ1βs1δ.

Una notación alternativa para la derivada covariante de cualquier tensor es el símbolo nabla con un subíndice Plantilla:Math. Para el caso de un campo vectorial Plantilla:Math:[24]

βAα=Aα;β.

La formulación covariante de derivada direccional de cualquier campo tensorial en un vector Plantilla:Math puede expresarse como su contracción con la derivada covariante, por ejemplo:

vγAα;γ.

Los componentes de esta derivada de un campo tensorial se transforman covariantemente y, por lo tanto, forman otro campo tensorial, a pesar de que las subexpresiones (la derivada parcial y los coeficientes de conexión) no se transforman covariantemente por separado.

Esta derivada se caracteriza por la regla del producto:

(AαβBγδ);ϵ=Aαβ;ϵBγδ+AαβBγδ;ϵ.

Tipos de conexión

Una conexión de Koszul sobre un fibrado tangente de una variedad diferenciable se llama conexión afín.

Una conexión se denomina conexión métrica cuando la derivada covariante del tensor métrico desaparece:

gμν;ξ=0.

Una conexión afín que también es una conexión métrica se llama conexión riemanniana. Una conexión de Riemann que no tiene torsión (es decir, para la que el tensor de torsión desaparece: Plantilla:Math) es una conexión de Levi-Civita.

Los Plantilla:Math para una conexión de Levi-Civita en forma de coordenadas se denominan símbolos de Christoffel de segunda especie.

La derivada exterior de un campo tensorial Plantilla:Math de tipo totalmente antisimétrico con componentes Plantilla:Math (también llamado forma diferencial) es una derivada que es covariante bajo transformaciones de base. No depende ni de un tensor métrico ni de una conexión: solo requiere la estructura de una variedad diferenciable. En una base coordenada, se puede expresar como la antisimetrización de las derivadas parciales de los componentes tensoriales:[3]Plantilla:Rp

(dA)γα1αs=x[γAα1αs]=A[α1αs,γ].

Esta derivada no está definida sobre ningún campo tensorial con índices contravariantes o que no sea totalmente antisimétrico. Se caracteriza por una regla de producto graduado.

La derivada de Lie es covariante bajo transformaciones de bases. Al igual que la derivada exterior, no depende ni de un tensor métrico ni de una conexión. La derivada de Lie de un campo tensorial del tipo Plantilla:Math Plantilla:Math en (el flujo de) un campo vectorial contravariante Plantilla:Math puede expresarse usando una base de coordenadas como[25]

(XT)α1αrβ1βs=XγTα1αrβ1βs,γXα1,γTγα2αrβ1βsXαr,γTα1αr1γβ1βs+Xγ,β1Tα1αrγβ2βs++Xγ,βsTα1αrβ1βs1γ.

Esta derivada se caracteriza por la regla del producto y el hecho de que la derivada de Lie de un campo vectorial contravariante respecto de sí misma es cero:

(XX)α=XγXα,γXα,γXγ=0.

Tensores notables

La delta de Kronecker es como la matriz identidad cuando se multiplica y se contrae:

δβαAβ=AαδνμBμ=Bν.

Las componentes Plantilla:Math son iguales en cualquier base y forman un tensor invariante de tipo Plantilla:Math, es decir, la identidad del fibrado tangente sobre la función identidad del fibrado, por lo que su traza es un invariante.[26] Su traza es la dimensionalidad del espacio; por ejemplo, en el espacio-tiempo de cuatro dimensiones,

δρρ=δ00+δ11+δ22+δ33=4.

La delta de Kronecker pertenece a la familia de deltas de Kronecker generalizadas. La delta de Kronecker generalizada de grado Plantilla:Math se puede definir en términos de la delta de Kronecker por (una definición común incluye un multiplicador adicional de Plantilla:Math a la derecha):

δβ1βpα1αp=δβ1[α1δβpαp],

y actúa como antisimetrizador en Plantilla:Math índices:

δβ1βpα1αpAβ1βp=A[α1αp].

Una conexión afín tiene un tensor de torsión Plantilla:Math:

Tαβγ=ΓαβγΓαγβγαβγ,

donde Plantilla:Math están dados por las componentes del soporte de Lie de la base local, que desaparecen cuando es una base de coordenadas.

Para una conexión de Levi-Civita, este tensor se define como cero, y para una base de coordenadas da las ecuaciones

Γαβγ=Γαγβ.

Si este tensor se define como

Rρσμν=Γρνσ,μΓρμσ,ν+ΓρμλΓλνσΓρνλΓλμσ,

entonces es el conmutador de la derivada covariante consigo mismo:[27][28]

Aν;ρσAν;σρ=AβRβνρσ,

ya que la conexión no tiene torsión, lo que significa que el tensor de torsión desaparece.

Esto se puede generalizar para obtener el conmutador para dos derivadas covariantes de un tensor arbitrario de la siguiente manera:

Tα1αrβ1βs;γδTα1αrβ1βs;δγ=Rα1ργδTρα2αrβ1βsRαrργδTα1αr1ρβ1βs+Rσβ1γδTα1αrσβ2βs++RσβsγδTα1αrβ1βs1σ

que a menudo se denominan identidades de Ricci.[29]

El tensor métrico Plantilla:Math se utiliza para reducir índices y proporciona la longitud de cualquier curva en el espacio-tiempo

length=y1y2gαβdxαdγdxβdγdγ,

donde Plantilla:Math es cualquier parametrización suave y estrictamente monótona de una trayectoria. También da la duración de cualquier curva definida en el espacio-tiempo

duración=t1t21c2gαβdxαdγdxβdγdγ,

donde Plantilla:Math es cualquier parametrización suave y estrictamente monótona de la trayectoria. Véase también elemento de línea.

La matriz invertible Plantilla:Math del tensor métrico es otro tensor importante, utilizado para elevar índices:

gαβgβγ=δγα.

Véase también

Referencias

Plantilla:Listaref

Bibliografía

Enlaces externos

Plantilla:Control de autoridades