next up previous contents index
Siguiente: Determinante de un -uplo Arriba: Ampliación exterior de una Anterior: Álgebra exterior sobre un

Teoría de determinantes

El álgebra exterior, como pronto nos convenceremos, es el marco ideal para tratar la teoría de determinantes y éstos desempeñan un papel importante en ella. Vamos pues aquí a exponer la teoría de determinantes sin suponer ningún conocimiento previo de ellos. Recordamos:

Definición 4.2   Sean $E$ un espacio vectorial sobre un cuerpo conmutativo ${\mathbb{K}}$ y $\lambda \in {\mathbb{K}}$. La aplicación $\vec x \mapsto \lambda \vec x$ de $E$ en $E$ se llama HOMOTECIA DE RAZÓN . Es un endomorfismo lineal de $E$ (es decir una aplicación lineal de $E$ en $E$).

También recordamos:

Teorema 4.11   Todo endomorfismo lineal de un espacio vectorial $E$ de dimensión uno es una homotecia de $E$.

Demostración
Sea $E$ un espacio vectorial de dimensión $1$ sobre un cuerpo conmutativo ${\mathbb{K}}$. Sea $\vec e$ un vector arbitrario no nulo de $E$. La familia reducida al elemento $\vec e$ es una base de $E$. Sea $L \colon E \to E$ un endomorfismo lineal de $E$. Puesto que todo elemento de $E$ se expresa únicamente como un múltiplo escalar de $\vec e$, existe un único $\alpha \in {\mathbb{K}}$ tal que:

\begin{displaymath}L \vec e = \alpha \vec e\end{displaymath}

Un vector arbitrario $\vec x \in E$ se escribe únicamente en la forma:

\begin{displaymath}\vec x = x \vec e \quad \mbox{con}\quad x \in {\mathbb{K}}.\end{displaymath}

Vale pues: $L\vec x = x L \vec e= x\alpha \vec e = \alpha (x\vec e)= \alpha \vec x$. $L$ es pues la homotecia de $E$ de razón $\alpha$. $\quad\Box$

Definición 4.3   Sea $E$ un espacio vectorial de dimensión finita $n$ sobre un cuerpo conmutativo ${\mathbb{K}}$. Puesto que $\stackrel{n}{\wedge} E$ es un espacio vectorial de dimensión 1, por el teorema 1.4.11 el endomorfismo lineal $\stackrel{n}{\wedge} L$ del espacio vectorial $\stackrel{n}{\wedge} E$ es una homotecia de dicho espacio vectorial. La razón de dicha homotecia se llama el DETERMINANTE DEL ENDOMORFISMO $L$ y se designa por $\mbox{\rm Det }L$.

En otras palabras, $\mbox{\rm Det }L$ es el elemento del cuerpo ${\mathbb{K}}$ que satisface:

Teorema 4.12   Sea $E$ un espacio vectorial de dimensión finita $n$ sobre un cuerpo conmutativo ${\mathbb{K}}$.
  1. Vale:

    \begin{displaymath}\fbox{${\displaystyle \mbox{\rm Det }{\cal I}_E = 1}$}\end{displaymath}

  2. Si $A, B$ son endomorfismos lineales de $E$, se verifica:

    \begin{displaymath}\fbox{${\displaystyle \mbox{\rm Det }(B \circ A) = \mbox{\rm Det }(A \circ B) = \mbox{\rm Det }A \cdot \mbox{\rm Det }B}$}\end{displaymath}

  3. Sea $A$ un endomorfismo lineal de $E$. Se tiene $\mbox{\rm Det }A=0$ si y sólo si $A$ no es un automorfismo lineal de $E$ o sea si y sólo si:

    \begin{displaymath}\mbox{\rm ran }A < n\end{displaymath}

  4. Si $A$ es un automorfismo lineal de $E$, o sea $\mbox{\rm ran }A =n$, vale:

    \begin{displaymath}\fbox{${\displaystyle {\displaystyle \mbox{\rm Det }(A^{-1}) = {1 \over \mbox{\rm Det }A } }}$}\end{displaymath}

    (Aquí $A^{-1}$ es el automorfismo de $E$ inverso del automorfismo $A$).

Demostración

  1. La fórmula $\mbox{\rm Det }{\cal I}_E=1$ sigue sin más de la relación

    \begin{displaymath}\stackrel{n}{\wedge} {\cal I}_E = {\cal I}_{\stackrel{n}{\wedge} E} = 1 \cdot {\cal I}_{\stackrel{n}{\wedge} E}\end{displaymath}

    probada en el teorema 1.4.6.
  2. Sean $A,\, B$ endomorfismos lineales de $E$. Usando el teorema 1.4.6 obtenemos:

    \begin{eqnarray*}
\stackrel{n}{\wedge} (B \circ A) &=& (\stackrel{n}{\wedge} B )...
...t }A \cdot \mbox{\rm Det }B ) {\cal I}_{\stackrel{n}{\wedge} E}
\end{eqnarray*}

    de ahí que:

    \begin{displaymath}\mbox{\rm Det }(B \circ A) = \mbox{\rm Det }B \cdot \mbox{\rm Det }A\end{displaymath}

  3. Sea $A$ un endomorfismo lineal de $E$. La relación $\mbox{\rm Det }A=0$ equivale a:

    \begin{displaymath}\stackrel{n}{\wedge} A =0\end{displaymath}

    y ésta, a su vez, en virtud del teorema 1.4.8, a:

    \begin{displaymath}\mbox{\rm ran }A < n\end{displaymath}

  4. Sea $A$ un automorfismo lineal de $E$ y $A^{-1}$ el correspondiente automorfismo inverso. Se cumple:

    \begin{displaymath}A^{-1} \circ A = {\cal I}_E\end{displaymath}

    Tomando los determinantes de ambos miembros obtenemos en virtud de los incisos a. y b.:

    \begin{displaymath}\mbox{\rm Det }A^{-1} \cdot \mbox{\rm Det }A =1\end{displaymath}

    $\quad\Box$

Observación
El conjunto de todos los automorfismos lineales de $E$ provisto de la ley de composición

\begin{displaymath}(A, B) \mapsto A \circ B\end{displaymath}

constituye un grupo, el GRUPO LINEAL de $E$.

Del teorema 1.4.12 se desprende sin más:

Si E es un espacio vectorial de dimensión finita sobre un cuerpo conmutativo ${\mathbb{K}}$ la aplicación

\begin{displaymath}A \mapsto \mbox{\rm Det }A\end{displaymath}

del grupo lineal E en el grupo ``multiplicativo'' ${\mathbb{K}}- \{ 0 \}$ (es decir, del conjunto ${\mathbb{K}}- \{ 0 \}$ provisto de la restricción de la multiplicación en ${\mathbb{K}}$) es un homomorfismo de grupos.

Teorema 4.13 (Cálculo de un determinante)   Sean $E$ un espacio vectorial de dimensión $n$ y $A$ un endomorfismo lineal de $E$. Sea $\left( a_k^i \right)_{1 \le k \le n}^{1\le i \le n}$ la matriz del endomorfismo A con respecto a una base arbitraria de E. Se verifica:

\begin{displaymath}\fbox{${\displaystyle \mbox{\rm Det }A = \sum_{\sigma \in {\f...
...rm Sgn } \sigma) \, a_1^{\sigma (1)} \cdots a_n^{\sigma (n)}}$}\end{displaymath}

Demostración
Sea $(\vec{e}_1,\ldots,\vec{e}_n)$ una base arbitraria. Decir que la matriz $\left( a_k^i \right)_{1 \le k \le n}^{1\le i \le n}$ de tipo $n\times n$, de elementos en ${\mathbb{K}}$ es la matriz del endomorfismo $A$ con respecto a dicha base, es decir que valen las relaciones:

\begin{displaymath}
A \vec{e}_k = \sum_{i=1}^n a_k^i \vec{e}_i \;,\quad k=1,\ldots,n
\end{displaymath} (24)

Usando (24), obtenemos:
$\displaystyle \left ( \stackrel{n}{\wedge} A \right) \left( \vec{e}_1 \land \cdots \land \vec{e}_n \right)$ $\textstyle =$ $\displaystyle A \vec{e}_1 \land \cdots \land A \vec{e}_n$  
  $\textstyle =$ $\displaystyle \sum_{j_1 =1}^n a_1^{j_1} \vec{e}_{j_1} \land \cdots \land \sum_{j_n =1}^n a_n^{j_n} \vec{e}_{j_n}$  
  $\textstyle =$ $\displaystyle \sum_{ {1 \le j_1 \le n \atop \cdots} \atop 1 \le j_n \le n } a_1^{j_1} \cdots a_n^{j_n} \vec{e}_{j_1} \land \cdots \land \vec{e}_{j_n}$ (25)

Los términos en el último miembro de (25) con $j_1,\ldots,j_n$ no todos distintos valen cero. Al omitir dichos términos quedan aquellos con $(j_1,\ldots,j_n) = \left(\sigma(1),\ldots,\sigma(n)\right)$ para alguna permutación $\sigma \in {\frak S}_n$. De (25) obtenemos pues:

\begin{displaymath}\left( \stackrel{n}{\wedge} A \right) \left( \vec{e}_1 \land ...
...)} \vec{e}_{\sigma (1)} \land \cdots \land \vec{e}_{\sigma (n)}\end{displaymath}

y, puesto que $\vec{e}_{\sigma (1)} \land \cdots \land \vec{e}_{\sigma (n)} = (\mbox{\rm Sgn } \sigma ) \vec{e}_1 \land \cdots \land \vec{e}_n$, en definitiva:
\begin{displaymath}
\left( \stackrel{n}{\wedge} A \right) \left( \vec{e}_1 \land...
...n^{\sigma (n)} \right) \vec{e}_1 \land \cdots \land \vec{e}_n
\end{displaymath} (26)

Pero también:
\begin{displaymath}
\left( \stackrel{n}{\wedge} A \right) \left( \vec{e}_1 \land...
...box{\rm Det }A \right) \vec{e}_1 \land \cdots \land \vec{e}_n
\end{displaymath} (27)

Al comparar (26) y (27) conseguimos finalmente:

\begin{displaymath}\mbox{\rm Det }A =\sum_{\sigma \in {\frak S}_n } (\mbox{\rm Sgn } \sigma) \, a_1^{\sigma (1)} \cdots a_n^{\sigma (n)} \end{displaymath}

$\quad\Box$

Definición 4.4   Sea ${\cal X} = \left( x_j^i \right)_{1\le j \le n}^{1 \le i \le n}$ una matriz de tipo $n\times n$ de elementos en un cuerpo conmutativo ${\mathbb{K}}$. El escalar

\begin{displaymath}\sum_{\sigma \in {\frak S}_n} (\mbox{\rm Sgn } \sigma) \, x_1^{\sigma (1)} \cdots x_n^{\sigma (n)}\end{displaymath}

se llama el DETERMINANTE DE LA MATRIZ $\cal X$. Se escribe:

\begin{displaymath}\fbox{${\displaystyle \mbox{\rm Det }{\cal X} = \sum_{\sigma ...
...m Sgn } \sigma) \, x_1^{\sigma (1)} \cdots x_n^{\sigma (n)} }$}\end{displaymath}

Debido a esta definición, el teorema 1.4.13 puede enunciarse:

El determinante de un endomorfismo de un espacio vectorial $E$ de dimensión finita es igual al determinante de la matriz de dicho endomorfismo con respecto a una base arbitraria de $E$.

$\mbox{\rm Det }\cal X$ suele representarse también por el símbolo

\begin{displaymath}\left\vert \begin{array}{ccc}
x_1^1 & \cdots & x_n^1 \\
\v...
... & & \vdots \\
x_1^n & \cdots & x_n^n
\end{array}\right\vert\end{displaymath}

Designaremos por ${\cal M}_{n\times n} ({\mathbb{K}}) $ el álgebra de todas las matrices de tipo $n\times n$, de elementos en ${\mathbb{K}}$. A todo endomorfismo lineal $X$ del espacio vectorial ${{\mathbb{K}}}^n$ hagámosle corresponder su matriz $[ X]$ con respecto a la base natural de ${{\mathbb{K}}}^n$.

La aplicación $X \mapsto [X]$ es un isomorfismo del álgebra $\mbox{\rm End}( {{\mathbb{K}}}^n)$ de todos los endomorfismos de ${{\mathbb{K}}}^n$ sobre el álgebra ${\cal M}_{n\times n} ({\mathbb{K}}) $. En particular tenemos:

\begin{displaymath}\fbox{${\displaystyle [ {\cal I}_{{{\mathbb K}}^n}] = {\cal I}_n }$}\end{displaymath}

donde ${\cal I}_n$ es la ``matriz unidad de orden $n$'' o sea:

\begin{displaymath}{\cal I}_n = \left( \delta_k^i \right)_{1 \le k \le n}^{1 \le i \le n}\end{displaymath}

Un endomorfismo $X$ de ${\mathbb{K}}^n$ es un automorfismo lineal de ${\mathbb{K}}^n$ si y sólo si la matriz $[ X]$ es inversible y entonces $[X^{-1}] = [X]^{-1}$ la inversa de la matriz $[ X]$. Además, $\forall\, X \in \mbox{\rm End} ( {\mathbb{K}}^n)$ vale:

\begin{displaymath}\mbox{\rm Det }X =\mbox{\rm Det } [X]\end{displaymath}

De estos hechos y del teorema 1.4.12, se desprenden inmediatamente los siguientes resultados sobre los determinantes de las matrices $n\times n$.

Teorema 4.14  
  1. $\mbox{\rm Det }{\cal I}_n=1$
  2. $\mbox{\rm Det } ( {\cal X Y})= \mbox{\rm Det } ({\cal Y X}) = \mbox{\rm Det } {...
... \qquad \forall \, {\cal X},\, {\cal Y} \in {\cal M}_{n\times n} ({\mathbb{K}})$.
  3. Para ${\cal X} \in {\cal M}_{n\times n} ({\mathbb{K}})$ vale $\mbox{\rm Det } {\cal X} =0$ si y sólo si la matriz $\cal X$ no es inversible.
  4. Si $\cal X$ es una matriz inversible de tipo $n\times n$, se verifica:

    \begin{displaymath}\mbox{\rm Det } {\cal X}^{-1} = {1 \over \mbox{\rm Det } {\cal X}}\end{displaymath}

Definición 4.5   Para toda matriz ${\cal X} = \left( x_k^i \right)^{1 \le i \le m}_{1 \le k \le n}$, de elementos en ${\mathbb{K}}$, designamos por ${\cal X}^*$ la matriz de tipo $n \times m$ definida por:

\begin{displaymath}{\cal X}^* = \left( y_i^k \right)^{1 \le k \le n}_{1 \le i \le m}\end{displaymath}

donde $y_i^k = x_k^i \; \forall \, i \in [\![ 1,m ]\!] \; \forall \, k \in [\![ 1,n ]\!]$. La matriz ${\cal X}^*$ se llama la MATRIZ TRANSPUESTA DE LA MATRIZ $\cal X$.

Claramente $({\cal X}^*)^* = {\cal X}$.

Teorema 4.15   $\forall\, {\cal X} \in {\cal M}_{n\times n} ({\mathbb{K}})$ se cumple:

\begin{displaymath}\fbox{${\displaystyle \mbox{\rm Det } {\cal X}^* = \mbox{\rm Det } {\cal X} }$}\end{displaymath}

Demostración
Sean ${\cal X}= \left( x_k^i \right)_{1 \le k \le n}^{1 \le i \le n} $ y ${\cal X}^*= \left( y_i^k \right)_{1 \le i \le n}^{1 \le k \le n}$ donde $y_i^k = x_k^i \; \forall \, i \in [\![ 1,n ]\!] $
$\forall \, k \in [\![ 1,n ]\!]$. Aprovechando la conmutatividad del cuerpo ${\mathbb{K}}$, podemos escribir:

\begin{eqnarray*}
\mbox{\rm Det } {\cal X}^* &=& \sum_{\sigma \in {\frak S}_n} (...
...Sgn } \sigma) x_1^{\sigma^{-1} (1)} \cdots x_n^{\sigma^{-1} (n)}
\end{eqnarray*}

o sea, al poner $\sigma^{-1} = \rho$ y notando que $\mbox{\rm Sgn } \rho = \mbox{\rm Sgn } \sigma$:

\begin{displaymath}\mbox{\rm Det } {\cal X}^* = \sum_{\rho \in {\frak S}_n} (\mb...
...x_1^{\rho (1)} \cdots x_n^{\rho (n)} = \mbox{\rm Det } {\cal X}\end{displaymath}

$\quad\Box$


next up previous contents index
Siguiente: Determinante de un -uplo Arriba: Ampliación exterior de una Anterior: Álgebra exterior sobre un
Guillermo M. Luna
2009-06-14