Álgebra Lineal/Espacios vectoriales y matrices

De Wikilibros, la colección de libros de texto de contenido libre.
Saltar a: navegación, buscar

Definición[editar]

Un espacio vectorial \mathbb{V} sobre un cuerpo \mathbb{K} es un conjunto no vacío sobre el que se definen 2 operaciones internas y 8 propiedades inherentes,a saber:

\oplus:\mathbb{V}\times\mathbb{V}\rightarrow\mathbb{V}

  (u,v)\rightarrow u\oplus v (Cerradura bajo la operación  \oplus de dos elementos de \mathbb{V})

\otimes:\mathbb{K}\times\mathbb{V}\rightarrow\mathbb{V}

  (\alpha,u)\rightarrow \alpha\otimes u (Cerradura ante \otimes de un elemento del cuerpo \mathbb{K} y un elemento de \mathbb{V})


  • Propiedad Conmutativa

 u \oplus v = v \oplus u\forall u,v \in \mathbb{V}

  • Propiedad Asociativa

u\oplus(v\oplus w)=(u\oplus v)\oplus w\forall u,v,w \in \mathbb{V}

  • Existencia de elemento neutro ante \oplus

\forall u \in \mathbb {V}\exists e \in \mathbb{V}\ni u\oplus e=u

  • Existencia de elemento opuesto ante \oplus

\forall u \in \mathbb{V}\exists u \prime \niu\oplus u \prime =e

  • Propiedad Asociativa

(\alpha \bullet \beta)\otimes u = \alpha \otimes (\beta \otimes u)\forall \alpha,\beta \in \mathbb{K},\forall u \in \mathbb{V}

  • Propiedad distributiva para la opearación (+) entre escalares

 (\alpha (+) \beta)\otimes u=\alpha \otimes u \oplus \beta\otimes u\forall \alpha,\beta \in \mathbb{K},\forall u \in \mathbb{V}

  • Propiedad distributiva para la operación \oplus entre elementos de \mathbb{V}

\alpha \otimes (u\oplus v)=\alpha \otimes u \oplus \alpha \otimes v\forall \alpha \in \mathbb{K}\forall u,v \in \mathbb{V}

  • Existencia de elemento neutro ante la operación \otimes

\forall u \in \mathbb{V} \exists \epsilon \in \mathbb{K}\ni \epsilon \otimes u=u

Ejemplos[editar]

  1. \mathbb{R}^n es un espacio vectorial sobre \mathbb{R}

En efecto:

\oplus:\mathbb{R}^n\times\mathbb{R}^n\rightarrow\mathbb{R}^n

     (a,b)\rightarrow a+b

*:\mathbb{R}\times\mathbb{R}^n\rightarrow\mathbb{R}^n

     (\alpha,a)\rightarrow \alpha*a

Ante la suma


\forall a,b \in \mathbb{R}^n:

     a\oplus b = b\oplus a (ley conmutativa ante la operación interna suma)

\forall a,b,c \in \mathbb{R}^n:

     a\oplus(b\oplus c) = (a\oplus b)\oplus c (ley asociativa ante la operación interna suma)

\forall a \in \mathbb{R}^n\exists 0 \in \mathbb{R}^n:

     a\oplus 0=a (existencia de elemento neutro aditivo)

\forall a \in \mathbb{R}^n\exists (-1)a \in \mathbb{R}^n:

     a\oplus (-1)a=0 ( existencia de elemento opuesto)

Ante el producto por escalares

\forall \alpha,\beta \in \mathbb{R}, \forall a \in \mathbb{R}^n se cumple:

   (\alpha\cdot\beta)*a=\alpha*(\beta*a) (ley asociativa ante el producto por escalares)

\forall \alpha,\beta \in \mathbb{R},\forall a \in \mathbb{R}^n se tiene:

   (\alpha\cdot\beta)*a=\alpha*a + \beta*a (ley distributiva)

\forall \alpha \in \mathbb{R},\forall a,b \in \mathbb{R}^n se satisface:

    \alpha * (a\oplus b)= \alpha*a \oplus  \alpha*b (ley distributiva)

\forall a \in \mathbb{R}^n,\exists \alpha \in \mathbb{R}:

     \alpha*a =a (existencia de neutro multiplicativo).

2.El conjunto de todos los polinomios

3.El conjunto de todas las funciones continuas

Matrices[editar]

Definición[editar]

Una matriz es un ordenamiento de elementos de un cuerpo, representado por filas y columnas, por ejemplo:

A =
\begin{pmatrix}
  a_{11} & a_{12} & \ldots & a_{1n} \\
  a_{21} & a_{22} & \ldots & a_{2n} \\
  \vdots & \vdots & \vdots & \vdots \\
  a_{i1} & a_{i2} & \ldots & a_{in}  \\
  \vdots & \vdots & \vdots & \vdots \\
  a_{m1} & a_{m2} & \ldots & a_{mn} 
\end{pmatrix},\ni A \in M_{m,n}(\mathbb{K})

Donde: M_{m,n}(\mathbb{K}) representa al conjunto de matrices de m-filas, n-columnas de un cuerpo \mathbb{K}.

Normalmente la i,j-ésima entrada de una matriz de  m \times n se representa por (a_{ij}).


Ejemplos de matrices:[editar]

Si m=n la matriz se suele llamar cuadrada, por ejemplo:

C =
\begin{pmatrix}
  a_{11} & a_{12} & \ldots & a_{1n} \\
  a_{21} & a_{22} & \ldots & a_{2n} \\
  \vdots & \vdots & \vdots & \vdots \\
  a_{j1} & a_{j2} & \ldots & a_{jn}  \\
  \vdots & \vdots & \vdots & \vdots \\
  a_{n1} & a_{n2} & \ldots & a_{nn} 
\end{pmatrix},\ni C \in M_{m,n}(\mathbb{K})

Que tiene por entrada (c_{ij})\forall i,j \in {1,...,n}

En particular:

B =
\begin{pmatrix}
  3 & 5^{20} & \ldots & \sqrt{2} \\
  20 & -30   &\ldots  & \pi \\
  \vdots     & \vdots & \vdots & \vdots \\
  e & 34\times 10^{-23} & \ldots & 590  \\
  \vdots & \vdots & \vdots & \vdots \\
  \log_{12} 20 & 897 & \ldots & 4576 
\end{pmatrix},\ni B \in M_{n,n}(\mathbb{R})

Si m>n se desprenden casos importantes como:

D =
\begin{pmatrix}
  a_{11}  \\
  a_{21}  \\
  \vdots  \\
  a_{i1}  \\
  \vdots  \\
  a_{m1} 
\end{pmatrix},\ni D \in M_{m,1}(\mathbb{K})

que en particular puede representar un vector en \mathbb{R}^m, de hecho M_{m,1}(\mathbb{R})es el conjunto mencionado.

Como podemos observar la condensación de notación en forma matricial es una ventaja imprescindible, pues, al trabajar con grandes cantidades númericas se ahorra memoria al igual que trabajo en sí mismo.

Ahora vamos a exponer un método para operar con matrices.

Estructura de matrices[editar]

Definición.

Sean \mathrm{A} y \mathrm{B} dos matrices con respectivas entradas (\mathrm{a_{ij}}) y (\mathrm{b_{ij}}) será \mathrm{A} igual a \mathrm{B} si poseén las mismas entradas, es decir, si: (\mathrm{a_{ij})=(b_{ij}}).

Definición.

Sean \mathrm{A} y \mathrm{B} matrices m \times n con entradas (\mathrm{a_{ij}}) y (\mathrm{a_{ij}}) respectivamente, la adición de \mathrm{A} y \mathrm{B}, se define:

\mathrm{A + B=((a_{ij}) +(b_{ij})})

Observación: notar que la adición se genera entrada con entrada.

Ejemplo:

A =
\begin{pmatrix}
  a_{11} & a_{12} & \ldots & a_{1n} \\
  a_{21} & a_{22} & \ldots & a_{2n} \\
  \vdots & \vdots & \vdots & \vdots \\
  a_{i1} & a_{i2} & \ldots & a_{in}  \\
  \vdots & \vdots & \vdots & \vdots \\
  a_{m1} & a_{m2} & \ldots & a_{mn}
\end{pmatrix}, B =
\begin{pmatrix}
  b_{11} & b_{12} & \ldots & b_{1n} \\
  b_{21} & b_{22} & \ldots & b_{2n} \\
  \vdots & \vdots & \vdots & \vdots \\
  b_{i1} & b_{i2} & \ldots & b_{in}  \\
  \vdots & \vdots & \vdots & \vdots \\
  b_{m1} & b_{m2} & \ldots & b_{mn}
\end{pmatrix}, \ni A,B \in M_{m,n}(\mathbb{K})

A+B = 
\begin{pmatrix}
  a_{11}+b_{11} & a_{12}+b_{12} & \ldots & a_{1n}+b_{1n} \\
  a_{21}+b_{21} & a_{22}+b_{22} & \ldots & a_{2n}+b_{2n}\\
  \vdots & \vdots & \vdots & \vdots \\
  a_{i1}+b_{i1} & a_{i2}+b_{i2} & \ldots & a_{in}+b_{in}  \\
  \vdots & \vdots & \vdots & \vdots \\
  a_{m1}+b_{m1} & a_{m2}+b_{m2} & \ldots & a_{mn}+b_{mn}
\end{pmatrix}, \ni [A+B]\in M_{m,n}(\mathbb{K})

Definición:

Considere \mathrm{A} un matriz de m \times n con entrada (\mathrm{a_{ij}}) y sea \alpha \in \mathbb{K} se define la matriz \alpha \cdot A como:

\alpha \cdot A =
\begin{pmatrix}
  \alpha \cdot a_{11} & \alpha \cdot a_{12} & \ldots & \alpha \cdot a_{1n} \\
  \alpha \cdot a_{21} & \alpha \cdot a_{22} & \ldots & \alpha \cdot a_{2n} \\
  \vdots & \vdots & \vdots & \vdots \\
  \alpha \cdot a_{i1} & \alpha \cdot a_{i2} & \ldots & \alpha \cdot a_{in}  \\
  \vdots & \vdots & \vdots & \vdots \\
  \alpha \cdot a_{m1} & \alpha \cdot a_{m2} & \ldots & \alpha \cdot a_{mn}
\end{pmatrix}, \ni [\alpha \cdot A] \in M_{m,n}(\mathbb{K})

Observación:

En las dos definiciones anteriores la cerradura se debe a que son elmentos de un cuerpo,el cual, posee esta propiedad.

Sin mucha dificultad se puede demostrar que el conjunto M_{m,n}(\mathbb{K}) es un espacio vectorial sobre el cuerpo referido(\mathbb{K}).

Definición:

Sea \mathrm{A} una matriz m\times n con entrada (\mathrm{a_{ij}}) y \mathrm{B} una matriz de n\times q con entrada (\mathrm{b_{ij}}) se define A \bullet B que es la multiplicación de \mathrm{A} por \mathrm{B} como sigue:

A \bullet B =
\begin{pmatrix}
  \sum_{j=i}^{n}a_{1j}b_{j1} & \sum_{j=1}^{n}a_{1j}b_{j2} & \ldots & \sum_{j=1}^{n}a_{1j}b_{jq} \\

  \sum_{j=1}^{n}a_{2j}b_{j1} & \sum_{j=1}^{n}a_{2j}b_{j2} & \ldots & \sum_{j=1}^{n}a_{2j}b_{jq}\\

  \vdots & \vdots & \vdots & \vdots \\

  \sum_{j=1}^{n}a_{ij}b_{j1} & \sum_{j=1}^{n}a_{ij}b_{j2} & \ldots & \sum_{j=1}^{n}a_{ij}b_{jq} \\

  \vdots & \vdots & \vdots & \vdots \\

  \sum_{j=1}^{n}a_{mj}b_{j1} & \sum_{j=1}^{n}a_{mj}b_{j2} & \ldots & \sum_{j=1}^{n}a_{mj}b_{jq}
\end{pmatrix}

generando una matriz C = A \bullet B m\times q con entrada (c_{ik})=(\sum_{j=1}^{n}a_{ij}b{jk}).

Observación:

Es importante que las filas conincidan con las columnas o viceversa en la multiplicación de matrices ya que si no fuese así no se puede definir ninguna multiplicación entre estas.


Propiedades inmediatas:

Sea \mathrm{A} matriz m\times n con entrada (\mathrm{a_{ij}}), \mathrm{B}un matriz n\times q con entrada (\mathrm{b_{jk}}) y \alpha_{l}\in\mathbb{K}, entonces se cumple:

1.(\sum_{l=1}^{r}\alpha_{l})\cdot(A\bullet B)=(\sum_{l=1}^{r}\alpha_{l}\cdot A)\bullet B=A\bullet (\sum_{l=1}^{r}\alpha_{l}\cdot B)=(A\bullet B) \cdot \sum_{l=1}^{r}\alpha_{l}.

2.\prod_{l=1}^{s}\alpha_{l}\cdot(A\bullet B)=(\prod_{l=1}^{s}\alpha_{l}\cdot A)\bullet B=A\bullet (B\cdot \prod_{l=1}^{s}\alpha_{l})=(A\bullet B)\cdot \prod_{l=1}^{s}\alpha_{l}


Definición. Sea \mathrm{A} un matriz m\times n con entrada(\mathrm{a_{ij}}) la traspuesta de \mathrm{A} es una matriz que "invierte" las m-columnas por las n-filas,así que podemos esperar una matiz de n\times m la cual se representa como \mathrm{A}^{T}y tiene por entrada (a_{ji}).

Ejemplo:

A =
\begin{pmatrix}
  b_{11} & b_{12} & \ldots & b_{1n} \\
  b_{21} & b_{22} & \ldots & b_{2n} \\
  \vdots & \vdots & \vdots & \vdots \\
  b_{i1} & b_{i2} & \ldots & b_{in}  \\
  \vdots & \vdots & \vdots & \vdots \\
  b_{m1} & b_{m2} & \ldots & b_{mn}
\end{pmatrix}, A^{T}= 
\begin{pmatrix}
  b_{11} & b_{12} & \ldots & b_{1m} \\
  b_{21} & b_{22} & \ldots & b_{2m} \\
  \vdots & \vdots & \vdots & \vdots \\
  b_{j1} & b_{i2} & \ldots & b_{jm}  \\
  \vdots & \vdots & \vdots & \vdots \\
  b_{n1} & b_{n2} & \ldots & b_{nm}
\end{pmatrix}


Propiedades:

1.\forall A \in M_{m,n}(\mathbb{K}), (\mathbf{A^{T})^{T} = A}

2.(\mathbf{\sum_{i=1}^{l}A_{i})^{T} = \sum_{i=1}^{l}A_{i}^{T}}

3.\forall \mathbf{\alpha_{j}} \in \mathbb{K} y \forall \mathbf{A_{i}} \in M_{m,n}(\mathbb{K}),se satisface:

\mathbf{\prod_{v=1}^{s}\alpha_{v} \cdot (\sum_{i=1}^{p}A_{i})^{T}= (\prod_{v=1}^{s}\alpha_{v} \cdot \sum_{i=1}^{p}A_{i})^{T}=\sum_{i=1}^{p}A_{i}^{T} \cdot \prod_{v=1}^{s}\alpha_{v}}

4.\forall \mathbf{A_{i}}, \mathbf{B_{i}} \in M_{m,n}(\mathbb{K}) se cumple:

\mathbf{(\sum_{i=1}^{s}A_{i} + B_{i})^{T}=\sum_{i=1}^{n}(B_{i})^{T} + \sum_{i=1}^{n}(A_{i})^{T}}


Teorema[editar]

Todo sistema de m-ecuaciones lineales con n-ingócnitas (m\times n)con coeficintes en un cuerpo (\mathbb{K}) se puede escribir en forma matricial.

Demostración:

Básicamente lo que nesecitamos recordar es cómo se representa a tal sistema, por ejmplo se tiene:

\begin{matrix}

a_{11}x_{1} + a_{12}x_{2} + a_{13}x_{3} + \cdots + a_{1n}x_{n} = b_{1} \\

a_{21}x_{1} + a_{22}x_{2} + a_{23}x_{3} + \cdots + a_{2n}x_{n} = b_{2} \\

\vdots  \\

a_{i1}x_{1} + a_{i2}x_{2} + a_{i3}x_{3} + \cdots + a_{in}x_{n} = b_{i}\\

\vdots   \\

a_{m1}x_{1} + a_{m2}x_{2} + a_{m3}x_{3} + \cdots + a_{mn}x_{n} = b_{m}

\end{matrix}

Observemos cuidadosamente que los coeficientes a_{ij} \forall i,j \in {1,2,...,n} correspnden a la entrada (a_{ij}) de una cierta matriz de m\times n.Sea está:

A = 
\begin{pmatrix}
  a_{11} & a_{12} & \ldots & a_{1n} \\
  a_{21} & a_{22} & \ldots & a_{2n}\\
  \vdots & \vdots & \vdots & \vdots \\
  a_{i1} & a_{i2} & \ldots & a_{in}  \\
  \vdots & \vdots & \vdots & \vdots \\
  a_{m1} & a_{m2} & \ldots & a_{mn}
\end{pmatrix}, \forall A \in M_{m,n}(\mathbb{K})

Notemos que la primera ecuación es de la forma y posee la característica de la primera entrada de la multiplicación de A con una matriz X 1\times n con entrada (\mathrm{x_{j}})\forall j \in {1,2,...,n} entonces:

A\bullet X = 
\begin{pmatrix}
  a_{11} & a_{12} & \ldots & a_{1n} \\
  a_{21} & a_{22} & \ldots & a_{2n}\\
  \vdots & \vdots & \vdots & \vdots \\
  a_{i1} & a_{i2} & \ldots & a_{in}  \\
  \vdots & \vdots & \vdots & \vdots \\
  a_{m1} & a_{m2} & \ldots & a_{mn}
\end{pmatrix} \bullet
\begin{pmatrix}
  x_{1} \\
  x_{2}  \\
  x_{3}  \\
  \vdots \\
  x_{n}  \\
\end{pmatrix}

Que esto evidentemente tiene que ser igual a una matriz m\times 1 ,sea esta matriz B con entrada (b_{ij}), por tanto, se puede términar la representación matricial del sistema lineal de la siguiente forma:

A\bullet X = 
\begin{pmatrix}
  a_{11} & a_{12} & \ldots & a_{1n} \\
  a_{21} & a_{22} & \ldots & a_{2n}\\
  \vdots & \vdots & \vdots & \vdots \\
  a_{i1} & a_{i2} & \ldots & a_{in}  \\
  \vdots & \vdots & \vdots & \vdots \\
  a_{m1} & a_{m2} & \ldots & a_{mn}
\end{pmatrix} 
\begin{pmatrix}
  x_{1} \\
  x_{2}  \\
  x_{3}  \\
  \vdots \\
  x_{n}  \\
\end{pmatrix}=
\begin{pmatrix}
  b_{1} \\
  b_{2}  \\
  b_{3}  \\
  \vdots \\
  b_{m}  \\
\end{pmatrix}=B