3 Sistemas de ecuaciones lineales

Definición 3.1 (Sistema de ecuaciones lineales).

Sea 𝕂\displaystyle\mathbb{K} un cuerpo. Un sistema lineal de m\displaystyle m ecuaciones con n\displaystyle n incognitas es una expresion del tipo

{a11x1++a1nxn=b1a21x1++a2nxn=b2am1x1++amnxn=bm\displaystyle\begin{cases}a_{11}x_{1}+\cdots+a_{1n}x_{n}=b_{1}\\ a_{21}x_{1}+\cdots+a_{2n}x_{n}=b_{2}\\ \vdots\\ a_{m1}x_{1}+\cdots+a_{mn}x_{n}=b_{m}\end{cases}

donde todos los aij,bi𝕂\displaystyle a_{ij},b_{i}\in\mathbb{K}, i=1,,n,j=1,,m\displaystyle i=1,\ldots,n,j=1,\ldots,m.

  •  

    los elementos aij\displaystyle a_{ij} se llaman coeficientes del sistema.

  •  

    los x1,,xn\displaystyle x_{1},\ldots,x_{n} se llaman incognitas

  •  

    los b1,,bm\displaystyle b_{1},\ldots,b_{m} son los terminos independientes

  •  

    cada una de las expresiones

    ai1x1++ainxn=bi\displaystyle a_{i1}x_{1}+\cdots+a_{in}x_{n}=b_{i}

    se llama ecuacion del sistema.

Los datos anteriores se pueden organizar utilizando matrices:

  •  

    La matriz de tamaño m×n\displaystyle m\times n formada por los coeficientes se llama la matriz del sistema:

    A=(a11a1nam1amn)𝔐m×n(𝕂)\displaystyle A=\begin{pmatrix}a_{11}&&a_{1n}\\ &\ddots&\\ a_{m1}&&a_{mn}\\ \end{pmatrix}\in\mathfrak{M}_{m\times n}(\mathbb{K})
  •  

    La matriz columna formada por los terminos independientes se llama matriz de terminos independientes:

    𝐛=(b1bm)𝔐m×1(𝕂)\displaystyle\mathbf{b}=\begin{pmatrix}b_{1}\\ \vdots\\ b_{m}\\ \end{pmatrix}\in\mathfrak{{M}}_{m\times 1}(\mathbb{K})
  •  

    La matriz columna formada por las incognitas se llama matriz de incognitas:

    𝐱=(x1xn)\displaystyle\mathbf{x}=\begin{pmatrix}x_{1}\\ \vdots\\ x_{n}\\ \end{pmatrix}
  •  

    La matriz de tamaño m×(n+1)\displaystyle m\times(n+1) formada por la matriz de coeficientes y una columna extra que contiene los terminos independientes se llama matriz ampliada:

    (A𝐛)=(a11a1nb1am1amnbm)𝔐m×(n+1)(𝕂)\displaystyle(A\mid\mathbf{b})=\left(\begin{array}[]{ccc|c}a_{11}&&a_{1n}&b_{1% }\\ &\ddots&&\vdots\\ a_{m1}&&a_{mn}&b_{m}\end{array}\right)\in\mathfrak{{M}}_{m\times(n+1)}(\mathbb% {K})

Utilizando el producto de matrices, se puede comprobar que el sistema se puede reescribir de un modo mas compacto como

A𝐱=𝐛\displaystyle A\cdot\mathbf{x}=\mathbf{b}
Definición 3.2 (Soluciones de un sistema de ecuaciones lineales).

Decimos que el vector columna

c=(x1xn)\displaystyle c=\begin{pmatrix}x_{1}\\ \vdots\\ x_{n}\\ \end{pmatrix}

es una solucion del sistema Ax=b\displaystyle A\cdot x=b si se cumple A𝐜=𝐛\displaystyle A\cdot\mathbf{c}=\mathbf{b}

Es decir, una solucion del sistema son valores c1,,cn𝕂\displaystyle c_{1},\ldots,c_{n}\in\mathbb{K} que al sustituir x1\displaystyle x_{1} por c1\displaystyle c_{1}, etc. en la expresion hacen que las ecuaciones se conviertan en igualdades en K.

Según su numero de soluciones, los sistemas se clasifican en:

  •  

    Sistemas incompatibles: no tienen ninguna solución.

  •  

    Sistemas compatibles: tienen soluciones

    • Si solo admiten una solución, se llaman sistemas compatibles determinados.

    • En caso contrario, se llaman sistemas compatibles indeterminados.

Un sistema es homogeneo si todos sus terminos independientes son 0. Estos sistemas siempre son sistemas compatibles porque admiten como solucion al vector

0=(00)\displaystyle 0=\begin{pmatrix}0\\ \vdots\\ 0\\ \end{pmatrix}
Definición 3.3.

Se dice que dos sistemas Ax=b\displaystyle A\cdot x=b y Bx=c\displaystyle B\cdot x=c son equivalentes si tienen exactamente las mismas soluciones.

Proposición 3.1.

Si en un sistema de ecuaciones lineales

  1. 1.

    se intercambian dos ecuaciones,

  2. 2.

    se multiplica una ecuacion por un escalar no nulo, o

  3. 3.

    se suma a una ecuacion otra multiplicada por un escalar,

el sistema resultante es equivalente al original.

Demostración.
  1. 1.

    Trivial.

  2. 2.

    Supongamos que multiplicamos por α𝕂0\displaystyle\alpha\in\mathbb{K}\neq 0 la i-esima ecuacion del sistema

    ai1x1++ainxn=b1\displaystyle a_{i1}x_{1}+\cdots+a_{in}x_{n}=b_{1}

    y que las demas ecuaciones las dejamos igual. Veamos que c=(c1c2cn)\displaystyle c=(c_{1}\,c_{2}\,\cdots\,c_{n}) es solucion del primer sistema si y solo si es solucion del segundo: como hay una ecuacion diferente, basta comprobar que c\displaystyle c cumple la ecuacion

    ai1x1++ainxn=bi\displaystyle a_{i1}x_{1}+\dots+a_{in}x_{n}=b_{i}

    si y solo si cumple la ecuacion

    αai1x1++αainxn=bi\displaystyle\alpha a_{i1}x_{1}+\dots+\alpha a_{in}x_{n}=b_{i}

    )\displaystyle\Rightarrow) Por cumplir el primer sistema, sabemos

    ai1c1++aincn=bi\displaystyle a_{i1}c_{1}+\cdots+a_{in}c_{n}=b_{i}

    y, multiplicando por α\displaystyle\alpha en ambos lados de la igualdad, tenemos que

    αai1c1++αaincn=αbi\displaystyle\alpha a_{i1}c_{1}+\cdots+\alpha a_{in}c_{n}=\alpha b_{i}

    Luego cumple la ecuacion i\displaystyle i del segundo sistema. Esto implica que (c1cn)\displaystyle(c_{1}\,\cdots\,c_{n}) es solucion del segundo sistema.

    )\displaystyle\Leftarrow) Una solucion que cumple las ecuaciones del segundo sistema es (c1cn)\displaystyle(c_{1}\,\cdots\,c_{n}). Por cumplir el segundo sistema, sabemos que

    αai1x1++αainxn=bi\displaystyle\alpha a_{i1}x_{1}+\cdots+\alpha a_{in}x_{n}=b_{i}

    y multiplicando por 1α\displaystyle\frac{1}{\alpha} llegamos a

    ai1x1++ainxn=bi\displaystyle a_{i1}x_{1}+\cdots+a_{in}x_{n}=b_{i}

    que es la ecuacion i-esima del primer sistema. Por tanto, (c1cn)\displaystyle(c_{1}\,\cdots\,c_{n}) tambien es solucion del primer sistema.

  3. 3.

    Supongamos que la i-esima y la j-esima ecuaciones del sistema original son

    {ai1x1++ainxn=biaj1x1++ajnxn=bj\displaystyle\begin{dcases}a_{i1}x_{1}+\cdots+a_{in}x_{n}=b_{i}\\ a_{j1}x_{1}+\cdots+a_{jn}x_{n}=b_{j}\end{dcases}

    y sustituimos la ecuacion j-esima por la suma de la j-esima mas la i-esima multiplicada por un escalar λ𝕂\displaystyle\lambda\in\mathbb{K}:

    {ai1x1++ainxn=bi(aj1+λai1)x1++(ajn+λain)xn=bj+λbi\displaystyle\begin{dcases}a_{i1}x_{1}+\cdots+a_{in}x_{n}=b_{i}\\ (a_{j1}+\lambda a_{i1})x_{1}+\cdots+(a_{jn}+\lambda a_{in})x_{n}=b_{j}+\lambda b% _{i}\end{dcases}

    )\displaystyle\Rightarrow) Supongamos que (c1cn)\displaystyle(c_{1}\,\cdots\,c_{n}) es solucion del primer sistema. En particular, en la i-esima ecuacion

    ai1c1++aincn=bi\displaystyle a_{i1}c_{1}+\cdots+a_{in}c_{n}=b_{i}

    y en la j-esima

    aj1x1++ajnxn=bi\displaystyle a_{j1}x_{1}+\cdots+a_{jn}x_{n}=b_{i}

    Multiplicando la i-esima ecuacion por λ𝕂\displaystyle\lambda\in\mathbb{K} queda:

    λai1c1++λaincn=λbi\displaystyle\lambda a_{i1}c_{1}+\cdots+\lambda a_{in}c_{n}=\lambda b_{i}

    que lo sumamos a la j-esima ecuacion

    (aj1+λai1)c1++(ajn+λain)cn=bj+λbi\displaystyle(a_{j1}+\lambda a_{i1})c_{1}+\cdots+(a_{jn}+\lambda a_{in})c_{n}=% b_{j}+\lambda b_{i}

    Llegamos a que se cumple la ecuacion j del segundo sistema y, por tanto, se cumplen todas las ecuaciones. c1cn\displaystyle c_{1}\,\cdots\,c_{n} es solucion del segundo sistema.

    )\displaystyle\Leftarrow) Supongamos que (c1cn)\displaystyle(c_{1}\,\cdots\,c_{n}) es una solucion del segundo sistema, cuya i-esima ecuacion es:

    ai1c1++aincn=bi\displaystyle a_{i1}c_{1}+\cdots+a_{in}c_{n}=b_{i}

    y su j-esima:

    (aj1+λai1)c1++(ajn+λain)cn=bj+λbi\displaystyle(a_{j1}+\lambda a_{i1})c_{1}+\cdots+(a_{jn}+\lambda a_{in})c_{n}=% b_{j}+\lambda b_{i}

    Multiplicando en ambos lados de la i-esima ecuacion por λ\displaystyle-\lambda tenemos

    λai1c1++λaincn=λbi\displaystyle-\lambda a_{i1}c_{1}+\cdots+-\lambda a_{in}c_{n}=-\lambda b_{i}

    Sumando a la j-esima ecuacion la anterior:

    aj1x1++ajnxn=bi\displaystyle a_{j1}x_{1}+\cdots+a_{jn}x_{n}=b_{i}

    Por tanto, (c1cn)\displaystyle(c_{1}\,\cdots\,c_{n}) cumple todas las ecuaciones del primer sistema y, por tanto, es solucion de ambos.

    Los sistemas son equivalentes.

Definición 3.4 (Matrices equivalentes por filas).

Dos matrices son equivalentes por filas si una se puede obtener a partir de la otra multiplicando por delante por una cantidad finita matrices elementales. Como las matrices elementales son todas invertibles, B\displaystyle B es equivalente por filas a A\displaystyle A si y solo si A\displaystyle A es equivalente por filas a B\displaystyle B. Tienen una relacion de equivalencia ya que cumplen las propiedades reflexiva, transitiva y simetrica.

Definición 3.5 (Matriz escalonada).

Una matriz A\displaystyle A esta en forma escalonada si cada fila no nula de A\displaystyle A comienza con mas ceros que la fila anterior y sus filas nulas, si las tiene, estan en la parte inferior de la matriz. Al primer elemento no nulo de cada fila no nula se le llama pivote de esa fila.

Definición 3.6 (Matriz escalonada reducida).

Una matriz A\displaystyle A esta en forma escalonada reducida si, ademas de ser escalonada, el pivote de cada fila no nula es 1 y los elementos superiores al pivote en su misma columna son cero.

Cuando la matriz de coeficientes de un sistema Ax=b\displaystyle Ax=b esta en forma escalonada, la discusion y resolucion del sistema es casi directa. Los diferentes casos son:

  1. 1.

    La ultima fila no nula de la matriz ampliada es de la forma

    (00λ)\displaystyle\left(\begin{array}[]{ccc|c}0&\cdots&0&\lambda\\ \end{array}\right)

    con λ0𝕂\displaystyle\lambda\neq 0\in\mathbb{K}. En este caso, el sistema es incompatible.

  2. 2.

    La ultima fila no nula de la matriz ampliada es de la forma

    (0λα)\displaystyle\left(\begin{array}[]{ccc|c}0&\cdots&\lambda&\alpha\\ \end{array}\right)

    con λ0\displaystyle\lambda\neq 0. En este caso el sistema es compatible. Para resolverlo, se despejan “de abajo a arriba” las incógnitas que corresponden a los pivotes de cada fila no nula. Las incógnitas que no correspondan a pivotes de ninguna fila serán parámetros libres en la solución del sistema. Para decidir si es determinado o indeterminado, nos fijamos en el numero de pivotes y comparamos con el numero de incognitas.

    1. a)

      Si hay tantas incognitas como pivotes, el sistema es compatible determinado.

    2. b)

      Si hay mas incognitas que pivotes (hay filas no nulas) el sistema es compatible indeterminado, y va a depender exactamente del numero de incognitas que no corresponden a pivotes.

Proposición 3.2 (Método de Gauss).

Sea A𝐱=𝐛\displaystyle A\mathbf{x}=\mathbf{b} un sistema de ecuaciones lineales. El metodo de Gauss transforma el sistema original en un sistema equivalente cuya matriz del sistema está en forma escalonada:

  1. 1.

    Conseguir que en la primera fila el pivote esté lo mas a la izquierda posible.

  2. 2.

    Hacer ceros debajo del pivote: se suma a cada una de las filas la primera multiplicada por el escalar adecuado.

  3. 3.

    Repetir todos los pasos para las siguientes filas y columnas.

Proposición 3.3 (Método de Gauss-Jordan).

Sea Ax=b\displaystyle Ax=b un sistema de ecuaciones lineales. El método de Gauss-Jordan transforma el sistema original en un sistema equivalente cuya matriz del sistema está en formada escalonada reducida:

  1. 1.

    Aplicar el metodo de Gauss, obteniendo la matriz de coeficientes en forma escalonada.

  2. 2.

    Hacer que todos los pivotes sean iguales a 1\displaystyle 1 multiplicando cada fila por un escalar.

  3. 3.

    De abajo a arriba hacer ceros encima de cada pivote: se suma a cada una de las filas encima del pivote la última fila multiplicada por el escalar adecuado.

Calculo de la inversa de una matriz A:

Si A\displaystyle A tiene inversa y AC=I\displaystyle A\cdot C=I entonces C=A1=(C1C2Cn)\displaystyle C=A^{-1}=\left(\begin{array}[]{c|c|c|c}C^{1}&C^{2}&\cdots&C^{n}% \\ \end{array}\right), donde C1\displaystyle C^{1}, ,Cn\displaystyle\ldots,C^{n} son las columnas de A1\displaystyle A^{-1}. Por tanto, buscamos una matriz C\displaystyle C tal que AC=I\displaystyle AC=I.

AC1=(10),C1 solucion de A𝐱1=(10)\displaystyle AC^{1}=\begin{pmatrix}1\\ \vdots\\ 0\\ \end{pmatrix},C^{1}\text{ solucion de }A\mathbf{x}_{1}=\begin{pmatrix}1\\ \vdots\\ 0\\ \end{pmatrix}

\displaystyle\vdots

ACn=(01),Cn solucion de A𝐱n=(01)\displaystyle AC^{n}=\begin{pmatrix}0\\ \vdots\\ 1\\ \end{pmatrix},C^{n}\text{ solucion de }A\mathbf{x}_{n}=\begin{pmatrix}0\\ \vdots\\ 1\\ \end{pmatrix}

Creamos una matriz ampliada con n\displaystyle n columnas nuevas, resolviendo todos los sistemas a la vez:

(A|1001)=(A|In)\displaystyle\left(A\left|\begin{matrix}1&\cdots&0\\ \vdots&\ddots&\vdots\\ 0&\cdots&1\\ \end{matrix}\right.\right)=\left(A\left|I_{n}\right.\right)

Hay dos casos:

  •  

    Sistema incompatible: si en alguno de los pasos del método de Gauss sobre la matriz se obtiene una fila de la forma

    (00|x0)No existe A1\displaystyle\begin{pmatrix}0&\cdots&0&|\cdots&x\neq 0&\cdots\\ \end{pmatrix}\Rightarrow\text{No existe }A^{-1}
  •  

    En caso contrario, la matriz escalonada reducida asociada a A\displaystyle A es In\displaystyle I_{n} y el método de Gauss-Jordan aplicado a (A|In)\displaystyle(A|I_{n}) nos proporciona una matriz de la forma (In|C)\displaystyle(I_{n}|C), con C\displaystyle C la inversa de A\displaystyle A.

(A|In)Gauss-Jordan(In|A1)\displaystyle(A|I_{n})\sim_{\text{Gauss-Jordan}}(I_{n}|A^{-1})
Proposición 3.4.

Una matriz A\displaystyle A es invertible si y solo si A\displaystyle A es producto de matrices elementales.

Demostración.

)\displaystyle\Rightarrow) Si A\displaystyle A es invertible, el metodo de Gauss-Jordan sobre (AI)\displaystyle(A\mid I) nos devuelve (IA1)\displaystyle(I\mid A^{-1}). Cada paso del metodo de Gauss-Jordan es una operacion elemental que implica multiplicar A\displaystyle A por una matriz elemental:

ExE1matriceselementales(AI)=(IA1)\displaystyle\underbrace{E_{x}\cdots E_{1}}_{\begin{subarray}{c}matrices\\ elementales\end{subarray}}\cdot(A\mid I)=(I\mid A^{-1})

Como las matrices son invertibles:

EkE1A=IA=E11Ek1\displaystyle E_{k}\cdots E_{1}\cdot A=I\Rightarrow A=E^{-1}_{1}\cdots E^{-1}_% {k}

Asi, tenemos que A\displaystyle A es producto de matrices elementales (las inversas de matrices elementales son otras matrices elementales).

)\displaystyle\Leftarrow) Supongamos que A=E1E2Ek\displaystyle A=E_{1}\cdot E_{2}\cdots E_{k} para ciertas matrices elementales. Por tanto, A\displaystyle A es invertible y su inversa es A1=(E1Ek)1=En1E11\displaystyle A^{-1}=(E_{1}\cdots E_{k})^{-1}=E^{-1}_{n}\cdots E^{-1}_{1} (las matrices elementales son invertibles). ∎

Proposición 3.5.

Dos matrices A,B\displaystyle A,B son invertibles si y solo si su producto AB\displaystyle AB es invertible.

Demostración.

)\displaystyle\Rightarrow) Ya esta demostrado.

)\displaystyle\Leftarrow) Lo probaremos por reduccion al absurdo. Supongamos que A\displaystyle A no tiene inversa.

Como no es invertible, al usar Gauss-Jordan sobre (AI)\displaystyle(A\mid I) aparecera una fila de ceros que haga el sistema un sistema incompatible. Es decir, habran matrices elementales que cumplan E1,,Ek\displaystyle E_{1},\ldots,E_{k} tales que en el producto EkE1A\displaystyle E_{k}\cdots E_{1}\cdot A aparece una fila de ceros. Multiplicando por B a la derecha:

EkE1AB=(00)B=(00)\displaystyle E_{k}\cdots E_{1}\cdot A\cdot B=\begin{pmatrix}&\cdots&\\ 0&\cdots&0\\ &\cdots&\\ \end{pmatrix}\cdot B=\begin{pmatrix}&\cdots&\\ 0&\cdots&0\\ &\cdots&\\ \end{pmatrix}

Esto es una contradiccion con que AB\displaystyle A\cdot B es invertible. Por lo tanto, A\displaystyle A tiene que ser invertible.

Tenemos que AB\displaystyle AB es invertible y hemos visto que A\displaystyle A tambien lo es. Queda demostrar que B\displaystyle B es invertible.

Teniendo en cuenta que el producto de invertibles es invertible, llegamos a

(A1)(AB)=Bes invertible. \displaystyle(A^{-1})(A\cdot B)=B\Rightarrow\text{es invertible. }