Espacio vectorial

Este artículo está orientado a proporcionar un tratamiento riguroso y abstracto del concepto de espacio vectorial. Para una introducción más accesible al concepto, véase Vector
Representación artística de un espacio vectorial.

En álgebra abstracta, un espacio vectorial es una estructura algebraica creada a partir de un conjunto no vacío, una operación interna (llamada suma, definida para los elementos del conjunto) y una operación externa (llamada producto por un escalar, definida entre dicho conjunto y otro conjunto, con estructura de cuerpo ), con 8 propiedades fundamentales.

A los elementos de un espacio vectorial se les llama vectores y a los elementos del cuerpo, escalares.

Historia

Históricamente, las primeras ideas que condujeron a los espacios vectoriales modernos se remontan al siglo XVII: geometría analítica, matrices y sistemas de ecuaciones lineales.

Los espacios vectoriales se derivan de la geometría afín, a través de la introducción de coordenadas en el plano o el espacio tridimensional. Alrededor de 1636, los matemáticos franceses Descartes y Fermat fundaron las bases de la geometría analítica mediante la vinculación de las soluciones de una ecuación con dos variables a la determinación de una curva plana.[nota 1] Para lograr una solución geométrica sin usar coordenadas, Bernhard Bolzano introdujo en 1804 ciertas operaciones sobre puntos, líneas y planos, que son predecesores de los vectores.[nota 2] Este trabajo hizo uso del concepto de coordenadas baricéntricas de August Ferdinand Möbius de 1827.[nota 3]

La primera formulación moderna y axiomática se debe a Giuseppe Peano, a finales del siglo XIX. Los siguientes avances en la teoría de espacios vectoriales provienen del análisis funcional, principalmente de espacios de funciones. Los problemas de Análisis funcional requerían resolver problemas sobre la convergencia. Esto se hizo dotando a los espacios vectoriales de una adecuada topología, permitiendo tener en cuenta cuestiones de proximidad y continuidad. Estos espacios vectoriales topológicos, en particular los espacios de Banach y los espacios de Hilbert tienen una teoría más rica y elaborada.

El origen de la definición de los vectores es la definición de Giusto Bellavitis de bipoint, que es un segmento orientado, uno de cuyos extremos es el origen y el otro un objetivo. Los vectores se reconsideraron con la presentación de los números complejos de Argand y Hamilton y la creación de los cuaterniones por este último (Hamilton fue además el que inventó el nombre de vector).[nota 4] Son elementos de R2 y R4; el tratamiento mediante combinaciones lineales se remonta a Laguerre en 1867, quien también definió los sistemas de ecuaciones lineales.

En 1857, Cayley introdujo la notación matricial, que permite una armonización y simplificación de las aplicaciones lineales. Casi al mismo tiempo, Grassmann estudió el cálculo baricéntrico iniciado por Möbius. Previó conjuntos de objetos abstractos dotados de operaciones.[nota 5] En su trabajo, los conceptos de independencia lineal y dimensión, así como de producto escalar están presentes. En realidad el trabajo de Grassmann de 1844 supera el marco de los espacios vectoriales, ya que teniendo en cuenta la multiplicación, también, lo llevó a lo que hoy en día se llaman álgebras. El matemático italiano Peano dio la primera definición moderna de espacios vectoriales y aplicaciones lineales en 1888.[nota 6]

Un desarrollo importante de los espacios vectoriales se debe a la construcción de los espacios de funciones por Henri Lebesgue. Esto más tarde fue formalizado por Banach en su tesis doctoral de 1920[nota 7] y por Hilbert. En este momento, el álgebra y el nuevo campo del análisis funcional empezaron a interactuar, en particular con conceptos clave tales como los espacios de funciones p-integrables y los espacios de Hilbert. También en este tiempo, los primeros estudios sobre espacios vectoriales de infinitas dimensiones se realizaron.

Los espacios vectoriales tienen aplicaciones en otras ramas de la matemática, la ciencia y la ingeniería. Se utilizan en métodos como las series de Fourier, que se utiliza en las rutinas modernas de compresión de imágenes y sonido, o proporcionan el marco para resolver ecuaciones en derivadas parciales. Además, los espacios vectoriales proporcionan una forma abstracta libre de coordenadas de tratar con objetos geométricos y físicos, tales como tensores, que a su vez permiten estudiar las propiedades locales de variedades mediante técnicas de linealización.

Notación

Dado un espacio vectorial  V \; sobre un cuerpo  K \;, se distinguen.

Los elementos de  V \; como:


   \mathbf{u}, \mathbf{v}, \mathbf{w}, \dots \; \in V
se llaman vectores.
Caligrafías de otras obras

   \bar{u}, \bar{v}, \bar{w}, \dots \; \in V
Si el texto es de física suelen representarse bajo una flecha:

   \vec{u}, \vec{v}, \vec{w}, \dots \; \in V

Los elementos de  K \; como:


   \mathit{a}, \mathit{b}, \mathit{c}, \dots \; \in K
se llaman escalares.

Definición de espacio vectorial

Un espacio vectorial sobre un cuerpo  K \; (como el cuerpo de los números reales o los números complejos) es un conjunto  V \; no vacío, dotado de dos operaciones para las cuales será cerrado:

 \begin{matrix}
      \mbox{Suma} & +: & {V \times{} V} & \longrightarrow{} & {V} \\
           &    & {(\mathbf{u},\mathbf{v})} & \mapsto           & {\mathbf{u}+\mathbf{v}}
   \end{matrix}

operación interna tal que:

1) tenga la propiedad conmutativa, es decir

 \mathbf{u} + \mathbf{v} = \mathbf{v} + \mathbf{u}, \qquad
\forall \mathbf{u}, \mathbf{v} \in V

2) tenga la propiedad asociativa, es decir

\mathbf{u} + (\mathbf{v} + \mathbf{w}) = (\mathbf{u} + \mathbf{v}) + \mathbf{w}, \qquad \forall \mathbf{u}, \mathbf{v}, \mathbf{w} \in V

3) tenga elemento neutro  \mathbf{0} , es decir

   \exists{}\mathbf{0} \in{} V : 
   \mathbf{u} + \mathbf{0} = \mathbf{u} , 
   \forall{} \mathbf{u} \in{} V
4) tenga elemento opuesto, es decir

   \forall{} \mathbf{u} \in{} V , \quad
   \exists{} \mathbf{-u} \in{} V : 
    \mathbf{u} + (\mathbf{-u}) = \mathbf{0}

y la operación producto por un escalar:


   \begin{matrix}
      \mbox{Producto} & \cdot{}: & {K \times{} V}            & \longrightarrow{} & {V} \\
               &          & {(\mathit{a},\mathbf{u})} & \mapsto           & {\mathit{a} \cdot \mathbf{u}}
   \end{matrix}

operación externa tal que:

5) tenga la propiedad asociativa:

   \mathit{a} \cdot (\mathit{b} \cdot \mathbf{u})=(\mathit{a} \cdot \mathit{b}) \cdot \mathbf{u} , 
   \forall{} \mathit{a} ,\mathit{b} \in{}K , 
   \forall{} \mathbf{u} \in{} V
6)  \mathit{1} \in{} K sea elemento neutro del producto:

   \mathit{1} \cdot \mathbf{u} = \mathbf{u} , 
   \forall{} \mathbf{u} \in{} V
7) tenga la propiedad distributiva del producto respecto la suma de vectores:

   \mathit{a} \cdot (\mathbf{u}+ \mathbf{v}) =
   \mathit{a} \cdot \mathbf{u}+ \mathit{a} \cdot \mathbf{v} , 
   \forall{} \mathit{a}\in{}K , 
   \forall{} \mathbf{u}, \mathbf{v} \in{} V
8) tenga la propiedad distributiva del producto respecto la suma de escalares:

   (\mathit{a} + \mathit{b}) \cdot \mathbf{u} =
   \mathit{a} \cdot \mathbf{u} + \mathit{b} \cdot \mathbf{u} , 
   \forall{} \mathit{a}, \mathit{b} \in{} K , 
   \forall{} \mathbf{u} \in{} V


Observaciones

La denominación de las dos operaciones no condiciona la definición de espacio vectorial por lo que es habitual encontrar traducciones de obras en las que se utiliza multiplicación para el producto y adición para la suma, usando las distinciones propias de la aritmética.

Para demostrar que un conjunto V_{}^{} es un espacio vectorial:


    \mathit{a} \mathbf{v} \neq
    \mathbf{v} \mathit{a}
.

Propiedades

Unicidad del vector neutro de la propiedad 3
supongamos que el neutro no es único, es decir, sean  \mathbf{0_1} y  \mathbf{0_2} dos vectores neutros, entonces:

   \left .
      \begin{array}{l}
         \mathbf{u} + \mathbf{0_1} = \mathbf{u} \\
         \mathbf{u} + \mathbf{0_2} = \mathbf{u}
      \end{array}
   \right \}
   \Rightarrow 
   \mathbf{u} + \mathbf{0_1} = \mathbf{u} + \mathbf{0_2}
   \Rightarrow 
   \mathbf{0_1} = \mathbf{0_2}
   \Rightarrow  
   \exists ! \; \mathbf{0} \in V
Unicidad del vector opuesto de la propiedad 4
supongamos que el opuesto no es único, es decir, sean  \mathbf{-u_1} y  \mathbf{-u_2} dos vectores opuestos de  \mathbf{u}, entonces, como el neutro es único:

   \left .
      \begin{array}{l}
         \mathbf{u} - \mathbf{u_1} = \mathbf{0} \\
         \mathbf{u} - \mathbf{u_2} = \mathbf{0}
      \end{array}
   \right \}
   \Rightarrow 
   \mathbf{u} - \mathbf{u_1} = \mathbf{u} - \mathbf{u_2}
   \Rightarrow 
   - \mathbf{u_1} = - \mathbf{u_2}
   \Rightarrow 
   \exists ! - \mathbf{u} \in V
Unicidad del elemento  1_{}^{} en el cuerpo  K_{}^{}
supongamos que 1 no es único, es decir, sean  \mathit{1_1} \; y  \mathit{1_2} \; dos unidades, entonces:

   \left .
      \begin{array}{l}
          \mathit{a} \cdot \mathit{1_1} = \mathit{a} \\
          \mathit{a} \cdot \mathit{1_2} = \mathit{a}
      \end{array}
   \right \}
   \Rightarrow 
   \mathit{a} \cdot \mathit{1_1} = \mathit{a} \cdot \mathit{1_2}
   \Rightarrow 
   \mathit{1_1} = \mathit{1_2}
   \Rightarrow 
   \exists ! \; \mathit{1} \in K
Unicidad del elemento inverso en el cuerpo K_{}^{}
supongamos que el inverso a_{}^{-1} de a, no es único, es decir, sean a_1^{-1} y a_2^{-1} dos opuestos de a_{}^{}, entonces, como el neutro es único:

   \left .
      \begin{array}{l}
         \mathit{a} \cdot \mathit{a_1^{-1}} = \mathit{1} \\
         \mathit{a} \cdot \mathit{a_2^{-1}} = \mathit{1}
      \end{array}
   \right \}
   \Rightarrow 
   \mathit{a} \cdot \mathit{a_1^{-1}} = \mathit{a} \cdot \mathit{a_2^{-1}}
   \Rightarrow 
   \mathit{a_1^{-1}} = \mathit{a_2^{-1}}
   \Rightarrow 
   \exists ! \mathit{a^{-1}} \in K
Producto de un escalar por el vector neutro

   \mathit{a} \cdot \mathbf{u} = 
   \mathit{a} \cdot (\mathbf{u} + \mathbf{0})= 
   \mathit{a} \cdot \mathbf{u} + \mathit{a} \cdot \mathbf{0}
   \Rightarrow 
   \mathit{a} \cdot \mathbf{0} = \mathbf{0}
Producto del escalar 0 por un vector

   \mathbf{u} = 
   \mathit{1} \cdot \mathbf{u} = 
   (\mathit{1} + \mathit{0}) \cdot \mathbf{u} = 
   \mathit{1} \cdot \mathbf{u} + \mathit{0} \cdot \mathbf{u} = 
   \mathbf{u} + \mathit{0} \cdot \mathbf{u}
   \Rightarrow 
   \mathit{0} \cdot \mathbf{u} =  \mathbf{0}

Si 
   \mathit{a} \cdot \mathbf{u} =
   \mathbf{0}
   \Rightarrow 
   \mathit{a} = \mathit{0}
   \quad \or \quad
   \mathbf{u} =  \mathbf{0}
.


   \exists !  \; a^{-1} \in K :  a^{-1}a=1 
   \Rightarrow  
   u= 1u= (a^{-1}a)u= a^{-1}(au)= a^{-1}0=0
   \Rightarrow 
   u_{}^{}=0.

Notación

-au=-(au) \,.

Observación

 -au=(-a)u=a(-u) \,
  • Si  au+a(-u)=a(u-u)=a0=0 \Rightarrow  a(-u)=-au \,
  • Si  au+(-a)u=(a-a)u=0u=0 \Rightarrow  (-a)u=-au \,

Primer ejemplo con demostración al detalle

Se quiere probar que \mathbb{R}^2 es un espacio vectorial sobre \mathbb{R}

Si \mathbb{R}^2 juega el papel de V \; y \mathbb{R} el de  K \;:

Los elementos:


   \mathbf{u} \in V =
   \mathbb{R}^2 =
   \mathbb{R} \times{}\mathbb{R}

son, de forma genérica:


 \mathbf{u} =(u_x,u_y)

es decir, pares de números reales. Por claridad se conserva la denominación del vector, en este caso u, en sus coordenadas, añadiendo el subíndice x o y para denominar su componente en el eje x o y respectivamente

En  V \; se define la operación suma:


   \begin{array}{ccll}
      +: & {V \times{} V}          & \longrightarrow{} & {V} \\
         & (\mathbf{u},\mathbf{v}) & \mapsto           & \mathbf{w}= \mathbf{u} + \mathbf{v}
   \end{array}

donde:


   \mathbf{u} = (u_x, u_y)

   \mathbf{v} = (v_x, v_y)

   \mathbf{w} = (w_x, w_y)

y la suma de u y v sería:


   \mathbf{u} +  \mathbf{v} =
   (u_x, u_y) + (v_x, v_y) =
   (u_x + v_x, u_y + v_y) =
   (w_x, w_y) =
   \mathbf{w}

donde:


   \begin{array}{l}
      w_x = u_x + v_x \\
      w_y = u_y + v_y
   \end{array}

esto implica que la suma de vectores es interna y bien definida.

La operación interna suma tiene las propiedades:

1) La propiedad conmutativa, es decir:


   \mathbf{u} + \mathbf{v} = \mathbf{v} + \mathbf{u} , \quad
   \forall{} \mathbf{u}, \mathbf{v} \in{} V

   \mathbf{u} + \mathbf{v} =
   \mathbf{v} + \mathbf{u}

   (u_x, u_y) + (v_x, v_y) =
   \mathbf{v} + \mathbf{u}

   (u_x + v_x, u_y + v_y) =
   \mathbf{v} + \mathbf{u}

   (v_x + u_x, v_y + u_y) =
   \mathbf{v} + \mathbf{u}

   (v_x, v_y) + (u_x, u_y) =
   \mathbf{v} + \mathbf{u}

   \mathbf{v} + \mathbf{u} =
   \mathbf{v} + \mathbf{u}

2) La propiedad asociativa:


   (\mathbf{u} + \mathbf{v}) + \mathbf{w}=
   \mathbf{u} + (\mathbf{v} + \mathbf{w})

   \Big( (u_x, u_y) + (v_x, v_y) \Big) + (w_x, w_y) =
   (u_x, u_y) + \Big( (v_x, v_y) + (w_x, w_y) \Big)

   (u_x + v_x, u_y + v_y) + (w_x, w_y)=
   (u_x, u_y) + (v_x + w_x, v_y + w_y) \;

   (u_x + v_x + w_x, u_y + v_y + w_y) =
   (u_x + v_x + w_x, u_y + v_y + w_y) \;

3) tiene elemento neutro  \mathbf{0} :


   \mathbf{u} + \mathbf{0} = \mathbf{u}

   (u_x, u_y) + (0, 0) =
   (u_x + 0, u_y + 0) =
   (u_x, u_y) \;

4) tenga elemento opuesto:


   \mathbf{u} = (u_x, u_y)

   \mathbf{-u} = (-u_x, -u_y)

   \mathbf{u} + ( \mathbf{-u}) =
   (u_x, u_y) + (-u_x, -u_y) =
   (u_x - u_x, u_y - u_y) =
   (0, 0) = \mathbf{0}

La operación producto por un escalar:


   \begin{array}{ccll}
      \cdot : & K \times V                   & \longrightarrow & V \\
              &  (\mathit{a}, \mathbf{u})    & \mapsto         & \mathbf{v}= \mathit{a} \cdot \mathbf{u}
   \end{array}

El producto de a y u será:


   \mathit{a} \cdot \mathbf{u} =
   a \cdot (u_x, u_y) =
   (a \cdot u_x, a \cdot u_y) =
   (v_x, v_y) =
   \mathbf{v}

donde:


   \begin{array}{l}
      v_x = a \cdot u_x \\
      v_y = a \cdot u_y
   \end{array}

esto implica que la multiplicación de vector por escalar es externa y aun así está bien definida.

5) tenga la propiedad asociativa:


   \mathit{a} \cdot (\mathit{b} \cdot \mathbf{u})=(\mathit{a} \cdot \mathit{b}) \cdot \mathbf{u} , \quad
   \forall{} \mathit{a} ,\mathit{b} \in{}K , \quad
   \forall{} \mathbf{u} \in{} V

Esto es:


   \mathit{a} \cdot (\mathit{b} \cdot \mathbf{u})=
   (\mathit{a} \cdot \mathit{b}) \cdot \mathbf{u}

   \mathit{a} \cdot (\mathit{b} \cdot (u_x, u_y))=
   (\mathit{a} \cdot \mathit{b}) \cdot (u_x, u_y)

   \mathit{a} \cdot (\mathit{b} \cdot u_x, \mathit{b} \cdot u_y)=
   (\mathit{a} \cdot \mathit{b}) \cdot (u_x, u_y)

   (\mathit{a} \cdot \mathit{b} \cdot u_x, \mathit{a} \cdot \mathit{b} \cdot u_y)=
   (\mathit{a} \cdot \mathit{b} \cdot u_x, \mathit{a} \cdot \mathit{b} \cdot u_y)

6) \mathit{1} \in{} R sea elemento neutro en el producto:


   \mathit{1} \cdot \mathbf{u} = \mathbf{u} , \quad
   \forall{} \mathbf{u} \in{} V

Que resulta:


   \mathit{1} \cdot \mathbf{u} = \mathbf{u}

   \mathit{1} \cdot (u_x, u_y) = \mathbf{u}

   (\mathit{1} \cdot u_x, \mathit{1} \cdot u_y) = \mathbf{u}

   (u_x, u_y) = \mathbf{u}

Que tiene la propiedad distributiva:

7) distributiva por la izquierda:


   \mathit{a} \cdot (\mathbf{u} + \mathbf{v}) =
   \mathit{a} \cdot \mathbf{u} + \mathit{a} \cdot \mathbf{v} , \quad
   \forall{} \mathit{a}\in{}R , \quad
   \forall{} \mathbf{u}, \mathbf{v} \in{} V

En este caso tenemos:


   \mathit{a} \cdot (\mathbf{u}+ \mathbf{v}) =
   \mathit{a} \cdot \mathbf{u}+ \mathit{a} \cdot \mathbf{v}

   \mathit{a} \cdot ((u_x, u_y) + (v_x, v_y)) =
   \mathit{a} \cdot (u_x, u_y) + \mathit{a} \cdot (v_x, v_y)

   \mathit{a} \cdot (u_x + v_x, u_y + v_y) =
   (\mathit{a} \cdot u_x, \mathit{a} \cdot u_y) + (\mathit{a} \cdot v_x, \mathit{a} \cdot v_y)

   \mathit{a} \cdot (u_x + v_x, u_y + v_y) =
   (\mathit{a} \cdot u_x + \mathit{a} \cdot v_x, \mathit{a} \cdot u_y + \mathit{a} \cdot v_y)

   (\mathit{a} \cdot (u_x + v_x), \mathit{a} \cdot (u_y + v_y)) =
   (\mathit{a} \cdot (u_x + v_x), \mathit{a} \cdot (u_y + v_y))

8) distributiva por la derecha:


   (\mathit{a} + \mathit{b}) \cdot \mathbf{u} =
   \mathit{a} \cdot \mathbf{u} + \mathit{b} \cdot \mathbf{u} , \quad
   \forall{} \mathit{a}, \mathit{b} \in{} R , \quad
   \forall{} \mathbf{u} \in{} V

Que en este caso tenemos:


   (\mathit{a} + \mathit{b}) \cdot \mathbf{u} =
   \mathit{a} \cdot \mathbf{u} + \mathit{b} \cdot \mathbf{u}

   (\mathit{a} + \mathit{b}) \cdot (u_x, u_y) =
   \mathit{a} \cdot (u_x, u_y) + \mathit{b} \cdot (u_x, u_y)

   (\mathit{a} + \mathit{b}) \cdot (u_x, u_y) =
   (\mathit{a} \cdot u_x, \mathit{a} \cdot u_y) + (\mathit{b} \cdot u_x, \mathit{b} \cdot u_y)

   (\mathit{a} + \mathit{b}) \cdot (u_x, u_y) =
   (\mathit{a} \cdot u_x + \mathit{b} \cdot u_x, \mathit{a} \cdot u_y + \mathit{b} \cdot u_y)

   ((\mathit{a} + \mathit{b}) \cdot u_x, (\mathit{a} + \mathit{b}) \cdot u_y) =
   ((\mathit{a} + \mathit{b}) \cdot u_x, (\mathit{a} + \mathit{b}) \cdot u_y)

Queda demostrado que es espacio vectorial.

Ejemplos de espacios vectoriales

Los cuerpos

Todo cuerpo es un espacio vectorial sobre él mismo, usando como producto por escalar el producto del cuerpo.

Todo cuerpo es un espacio vectorial sobre su subcuerpo, usando como producto por escalar el producto del cuerpo.

Sucesiones sobre un cuerpo K_{}^{}

El espacio vectorial más conocido notado como  K_{}^n, donde n>0 es un entero, tiene como elementos n-tuplas, es decir, sucesiones finitas de K_{}^{} de longitud n con las operaciones:

(u1, u2, ..., un)+(v1, v2, ..., vn)=(u1+v1, u2+v2, ..., un+vn).
a(u1, u2, ..., un)=(au1, au2, ..., aun).

Las sucesiones infinitas de K^{} son espacios vectoriales con las operaciones:

(u1, u2, ..., un, ...)+(v1, v2, ..., vn, ...)=(u1+v1, u2+v2, ..., un+vn, ...).
a(u1, u2, ..., un, ...)=(au1, au2, ..., aun, ...).

El espacio de las matrices n \times m, M_{n \times m}(K), sobre K^{}, con las operaciones:

 \begin{pmatrix} x_{1,1} & \cdots & x_{1,m} \\ \vdots & & \vdots \\ x_{n,1} & \cdots & x_{n,m} \end{pmatrix} + \begin{pmatrix} y_{1,1} & \cdots & y_{1,m} \\ \vdots & & \vdots \\ y_{n,1} & \cdots & y_{n,m} \end{pmatrix} = \begin{pmatrix} x_{1,1}+y_{1,1} & \cdots & x_{1,m}+y_{1,m} \\ \vdots & & \vdots \\ x_{n,1}+y_{n,1} & \cdots & x_{n,m}+y_{n,m} \end{pmatrix}
 a \begin{pmatrix} x_{1,1} & \cdots & x_{1,m} \\ \vdots & & \vdots \\ x_{n,1} & \cdots & x_{n,m} \end{pmatrix} = \begin{pmatrix} ax_{1,1} & \cdots & ax_{1,m} \\ \vdots & & \vdots \\ ax_{n,1} & \cdots & ax_{n,m} \end{pmatrix}

También son espacios vectoriales cualquier agrupación de elementos de K_{}^{} en las cuales se defina las operaciones suma y producto entre estas agrupaciones, elemento a elemento, similar al de matrices n \times m, así por ejemplo tenemos las cajas n \times m \times r sobre K_{}^{} que aparecen en el desarrollo de Taylor de orden 3 de una función genérica.

Espacios de aplicaciones sobre un cuerpo

El conjunto F_{}^{} de las aplicaciones  f : M \rightarrow K, K^{} un cuerpo y M_{}^{} un conjunto, también forman espacios vectoriales mediante la suma y la multiplicación habitual:

\forall f,g \in F,\; \forall a \in K
\begin{matrix}
(f + g)(w) &:= f(w) + g(w)_{}^{},\\
\;\;\;\;(af)(w) &:= a(f)(w)_{}^{}.\;\;\;\;\;\;\;
\end{matrix}

Los polinomios

Suma de f(x)=x+x2 y g(x)=-x2.

El espacio vectorial K[x] formado por funciones polinómicas, veámoslo:

Expresión general:  p(x) = r_n x^n+ r_{n-1} x_{}^{n-1}+ ... + r_1 x + r_0 ,donde los coeficientes r_n, \; ..., r_0 \in K, considérese \forall i>n \; r_i=0.
 p(x)+q(x)=(r_n x^n+r_{n-1}x^{n-1}+ ... +r_1 x+r_0^{}) +(s_m x^m+ s_{m-1} x^{m-1}+ ... +s_1 x+s_0^{}) =..._{}^{} =(t_M x^M+t_{M-1} x^{M-1}+...+t_1 x+t_0^{})=(p+q)(x), donde M= \max \{ m, \; n \}_{}^{} y  t_i=r_i+s_i^{},
a(p(x))=a(r_n x^n+ r_{n-1}x^{n-1}+ ... +r_1 x+r_0^{}) =( a r_n x^n+ a r_{n-1}x^{n-1}+ ... +a r_1 x + a r_0^{}) = t_n x^n+ t_{n-1}x^{n-1}+ ... + t_1 x + t_0^{}=(ap)(x).

Las series de potencias son similares, salvo que se permiten infinitos términos distintos de cero.

Funciones trigonométricas

Las funciones trigonométricas forman espacios vectoriales, con las siguientes operaciones:

Expresión general: f(x)= a_f^{} \sum_{i=1}^n ( b_{f,i} \mbox{sen} (i x) + c_{f,i} \cos (i x) ) \in L^2
(f+g)(x):=f(x)+g(x)_{}^{} = a_f  \sum_{i=1}^n ( b_{f,i} \mbox{sen} (i x) + c_{f,i} \cos (i x) ) + a_g \sum_{i=1}^n ( b_{g,i} \mbox{sen} (i x) + c_{g,i} \cos(i x) ) = ( a_f + a_g ) \sum_{i=1}^n ( (b_{f,i} + b_{g,i}) \mbox{sen} (i x) + ( c_{f,i} + c_{g,i} ) \cos(i x) ) \in L^2,
(af)(x):=a f(x)_{}^{} = a ( a_f  \sum_{i=1}^n ( b_{f,i} \mbox{sen} (i x) + c_{f,i} \cos (i x) ) ) = aa_f  \sum_{i=1}^n ( ab_{f,i} \mbox{sen} (i x) + ac_{f,i} \cos(i x) ) \in L^2.

Los sistemas de ecuaciones lineales homogéneas

Sistema de 2 ecuaciones y 3 variables


\begin{cases}
\begin{matrix} 
a_{1,1}x_1 & + \dots & + a_{1,n}x_n & =0 \\
\vdots & & \vdots & \vdots \\
a_{m,1}x_1 & + \dots & + a_{m,n}x_n & =0 
\end{matrix}
\end{cases}
\;\; o equivalentemente 
\begin{pmatrix} 
a_{1,1} & + \dots & + a_{1,n} \\
\vdots & & \vdots &  \\
a_{m,1} & + \dots & + a_{m,n} 
\end{pmatrix}
\begin{pmatrix} x_1 \\ \vdots \\ x_n  \end{pmatrix}
=\begin{pmatrix} 0 \\ \vdots \\ 0 \end{pmatrix}
simplificado como A_{}^{}x=0

Un sistema de ecuaciones lineales homogéneas( ecuaciones lineales en las que x=0_{}^{} es siempre una solución, es decir, (x_1,\; \dots ,\; x_n)=(0,\; \dots ,\; 0)) posee soluciones que forman un espacio vectorial, se puede ver en sus dos operaciones:

Si Ax=0,Ay=0 \Rightarrow Ax+Ay=0 \Rightarrow  A(x+y)=0_{}^{}
Si Ax=0,a \in K \Rightarrow a(Ax)=0 \Rightarrow  A(ax)=0_{}^{}.

También que las ecuaciones en sí, filas de la matriz A_{}^{} notadas como una matriz 1\times n , es decir,  E_i=(a_{i,1}, \; \dots , \; a_{i,n}), son un espacio vectorial, como se puede ver en sus dos operaciones:

Si  E_ix=0,\; E_jx=0 \Rightarrow  E_i^{}x+E_jx=0 \Rightarrow (E_i+E_j)x=0
Si  E_ix=0,\; a \in K \Rightarrow  a(E_i^{}x)=0 \Rightarrow (aE_i)x=0.

Definición de subespacio vectorial

Sea V_{}^{} un espacio vectorial sobre K_{}^{}, y  U \subset V no vacío, U_{}^{} es un subespacio vectorial de V_{}^{} si:

i)\;\; \forall u,v \in U, u+v \in U
ii)\; \forall u \in U, \forall k \in K, ku \in U

Consecuencias

U_{}^{} hereda las operaciones de V_{}^{} como aplicaciones bien definidas, es decir que no escapan de U_{}^{}, y como consecuencia tenemos que U_{}^{} es un espacio vectorial sobre K_{}^{}.

Con cualquier subconjunto de elementos seleccionados en los espacios vectoriales anteriores, no vacío, se pueden generar subespacios vectoriales, para ello seria útil introducir nuevos conceptos que facilitarán el trabajo sobre estos nuevos espacios vectoriales.

Resultados internos

Para detallar el comportamiento interno de todos los espacios vectoriales de modo general es necesario exponer una serie de herramientas cronológicamente vinculadas entre ellas, con las cuales es posible construir resultados válidos en cualquier estructura que sea espacio vectorial.

Combinación lineal

Cada vector u es combinación lineal de forma única

Dado un espacio vectorial E_{}^{}, diremos que un vector u es combinación lineal de los vectores de S=\{v_1, \; \dots , \; v_n \} \subset E si existen escalares a_1, \; \dots , \; a_n tales que

 u=a_1v_1+ \cdots + a_nv_n

Notaremos como  \langle S_{}^{} \rangle_E el conjunto resultante de todas las combinaciones lineales de los vectores de  S_{}^{} \subset E.

Proposición 1

Dado E_{}^{} un espacio vectorial y S \subset E_{}^{} un conjunto de vectores, el conjunto F=\langle S_{}^{} \rangle_E es el subespacio vectorial más pequeño contenido en E_{}^{} y que contiene a S_{}^{}.

Demostración

Si se supone lo contrario, que existe uno más pequeño G_{}^{} \varsubsetneq F \Rightarrow  \exists u \in F : u \notin G contradicción, ya que u está generado por elementos de S \subset F \Rightarrow u \in G a causa de la buena definición de las dos operaciones, por tanto F=G_{}^{}.

Nota. En este caso se dice que  S_{}^{} es un sistema de generadores que genera a F_{}^{}.

Independencia lineal

Diremos que un conjunto S_{}^{}=\{ v_1, \; \dots , \; v_n \} de vectores es linealmente independiente si el vector 0 no se puede expresar como combinación lineal no nula de los vectores de S_{}^{}, es decir:

Si 0=a_1v_1+ \cdots + a_nv_n \Rightarrow a_1= \cdots = a_n = 0.

Diremos que un conjunto S_{}^{} de vectores es linealmente dependiente si no es linealmente independiente.

Proposición 2

v_1,\; \dots, \; v_n son linealmente dependientes  \Leftrightarrow \exists v_i \neq 0 : v_i= \sum_{ i \neq j \geq 1}^n a_jv_j

Demostración

 \Rightarrow ) Linealmente dependientes  \Rightarrow 0=b_1v_1+ \cdots + b_nv_n : \exists b_i \neq 0 \Rightarrow b_iv_i= - \sum_{ i \neq j \geq 1}^n b_jv_j \Rightarrow  v_i= \sum_{ i \neq j \geq 1}^n (-b_j b_i^{-1}) v_j=\sum_{ i \neq j \geq 1}^n a_jv_j tomando a_j= -b_j b_i^{-1} .

 \Leftarrow ) Si  v_i= \sum_{ i \neq j \geq 1}^n a_jv_j \Rightarrow  0=a_1v_1+ \cdots + a_nv_n donde a_i:=-1 \neq 0 y por tanto linealmente dependientes.

Base de un espacio vectorial

Las bases revelan la estructura de los espacios vectoriales de una manera concisa. Una base es el menor conjunto (finito o infinito) B = {vi}iI de vectores que generan todo el espacio. Esto significa que cualquier vector v puede ser expresado como una suma (llamada combinación lineal) de elementos de la base

a1vi1 + a2vi2 + ... + anvin,

donde los ak son escalares y vik (k = 1, ..., n) elementos de la base B. La minimalidad, por otro lado, se hace formal por el concepto de independencia lineal. Un conjunto de vectores se dice que es linealmente independiente si ninguno de sus elementos puede ser expresado como una combinación lineal de los restantes. Equivalentemente, una ecuación

a1vi1 + ai2v2 + ... + anvin = 0

sólo se consigue si todos los escalares a1, ..., an son iguales a cero. Por definición de la base cada vector puede ser expresado como una suma finita de los elementos de la base. Debido a la independencia lineal este tipo de representación es única. Los espacios vectoriales a veces se introducen desde este punto de vista.

Base formalmente

v1 y v2 son base de un plano, si hubiese dependencia lineal(alineados) la cuadrícula no podría generarse

Dado un sistema de generadores, diremos que es una base si son linealmente independientes.

Proposición 3. Dado un espacio vectorial  E, \; \{ v_1, \; \dots , v_n \} = F \subset E es una base   \Leftrightarrow  \forall u \in E, \; \exists ! a_i \in K ,\;i \in {1,\; \dots , n} :  u=\sum_{i=1}^n a_iv_i.
Proposición 4. Dado un espacio vectorial  E, \; S= \{v_1,\; \dots , \; v_n \} linealmente independiente y u \notin \langle S \rangle \Rightarrow  \{ u \} \cup S = \{ u, \; v_1, \; \dots , \; v_n \} son linealmente independiente.

Teorema de la base de generadores

Todo sistema de generadores tiene una base.

Teorema Steinitz

Toda base de un espacio vectorial puede ser cambiada parcialmente por vectores linealmente independientes.

Corolario. Si un espacio vectorial E_{}^{} tiene una base de n_{}^{} vectores \Rightarrow cualquier otra base posee n_{}^{} vectores.

Observación

Todo espacio vectorial tiene una base. Este hecho se basa en el lema de Zorn, una formulación equivalente del axioma de elección. Habida cuenta de los otros axiomas de la teoría de conjuntos de Zermelo-Fraenkel, la existencia de bases es equivalente al axioma de elección. El ultrafilter lemma, que es más débil que el axioma de elección, implica que todas las bases de un espacio vectorial tienen el mismo "tamaño", es decir, cardinalidad. Si el espacio es generado por un número finito de vectores, todo lo anterior puede demostrarse sin necesidad de acudir a la teoría de conjuntos.

Dimensión

Dado un espacio vectorial sobre  K_{}^{} :

Notación

Dado un espacio vectorial E_{}^{} y un subespacio F_{}^{} \subset E, tenemos que:

Intersección de subespacios vectoriales

Dado dos subespacios vectoriales  F, G \subset E, la intersección es subespacio vectorial contenido en estos y lo notaremos como:

 F \cap G:= \{ u : \; u \in F , \; u \in G \}.
Observaciones. Para la intersección sucesiva de espacios vectoriales se procede, inductivamente, de dos en dos.

La unión de subespacios vectoriales no es en general un subespacio vectorial.

Suma de subespacios vectoriales

Dado dos subespacios vectoriales F, G \subset E, la suma es un subespacio vectorial que contiene a estos y la notaremos como:

 F+G:= \{ u=v_1+v_2 : \; v_1 \in F, \; v_2 \in G \} .

Si F y G son subespacios vectoriales de E, su suma F+G es el subespacio vectorial de E más pequeño que contiene a F y a G.

Observación. Para la suma sucesiva de espacios vectoriales se procede, inductivamente, de dos en dos.

Teorema Fórmula de Grassmann

Dado dos subespacios vectoriales F, G \subset E de dimensión finita, tenemos el resultado siguiente:

  \dim_E(F+G) = \dim_E(F) + \dim_E(G) - \dim_E(F \cap G) .

Suma directa de subespacios vectoriales

Dados dos subespacios vectoriales F, G \subset E, diremos que F+G_{}^{} es una suma directa si  F \cap G = {0} y lo notaremos como:

 F \oplus G .

Cuando F y G están en suma directa, cada vector de F+G se expresa de forma única como suma de un vector de F y otro vector de G.

Cociente de espacios vectoriales

Dado un espacio vectorial E\, y un subespacio vectorial F \subset E .

Dados u,v \in E diremos que están relacionados modulo F\, si  u-v \in F.

Se nota por  [u] =u+F: = \{u+v : v \in F \} = \{ w : w=u+v , \; v \in F \} a la clase de u\, modulo F\,.

Llamaremos conjunto cociente o espacio cociente al conjunto de las clases de equivalencia anterior:

Se nota por  E/F_{}^{} a dicho espacio cociente.

El espacio  E/F_{}^{} es un espacio vectorial con las operaciones siguientes:

\begin{matrix} [u]+ [v] & := & [u+v] \\ \;\;\;\;\;\;\;\lambda [u] & := & [ \lambda u]\;\;\;\; \end{matrix}

Construcciones básicas

Además de lo expuesto en los ejemplos anteriores, hay una serie de construcciones que nos proporcionan espacios vectoriales a partir de otros. Además de las definiciones concretas que figuran a continuación, también se caracterizan por propiedades universales, que determina un objeto X especificando las aplicaciones lineales de X a cualquier otro espacio vectorial.

Suma directa de espacios vectoriales

Dado dos espacios vectoriales E,\; F_{}^{} sobre un mismo cuerpo K_{}^{}, llamaremos suma directa al espacio vectorial E \times F = \{ u:=(u_1,\; u_2) : u_1 \in E,\; u_2 \in F \} , veamos que están bien definidas las dos operaciones:

u+v=(u_1,\;u_2)+(v_1,\;v_2)=(u_1+v_1,\; u_2+v_2),
a u =a(u_1,\;u_2)=(au_1,\;au_2).

Espacios vectoriales con estructura adicional

Desde el punto de vista del álgebra lineal, los espacios vectoriales se comprenden completamente en la medida en que cualquier espacio vectorial se caracteriza, salvo isomorfismos, por su dimensión. Sin embargo, los espacios vectoriales ad hoc no ofrecen un marco para hacer frente a la cuestión fundamental para el análisis de si una sucesión de funciones converge a otra función. Asimismo, el álgebra lineal no está adaptada per se para hacer frente a series infinitas, ya que la suma solo permite un número finito de términos para sumar. Las necesidades del análisis funcional requieren considerar nuevas estructuras.

Espacios normados

Un espacio vectorial es normado si está dotado de una norma.

Espacio métrico

Un espacio métrico es un espacio vectorial dotado de una aplicación distancia.

Proposición 5. Un espacio normado es un espacio métrico, donde la distancia viene dada por:
 d(x,y)=\|x-y\|

Toda distancia inducida por la norma es una distancia.

Espacios vectoriales topológicos

Dada una topología  \tau_{}^{} sobre un espacio vectorial X_{}^{} donde los puntos sean cerrados y las dos operaciones del espacio vectorial sean continuas respecto dichas topología, diremos que:

Proposición 6.. Todo espacio vectorial topológico dotado de una métrica es espacio normado.
Proposición 7.. Todo espacio normado es un espacio vectorial topológico.

Espacios de Banach

Un espacio de Banach es un espacio normado y completo.

Espacios prehilbertianos

Un espacio prehilbertiano es un par (E_{}^{},\langle \cdot | \cdot \rangle), donde E_{}^{} es un espacio vectorial y  \langle \cdot | \cdot \rangle es un producto a escalar.

Espacios de Hilbert

Un espacio de Hilbert es un espacio prehilbertiano completo por la norma definida por el producto escalar.

Morfismos entre espacios vectoriales

Son aplicaciones entre espacios vectoriales que mantienen la estructura de los espacios vectoriales, es decir, conservan las dos operaciones y las propiedades de éstas de uno a otro de dichos espacios.

Aplicaciones lineales

Dado dos espacios vectoriales E_{}^{} y F_{}^{}, sobre un mismo cuerpo, diremos que una aplicación f:E \rightarrow F es lineal si:

f(u+_E v)=f(u)+_F f(v)_{}^{},
f(a \cdot_E u)=a \cdot_F f(u).

Véase también

Wikilibros

Referencias

    Notas

    1. Bourbaki, 1969, ch. "Álgabre linéaire et álgebre multilinéaire", pp. 78–91.
    2. Bolzano, 1804.
    3. Möbius, 1827.
    4. Hamilton, 1853.
    5. Grassmann, 1844.
    6. Peano, 1888, ch. IX.
    7. Banach, 1922.

    Referencias históricas

    Bibliografía

    Enlaces externos

    This article is issued from Wikipedia - version of the Friday, December 18, 2015. The text is available under the Creative Commons Attribution/Share Alike but additional terms may apply for the media files.