:)

:)

martes, 8 de diciembre de 2015

4.5 Espacio vectorial con producto interno y sus propiedades.

Un espacio vectorial complejo V se denomina espacio con producto interno si para cada par ordenado de vectores u y v en V, existe un numero complejo único (u,v), denominado producto interno de u y v, tal que si u, v y w están en V y αϵC, entonces



 La barra es las condiciones v) y vii) denota el conjugado complejo.
Nota. Si (u,v) es real, entonces (u,v)=(u,v) y se puede eliminar la barra en v).

EJEMPLO: producto interno de dos vectores en C3
En C3 sean x=(1+i, -3, 4-3i) y y=(2-i, -i, 2+i). entonces



Sea V un espacio con producto interno y suponga que u y v están en V. entonces


Nota 1. Aquí se usa la doble barra en lugar de una sola para evitar confusión con el valor absoluto. Por ejemplo ǁsen tǁ denota la norma de sen t como un “vector” en C[0, 2π] mientras que |sen t| denota el valor absoluto de la función sen t.
Nota 2. La ecuación anterior tiene sentido ya que (u, u)≥0.

EJEMPLO: dos vectores ortogonales en C2
En C2 los vectores (3,-i) y (2,6i) son ortogonales porque



Complemento ortogonal
Sea H un subespacio del espacio con producto interno V. entonces el complemento ortogonal de H, denotado por H, esta dado por  

4.4 Base y dimensión de un espacio vectorial, cambio de base.

Se ha visto en R2 conviene escribir vectores como una combinación lineal de los vectores   .
 En R3 se escribieron los vectores en términos de  .  Ahora se generalizara esta idea.
BASE: Un conjunto finito de vectores es una base  para un espacio vectorial V si  

Todo conjunto de n vectores linealmente independiente en Rn es una base en Rn.


En Rn se define 

Puesto que los vectores e, son las columnas de una matriz identidad (que tiene determinante 1), es un conjunto linealmente independiente y, por lo tanto, constituye una base en Rn. Esta base especial se denomina base canonica en Rn. Ahora se encontraran bases para otros espacios.

EJEMPLO: base canonica para M22
Se vio que     generan a  

 , entonces es evidentemente que .  Así, estas cuatro matrices son linealmente independientes y forman una base para M22, lo que se denomina base cononica para M22.

TEOREMA: si   es una base para V y si vÎV, entonces existe un conjunto único de escalares     tales que  .

Existe cuando menos un conjunto de dichos escalares porque     genera a V. Suponga entonces que v se puede escribir e dos maneras como una combinación lineal de los vectores de la base.

Es decir, suponga que  

Sea     dos bases para V. debe demostrarse que m=n. esto se prueba mostrando que si m>n, entonces S es un conjunto literalmente independiente, lo que contradice la hipótesis de que S es una bse. Esto demostrara que m≤n. la misma prueba demostrara que ≤m y esto prueba el teorema. Así, basta demostrar que si m>n, entonces S es independiente. Como S constituye una base, todo u se puede expresar como una combinación lineal de las v. se tiene (1)






FUENTE: http://itsavbasicas.blogspot.mx/2012/05/44-base-y-dimension-de-un-espacio.html



4.3 Combinación lineal. Independencia lineal.

COMBINACIÓN LINEAL

Sean v1, v2, …, vn, vectores en un espacio vectorial V. entonces cualquier vector de la forma: a1v1+a2v2+…+anvn, donde a1,a2,…,an son escalares se denomina una combinación lineal de v1, v2,…,vn.

Una combinación lineal en M23



♦Conjunto generador.

Se dice que los vectores v1, v2, …, vn de un espacio vectorial V generan a V si todo vector en V se puede escribir como una combinación lineal de los mismo. Es decir, para todo vÎV, existen escalares a1, a2, …, an tales que v=a1v1+a2v2+…+anvn

Cuatro vectores que generan a M22



♦Espacio generado por un conjunto de vectores.

Sean v, v2, …, vk, k vectores de un espacio vectorial V. el espacio generado por {v1, v2, …, vk} es el conjunto de combinaciones lineales 

v1, v2, …, vk.                                                
    Es decir donde a1, a2, …, ak, son escalares arbitrarios.

Teorema: si v1, v2, …, vk son vectores en un espacio vectorial V, entonces gen{v1, v2, …, vk} es un subespacio de V.

Ejemplo: el espacio generado por dos vectores en R3

Sea v1=(2,-1,4) y v2=(4,1,6). Entonces H=gen{v1, v2}={v:v=a1(2,-1,4)+a2(4,1,6)}. ¿Cuál es la apariencia de H? si v=(x, y,z)ÎH, entonces tiene x=2a1+4a 2, y=-a1+a2 y z=4a 1+6ª 2. Si se piensa que (x, y, z) esta fijo, entonces estas ecuaciones se pueden ver como un sistema de tres ecuaciones con tres incognitas a1, a2. Este sistema se resuelve en la forma usual:




INDEPENDENCIA LINEAL
En el estudio del algebra lineal, una de las ideas centrales es la de dependencia o independencia lineal de los vectores. En esta sección se define el significado de independencia lineal y se muestra su relación con la teoría de sistemas homogéneos de ecuaciones y determinantes.



Existe una relación espacial entre los vectores , se puede apreciar que v2=2v1; o si se escribe esta ecuación de otra manera. 2v1-v2=0.

En otras palabras, el vector cero se puede escribir como una combinación no trivial de v1 y v2 (es decir, donde los coeficientes en la combinación lineal no son ambos cero). ¿Qué tienen de especial los vectores ? La respuesta a esta pregunta es más difícil a simple vista. Sin embargo, es sencillo verificar que v3=3v1+2v2; rescribiendo esto se obtiene


Se ha escrito el vector cero como una combinación lineal de v1, v2, y v3. Parece que los dos vectores de la ecuación y los tres vectores de la otra ecuación tienen una relación más cercana que un par arbitrario de 2-vectores a una terna arbitraria de 3-vectores. En cada caso, se dice que los vectores son linealmente dependientes.
 En términos generales, se tiene la importante definición a continuación presentada.

Definición: sean v1, v2, …, vn vectores en un espacio vectorial V. entonces se dice que lois vectores son linealmente dependientes si existen n escalares c1, c2, …, cn no todos ceros tales que  

Si los vectores no son linealmente dependientes, se dice que son linealmente independientes.

Para decirlo de otra forma, v1, v2, .., vn son linealmente independientes si la ecuación c1v1+c2v2+…+cnvn=0 se cumple únicamente para c1=c2=…=cn=0. Son linealmente dependientes si el vector cero en V se puede expresar como una combinación lienal de v1, v2,…,vn con coeficientes no todos iguales a cero.

Nota. Se dice que los vectores v1, v2, …, vn son linealmente independientes (o dependientes), o que el conjunto de vectores {v1, v2, …, vn} es linealmente independiente (o pendiente). Esto es, se usan las dos frases indistintivamente.


Teorema:dependencia e independencia lineal

Dos vectores en un espacio vectorial son linealmente dependientes si y solo si uno de ellos es un múltiplo escalar del otro.

Demostración: primero suponga que v2=cv1 para elgun escalar c≠0. Entonces cv1-v2=0 y v1 y v2 son linealmente dependientes. Por otro parte, suponga que v1 y v2 son linealmente dependientes. Entonces existen constantes c1 y c2 al menos uno distinto a cero, tales que c1v1+c2v2=0. Si c1≠0, entonces dividiendo entre c1 se obtiene v1+(c2/c1)v2=0, o sea,  

Es decir, v1 es un múltiplo escalar de v2. Si c1=0, entonces c2≠0 y, por lo tanto, v2=0=0v1.




FUENTE: http://itsavbasicas.blogspot.mx/2012/06/43-combinacion-lineal-independencia.html

4.2 Definición de subespacio vectorial y sus propiedades.


Sea W un subconjunto de un espacio vectorial V sobre un cuerpo K. W se denomina un subespacio de V si es a su vez un espacio vectorial sobre K con respecto a las operaciones de V, suma vectorial y producto por un escalar. Un criterio simple para identificar subespacios es el siguiente.

Teorema: Supongamos que W es un subconjunto de un espacio vectorial V. Entonces W es un subespacio de V si y solo si se cumple:
0єW
W es cerrado bajo la suma de vectores, es decir: para todo par de vectores u, vєW, la suma u+vєW.
W es cerrado bajo el producto por un escalar, esto es: para todo uєW y para todo kєK el múltiplo kuєW.


Corolario: W es un subespacio de V si y solo si:
1. 0єW.
2. au+bvєW para todos los u, vєW y a, bєK.


Ejemplo:

sean U y W subespacios de un espacio vectorial V. probemos que la intersección UÇW es también subespacio de V. claramente, 0ÎU y 0ÎW, porque U y W son subespacios, de donde 0ÎUÇW. supongamos ahora que u, vÎUÇW. entonces u, vÎU y u, vÎE y, dado que U y W son subespacios, u+v, kuÎU y u+v, kuÎW para cualquier escalar k. así u+v, kuÎUÇW y por consiguiente UÇW es un subespacio de V. 
El resultado del ejemplo precedente se generaliza como sigue.


4.1 Definición de espacio vectorial.

UNIDAD 4: ESPACIOS VECTORIALES.



Sean K un cuerpo dado y V un conjunto no vacío, con reglas de suma y producto por escalar que asigna a cada par u, vϵV una suma u+vϵV y a cada par uϵV, kϵK un producto kuϵV. V recibe el nombre de espacio vectorial sobre K (y los elementos de V se llaman vectores) si satisfacen los siguientes axiomas. 

♦[A1] para toda terna de vectores u, v, wϵV, (u+v)+w=u+(v+w).

♦[A2] existe un vector en V, denotado por 0 y denominado el vector cero, tal que u+0=u para todo vector uϵV.

♦[A3] para todo vector uϵV existe un único vector en V, denotado por –u, tal que u+(-u)=0.

♦[A4] para todo par de vectores u, vϵV, u+v=v+u.

♦[M1] para todo escalar kϵK y todo par de vectores u, vϵV, k(u+v)=ku+kv.

♦[M2] para todo par de escalares a, bϵK y todo vector uϵV, (a+b)u=au+bu.

♦[M3] para todo par de escalares a, bϵK y todo vector uϵV, (ab)u=a(bu).

[M4] el escalar unidad 1ϵK cumple 1u=u para todo vector uϵV.


Los axiomas precedentes se desdoblan de forma natural en dos categorías. Los cuatro primeros atañen únicamente a la estructura aditiva de V y pueden resumirse diciendo que V es un grupo conmutativo bajo la suma. De ello se deriva que cualquier suma de vectores de la forma v1+v2+…+vm no requieren paréntesis y no depende del orden de los sumandos, que el vector cero, 0, es único, que el opuesto –u de u es único y que se verifica la ley de cancelación; esto es, para tres vectores cualesquiera u, v, wϵV.

U+w=v+w implica u=v. Asimismo, la resta se define según u-v=u+(-v).

Por otra parte, los cuatro axiomas restantes se refieren a la <<acción>> del cuerpo K sobre V. Observe que la rotulación de los axiomas refleja este desdoblamiento. Empleando estos axiomas adicionales probaremos las siguientes propiedades elementales de un espacio vectorial.

Teorema: sea V un espacio vectorial sobre un cuerpo K.
Para todo escalar kϵK y 0ϵV, k0-0.
Para 0ϵK y todo vector uϵV, 0u=0.
Si ku=0, donde kϵK y uϵV, entonces k=0 o u=0.
Para todo kϵK y todo uϵV, (-k)u=-ku.






FUENTE: http://itsavbasicas.blogspot.mx/2012/05/41-definicion-de-espacio-vectorial.html

lunes, 7 de diciembre de 2015

3.5 Aplicaciones.

♦Aplicaciones con relación a los sistemas de ecuaciones♦

Las matrices son utilizadas en aplicaciones de gráficos de geometría, física e informática. La matriz de las cantidades o expresiones definidas por filas y columnas; tratados como un solo elemento y manipulados de acuerdo con las reglas. 

Cálculos de matriz pueden entenderse como un conjunto de herramientas que incluye el estudio de métodos y procedimientos utilizados para recoger, clasificar y analizar datos.

 En muchas aplicaciones es necesario calcular la matriz inversa donde esta calculadora en línea matriz inversa puede ayudarle a sin esfuerzo facilitan sus cálculos para las respectivas entradas.

En casos simples, es relativamente fácil resolver una ecuación siempre y cuando se satisfagan ciertas condiciones.
 Sin embargo, en casos más complicados, es difícil o engorroso obtener expresiones simbólicas para las soluciones, y por ello a veces se utilizan soluciones numéricas aproximadas.


Ejemplos de la aplicación de un método de solución de sistemas de ecuaciones:

1.- En una empresa se fabrica un producto que tiene costo variable de $5 por unidad y costo fijo de $80,000. Cada unidad tiene un precio de venta de $12. Determine el número de unidades que deben venderse para que la compañía obtenga utilidades de $60,000.

Solución:   Costo = 5u + 80,000.             Venta = 12.      Utilidades = 60,000.  

Entonces:     C = 5u + 80,000.          V = 12u.                       U = 60,000.      

U = V - C        60,000 = 12u  - (5U+80000)     60,000 = 12u - 5u - 80,000  60,000 + 80,000 = 7u     140,000 = 7u       140,000/7 = u         20,000 = u

Al obtener nuestro coeficiente pasamos a sustituirlo:

C = 5(20,000) + 80,000 = 180,000.

V = 12(20,000) = 240,000.

U = 240,000 - 180,000 = 60,000.

Al terminar nos damos cuenta que por este método de sustitución e igualación se puede llegar al resultado.



FUENTE: https://sites.google.com/site/sistemasalgebralineal/unidad-3---sistema-de-ecuaciones-lineales/aplicaciones

3.4 Métodos de solución de un sistema de ecuaciones lineales y tipos de solución.



Métodos de solución de sistemas de ecuaciones lineales:

♣Gauss.

♣Gauss Jordán.

♣Determinantes o Regla de Cramer.

♣Adjunta de una matriz.

♣Sustitución.

♦Solución De Sistemas De Ecuaciones Por El Método de Gauss: 

Este método se basa en la idea de reducir la matriz aumentada a una forma que sea lo suficientemente sencilla como para poder resolver el sistema de ecuaciones a simple vista. 



PASO 1



PASO 2 


PASO 3



PASO 4



PASO 5



PASO 6



♦Matriz Triangular Inferior (Matriz aumentada)



En la última etapa del ejemplo anterior se obtuvo la matriz aumentada. Después de la cual, fue fácil obtener la solución 
X = -23.8, Y = 32.6, Z = -7.8 para el sistema original de ecuaciones. El sistema de ecuaciones correspondientes es:

 X + 2Y + 3Z = 18                       Y + 2Z = 17                    Z = -7.8

 Sustituimos las ecuaciones y la solución  Z = -7.8, Y = 32.6, X = -23.8 se hace obvia examinando la raíz aumentada.


♦Solución De Sistemas De Ecuaciones Por El Método De Gauss-Jordán

 Se definió un poco la forma de solución de  un sistema de ecuaciones lineales una vez que su matriz aumentada tiene la forma escalonada reducida. Ahora se dará un procedimiento esquemático, conocido como eliminación de Gauss-Jordán, que puede ser empleado para llevar cualquier matriz a la forma escalonada reducida.

  

PASO 1


PASO 2



PASO 3



El sistema de ecuaciones correspondientes es:

 X = -23.8                       Y = 32.6                    Z = -7.8


♦Solución De Sistemas De Ecuaciones Por El Método de determinantes o regla de cramer:

Los pasos a seguir para calcular los sistemas de ecuaciones según la regla de Cramer son los siguientes:



1. Representar las ecuaciones en matrices

  

2. Calcular la determinante de la matriz A








 3. Crear las matrices Δ1, Δ2 y Δ3 y calcular sus determinantes 

                 

                

                 


                4. Calculamos X, Y y Z

X = |Δ1|/|A| = -238/10 = -23.8
Y = |Δ2|/|A| = 326/10 = 32.6
Z = |Δ3|/|A| = -78/10 = -7.8




♦Solución De Sistemas De Ecuaciones Por El Metodo De La Inversa

Sabiendo calcular la matriz inversa y multiplicando matrices también es posible resolver un sistema de ecuaciones lineales, siempre y cuando éste sea de Crámer (es decir, tenga igual número de ecuaciones que de incógnitas y el determinante de la matriz de coeficientes no sea nulo).


  

Los pasos a seguir para calcular los sistemas de ecuaciones utilizando la inversa son los siguientes:

                1. Calcular la inversa de la matriz A:

                2.- Multiplicar la inversa de la matriz A por la matriz B
X = 18(-31/10) + 20(17/10) + 10(-1/5) = -23.8
Y = 18(37/10) + 20(-19/10) + 10(2/5) = 32.6
Z = 18(-11/10) + 20(7/10) + 10(-1/5) = -7.8


♦Método por sustitución:

El método de sustitución consiste en despejar en una de las ecuaciones cualquier incógnita, preferiblemente la que tenga menor coeficiente, para, a continuación, sustituirla en otra ecuación por su valor.

En la primera ecuación, seleccionamos la incógnita ´y´ por ser la de menor coeficiente y que posiblemente nos facilite más las operaciones, y la despejamos, obteniendo la siguiente ecuación. 
El siguiente paso será sustituir cada ocurrencia de la incógnita ´y´ en la otra ecuación, para así obtener una ecuación donde la única incógnita sea la  ´x´.
 

Al resolver la ecuación obtenemos el resultado x=5, y si ahora sustituimos esta incógnita por su valor en alguna de las ecuaciones originales obtendremos y=7, con lo que el sistema queda ya resuelto.


♦Matriz Inversa:

Una matriz inversa es una matriz que multiplicado por la matriz original obtiene la matriz de identidad. El inverso de un cuadrado  n x n matriz, es otro n x n matriz denotado por A-1  :


Donde es la n x n matriz identidad. Es decir, multiplicando su inversa una matriz produce una matriz de identidad. No todas las matrices tiene una matriz inversa. Si el determinante de la matriz es cero, entonces no tendrá una inversa y la matriz se dice que es singular. Sólo no singular matrices tienen inversas.

Fórmula para Inversa nxn matriz inverza:

Se puede encontrar la inversa de una matriz nxn general utilizando la siguiente ecuación





FUENTE: https://sites.google.com/site/sistemasalgebralineal/unidad-3---sistema-de-ecuaciones-lineales/metodos-de-solucion-de-un-sistema-de-ecuaciones-lineales