====== Examen Parcial - 61.08. Álgebra II A - 08/11/2008 ====== **Cátedra:** Indistinta\\ **Fecha:** 2° Cuatrimestre 2008\\ **Día:** 08/11/2008\\ Comentario: Resolución de Prelat ===== Enunciado ===== ==== Ejercício 1 ==== Hallar todos los valores de \alpha para los que existe una transformación lineal T:\Re^{3}\rightarrow \Re^{3} que verifique:\\ 1) T([\alpha \;0 \;1]^{t})=[0 \;0 \;0]^{t}\\ 2) IM (T) = \left\{x \in \Re^{3}: x_{1} + x_{2} + x_{3}=0\right\}\\ 3) IM (T \circ T)= NU (T) \\ Dar la matriz de T en la base B=\left\{\left[-1\;0\,1 \right]^{t}, \left[0\;-1\;1 \right]^{t},\left[\;0\;0\;1 \right]^{t}\right\} (es decir: \left[T \right]_{B}) ==== Ejercício 2 ==== Dado un espacio vectorial real //V// con producto interno ( , ), sean B=\left\{v_{1},v_{2},v_{3}\right\} una base ortonormal de //V// y //T//: //V// --> //V// la transformación lineal tal que para cada x ∈ //V// es T(x)=(x,v_{1}-v_{2})v_{1}+(x,v_{2}-v_{3})v_{2}. Probar que el conjunto S=\left\{x\in IM(T): d(x,T(x))=\left|\left|x \right| \right|\right\} es un subespacio de //V// y encontrar una base de S^{\perp}(en términos de la base //B//). ==== Ejercício 3 ==== Considerando el producto interno canónico en ℜ³ y dados dos vectores u ∈ ℜ³ y v ∈ ℜ³ linealmente independientes, sean //S// = gen {u,v}, //P//: ℜ³ --> ℜ³ la proyección sobre //S// y //φ//: ℜ³-->ℜ³ tal que \varphi (x)= Det\begin{pmatrix} {x_{1}}&{u_{1}}&{v_{1}}\\ {x_{2}}&{u_{2}}&{v_{2}}\\ {x_{3}}&{u_{3}}&{v_{3}} \end{pmatrix}. Verificar que //φ// es lineal y calcular la matriz //P// respecto de la base canónica, sabiendo que Nu(\varphi)^{\perp}=gen \left\{ \left[1\;1\;1 \right]^{t}\right\}. ==== Ejercício 4 ==== Considerando en \Re^{3x3} el producto interno dado por (X,Y)=tr(X^{t}Y), encontrar la matriz antisimétrica más próxima (respecto de la distancia dada por el producto definido previamente) a la matriz A=\begin{pmatrix} {1}&{2}&{0}\\ {1}&{3}&{1}\\ {0}&{2}&{0} \end{pmatrix} ==== Ejercício 5 ==== Sea A\in\Re^{3x2} una matriz tal que:\\ a) Existe b ∈ ℜ³ tal que para todo λ ∈ ℜ el vector \begin{pmatrix} {1}\\ {2} \end{pmatrix} + \lambda \begin{pmatrix} {1}\\ {1} \end{pmatrix} es solución de Ax=b por cuadrados mínimos.\\ b) Ax=[1\;2\;-1]^{t} es compatible. Dar las matrices de proyección a Col(A) y a Nul(A). ===== Resolución ===== ==== Ejercício 1 ==== La segunda condición implica que el rango de //T// es 2 y por el teorema de la dimensión (es decir: 3= dimIM(T) + dimNU(T)) resulta entonces que la dimensión del núcleo de //T// es 1. La condición 1) equivale, por lo tanto, a que el vector [\alpha \;0 \;1]^{t} genere dicho núcleo. Por otra parte, para cualquier endomorfismo lineal se verifica IM (T \circ T)\subseteq IM(T), por lo tanto, de la condición 3) se deduce la inclusión NU (T)=IM (T \circ T)\subseteq IM(T), lo que implica que el vector [\alpha \;0 \;1]^{t} debe pertenecer a la imagen de //T//, es decir: \alpha = -1. Entonces: indicando u=\left[-1\;0\;1 \right]^{t}, v=\left[0\;-1\;1 \right]^{t} y w=\left[0\;0\;1 \right]^{t} los vectores de la base dada en el enunciado, se observa que el primero constituye una base del núcleo de T y que los dos últimos forman una base de la imagen de T. Entonces: a) T(u)= 0 (no hay otra posibilidad)\\ \\ b) La imagen de T está generada por T(u), T(v) y T(w); de la condición a) y del hecho de que la imagen tiene dimensión 2, T(v) y T(w) deben formar una base de IM(T), es decir:\\ T(v)=au + bv\\ T(w)=cu+dv (*)\\ donde ad-bc \neq0.\\ \\ c) Finalmente, T(T(u)), T(T(v)) y T(T(w)) deben pertenecer al núcleo de T, pues IM (T \circ T)=NU(T). De (*) se tiene, entonces:\\ T(T(v))=aT(u)+bT(v)=0+bau+b^{2}v=ru\\ T(T(w))= cT(u)+ dT(v)=0+dau+dbv=su\\ para determinados r y s. Es decir: (ba-r)u+b^{2}v=0 y (da-s)u+dbv=0. Por la independencia lineal de estos dos vectores, se tiene necesariamente que b=0, r=0, da=s. En (*), se tiene T(v)=au, T(w)=cu+dv y s=ad\neq0. Por lo tanto, la matriz de T respecto de la base dada es\\ \left[T \right]_{B}= \begin{pmatrix} {0}&{a}&{c}\\ {0}&{0}&{d}\\ {0}&{0}&{0} \end{pmatrix}\\ donde ad\neq0. \\ \\ Comprobemos que, efectivamente, T satisface las condiciones requeridas:\\ 1) T(\left[-1\;0\;1 \right]^{t})=T(u)=[0 \;0 \;0]^{t} (\alpha = -1)\\ \\ 2) T(\left[0\;-1\;1 \right]^{t})=T(v)=au=\left[-a\;0\;a \right]^{t} \in \left\{x \in \Re^{3}: x_{1} + x_{2} + x_{3}=0\right\}\\ \\ T(\left[0\;0\;1 \right]^{t})=T(w)=cu+dv=\left[-c\;-d\;c+d \right]^{t} \in \left\{x \in \Re^{3}: x_{1} + x_{2} + x_{3}=0\right\}\\ y los vectores au y cu+dv son linealmente independientes, pues a y d son ambos no nulos. Por lo tanto,\\ IM(T)=gen\left\{au,cu+dv\right\}=gen\left\{u,v\right\}=\left\{x \in \Re^{3}: x_{1} + x_{2} + x_{3}=0\right\}\\ \\ 3) [T \circ T]_{B} =\begin{pmatrix} {0}&{a}&{c}\\ {0}&{0}&{d}\\ {0}&{0}&{0} \end{pmatrix}^{2}=\begin{pmatrix} {0}&{0}&{ad}\\ {0}&{0}&{0}\\ {0}&{0}&{0} \end{pmatrix} con ad\neq0,\\ por lo tanto, efectivamente IM(T \circ T)=gen\left\{u\right\}=NU(T)\\ \\ **Observación:** hemos dado todas las soluciones posibles, cosa que no se pedía en el enunciado. Una solución posible es, por ejemplo: \left[T \right]_{B}=\begin{pmatrix} {0}&{1}&{0}\\ {0}&{0}&{1}\\ {0}&{0}&{0} \end{pmatrix}\\ \\ ==== Ejercício 2 ==== Puesto que la imagen de T está generada por\\ T(v_{1})=(v_{1},v_{1}-v_{2})v_{1}+(v_{1},v_{2}-v_{3})v_{2}=v_{1}\\ T(v_{2})=(v_{2},v_{1}-v_{2})v_{1}+(v_{2},v_{2}-v_{3})v_{2}=-v_{1}+v_{2}\\ T(v_{3})=(v_{3},v_{1}-v_{2})v_{1}+(v_{3},v_{2}-v_{3})v_{2}=0\\ se tiene inmediatamente que una base ortonormal de IM(T) es B_{IM(T)}=\left\{v_{1},v_{2} \right\}. Entonces, dado un elemento x=x_{1}v_{1}+x_{2}v_{2} \in IM(T):\\ \\ 1)\left|\left|x \right| \right|^{2}=x_{1}^{2}+x_{2}^{2}\\ \\ 2) T(x)=x_{1}T(v_{1})+x_{2}T(v_{2})=x_{1}v_{1}+(-v_{1}+v_{2})=(x_{1}-x_{2})v_{1}+x_{2}v_{2}\\ \\ 3) x-T(x)=x_{1}v_{1}+x_{2}v_{2}-(x_{1}-x_{2})v_{1}-x_{2}v_{2}=x_{2}v_{1}\\ \\ 4) d(x,T(x))^{2}=\left|\left|x-T(x) \right| \right|^{2}=\left|\left|x_{2}v_{1} \right| \right|^{2}=x_{2}^{2}\\ \\ Por lo tanto:\\ S=\left\{x\in IM(T): d(x,T(x))=\left|\left|x \right| \right|\right\}=\left\{x\in IM(T): d(x,T(x))^{2}=\left|\left|x \right| \right|^{2}\right\}=\\ =\left\{x_{1}v_{1}+x_{2}v_{2}: x_{1}\in \Re, x_{2} \in \Re, x_{2}^{2}=x_{1}^{2}+x_{2}^{2}\right\}=\left\{x_{2}v_{2}:x_{2}\in \Re\right\} \\ es claramente un subespacio de //V//, el subespacio generado por v_{2}. Entonces, una base de S^{\perp} es, por ejemplo, S^{\perp}=\left\{v_{1},v_{3}\right\}\\ ==== Ejercício 3 ==== La verificación de que \varphi es lineal puede hacerse de varias y sencillas maneras. Por ejemplo: desarrollando el determinante por la primera columna se tiene \varphi(x)=(u_{2}v_{3}-u_{3}v_{2})x_{1}+(v_{1}u_{3}-v_{3}u_{1})x_{2}+(u_{1}v_{2}-u_{2}v_{1})x_{3}=\\ =w_{1}x_{1}+w_{2}x_{2}+w_{3}x_{3}=(w,x)\\ donde w=\left[w_{1}\;w_{2}\;w_{3} \right]^{t}=\left[u_{2}v_{3}-u_{3}v_{2}\quad v_{1}u_{3}-v_{3}u_{1}\quad u_{1}v_{2}-u_{2}v_{1} \right]^{t} y (.,.) es el producto interno canónico en ℜ³. De la bilinealidad del producto interno se deduce inmediatamente la linealidad de \varphi.\\ Ahora, \varphi (x)= Det\begin{pmatrix} {x_{1}}&{u_{1}}&{v_{1}}\\ {x_{2}}&{u_{2}}&{v_{2}}\\ {x_{3}}&{u_{3}}&{v_{3}} \end{pmatrix}=0 sii las columnas de la matriz son linealmente dependientes, es decir: sii los vectores //x//, //u// y //v// son linealmente dependientes. Puesto que //u// y //v// son linealmente independientes, resulta que \varphi (x)=0 \Leftrightarrow x \in gen\left\{u,v\right\}=S, es decir: Nu(\varphi)=S\\ Ahora: S^{\perp}=Nu(\varphi)^{\perp}=gen \left\{ \left[1\;1\;1 \right]^{t}\right\}, por lo tanto, la proyección sobre S^{\perp} es\\ P_{S^{\perp}}(x)=\frac{x_{1}+x_{2}+x_{3}}{3}\begin{pmatrix} {1}\\ {1}\\ {1} \end{pmatrix}=\begin{pmatrix} {\frac{1}{3}x_{1}}&{\frac{1}{3}x_{2}}&{\frac{1}{3}x_{3}}\\ {\frac{1}{3}x_{1}}&{\frac{1}{3}x_{2}}&{\frac{1}{3}x_{3}}\\ {\frac{1}{3}x_{1}}&{\frac{1}{3}x_{2}}&{\frac{1}{3}x_{3}} \end{pmatrix}=\begin{pmatrix} {\frac{1}{3}}&{\frac{1}{3}}&{\frac{1}{3}}\\ {\frac{1}{3}}&{\frac{1}{3}}&{\frac{1}{3}}\\ {\frac{1}{3}}&{\frac{1}{3}}&{\frac{1}{3}} \end{pmatrix}\begin{pmatrix} {x_{1}}\\ {x_{2}}\\ {x_{3}} \end{pmatrix}\\ Entonces, la matriz pedida es\\ \\ \begin{pmatrix} {1}&{0}&{0}\\ {0}&{1}&{0}\\ {0}&{0}&{1} \end{pmatrix}-\begin{pmatrix} {\frac{1}{3}}&{\frac{1}{3}}&{\frac{1}{3}}\\ {\frac{1}{3}}&{\frac{1}{3}}&{\frac{1}{3}}\\ {\frac{1}{3}}&{\frac{1}{3}}&{\frac{1}{3}} \end{pmatrix}=\begin{pmatrix} {\frac{2}{3}}&{\frac{-1}{3}}&{\frac{-1}{3}}\\ {\frac{-1}{3}}&{\frac{2}{3}}&{\frac{-1}{3}}\\ {\frac{-1}{3}}&{\frac{-1}{3}}&{\frac{2}{3}} \end{pmatrix}\\ \\ **Observación:** No hemos utilizado en esta resolución el hecho de que el vector //w// es el producto vectorial de //u// y //v//, lo que implica inmediatamente que //w// no es nulo (por ser //u// y //v// linealmente independientes) y que es ortogonal a //u// y a //v//, de donde resulta inmediatamente que S^{\perp}=gen\left\{w\right\}=Nu(\varphi)^{\perp}=gen\left\{[1\;1\;1\right\}^{t}. ==== Ejercício 4 ==== Se trata de encontrar la proyección de //A// sobre el subespacio de matrices antisimétricas. Una base del espacio de antisimétricas está constituída por las matrices\\ \\ F_{1}=\begin{pmatrix} {0}&{-1}&{0}\\ {1}&{0}&{0}\\ {0}&{0}&{0} \end{pmatrix}\qquad F_{2}=\begin{pmatrix} {0}&{0}&{-1}\\ {0}&{0}&{0}\\ {1}&{0}&{0} \end{pmatrix}\qquad F_{3}=\begin{pmatrix} {0}&{0}&{0}\\ {0}&{0}&{-1}\\ {0}&{1}&{0} \end{pmatrix}\\ \\ que verifican, para el producto interno dado:\\ \\ (F_{1},F_{1})=(F_{2},F_{2})=(F_{3},F_{3})=2 y (F_{1},F_{2})=(F_{1},F_{3})=(F_{2},F_{3})=0\\ \\ Es decir: se trata de una base ortogonal. Por lo tanto, la proyección de //A// sobre el subespacio de las matrices antisimétricas es\\ \\ P(A)=\frac{(A,F_{1})}{2}F_{1}+\frac{(A,F_{2})}{2}F_{2}+\frac{(A,F_{3})}{2}F_{3}=-\frac{1}{2}F_{1}+0.F_{2}+\frac{1}{2}F_{3}=\begin{pmatrix} {0}&{\frac{1}{2}}&{0}\\ {\frac{-1}{2}}&{0}&{\frac{-1}{2}}\\ {0}&{\frac{1}{2}}&{0} \end{pmatrix} ==== Ejercício 5 ==== La condición a) significa que \begin{pmatrix} {1}\\ {2} \end{pmatrix} es solución de //Ax//=//b// por cuadrados mínimos y además que \begin{pmatrix} {1}\\ {1} \end{pmatrix} \in Nul(A). Recordemos por qué: si para todo λ ∈ ℜ es A(\begin{pmatrix} {1}\\ {2} \end{pmatrix}+ \lambda \begin{pmatrix} {1}\\ {1} \end{pmatrix})=P_{Col(A)}(b), entonces, en particular (para λ=0) es A(\begin{pmatrix}{1}\\ {2} \end{pmatrix})=P_{Col(A)}(b) y por lo tanto resulta \lambda A(\begin{pmatrix}{1}\\ {1} \end{pmatrix})=0.\\ Ahora, b) significa que existe algún x_{0} \in \Re^{2} tal que Ax_{0}=[1\;2\;-1]^{t}, es decir: [1\;2\;-1]^{t} \in Col(A).\\ \\ Hemos encontrado \begin{pmatrix} {1}\\ {1} \end{pmatrix} \in Nul(A) y [1\;2\;-1]^{t} \in Col(A) por lo tanto, las dimensiones de //Nul//(//A//) y //Col//(//A//) son ≥ 1. Del teorema de la dimensión aplicado a la matriz //A//: 2= dim//Col//(//A//)+dim//Nul//(//A//), se tiene, finalmente, que los espacios //Nul//(//A//) y //Col//(//A//) son ambos de dimensión 1 y por lo tanto\\ \\ Nul(A)=gen\left\{[1\;1]^{t}\right\} y Col(A)=gen\left\{[1\;2\;-1]^{t}\right\}\\ \\ Entonces, las proyecciones sobre estos espacios son \\ \\ P_{Nul(A)}(x)=\frac{x_{1}+x_{2}}{2}\begin{pmatrix} {1}\\ {1} \end{pmatrix}=\begin{pmatrix} {\frac{1}{2}}&{\frac{1}{2}}\\ {\frac{1}{2}}&{\frac{1}{2}} \end{pmatrix}\begin{pmatrix} {x_{1}}\\ {x_{2}} \end{pmatrix}\\ \\ P_{Col(A)}(x)=\frac{x_{1}+2x_{2}-x_{3}}{6}\begin{pmatrix} {1}\\ {2}\\ {-1} \end{pmatrix}=\begin{pmatrix} {\frac{1}{6}}&{\frac{1}{3}}&{\frac{-1}{6}}\\ {\frac{1}{3}}&{\frac{2}{3}}&{\frac{-1}{3}}\\ {\frac{-1}{6}}&{\frac{-1}{3}}&{\frac{1}{6}} \end{pmatrix}\begin{pmatrix} {x_{1}}\\ {x_{2}}\\ {x_{3}} \end{pmatrix} En estas expresiones se observan las matrices pedidas.