Es un resumen de los temas de la materia que confeccione para repasar antes de los exámenes.
Realizado en .
Para la carátula y el índice se consultó: Template para hacer TP's en LaTeX, por Diego Essaya
Para las ecuaciones matemáticas y las referencias externas se consultó: Ecuaciones en LaTeX, por Sebastián Santisi
Descargar PDF: :materias:61:08:resumen_1_20090707.pdf
\documentclass[a4paper]{article} \usepackage[T1]{fontenc} \usepackage[spanish]{babel} \usepackage[latin1]{inputenc} \usepackage{amsfonts} \usepackage{amssymb} \usepackage{float} \usepackage{pstricks} %\title{} %\author{} %\date{...} \newfloat{textfloat}{p}{gjgj} \begin{document} % Titulo \thispagestyle{empty} \begin{textfloat} \centering {\LARGE Algebra II: Resumen Teórico } \\ \vskip 6em {\large \lineskip .75em Diego Martín Nieto Cid } \\ \vskip 1.5em {\large \today } \\ \vspace*{10cm} \end{textfloat} \clearpage \setcounter{page}{1} \tableofcontents \clearpage \section{Espacios vectoriales} \subsection{Subespacios} Sea $\mathbb{V}$ un espacio vectorial y $\mathbb{S} \subset \mathbb{V}$, $\mathbb{S}$ es subespacio si y sólo si \begin{itemize} \item $0_\mathbb{V} \in \mathbb{S}$ \item $u+v \in \mathbb{S} \quad \forall \ u,v \in \mathbb{S}$ \item $\lambda u \in \mathbb{S} \quad \forall\ u \in \mathbb{S};\ \forall\ \lambda \in \mathbb{K}$ \end{itemize} \subsection{Combinación Lineal} Sea el conjunto $ \left\{ v_1, \dots , v_n \right\} \subset \mathbb{V} $ y $w \in \mathbb{V}$, $w$ es combinación lineal de $\left\{ v_1, \dots , v_n \right\}$ si existen $\lambda_1, \dots , \lambda_n \in \mathbb{K}$ tales que $w = \lambda_1 v_1 + \dots + \lambda_n v_n $. \subsection{Independencia Lineal} El conjunto $ \left\{ v_1, \dots , v_n \right\} \subset \mathbb{V} $ es linealmente independiente si y sólo si $$ \sum_{i=1}^n \lambda_i v_i = 0 \Leftrightarrow \lambda_i = 0 \quad \forall\ i $$ \subsection{Base} El conjunto $ \left\{ v_1, \dots , v_n \right\} \subset \mathbb{V} $ es una base de $\mathbb{V}$ si y sólo si \begin{itemize} \item $ \left\{ v_1, \dots , v_n \right\}$ genera $\mathbb{V}$. \item $ \left\{ v_1, \dots , v_n \right\}$ es linealmente independiente. \end{itemize} Además $dim\left(\mathbb{V}\right) = n$. \subsection{Coordenadas} Sea $B=\left\{ v_1, \dots ,v_n \right\}$ una base de $\mathbb{V}$ y $v \in \mathbb{V}$ se denomina coordenadas al conjunto $\displaystyle \left\{ \lambda_1, \dots ,\lambda_n \right\}\ /\ v = \sum_{i=1}^n \lambda_i v_i$. Se define la siguiente función:\\ $c_B : \mathbb{V}\ \to\ \mathbb{K}^n$ $$ c_B(v) = \left( \begin{array}{c} \lambda_1 \\ \vdots \\ \lambda_n \end{array} \right) $$ \underline{Propiedades:} \begin{itemize} \item $c_B(v) = 0_{K^n} \iff v=0_\mathbb{V}$ \item $c_B(v+u) = c_B(v) + c_B(u)$ \item $c_B(\lambda v) = \lambda c_B(v)$ \item $\left\{ v_1, \dots , v_n \right\}$ L.I. $\iff \left\{ c_B(v_1), \dots , c_B(v_n) \right\}$ L.I. \end{itemize} \subsection{Matriz de cambio de base} Sean $B=\left\{ v_1, \dots ,v_n \right\}$ y $B^\prime =\left\{ w_1, \dots ,w_n \right\}$ bases de $\mathbb{V}$.\\ $\displaystyle C_{BB^\prime} = \left[ \begin{array}{ccc} c_{B^\prime}(v_1) & \dots & c_{B^\prime}(v_n) \end{array} \right] \quad$ cambio de base $B$ a $B^\prime$ $\displaystyle C_{B^\prime B} = \left[ \begin{array}{ccc} c_{B}(w_1) & \dots & c_{B}(w_n) \end{array} \right] = \left[ C_{BB^\prime} \right]^{-1} \quad$ cambio de base $B^\prime$ a $B$ \section{Wronskiano} Sean $\varphi_1,\varphi_2 \in \mathcal{C}^1$ \\ $$ W(\varphi_1,\varphi_2, x_0) = \left| \begin{array}{cc} \varphi_1(x_0) & \varphi_2(x_0) \\ {\varphi_1}^\prime (x_0) & {\varphi_2}^\prime (x_0) \end{array} \right| $$ Si $\exists\ x_0\ /\ W(\varphi_1,\varphi_2, x_0) \not= 0 \Longrightarrow \left\{ \varphi_1,\varphi_2 \right\}$ L.I. \section{Producto interno} \subsection{Definición} Sea $\mathbb{V}$ un $\mathbb{R}$ espacio vectorial, $\left< \cdot , \cdot \right>:\ \mathbb{V}\times\mathbb{V} \to \mathbb{R}$ es producto interno si \begin{itemize} \item $\left< x , y \right> = \left< y , x \right>$ \item $\left< \alpha x + \beta y , z \right> = \alpha \left< x , z \right> + \beta \left< y , z \right> \quad \alpha , \beta \in \mathbb{R}$ \item $\left< x , x \right> \geq 0 \quad \land \quad \left< x , x \right>=0 \iff x=0_\mathbb{V}$ \end{itemize} Sea $\mathbb{V}$ un $\mathbb{C}$ espacio vectorial, $\left< \cdot , \cdot \right>:\ \mathbb{V}\times\mathbb{V} \to \mathbb{C}$ es producto interno si \begin{itemize} \item $\left< x , y \right> = \overline{\left< y , x \right>}$ \item $\left< \alpha x + \beta y , z \right> = \overline{\alpha} \left< x , z \right> + \overline{\beta} \left< y , z \right> \quad \alpha , \beta \in \mathbb{C}$ \item $\left< x , x \right> \geq 0 \quad \land \quad \left< x , x \right>=0 \iff x=0_\mathbb{V}$ \end{itemize} \subsection{Desigualdad de Schwarz} $$\left< \cdot , \cdot \right> \mbox{ P.I. } \Longrightarrow \left| \left< x , y \right> \right| \leq \left\| x \right\| \left\| y \right\|$$ \subsection{Desigualdad triangular} $$ \left\| x + y \right\| \leq \left\| x \right\| + \left\| y \right\| $$ \subsection{Teorema de Pitágoras} $$ u \perp v \Longrightarrow {\left\| x + y \right\|}^2 = \left\| x \right\| + \left\| x + y \right\| $$ \subsection{Igualdad del paralelogramo} $$ {\left\| x + y \right\|}^2 - {\left\| x - y \right\|}^2 = 2 \left( {\left\| x \right\|}^2 + {\left\| y \right\|}^2 \right) $$ \subsection{Propiedades varias} \begin{itemize} \item $x^Ty$ producto canónico en $\mathbb{R}^n$ \item $\overline{x}^Ty$ producto canónico en $\mathbb{C}^n$ \item ${\left\| x \right\|}^2 = \left< x , y \right>$ \item $d(x,y) = \left\| x-y \right\|$ ( distancia de x a y ) \item $x \perp y \iff \left< x , y \right> = 0$ \item $ \alpha\ / \cos(\alpha) = \frac{\left< x , y \right>}{\left\| x \right\| \left\| y \right\|}$ ( ángulo subtendido entre x e y ) \item $\left\{ v_1, \dots ,v_n \right\}$ es un conjunto ortogonal si $\left< v_i , v_j \right> \quad \forall\ i \neq j$ \item $\left\{ v_1, \dots ,v_n \right\}$ es un conjunto ortonormal si es ortogonal y $\left< v_i , v_i \right> = 1 \quad \forall\ i$ \item Si $\left\{ v_1, \dots ,v_n \right\}$ es un conjunto ortogonal $\Longleftarrow$ es L.I. \item Sea $B = \left\{ v_1, \dots ,v_n \right\}$ base de $\mathbb{V}$, $x \in \mathbb{V}$, $y \in \mathbb{V}$ y \textbf{$\left< \cdot , \cdot \right>$ es P.I.} entonces $$ \left< x , y \right> = c_B(x)Gc_B(y)$$ donde $\displaystyle G = \left[ \begin{array}{ccc} \left< v_1 , v_1 \right> & \dots & \left< v_1 , v_n \right> \\ \vdots & \ddots & \vdots \\ \left< v_n , v_1 \right> & \dots & \left< v_n , v_n \right> \end{array} \right]$ simétrica en $\mathbb{R}$, hermítica en $\mathbb{C}$ y definida positiva. \end{itemize} \section{Proyección ortogonal} \underline{Complemento ortogonal:} Sea $\mathbb{S} \subset \mathbb{V}$, el complemento ortogonal, $\mathbb{S}^\perp$, es el conjunto $$ \mathbb{S}^\perp = \left\{ v \in \mathbb{V}\ / \ \left< v,s \right> = 0\ \forall \ s \in \mathbb{S} \right\}$$ \begin{itemize} \item $\mathbb{S}^\perp$ es subespacio. \item Si $\mathbb{S} = \mathbb{V}$ entonces $\mathbb{S}^\perp = \left\{ 0_\mathbb{V} \right\}$ \item ${\mathbb{S}^\perp}^\perp = \mathbb{S}$ \item $\mathbb{V} = \mathbb{S} \oplus \mathbb{S}^\perp $ \end{itemize} \subsection{Definición} Sea $\mathbb{V}$ un espacio vectorial con P.I., $\mathbb{S} \subset \mathbb{V}$, $x \in \mathbb{V}$ y $x^\prime \in \mathbb{V}$. \\ $x^\prime = {proy}_\mathbb{S} \quad \iff \quad x^\prime \in \mathbb{S}\ \land \ x-x^\prime \in \mathbb{S}^\perp$. \begin{itemize} \item Si $\exists$ ${proy}_\mathbb{S} x = x^\prime \ \Longrightarrow x^\prime$ es único. \item $d(x,x^\prime) \leq d(x,s) \quad \forall \ s \in \mathbb{S}$ \item Sea $B = \left\{ v_1, \dots , v_k \right\}$ una base ortogonal de $\mathbb{S}$.\\ $\displaystyle {proy}_\mathbb{S} x = \sum_{i=1}^k \alpha_i v_i \quad \mbox{donde } \alpha_i = \frac{\left< v_i, x \right>}{\left< v_i, v_i \right>}$ \item ${proy}_\mathbb{S} x = 0_\mathbb{V} \quad \iff \quad x \in \mathbb{S}^\perp$ \item Si $x \in \mathbb{S} \ \Longrightarrow \ {proy}_\mathbb{S} x = x$ \item Si $x \in \mathbb{V}$ entonces $x = {proy}_\mathbb{S} x + {proy}_{\mathbb{S}^\perp} x$ \item $x - {proy}_\mathbb{S} x = {proy}_{\mathbb{S}^\perp} x$ \end{itemize} \subsection{Gram-Schmidt} Sea $\mathbb{S} \subset \mathbb{V}$ y $B=\left\{ v_1, \dots ,v_n \right\}$ base de $\mathbb{S}\ \Longrightarrow \ \exists \ B^\prime = \left\{ u_1, \dots , u_n \right\}$ base ortogonal de $\mathbb{S}$ donde: \begin{itemize} \item $u_1 = v_1$ \item $u_i = v_i - {proy}_{\mathbb{S}_{i-1}} v_i \ ;\ \mathbb{S}_{i-1} = gen\left\{ u_1 , \dots , u_{i-1} \right\} \ ;\ 2 \leq i \leq n$ \end{itemize} \subsection{Matriz de proyección} Una matriz $P$ de proyección verifica \begin{enumerate} \item $P = P^T$ \item $P^2 = P$ \item $Px = {proy}_{col(P)} x$ \end{enumerate} Sea $\mathbb{S} \subset \mathbb{R}^n$ con el P.I. canónico y $B = {v_1, \dots ,v_k}$ base ortonormal de $\mathbb{S}$.\\ Si $Q = \left[ v_1 \dots v_k \right]$ entonces $ P = QQ^T $ proyecta sobre $\mathbb{S}$. \section{Cuadrados minimos} Sea $A \in \mathbb{R}^{m \times n}$. \\ Si $b \in col(A)$ entonces $Ax=b$ es compatible. \\ Si $b \notin col(A)$ es posible encontrar $x_0\ /\ Ax_0 = {proy}_{col(A)} b$. \\ La solución del sistema $Ax=b$ por cuadrados mínimos cumple $$ A^TAx=A^Tb \qquad \mbox{Ecuaciones normales} $$ \underline{Observaciones:} \begin{itemize} \item $Nul(A) = Nul(A^T)$ \item $rango(A^TA ) = rango(A)$ \item Si $rango(A) = n$ entonces $A^\# = (A^TA)^{-1}A^T$, denominada pseudo-inversa de $A$, es tal que \\ $$ A^\#A=I $$ $$ AA^\# = \mbox{ matriz de proyección} $$ \end{itemize} \subsection{Regresión lineal} Dado el conjunto de puntos $\left\{ (x_1,y_1), \dots ,(x_n, y_n) \right\}$ la recta que mejor ajusta a los puntos es \\ $$ \displaystyle y = mx + b $$ \\ donde $$\displaystyle \left[ \begin{array}{cc} n & \displaystyle \sum_{i=1}^n x_i \\ \displaystyle \sum_{i=1}^n x_i & \displaystyle \sum_{i=1}^n x_i^2 \end{array} \right] \left[ \begin{array}{c} b \\ m \end{array} \right] = \left[ \begin{array}{c} \displaystyle \sum_{i=1}^n y_i \\ \displaystyle \sum_{i=1}^n x_i y_i \end{array} \right]$$ \section{Transformaciones lineales} \subsection{Definición} Sean $\mathbb{V}$ y $\mathbb{W}$ $\mathbb{K}$ espacios vectoriales. Una función $T: \mathbb{V} \to \mathbb{W}$ es una transformación lineal si para $v_1, v_2 \in \mathbb{V}$ y $\lambda \in \mathbb{K}$ se verifican \begin{itemize} \item $T(v_1 + v_2) = T(v_1) + T(v_2)$ \item $T(\lambda v_1) = \lambda T(v_1)$ \end{itemize} \underline{Observaciones:} \begin{itemize} \item $T(0_\mathbb{V} ) = 0_\mathbb{W} \quad \forall \, T.L.$ \item Sean $T: \mathbb{V} \to \mathbb{W}$ y $G: \mathbb{W} \to \mathbb{U}$, la composición $G \circ T: \mathbb{V} \to \mathbb{U}$ es una transformación lineal. \item $Nu(T) = \left\{ v \in \mathbb{V}\ /\ T(v) = 0_\mathbb{W} \right\}$ \hfil subespacio de $\mathbb{V}$ \item $Im(T) = \left\{ w \in \mathbb{W}\ /\ w=T(v) \mbox{ para algún } v \in \mathbb{V} \right\}$ \hfil subespacio de $\mathbb{W}$ \end{itemize} \underline{Propiedades:} \begin{itemize} \item $\left\{ T(v_1), \dots , T(v_n) \right\}$ L.I $\Longrightarrow \left\{ v_1, \dots , v_n \right\}$ L.I. \item $dim( Nu(T)) + dim( Im(T)) = dim(\mathbb{V})$ \end{itemize} \subsection{Teorema de las transformaciones lineales} Sea $\mathbb{V}$ un espacio vectorial, $B=\left\{ v_1, \dots ,v_n \right\}$ \textbf{base} de $\mathbb{V}$ y dado el conjunto $\left\{ w_1, \dots ,w_n \right\} \subset \mathbb{W}$, $\exists \ ! \mbox{ T.L. } T: \mathbb{V} \to \mathbb{W} \ / \ T(v_i) = w_i \quad \forall \, i$. \subsection{Clasificación} \begin{itemize} \item Monomorfismo: $T$ inyectiva; $v_1 \neq v_2 \Longrightarrow T(v_1) \neq T(v_2)$ \item Epimorfismo: $T$ sobreyectiva; $Im(T) = \mathbb{W}$ \item Isomorfismo: $T$ biyectiva \end{itemize} \underline{Propiedades:} \begin{itemize} \item $T$ es monomorfismo $\iff Nu(T) = \left\{ 0_\mathbb{V} \right\}$ \item $T$ es monomorfismo $\Longrightarrow dim(\mathbb{V}) \leq dim(\mathbb{W})$ \item $T$ es epimorfismo $\Longrightarrow dim(\mathbb{W}) \leq dim(\mathbb{V})$ \item $T$ es isomorfismo $\Longrightarrow dim(\mathbb{V}) = dim(\mathbb{W})$ \item $T$ es isomorfismo $\Longrightarrow \exists \ T^{-1}: \mathbb{W} \to \mathbb{V}$ T.L. \item $T$ es isomorfismo y $\left\{ v_1, \dots ,v_n \right\}$ base de $\mathbb{V} \ \Longrightarrow \left\{ T(v_1), \dots ,T(v_n) \right\}$ base de $\mathbb{W}$ \end{itemize} \subsection{Matriz de la transformación} Sean $B=\left\{ v_1, \dots ,v_n \right\}$ base de $\mathbb{V}$ y $B^\prime = \left\{ w_1, \dots ,w_n \right\}$ base de $\mathbb{W}$. \\ $${\left[ T \right]}_{BB^\prime} = \left[ \begin{array}{ccc} c_{B^\prime}(T(v_1)) & \dots & c_{B^\prime}(T(v_1)) \end{array} \right]$$ $c_{B^\prime}(T(v)) = {\left[ T \right]}_{BB^\prime} c_B(v)$ \underline{Observaciones:} \begin{itemize} \item $rango( {\left[ T \right]}_{BB^\prime} ) = dim( Im(T))$ \item Las columnas de ${\left[ T \right]}_{BB^\prime}$ son las \textbf{coordenadas} de los generadores de $Im(T)$. \item Si $T$ es isomorfismo $\Longrightarrow \ \exists \ {\left[ T^{-1} \right]}_{B^\prime B} = {{\left[ T \right]}_{BB^\prime}}^{-1}$ \end{itemize} \section{Ecuaciones diferenciales} \subsection{Lineales de primer orden} \subsubsection{Generales} \begin{eqnarray} \nonumber y\prime + a(t)y = b(t) & & y\in \mathcal{C}^1 \\ && \nonumber a(t),b(t) \in \mathcal{C} \end{eqnarray} Si $b(t)= 0$, la ecuaión es homogenea. Todas las soluciones de la ecuación se pueden escribir $y = y_H + y_P$ donde $y_P$ es una solución de la ecuación e $y_H$ son las soluciones de la ecuación homogenea. $$ y_P = e^{-\lambda (t)}B(t) $$ $$ y_H = Ke^{-\lambda (t)} $$ $$ y = Ke^{-\lambda (t)} + e^{-\lambda (t)}B(t) $$ siendo $$\textstyle \lambda (t) = \int a(t)$$ $$\textstyle B(t)=\int e^{\lambda (t)}b(t)$$ \subsubsection{A coeficientes constantes} \begin{itemize} \item Método de los coeficientes indeterminados ( sólo si $b(t) = e^{kt}P_m(t)$ ) Si $a=-k$: $$ y_P = e^{-at} P_{m+1} $$ donde $ gr(P_{m+1}) = gr(P_m) + 1 $. Si $a \neq -k$: $$ y_P = e^{kt} Q_m(t) $$ donde $gr(Q_{m+1}) = gr(P_m)$. Luego reemplazando $y_P$ en la ecuación diferencial se obtienen los coeficicentes de $P_{m+1}$ o $Q_m$. \end{itemize} \subsubsection{Principio de superposición} \noindent $ y_1 \quad / \quad y_1\prime + ay_1 = b_1(t) $ \\ $ y_1 \quad / \quad y_2\prime + ay_2 = b_2(t) $ \\ Sumando se obtiene: $$ (y_1 + y_2 )\prime + a(y_1 + y_2) = b_1(t) +b_2(t) $$ Entonces $y_1 + y_2$ es solución de $ y\prime + a y = b_1(t)+b_2(t) $. \subsubsection{Problemas a valores iniciales} $\displaystyle \left\{ \begin{array}{ccc} y\prime + a(t) y & = & b(t) \\ y(t_0) & = & y_0 \end{array} \right. $ \begin{enumerate} \item Se obtiene $y_G$. \item Reemplazando $t$ por $t_0$ resulta $y_G(t_0) = y_0$, de donde se obtiene el valor de $K$. \end{enumerate} \subsubsection{Sistemas de ecuaciones} El sistema de ecuaciones diferenciales $$ \displaystyle \left\{ \begin{array}{ccc} \displaystyle\dot{x_1} &\displaystyle = &\displaystyle \sum_{i=1}^n x_i \cdot \alpha_{i1} \\ \displaystyle&\displaystyle \vdots &\displaystyle \\ \displaystyle\dot{x_n} &\displaystyle = &\displaystyle \sum_{i=1}^n x_i \cdot \alpha_{in} \\ \end{array} \right. $$ puede interpretarse matricialmente como $$ \dot{x} = Ax $$ donde $$ A = \left[ \begin{array}{ccc} \alpha_{11} & \cdots & \alpha_{1n} \\ \vdots & \ddots & \vdots \\ \alpha_{n1} & \cdots & \alpha_{nn} \end{array} \right] $$ $$ \dot{x} = \left[ \begin{array}{c} \dot{x_1} \\ \vdots \\ \dot{x_n} \end{array} \right] $$ $$ x = \left[ \begin{array}{c} x_1 \\ \vdots \\ x_n \end{array} \right] $$ Si $A$ es diagonalizable, $A = QDQ^{-1}$ con $$D= \left[ \begin{array}{ccc} \lambda_1 & & 0 \\ & \ddots & \\ 0 & & \lambda_n \end{array} \right] $$ $$Q= \left[ \begin{array}{ccc} v_1 & \cdots & v_n \end{array} \right] $$ Sea $y = Q^{-1}x$, $\dot{y}=Q^{-1}\dot{x}$: $$\dot{y} = Q^{-1}\dot{x} = Q^{-1}QDQ^{-1}x = Dy$$ quedando el sistema en $y$: $$ \displaystyle \left\{ \begin{array}{ccc} \displaystyle\dot{y_1} &\displaystyle = &\displaystyle \lambda_1 y_1 \\ \displaystyle&\displaystyle \vdots &\displaystyle \\ \displaystyle\dot{y_n} &\displaystyle = & \lambda_n y_n \\ \end{array} \right. $$ que tiene solución inmediata $$ y = \left[ \begin{array}{c} k_1 e^{\lambda_1 t} \\ \vdots \\ k_n e^{\lambda_n t} \\ \end{array} \right] $$ y $x=Qy$. \subsection{Lineales de segundo orden a coeficientes constantes} $$ y\prime \prime + a y\prime + by = c(t)$$ \subsubsection{Solución homogenea} $$P(x) = x^2 + ax + b \quad \longleftarrow \mbox{ polinomio caractrístico de la ecuación } $$ Sean ${\lambda}_1$ y ${\lambda}_1$ las raices de $P(x)$. \begin{itemize} \item Si ${\lambda}_1 \neq {\lambda}_2 \qquad {\lambda}_1,{\lambda}_2 \in \mathbb{R}$ \\ $$ S_H = gen\left\{ e^{{\lambda}_1t}, e^{{\lambda}_2t} \right\} $$ \item Si ${\lambda}_1 = {\lambda}_2 \qquad {\lambda}_1,{\lambda}_2 \in \mathbb{R}$ \\ $$ S_H = gen\left\{ te^{{\lambda}_1t}, e^{{\lambda}_1t} \right\} $$ \item Si ${\lambda}_1 = \overline{{\lambda}_2} \qquad {\lambda}_1,{\lambda}_2 \in \mathbb{C}$ \\ ${\lambda}_1 = \alpha + i \beta $ \\ ${\lambda}_2 = \alpha - i \beta $ \\ $$ S_H = gen\left\{ e^{{\lambda}_1t}, e^{{\lambda}_2t} \right\} $$ Empleando una combinación lineal adecuada de estos generadores es posible obtener la siguiente solucion: $$ S_H = gen\left\{ e^{\alpha t}\cos \beta t, e^{\alpha t}\sen \beta t \right\} $$ \end{itemize} \subsubsection{Solución particular} \begin{itemize} \item Coeficientes indeterminados( $c(t) = P_m e^{kt}$ ) \\ $$y_P = e^{kt}Q(t) $$ donde $gr(Q(t)) = \left\{ \begin{array}{lcl} gr(P_m) & \mbox{si} & {\lambda}_1 \neq {\lambda}_2 \neq k \\ gr(P_m) + 1 & \mbox{si} & {\lambda}_1=k \neq {\lambda}_2 \lor {\lambda}_2=k\neq{\lambda}_1 \\ gr(P_m) + 3 & \mbox{si} & {\lambda}_1={\lambda}_2 = k \end{array} \right.$ \item Método de variación de las constantes $ y_H = K_1 \phi_1 + K_2 \phi_2 $ $ y_P = c_1(t)\phi_1 + c_2(t)\phi_2 $ $$ \left\{ \begin{array}{ccc} c_1\prime \phi_1 + c_2 \prime \phi_2 & = & 0 \\ c_1\prime \phi_1\prime + c_2 \prime \phi_2\prime & = & c(t) \\ \end{array} \right. $$ Resolviendo el sistema por regla de cramer: $\displaystyle c_1\prime = \frac{-c(t)\phi_2(t)}{W(\phi_1,\phi_2)}$ \\ $\displaystyle c_2\prime = \frac{-c(t)\phi_1(t)}{W(\phi_1,\phi_2)}$ \\ De donde se obtienen $c_1$ y $c_2$ por integración de sus respectivas derivadas. \end{itemize} \subsubsection{Problemas a valores iniciales} $\displaystyle \left\{ \begin{array}{ccc} y\prime \prime + a y\prime + by & = & c(t) \\ y(t_0) & = & y_0 \\ y\prime(t_0) & = & y_1 \\ \end{array} \right. $ \begin{enumerate} \item $y_G = y_P + K_1\phi_1 + K_2\phi_2$ \item Reemplazando $t$ por $t_0$ resulta $y_G(t_0) = y_0$ y $y_G\prime(t_0) = y_1$, de donde se obtiene el valor de $K_1$ y $K_2$. \end{enumerate} \section{Autovectores y Autovalores} $v \neq 0$, $v \in K^n$ es autovector de $A \in K^{n \times n}$ si $\exists$ $\lambda \in K\ /\ Av = \lambda v$ Y se dice que $\lambda$ es el autovalor de $A$ asociado al autovector $v$. \underline{Polinomio Característico:} $P_A(\lambda) = det(A-\lambda I)$ $P_A$ tiene grado $n$ y sus raíces son los autovalores de $A$. $S_\lambda = Nul(A-\lambda I)$: autoespacio de $A$ asociado a $\lambda$ (generado por autovectores asociados a $\lambda$) \underline{Multiplicidad algebraica:} (m.a.) multiplicidad de $\lambda$ como raiz de $P_A$ \underline{Multiplicidad geométrica:} (m.g.) dimensión de $S_\lambda$ \underline{Observaciones:} \begin{itemize} \item Si $\lambda = 0$ es autovalor de $A$ $\Rightarrow$ $A$ es singular. \item Si $A$ es trianguar superior o inferior o diagonal $\Rightarrow$ Los elementos de la diagonal son los autovalores de $A$. \item $trz\ A = \sum^n \lambda_i$ \item $det\ A = \prod^n {\lambda_i}^{k_i} \quad donde k_i es m.a. de \lambda_i$ \item Si $\lambda_i \neq \lambda_j \Rightarrow \left\{ v_i, v_j\right\} L.I.$ \item Sea $P$: $K^{n \times n} \longrightarrow K^{n \times n}$ y $p:\ K \longrightarrow K$ $$P(A) = \sum a_iA^i \quad y \quad p(x) = \sum a_ix^i$$ Si $\lambda$ es autovalor de $A$ asociado a $v$ $\Rightarrow$ $p(\lambda)$ es autovalor de $P(A)$ asociado a $v$. \item $P_A(\lambda) = P_{A^T}(\lambda) \quad \therefore$ autovalores de $A$ = autovalores de $A^T$. Además, si $\lambda$ es autovalor de $A$ de m.g. $k$ $\Rightarrow$ $\lambda$ es autovalor de $A^T$ de m.g. $k$. \end{itemize} \section{Diagonalización} $A$ es diagonalizable $\Leftrightarrow$ $A=PDP^{-1}$ $\Leftrightarrow$ $\exists$ base de $K^n$ formada por autovectores de $A$ Siendo: $$P=\left[ \begin{array}{ccc} v_1 & \cdots & v_n \end{array} \right] \quad v_1 \cdots v_n autovectores de A$$ $$D= I \left[ \begin{array}{c} \lambda_1 \\ \vdots \\ \lambda_n \end{array} \right] \quad \lambda_1 \cdots \lambda_n autovalores de A$$ \subsection{Semejanza} $A$ es semejante a $B$, y se lo nota $A \sim B$, si y solo si $\exists$ $Q$ tal que $A = QBQ^{-1}$. Sean $A$, $B$, semejantes y $B$, $C$, semejantes, entonces: \begin{itemize} \item $P_A(\lambda) = P_B(\lambda)$ \item $dim(S_{\lambda_i,A}) = dim(s_{\lambda_i,B})$ \item $Av_i = \lambda_i v_i$ $\Leftrightarrow$ $B(Q^{-1}v_i) = \lambda_i(Q^{-1}v_i)$ \item $v_i \cdots v_k$ L.I. $\Leftrightarrow$ $Q^{-1}v_i \cdots Q^{-1}v_k$ L.I. \item $A \sim C$ (relación transitiva) \end{itemize} Si $A$ diagonalizable $\Rightarrow$ $A \sim D$. (donde $D$ es la matriz diagonal de autovalores.) \subsection{Aplicación a transformaciones lineales} $v \neq 0$ es autovector de la transformación $T: V \rightarrow V$, si $T(v) = \lambda v$ $B = \left\{ v_1 \cdots v_n \right\} \quad$ base de autovectores $\Rightarrow$ ${\left[ T \right] }_B = I \left[ \begin{array}{c} \lambda_1 \\ \vdots \\ \lambda_n \end{array} \right]$ $v$ es autovector de $T$ asociado a $\lambda$ $\Leftrightarrow$ $c_{B \prime}(v)$ es autovector de ${\left[ T \right]}_{B^\prime}$ asociado a $\lambda$ para cualquier base $B^\prime$. \underline{Observaciones:} \begin{itemize} \item ${\left[ T \right]}_{BB} \sim {\left[ T \right]}_{B^\prime B^\prime}$ \item $T$ es diagonalizable si existe $B$ base de autovectores de $T$. \end{itemize} \section{Matrices unitarias y ortogonales} ( Con producto interno canónico. ) $$\left. \begin{array}{l} U \mbox{ es unitaria si } U^{-1} = U^H = \bar{U}^T \\ P \mbox{ es ortogonal si } P^{-1} = P^T \end{array} \right\} \Leftrightarrow \begin{array}{c} \mbox{ sus columnas } \\ \mbox{ son una BON } \end{array}$$ Si $P$ es ortognal $\Rightarrow$ $P$ es unitaria. \underline{Propiedades:} \begin{itemize} \item $|det(U)| = 1$ \item $U$, $V$, unitarias $\Rightarrow$ $UV$, unitaria. \item $U$, unitaria $\Rightarrow$ $(u,v) = (Uu, Uv)$. Se dice que $U$ "conserva el producto interno" $\therefore$ conserva norma y ángulo. \item Si $\lambda$, autovalor de $U$, unitaria $\Rightarrow$ $|\lambda |=1$. \item Si $B=\left\{v_1 \cdots v_n\right\}$ BON de $C^n$ y $B^\prime =\left\{ w_1 \cdots w_n \right\}$ BON de $C^n$ $\Rightarrow$ $C_{BB^\prime}$, unitaria. \end{itemize} \section{Matrices simétricas y hermíticas} $A \in R^{n \times n}$ es simétrica si $A^T = A$ $A \in C^{n \times n}$ es hermítica si $A^H = A = \bar{A}^T$ $A$ es simétrica $\Rightarrow$ $A$ es hermítica. \underline{Propiedades:} \begin{itemize} \item $A$, hermítica $\Rightarrow$ $\bar{x}^T A x \in R \forall x \in C^n$ \item Si $\lambda$ es autovalor de $A$, hermítica $\Rightarrow$ $\lambda \in R$ \item Si $A$ es hermítica y $\lambda_i \neq \lambda_j$ autovalores de $A$ $\Rightarrow$ $v_i \bot v_j$ \item Si $S \subset C^n$ es invariante por $A$ $\Rightarrow$ $S^\bot$ es invariante por $A$. \end{itemize} \section{Teorema espectral} $A$ es simétrica si y solo si $\exists$ $P$ ortogonal tal que $A=PDP^T$. $A$ es hermítica si y solo si $\exists$ $U$ unitaria tal que $A=UDU^T$. \section{Formas cuadráticas} \begin{center} $F(x) = x^TAx$ con $A$ simétrica \end{center} Las formas cuadráticas más sencillas resultan cuando $A$ es diagonal: \begin{itemize} \item Elipses: $\frac{x^2}{a^2} + \frac{y^2}{b^2} = 1$ \item Hipérboles: $\frac{x^2}{a^2} - \frac{y^2}{b^2} = 1$ \end{itemize} Si $A$ no es diagonal resultan elipses o hipérboles rotadas respecto de los ejes cartesianos: $x_1^2 + 2x_1 x_2 + x_2^2$ Empleando el siguiente cambio de variable se logra obtener una expresión sencilla respecto de los ejes apropiados: $$x^T A x = c$$ $$x^T PDP^T x = c \quad A=PDP^T$$ Sea $y=P^T x$, $y^T = x^T P$: $$x^T A x = y^T D y = c$$ {\large Faltan 3 gráficos} \subsection{Clasificación} $\displaystyle Q(x) = x^T A x \quad A$ simétrica \begin{itemize} \item Definida positiva si: $x^T Ax > 0 \forall x \neq 0$ \item Definida negativa si: $x^T Ax < 0 \forall x \neq 0$ \item Semi-definida positiva si: $x^T Ax > 0 \forall x \geq 0$ \item Semi-definida negativa si: $x^T Ax < 0 \forall x \leq 0$ \item Indefinida si: $\exists x_1, x_2$ tal que $x_1^T A x_1 > 0$ y $x_2^T Ax_2 < 0$ \end{itemize} $Q(x)$ definida positiva $Leftrightarrow$ $\lambda_i > 0 \forall i$, con $\lambda_i$ autovalores de $A$. \subsection{Optimización} $\displaystyle Q(x) = x^T A x$ con restricción ${\| x \|}_2 = 1$ \vspace{0.1cm} $\displaystyle \begin{array}{c} max Q(x) \\ {\| x \|}_2 = 1 \end{array} \quad$ o $\displaystyle \quad \begin{array}{c} min Q(x) \\ {\| x \|}_2 = 1 \end{array}$ \vspace*{0.2cm} $\displaystyle \begin{array}{c} max Q(x) \\ {\| x \|}_2 = 1 \end{array} = \lambda_{max} \quad$ $Q(x) = \lambda_{max} \Leftrightarrow x=v$ (autovector) \vspace*{0.2cm} $\displaystyle \begin{array}{c} min Q(x) \\ {\| x \|}_2 = 1 \end{array} = \lambda_{mix} \quad$ $Q(x) = \lambda_{mix} \Leftrightarrow x=v$ (autovector) \vspace*{0.3cm} Si la restricción es ${\| x \|}_2 = k$, expresando $x$ como ${\| x \|}_2 \hat{v}$ con $\hat{v} = \frac{x}{{\| x \|}_2}$ resulta: $$x^T Ax = {\| x \|}_2^2 \hat{v}^T A \hat{v}$$ siendo $\lambda_{min} \leq \hat{v}^T A \hat{v} \leq \lambda_{max}$ $$\Rightarrow \quad {\| x \|}_2^2 \lambda_{min} \leq x^T Ax \leq {\| x \|}_2^2 \lambda_{max}$$ Si la restricción es $x^T BX=1$: \\ (si fuera $x^T Cx = k \rightarrow x^T Bx=1 \wedge B =\frac{C}{k}$) $B = SDS^T$ con $D=I\left[ \begin{array}{c} \lambda_1 \\ \vdots \\ \lambda_n \end{array} \right]$ Sea $D=D_1 D_1$ con $D_1 =I\left[ \begin{array}{c} \sqrt{\lambda_1} \\ \vdots \\ \sqrt{\lambda_n} \end{array} \right]$ $\Longrightarrow$ $x^T Bx = x^T S D_1 D_1 S^T x = 1$ Al introducirse la variable $z$: $z = D_1 S^T x$, la restricción se convierte, en z, a $\|z\|_2 = 1$. Ya que: $$x^T = z^T D_1 S^T \qquad \wedge \qquad x = SD_1^{-1}z$$ $$ \Rightarrow x^T Bx = z^T D_1 S^T S D_1^{-1}z = z^Tz$$ Sustituyendo en la forma cuadrática se reduce el problema a la restricción $\|z\|_2=1$: $$Q(x) = x^T A x \qquad \longrightarrow \qquad Q(z) = z^T C z$$ siendo $C=D_1^{-1} S^T A SD_1^{-1}$ $\wedge$ $x = SD_1^{-1}z$. \section{Descomposición en valores singulares (DVS)} \underline{Propiedad:} si $A\in R^{m\times n}$ $\Rightarrow$ $A^T A \in R^{n\times n}$ es simétrica y semi-definida positiva. Se llama valor singular de $A$ a $\sigma = \sqrt{\lambda}$, siendo $\lambda$ autovalor de $A^T A$. Si $A\in R^{m\times n}$, $rg(A) =r$ $\Rightarrow$ $\exists$ $U$ y $V$ tal que $A = U \Sigma V^T$, donde $$\Sigma \in R^{m \times n} \qquad \mbox{,} \qquad \Sigma = \left[ \begin{array}{ccc|c} \sigma_1 & & & 0 \\ & \ddots & & \vdots \\ & & \sigma_r & \\ \hline 0 & \cdots & & 0 \end{array} \right]$$ con $\sigma_1 \geq \sigma_2 \geq \cdots \geq \sigma_r > 0$: valores singulares de $A$. $$U \in R^{m\times m} \mbox{ , ortogonal } \qquad U = \left[ \mu_1 \cdots \mu_r \mu_{r+1} \cdots \mu_n \right]$$ con $\mu_i = \frac{Av_i}{\sigma_i} \forall i \in \{ 1 \cdots r \}$ y $\left\{ \mu_{r+1} \cdots \mu_n \right\}$ tal que $\left\{ \mu_1 \cdots \mu_n \right\}$ es BON de $R^m$ y $v_i$ autovector de $A^T A$ asociado a $\lambda_i$. $$V \in R^{n \times n} \mbox{ , ortogonal } \qquad V=\left[ v_1 \cdots v_n \right]$$ \subsection{DVS Reducida} $$\displaystyle A = U_r \Sigma_r V_r^T$$ con $$\displaystyle U_r = \left[ \mu_1 \cdots \mu_r \right]$$ $$\displaystyle \Sigma_r = I \left[ \begin{array}{c} \sigma_1 \\ \ddots \\ \sigma_r \end{array} \right]$$ $$\displaystyle V_r = \left[ v_1 \cdots v_r \right]$$ \subsection{Observaciones} \begin{itemize} \item $\left\{ v_1 \cdots v_r \right\}$ BON $Fil(A)$ \item $\left\{ v_{r+1} \cdots v_r \right\}$ BON $Nul(A)$ \item $\left\{ \mu_1 \cdots \mu_r \right\}$ BON $Col(A)$ \item $\left\{ \mu_{r+1} \cdots \mu_r \right\}$ BON ${\left[ Col(A) \right]}^\bot$ \end{itemize} \subsection{Pseudo inversa de Moore-Penrose} Sea $A=U_r \Sigma_r V_r^T$, se define $A^\dag = V_r \Sigma_r^\dag U_r^T$ o $A^\dag = V \Sigma^\dag U^T$ donde $$\Sigma^\dag = \left[ \begin{array}{c|c} \Sigma^{-1} & 0 \\ \hline 0 & 0 \end{array} \right]$$ \subsection{Propiedades} \begin{itemize} \item $U_r U_r^T =$ Matriz de proyección sobre $Col(A)$ \item $U_r^T U_r = I_{r\times r}$ \item $V_r V_r^T =$ Matriz de proyección sobre $Fil(A)$ \item $AA^\dag = U_r U_r^T$ \item $A^\dag A = V_r V_r^T$ \item $A(A^\dag A) = A$ \item $A^\dag A A^\dag = A^\dag$ \item $A \in R^{m \times n}$, $rg(A)=n$ $\Rightarrow$ $A^\dag = A^\#$ ($A^\# = (A^T A)^{-1}A$) \item $A \in R^{n \times n}$, no singular $\Rightarrow$ $A^\dag = A^{-1}$ \item \underline{Relación con mínimos cuadrados:} $Ax = b$ incompleto $\Longrightarrow$ $A\hat{x} = proy_{Col(A)} b$ $AA^\dag$ es la matriz de proyección $\Longrightarrow$ $A\hat{x} = AA^\dag b$ $\Rightarrow$ $x^\dag = A^\dag b$ es solución del problema de cuadrados mínimos de menor norma y todas las soluciones se escriben $\hat{x} = x^\dag + x_n$, con $x_n \in Nul(A)$. \end{itemize} \section{Observaciones de la práctica} \begin{itemize} \item $||P_S v||\leq ||v|| \quad \forall\ v$ \item $P_S v = v \quad \forall\ v \in S$ \item Householder (ver figura \ref{fig-hh}). $\displaystyle H = I - \frac{2}{w^Tw}ww^T$ \item Sea $P\ \in\ \mathcal{R}^{n\times n}$ la matriz de proyección sobre $S$, $I - P$ es matriz de proyección sobre $S^\perp$. \item $A\ \in\ \mathcal{R}^{n\times n}$, $rg(A) = k$, $k < n$ $\Rightarrow\ 0$ es autovalor de m.g. $n-k$. \item Sea $\lambda$ autovalor de $A$, $r\lambda$ es autovalor de $rA$. \item Sea $\lambda$ autovalor de $A$ y $k\ \in\ \mathcal{N}$ , $\lambda^k$ es autovalor de $A^k$. \item Sea $\lambda$ autovalor de $A$, $\lambda^{-1}$ es autovalor de $A^{-1}$ \item Sea $\lambda$ autovalor de $A$, $\lambda + r$ es autovalor de $A + rI$. \item Sea $\lambda$ autovalor de $A$, $r\lambda$ es autovalor de $rA$. \item Si $A\ \in\ \mathcal{R}^{n\times n}$ posee $n$ autovalores distintos entonces $A$ es diagonalizable. \item Si $A^2=A$ y $x\ \in\ Col(A)$, $Ax=x$. \item Sea $T(x)=Px$ con $P\ \in\ \mathcal{R}^{n\times n}$ y ortogonal. Si $S$ es invariante por $T$, $T(S)=S$ y $T(S^\perp)=S^\perp$. \item $x^HQy=(x,y)$, con $Q\ \in\ C^{n\times n}$ hermítica, define un productoo interno $\Leftrightarrow$ $Q$ es definida positiva. \item $A\ \in\ R^{n\times n}$, $|det(A)| = \prod \sigma_i$. \item $A\sim B$ $\Rightarrow$ $A$ tiene los mismos valores singulares que $B$. \end{itemize} \begin{figure} \begin{center} \begin{pspicture}(0,-2.5856423)(4.0475,2.6056423) \psline[linewidth=0.04cm,arrowsize=0.05cm 2.0,arrowlength=1.4,arrowinset=0.4]{->}(2.680124,-0.026671702)(3.6199715,2.4189544) \psline[linewidth=0.04cm,linestyle=dotted,dotsep=0.16cm](1.7044046,-2.5656424)(2.680124,-0.026671702) \psline[linewidth=0.04cm,linestyle=dotted,dotsep=0.16cm](0.234498,0.91317576)(2.680124,-0.026671702) \psline[linewidth=0.04cm,arrowsize=0.05cm 2.0,arrowlength=1.4,arrowinset=0.4]{->}(2.680124,-0.026671702)(0.7455011,1.5738388) \psline[linewidth=0.04cm,arrowsize=0.05cm 2.0,arrowlength=1.4,arrowinset=0.4]{->}(2.680124,-0.026671702)(0.17154849,0.08032679) \usefont{T1}{ptm}{m}{it} \rput(3.8853126,2.5165799){$w$} \rput(1.0451562,2.0365798){$v$} \rput(0.22375,0.33657977){$Hv$} \end{pspicture} \end{center} \caption{Matriz de Householder.} \label{fig-hh} \end{figure} \end{document}