====== Resumen Teórico ======
Es un resumen de los temas de la materia que confeccione para repasar antes de los exámenes.
----
\\
Realizado en $ \LaTeX $ .
Para la carátula y el índice se consultó: [[http://lug.fi.uba.ar/documentos/tp-generico/|Template para hacer TP's en LaTeX, por Diego Essaya]]
Para las ecuaciones matemáticas y las referencias externas se consultó: [[http://web.fi.uba.ar/~ssantisi/works/ecuaciones_en_latex/|Ecuaciones en LaTeX, por Sebastián Santisi]]
Descargar PDF: {{:materias:61:08:resumen_1_20090707.pdf|:materias:61:08:resumen_1_20090707.pdf}}
++++Ver fuente TEX:|
\documentclass[a4paper]{article}
\usepackage[T1]{fontenc}
\usepackage[spanish]{babel}
\usepackage[latin1]{inputenc}
\usepackage{amsfonts}
\usepackage{amssymb}
\usepackage{float}
\usepackage{pstricks}
%\title{}
%\author{}
%\date{...}
\newfloat{textfloat}{p}{gjgj}
\begin{document}
% Titulo
\thispagestyle{empty}
\begin{textfloat}
\centering
{\LARGE Algebra II: Resumen Teórico } \\
\vskip 6em
{\large \lineskip .75em Diego Martín Nieto Cid } \\
\vskip 1.5em
{\large \today } \\
\vspace*{10cm}
\end{textfloat}
\clearpage
\setcounter{page}{1}
\tableofcontents
\clearpage
\section{Espacios vectoriales}
\subsection{Subespacios}
Sea $\mathbb{V}$ un espacio vectorial y $\mathbb{S} \subset \mathbb{V}$, $\mathbb{S}$ es subespacio si y sólo si
\begin{itemize}
\item $0_\mathbb{V} \in \mathbb{S}$
\item $u+v \in \mathbb{S} \quad \forall \ u,v \in \mathbb{S}$
\item $\lambda u \in \mathbb{S} \quad \forall\ u \in \mathbb{S};\ \forall\ \lambda \in \mathbb{K}$
\end{itemize}
\subsection{Combinación Lineal}
Sea el conjunto $ \left\{ v_1, \dots , v_n \right\} \subset \mathbb{V} $ y $w \in \mathbb{V}$, $w$ es combinación lineal de $\left\{ v_1, \dots , v_n \right\}$ si existen $\lambda_1, \dots , \lambda_n \in \mathbb{K}$ tales que
$w = \lambda_1 v_1 + \dots + \lambda_n v_n $.
\subsection{Independencia Lineal}
El conjunto $ \left\{ v_1, \dots , v_n \right\} \subset \mathbb{V} $ es linealmente independiente si y sólo si
$$ \sum_{i=1}^n \lambda_i v_i = 0 \Leftrightarrow \lambda_i = 0 \quad \forall\ i $$
\subsection{Base}
El conjunto $ \left\{ v_1, \dots , v_n \right\} \subset \mathbb{V} $ es una base de $\mathbb{V}$ si y sólo si
\begin{itemize}
\item $ \left\{ v_1, \dots , v_n \right\}$ genera $\mathbb{V}$.
\item $ \left\{ v_1, \dots , v_n \right\}$ es linealmente independiente.
\end{itemize}
Además $dim\left(\mathbb{V}\right) = n$.
\subsection{Coordenadas}
Sea $B=\left\{ v_1, \dots ,v_n \right\}$ una base de $\mathbb{V}$ y $v \in \mathbb{V}$ se denomina coordenadas al conjunto $\displaystyle \left\{ \lambda_1, \dots ,\lambda_n \right\}\ /\ v = \sum_{i=1}^n \lambda_i v_i$.
Se define la siguiente función:\\
$c_B : \mathbb{V}\ \to\ \mathbb{K}^n$
$$ c_B(v) = \left(
\begin{array}{c}
\lambda_1 \\
\vdots \\
\lambda_n
\end{array}
\right) $$
\underline{Propiedades:}
\begin{itemize}
\item $c_B(v) = 0_{K^n} \iff v=0_\mathbb{V}$
\item $c_B(v+u) = c_B(v) + c_B(u)$
\item $c_B(\lambda v) = \lambda c_B(v)$
\item $\left\{ v_1, \dots , v_n \right\}$ L.I. $\iff \left\{ c_B(v_1), \dots , c_B(v_n) \right\}$ L.I.
\end{itemize}
\subsection{Matriz de cambio de base}
Sean $B=\left\{ v_1, \dots ,v_n \right\}$ y $B^\prime =\left\{ w_1, \dots ,w_n \right\}$ bases de $\mathbb{V}$.\\
$\displaystyle C_{BB^\prime} = \left[ \begin{array}{ccc}
c_{B^\prime}(v_1) & \dots & c_{B^\prime}(v_n)
\end{array}
\right] \quad$ cambio de base $B$ a $B^\prime$
$\displaystyle C_{B^\prime B} = \left[ \begin{array}{ccc}
c_{B}(w_1) & \dots & c_{B}(w_n)
\end{array}
\right] = \left[ C_{BB^\prime} \right]^{-1} \quad$ cambio de base $B^\prime$ a $B$
\section{Wronskiano}
Sean $\varphi_1,\varphi_2 \in \mathcal{C}^1$ \\
$$ W(\varphi_1,\varphi_2, x_0) = \left| \begin{array}{cc}
\varphi_1(x_0) & \varphi_2(x_0) \\
{\varphi_1}^\prime (x_0) & {\varphi_2}^\prime (x_0)
\end{array} \right| $$
Si $\exists\ x_0\ /\ W(\varphi_1,\varphi_2, x_0) \not= 0 \Longrightarrow \left\{ \varphi_1,\varphi_2 \right\}$ L.I.
\section{Producto interno}
\subsection{Definición}
Sea $\mathbb{V}$ un $\mathbb{R}$ espacio vectorial, $\left< \cdot , \cdot \right>:\ \mathbb{V}\times\mathbb{V} \to \mathbb{R}$ es producto interno si
\begin{itemize}
\item $\left< x , y \right> = \left< y , x \right>$
\item $\left< \alpha x + \beta y , z \right> = \alpha \left< x , z \right> + \beta \left< y , z \right> \quad \alpha , \beta \in \mathbb{R}$
\item $\left< x , x \right> \geq 0 \quad \land \quad \left< x , x \right>=0 \iff x=0_\mathbb{V}$
\end{itemize}
Sea $\mathbb{V}$ un $\mathbb{C}$ espacio vectorial, $\left< \cdot , \cdot \right>:\ \mathbb{V}\times\mathbb{V} \to \mathbb{C}$ es producto interno si
\begin{itemize}
\item $\left< x , y \right> = \overline{\left< y , x \right>}$
\item $\left< \alpha x + \beta y , z \right> = \overline{\alpha} \left< x , z \right> + \overline{\beta} \left< y , z \right> \quad \alpha , \beta \in \mathbb{C}$
\item $\left< x , x \right> \geq 0 \quad \land \quad \left< x , x \right>=0 \iff x=0_\mathbb{V}$
\end{itemize}
\subsection{Desigualdad de Schwarz}
$$\left< \cdot , \cdot \right> \mbox{ P.I. } \Longrightarrow \left| \left< x , y \right> \right| \leq \left\| x \right\| \left\| y \right\|$$
\subsection{Desigualdad triangular}
$$ \left\| x + y \right\| \leq \left\| x \right\| + \left\| y \right\| $$
\subsection{Teorema de Pitágoras}
$$ u \perp v \Longrightarrow {\left\| x + y \right\|}^2 = \left\| x \right\| + \left\| x + y \right\| $$
\subsection{Igualdad del paralelogramo}
$$ {\left\| x + y \right\|}^2 - {\left\| x - y \right\|}^2 = 2 \left( {\left\| x \right\|}^2 + {\left\| y \right\|}^2 \right) $$
\subsection{Propiedades varias}
\begin{itemize}
\item $x^Ty$ producto canónico en $\mathbb{R}^n$
\item $\overline{x}^Ty$ producto canónico en $\mathbb{C}^n$
\item ${\left\| x \right\|}^2 = \left< x , y \right>$
\item $d(x,y) = \left\| x-y \right\|$ ( distancia de x a y )
\item $x \perp y \iff \left< x , y \right> = 0$
\item $ \alpha\ / \cos(\alpha) = \frac{\left< x , y \right>}{\left\| x \right\| \left\| y \right\|}$ ( ángulo subtendido entre x e y )
\item $\left\{ v_1, \dots ,v_n \right\}$ es un conjunto ortogonal si $\left< v_i , v_j \right> \quad \forall\ i \neq j$
\item $\left\{ v_1, \dots ,v_n \right\}$ es un conjunto ortonormal si es ortogonal y $\left< v_i , v_i \right> = 1 \quad \forall\ i$
\item Si $\left\{ v_1, \dots ,v_n \right\}$ es un conjunto ortogonal $\Longleftarrow$ es L.I.
\item Sea $B = \left\{ v_1, \dots ,v_n \right\}$ base de $\mathbb{V}$, $x \in \mathbb{V}$, $y \in \mathbb{V}$ y \textbf{$\left< \cdot , \cdot \right>$ es P.I.} entonces
$$ \left< x , y \right> = c_B(x)Gc_B(y)$$
donde $\displaystyle G = \left[ \begin{array}{ccc}
\left< v_1 , v_1 \right> & \dots & \left< v_1 , v_n \right> \\
\vdots & \ddots & \vdots \\
\left< v_n , v_1 \right> & \dots & \left< v_n , v_n \right>
\end{array} \right]$ simétrica en $\mathbb{R}$, hermítica en $\mathbb{C}$ y definida positiva.
\end{itemize}
\section{Proyección ortogonal}
\underline{Complemento ortogonal:} Sea $\mathbb{S} \subset \mathbb{V}$, el complemento ortogonal, $\mathbb{S}^\perp$, es el conjunto
$$ \mathbb{S}^\perp = \left\{ v \in \mathbb{V}\ / \ \left< v,s \right> = 0\ \forall \ s \in \mathbb{S} \right\}$$
\begin{itemize}
\item $\mathbb{S}^\perp$ es subespacio.
\item Si $\mathbb{S} = \mathbb{V}$ entonces $\mathbb{S}^\perp = \left\{ 0_\mathbb{V} \right\}$
\item ${\mathbb{S}^\perp}^\perp = \mathbb{S}$
\item $\mathbb{V} = \mathbb{S} \oplus \mathbb{S}^\perp $
\end{itemize}
\subsection{Definición}
Sea $\mathbb{V}$ un espacio vectorial con P.I., $\mathbb{S} \subset \mathbb{V}$, $x \in \mathbb{V}$ y $x^\prime \in \mathbb{V}$. \\
$x^\prime = {proy}_\mathbb{S} \quad \iff \quad x^\prime \in \mathbb{S}\ \land \ x-x^\prime \in \mathbb{S}^\perp$.
\begin{itemize}
\item Si $\exists$ ${proy}_\mathbb{S} x = x^\prime \ \Longrightarrow x^\prime$ es único.
\item $d(x,x^\prime) \leq d(x,s) \quad \forall \ s \in \mathbb{S}$
\item Sea $B = \left\{ v_1, \dots , v_k \right\}$ una base ortogonal de $\mathbb{S}$.\\
$\displaystyle {proy}_\mathbb{S} x = \sum_{i=1}^k \alpha_i v_i \quad \mbox{donde } \alpha_i = \frac{\left< v_i, x \right>}{\left< v_i, v_i \right>}$
\item ${proy}_\mathbb{S} x = 0_\mathbb{V} \quad \iff \quad x \in \mathbb{S}^\perp$
\item Si $x \in \mathbb{S} \ \Longrightarrow \ {proy}_\mathbb{S} x = x$
\item Si $x \in \mathbb{V}$ entonces $x = {proy}_\mathbb{S} x + {proy}_{\mathbb{S}^\perp} x$
\item $x - {proy}_\mathbb{S} x = {proy}_{\mathbb{S}^\perp} x$
\end{itemize}
\subsection{Gram-Schmidt}
Sea $\mathbb{S} \subset \mathbb{V}$ y $B=\left\{ v_1, \dots ,v_n \right\}$ base de $\mathbb{S}\ \Longrightarrow \ \exists \ B^\prime = \left\{ u_1, \dots , u_n \right\}$ base ortogonal de $\mathbb{S}$ donde:
\begin{itemize}
\item $u_1 = v_1$
\item $u_i = v_i - {proy}_{\mathbb{S}_{i-1}} v_i \ ;\ \mathbb{S}_{i-1} = gen\left\{ u_1 , \dots , u_{i-1} \right\} \ ;\ 2 \leq i \leq n$
\end{itemize}
\subsection{Matriz de proyección}
Una matriz $P$ de proyección verifica
\begin{enumerate}
\item $P = P^T$
\item $P^2 = P$
\item $Px = {proy}_{col(P)} x$
\end{enumerate}
Sea $\mathbb{S} \subset \mathbb{R}^n$ con el P.I. canónico y $B = {v_1, \dots ,v_k}$ base ortonormal de $\mathbb{S}$.\\
Si $Q = \left[ v_1 \dots v_k \right]$ entonces $ P = QQ^T $ proyecta sobre $\mathbb{S}$.
\section{Cuadrados minimos}
Sea $A \in \mathbb{R}^{m \times n}$. \\
Si $b \in col(A)$ entonces $Ax=b$ es compatible. \\
Si $b \notin col(A)$ es posible encontrar $x_0\ /\ Ax_0 = {proy}_{col(A)} b$. \\
La solución del sistema $Ax=b$ por cuadrados mínimos cumple
$$ A^TAx=A^Tb \qquad \mbox{Ecuaciones normales} $$
\underline{Observaciones:}
\begin{itemize}
\item $Nul(A) = Nul(A^T)$
\item $rango(A^TA ) = rango(A)$
\item Si $rango(A) = n$ entonces $A^\# = (A^TA)^{-1}A^T$, denominada pseudo-inversa de $A$, es tal que \\
$$ A^\#A=I $$
$$ AA^\# = \mbox{ matriz de proyección} $$
\end{itemize}
\subsection{Regresión lineal}
Dado el conjunto de puntos $\left\{ (x_1,y_1), \dots ,(x_n, y_n) \right\}$ la recta que mejor ajusta a los puntos es \\
$$ \displaystyle y = mx + b $$ \\
donde
$$\displaystyle \left[ \begin{array}{cc}
n & \displaystyle \sum_{i=1}^n x_i \\
\displaystyle \sum_{i=1}^n x_i & \displaystyle \sum_{i=1}^n x_i^2
\end{array} \right] \left[ \begin{array}{c}
b \\ m
\end{array} \right] = \left[ \begin{array}{c}
\displaystyle \sum_{i=1}^n y_i \\
\displaystyle \sum_{i=1}^n x_i y_i
\end{array} \right]$$
\section{Transformaciones lineales}
\subsection{Definición}
Sean $\mathbb{V}$ y $\mathbb{W}$ $\mathbb{K}$ espacios vectoriales. Una función $T: \mathbb{V} \to \mathbb{W}$ es una transformación lineal si para $v_1, v_2 \in \mathbb{V}$ y $\lambda \in \mathbb{K}$ se verifican
\begin{itemize}
\item $T(v_1 + v_2) = T(v_1) + T(v_2)$
\item $T(\lambda v_1) = \lambda T(v_1)$
\end{itemize}
\underline{Observaciones:}
\begin{itemize}
\item $T(0_\mathbb{V} ) = 0_\mathbb{W} \quad \forall \, T.L.$
\item Sean $T: \mathbb{V} \to \mathbb{W}$ y $G: \mathbb{W} \to \mathbb{U}$, la composición $G \circ T: \mathbb{V} \to \mathbb{U}$ es una transformación lineal.
\item $Nu(T) = \left\{ v \in \mathbb{V}\ /\ T(v) = 0_\mathbb{W} \right\}$ \hfil subespacio de $\mathbb{V}$
\item $Im(T) = \left\{ w \in \mathbb{W}\ /\ w=T(v) \mbox{ para algún } v \in \mathbb{V} \right\}$ \hfil subespacio de $\mathbb{W}$
\end{itemize}
\underline{Propiedades:}
\begin{itemize}
\item $\left\{ T(v_1), \dots , T(v_n) \right\}$ L.I $\Longrightarrow \left\{ v_1, \dots , v_n \right\}$ L.I.
\item $dim( Nu(T)) + dim( Im(T)) = dim(\mathbb{V})$
\end{itemize}
\subsection{Teorema de las transformaciones lineales}
Sea $\mathbb{V}$ un espacio vectorial, $B=\left\{ v_1, \dots ,v_n \right\}$ \textbf{base} de $\mathbb{V}$ y dado el conjunto $\left\{ w_1, \dots ,w_n \right\} \subset \mathbb{W}$, $\exists \ ! \mbox{ T.L. } T: \mathbb{V} \to \mathbb{W} \ / \ T(v_i) = w_i \quad \forall \, i$.
\subsection{Clasificación}
\begin{itemize}
\item Monomorfismo: $T$ inyectiva; $v_1 \neq v_2 \Longrightarrow T(v_1) \neq T(v_2)$
\item Epimorfismo: $T$ sobreyectiva; $Im(T) = \mathbb{W}$
\item Isomorfismo: $T$ biyectiva
\end{itemize}
\underline{Propiedades:}
\begin{itemize}
\item $T$ es monomorfismo $\iff Nu(T) = \left\{ 0_\mathbb{V} \right\}$
\item $T$ es monomorfismo $\Longrightarrow dim(\mathbb{V}) \leq dim(\mathbb{W})$
\item $T$ es epimorfismo $\Longrightarrow dim(\mathbb{W}) \leq dim(\mathbb{V})$
\item $T$ es isomorfismo $\Longrightarrow dim(\mathbb{V}) = dim(\mathbb{W})$
\item $T$ es isomorfismo $\Longrightarrow \exists \ T^{-1}: \mathbb{W} \to \mathbb{V}$ T.L.
\item $T$ es isomorfismo y $\left\{ v_1, \dots ,v_n \right\}$ base de $\mathbb{V} \ \Longrightarrow \left\{ T(v_1), \dots ,T(v_n) \right\}$ base de $\mathbb{W}$
\end{itemize}
\subsection{Matriz de la transformación}
Sean $B=\left\{ v_1, \dots ,v_n \right\}$ base de $\mathbb{V}$ y $B^\prime = \left\{ w_1, \dots ,w_n \right\}$ base de $\mathbb{W}$. \\
$${\left[ T \right]}_{BB^\prime} = \left[ \begin{array}{ccc}
c_{B^\prime}(T(v_1)) & \dots & c_{B^\prime}(T(v_1)) \end{array} \right]$$
$c_{B^\prime}(T(v)) = {\left[ T \right]}_{BB^\prime} c_B(v)$
\underline{Observaciones:}
\begin{itemize}
\item $rango( {\left[ T \right]}_{BB^\prime} ) = dim( Im(T))$
\item Las columnas de ${\left[ T \right]}_{BB^\prime}$ son las \textbf{coordenadas} de los generadores de $Im(T)$.
\item Si $T$ es isomorfismo $\Longrightarrow \ \exists \ {\left[ T^{-1} \right]}_{B^\prime B} = {{\left[ T \right]}_{BB^\prime}}^{-1}$
\end{itemize}
\section{Ecuaciones diferenciales}
\subsection{Lineales de primer orden}
\subsubsection{Generales}
\begin{eqnarray}
\nonumber y\prime + a(t)y = b(t) & & y\in \mathcal{C}^1 \\
&& \nonumber a(t),b(t) \in \mathcal{C}
\end{eqnarray}
Si $b(t)= 0$, la ecuaión es homogenea.
Todas las soluciones de la ecuación se pueden escribir $y = y_H + y_P$ donde $y_P$ es una solución de la ecuación e $y_H$ son las soluciones de la ecuación homogenea.
$$ y_P = e^{-\lambda (t)}B(t) $$
$$ y_H = Ke^{-\lambda (t)} $$
$$ y = Ke^{-\lambda (t)} + e^{-\lambda (t)}B(t) $$
siendo
$$\textstyle \lambda (t) = \int a(t)$$
$$\textstyle B(t)=\int e^{\lambda (t)}b(t)$$
\subsubsection{A coeficientes constantes}
\begin{itemize}
\item Método de los coeficientes indeterminados ( sólo si $b(t) = e^{kt}P_m(t)$ )
Si $a=-k$:
$$ y_P = e^{-at} P_{m+1} $$
donde $ gr(P_{m+1}) = gr(P_m) + 1 $.
Si $a \neq -k$:
$$ y_P = e^{kt} Q_m(t) $$
donde $gr(Q_{m+1}) = gr(P_m)$.
Luego reemplazando $y_P$ en la ecuación diferencial se obtienen los coeficicentes de $P_{m+1}$ o $Q_m$.
\end{itemize}
\subsubsection{Principio de superposición}
\noindent $ y_1 \quad / \quad y_1\prime + ay_1 = b_1(t) $ \\
$ y_1 \quad / \quad y_2\prime + ay_2 = b_2(t) $ \\
Sumando se obtiene:
$$ (y_1 + y_2 )\prime + a(y_1 + y_2) = b_1(t) +b_2(t) $$
Entonces $y_1 + y_2$ es solución de $ y\prime + a y = b_1(t)+b_2(t) $.
\subsubsection{Problemas a valores iniciales}
$\displaystyle \left\{
\begin{array}{ccc}
y\prime + a(t) y & = & b(t) \\
y(t_0) & = & y_0
\end{array}
\right. $
\begin{enumerate}
\item Se obtiene $y_G$.
\item Reemplazando $t$ por $t_0$ resulta $y_G(t_0) = y_0$, de donde se obtiene el valor de $K$.
\end{enumerate}
\subsubsection{Sistemas de ecuaciones}
El sistema de ecuaciones diferenciales
$$ \displaystyle
\left\{
\begin{array}{ccc}
\displaystyle\dot{x_1} &\displaystyle = &\displaystyle \sum_{i=1}^n x_i \cdot \alpha_{i1} \\
\displaystyle&\displaystyle \vdots &\displaystyle \\
\displaystyle\dot{x_n} &\displaystyle = &\displaystyle \sum_{i=1}^n x_i \cdot \alpha_{in} \\
\end{array}
\right.
$$
puede interpretarse matricialmente como
$$
\dot{x} = Ax
$$
donde
$$
A =
\left[
\begin{array}{ccc}
\alpha_{11} & \cdots & \alpha_{1n} \\
\vdots & \ddots & \vdots \\
\alpha_{n1} & \cdots & \alpha_{nn}
\end{array}
\right]
$$
$$
\dot{x} =
\left[
\begin{array}{c}
\dot{x_1} \\
\vdots \\
\dot{x_n}
\end{array}
\right]
$$
$$
x =
\left[
\begin{array}{c}
x_1 \\
\vdots \\
x_n
\end{array}
\right]
$$
Si $A$ es diagonalizable, $A = QDQ^{-1}$
con
$$D=
\left[
\begin{array}{ccc}
\lambda_1 & & 0 \\
& \ddots & \\
0 & & \lambda_n
\end{array}
\right]
$$
$$Q=
\left[
\begin{array}{ccc}
v_1 & \cdots & v_n
\end{array}
\right]
$$
Sea $y = Q^{-1}x$, $\dot{y}=Q^{-1}\dot{x}$:
$$\dot{y} = Q^{-1}\dot{x} = Q^{-1}QDQ^{-1}x = Dy$$
quedando el sistema en $y$:
$$ \displaystyle
\left\{
\begin{array}{ccc}
\displaystyle\dot{y_1} &\displaystyle = &\displaystyle \lambda_1 y_1 \\
\displaystyle&\displaystyle \vdots &\displaystyle \\
\displaystyle\dot{y_n} &\displaystyle = & \lambda_n y_n \\
\end{array}
\right.
$$
que tiene solución inmediata
$$
y =
\left[
\begin{array}{c}
k_1 e^{\lambda_1 t} \\
\vdots \\
k_n e^{\lambda_n t} \\
\end{array}
\right]
$$
y $x=Qy$.
\subsection{Lineales de segundo orden a coeficientes constantes}
$$ y\prime \prime + a y\prime + by = c(t)$$
\subsubsection{Solución homogenea}
$$P(x) = x^2 + ax + b \quad \longleftarrow \mbox{ polinomio caractrístico de la ecuación } $$
Sean ${\lambda}_1$ y ${\lambda}_1$ las raices de $P(x)$.
\begin{itemize}
\item Si ${\lambda}_1 \neq {\lambda}_2 \qquad {\lambda}_1,{\lambda}_2 \in \mathbb{R}$ \\
$$ S_H = gen\left\{ e^{{\lambda}_1t}, e^{{\lambda}_2t} \right\} $$
\item Si ${\lambda}_1 = {\lambda}_2 \qquad {\lambda}_1,{\lambda}_2 \in \mathbb{R}$ \\
$$ S_H = gen\left\{ te^{{\lambda}_1t}, e^{{\lambda}_1t} \right\} $$
\item Si ${\lambda}_1 = \overline{{\lambda}_2} \qquad {\lambda}_1,{\lambda}_2 \in \mathbb{C}$ \\
${\lambda}_1 = \alpha + i \beta $ \\
${\lambda}_2 = \alpha - i \beta $ \\
$$ S_H = gen\left\{ e^{{\lambda}_1t}, e^{{\lambda}_2t} \right\} $$
Empleando una combinación lineal adecuada de estos generadores es posible obtener la siguiente solucion:
$$ S_H = gen\left\{ e^{\alpha t}\cos \beta t, e^{\alpha t}\sen \beta t \right\} $$
\end{itemize}
\subsubsection{Solución particular}
\begin{itemize}
\item Coeficientes indeterminados( $c(t) = P_m e^{kt}$ ) \\
$$y_P = e^{kt}Q(t) $$
donde
$gr(Q(t)) = \left\{ \begin{array}{lcl}
gr(P_m) & \mbox{si} & {\lambda}_1 \neq {\lambda}_2 \neq k \\
gr(P_m) + 1 & \mbox{si} & {\lambda}_1=k \neq {\lambda}_2 \lor {\lambda}_2=k\neq{\lambda}_1 \\
gr(P_m) + 3 & \mbox{si} & {\lambda}_1={\lambda}_2 = k
\end{array} \right.$
\item Método de variación de las constantes
$ y_H = K_1 \phi_1 + K_2 \phi_2 $
$ y_P = c_1(t)\phi_1 + c_2(t)\phi_2 $
$$ \left\{ \begin{array}{ccc}
c_1\prime \phi_1 + c_2 \prime \phi_2 & = & 0 \\
c_1\prime \phi_1\prime + c_2 \prime \phi_2\prime & = & c(t) \\
\end{array}
\right. $$
Resolviendo el sistema por regla de cramer:
$\displaystyle c_1\prime = \frac{-c(t)\phi_2(t)}{W(\phi_1,\phi_2)}$ \\
$\displaystyle c_2\prime = \frac{-c(t)\phi_1(t)}{W(\phi_1,\phi_2)}$ \\
De donde se obtienen $c_1$ y $c_2$ por integración de sus respectivas derivadas.
\end{itemize}
\subsubsection{Problemas a valores iniciales}
$\displaystyle \left\{
\begin{array}{ccc}
y\prime \prime + a y\prime + by & = & c(t) \\
y(t_0) & = & y_0 \\
y\prime(t_0) & = & y_1 \\
\end{array}
\right. $
\begin{enumerate}
\item $y_G = y_P + K_1\phi_1 + K_2\phi_2$
\item Reemplazando $t$ por $t_0$ resulta $y_G(t_0) = y_0$ y
$y_G\prime(t_0) = y_1$, de donde se obtiene el valor de $K_1$ y $K_2$.
\end{enumerate}
\section{Autovectores y Autovalores}
$v \neq 0$, $v \in K^n$ es autovector de $A \in K^{n \times n}$ si $\exists$
$\lambda \in K\ /\ Av = \lambda v$ Y se dice que $\lambda$ es el autovalor de $A$
asociado al autovector $v$.
\underline{Polinomio Característico:} $P_A(\lambda) = det(A-\lambda I)$
$P_A$ tiene grado $n$ y sus raíces son los autovalores de $A$.
$S_\lambda = Nul(A-\lambda I)$: autoespacio de $A$ asociado a $\lambda$ (generado
por autovectores asociados a $\lambda$)
\underline{Multiplicidad algebraica:} (m.a.) multiplicidad de $\lambda$ como raiz
de $P_A$
\underline{Multiplicidad geométrica:} (m.g.) dimensión de $S_\lambda$
\underline{Observaciones:}
\begin{itemize}
\item Si $\lambda = 0$ es autovalor de $A$ $\Rightarrow$ $A$ es singular.
\item Si $A$ es trianguar superior o inferior o diagonal $\Rightarrow$ Los
elementos de la diagonal son los autovalores de $A$.
\item $trz\ A = \sum^n \lambda_i$
\item $det\ A = \prod^n {\lambda_i}^{k_i} \quad donde k_i es m.a. de \lambda_i$
\item Si $\lambda_i \neq \lambda_j \Rightarrow \left\{ v_i, v_j\right\} L.I.$
\item Sea $P$: $K^{n \times n} \longrightarrow K^{n \times n}$ y $p:\ K
\longrightarrow K$
$$P(A) = \sum a_iA^i \quad y \quad p(x) = \sum a_ix^i$$
Si $\lambda$ es autovalor de $A$ asociado a $v$ $\Rightarrow$ $p(\lambda)$
es autovalor de $P(A)$ asociado a $v$.
\item $P_A(\lambda) = P_{A^T}(\lambda) \quad \therefore$ autovalores de $A$ =
autovalores de $A^T$.
Además, si $\lambda$ es autovalor de $A$ de m.g. $k$ $\Rightarrow$
$\lambda$ es autovalor de $A^T$ de m.g. $k$.
\end{itemize}
\section{Diagonalización}
$A$ es diagonalizable $\Leftrightarrow$ $A=PDP^{-1}$ $\Leftrightarrow$ $\exists$
base de $K^n$ formada por autovectores de $A$
Siendo:
$$P=\left[ \begin{array}{ccc} v_1 & \cdots & v_n \end{array} \right] \quad
v_1 \cdots v_n autovectores de A$$
$$D= I \left[ \begin{array}{c} \lambda_1 \\ \vdots \\ \lambda_n \end{array} \right]
\quad \lambda_1 \cdots \lambda_n autovalores de A$$
\subsection{Semejanza}
$A$ es semejante a $B$, y se lo nota $A \sim B$, si y solo si $\exists$ $Q$ tal
que $A = QBQ^{-1}$.
Sean $A$, $B$, semejantes y $B$, $C$, semejantes, entonces:
\begin{itemize}
\item $P_A(\lambda) = P_B(\lambda)$
\item $dim(S_{\lambda_i,A}) = dim(s_{\lambda_i,B})$
\item $Av_i = \lambda_i v_i$ $\Leftrightarrow$ $B(Q^{-1}v_i) =
\lambda_i(Q^{-1}v_i)$
\item $v_i \cdots v_k$ L.I. $\Leftrightarrow$ $Q^{-1}v_i \cdots Q^{-1}v_k$ L.I.
\item $A \sim C$ (relación transitiva)
\end{itemize}
Si $A$ diagonalizable $\Rightarrow$ $A \sim D$. (donde $D$ es la matriz diagonal
de autovalores.)
\subsection{Aplicación a transformaciones lineales}
$v \neq 0$ es autovector de la transformación $T: V \rightarrow V$, si
$T(v) = \lambda v$
$B = \left\{ v_1 \cdots v_n \right\} \quad$ base de autovectores $\Rightarrow$
${\left[ T \right] }_B = I \left[ \begin{array}{c} \lambda_1 \\ \vdots \\
\lambda_n \end{array} \right]$
$v$ es autovector de $T$ asociado a $\lambda$ $\Leftrightarrow$
$c_{B \prime}(v)$ es autovector de ${\left[ T \right]}_{B^\prime}$ asociado a
$\lambda$ para cualquier base $B^\prime$.
\underline{Observaciones:}
\begin{itemize}
\item ${\left[ T \right]}_{BB} \sim {\left[ T \right]}_{B^\prime B^\prime}$
\item $T$ es diagonalizable si existe $B$ base de autovectores de $T$.
\end{itemize}
\section{Matrices unitarias y ortogonales}
( Con producto interno canónico. )
$$\left.
\begin{array}{l}
U \mbox{ es unitaria si } U^{-1} = U^H = \bar{U}^T \\
P \mbox{ es ortogonal si } P^{-1} = P^T
\end{array}
\right\} \Leftrightarrow
\begin{array}{c}
\mbox{ sus columnas } \\
\mbox{ son una BON }
\end{array}$$
Si $P$ es ortognal $\Rightarrow$ $P$ es unitaria.
\underline{Propiedades:}
\begin{itemize}
\item $|det(U)| = 1$
\item $U$, $V$, unitarias $\Rightarrow$ $UV$, unitaria.
\item $U$, unitaria $\Rightarrow$ $(u,v) = (Uu, Uv)$.
Se dice que $U$ "conserva el producto interno" $\therefore$ conserva
norma y ángulo.
\item Si $\lambda$, autovalor de $U$, unitaria $\Rightarrow$ $|\lambda |=1$.
\item Si $B=\left\{v_1 \cdots v_n\right\}$ BON de $C^n$ y $B^\prime =\left\{
w_1 \cdots w_n \right\}$ BON de $C^n$ $\Rightarrow$ $C_{BB^\prime}$,
unitaria.
\end{itemize}
\section{Matrices simétricas y hermíticas}
$A \in R^{n \times n}$ es simétrica si $A^T = A$
$A \in C^{n \times n}$ es hermítica si $A^H = A = \bar{A}^T$
$A$ es simétrica $\Rightarrow$ $A$ es hermítica.
\underline{Propiedades:}
\begin{itemize}
\item $A$, hermítica $\Rightarrow$ $\bar{x}^T A x \in R \forall x \in C^n$
\item Si $\lambda$ es autovalor de $A$, hermítica $\Rightarrow$ $\lambda \in R$
\item Si $A$ es hermítica y $\lambda_i \neq \lambda_j$ autovalores de $A$
$\Rightarrow$ $v_i \bot v_j$
\item Si $S \subset C^n$ es invariante por $A$ $\Rightarrow$ $S^\bot$ es
invariante por $A$.
\end{itemize}
\section{Teorema espectral}
$A$ es simétrica si y solo si $\exists$ $P$ ortogonal tal que $A=PDP^T$.
$A$ es hermítica si y solo si $\exists$ $U$ unitaria tal que $A=UDU^T$.
\section{Formas cuadráticas}
\begin{center}
$F(x) = x^TAx$ con $A$ simétrica
\end{center}
Las formas cuadráticas más sencillas resultan cuando $A$ es diagonal:
\begin{itemize}
\item Elipses: $\frac{x^2}{a^2} + \frac{y^2}{b^2} = 1$
\item Hipérboles: $\frac{x^2}{a^2} - \frac{y^2}{b^2} = 1$
\end{itemize}
Si $A$ no es diagonal resultan elipses o hipérboles rotadas respecto de los ejes
cartesianos: $x_1^2 + 2x_1 x_2 + x_2^2$
Empleando el siguiente cambio de variable se logra obtener una expresión
sencilla respecto de los ejes apropiados:
$$x^T A x = c$$
$$x^T PDP^T x = c \quad A=PDP^T$$
Sea $y=P^T x$, $y^T = x^T P$:
$$x^T A x = y^T D y = c$$
{\large Faltan 3 gráficos}
\subsection{Clasificación}
$\displaystyle Q(x) = x^T A x \quad A$ simétrica
\begin{itemize}
\item Definida positiva si: $x^T Ax > 0 \forall x \neq 0$
\item Definida negativa si: $x^T Ax < 0 \forall x \neq 0$
\item Semi-definida positiva si: $x^T Ax > 0 \forall x \geq 0$
\item Semi-definida negativa si: $x^T Ax < 0 \forall x \leq 0$
\item Indefinida si: $\exists x_1, x_2$ tal que $x_1^T A x_1 > 0$ y
$x_2^T Ax_2 < 0$
\end{itemize}
$Q(x)$ definida positiva $Leftrightarrow$ $\lambda_i > 0 \forall i$, con
$\lambda_i$ autovalores de $A$.
\subsection{Optimización}
$\displaystyle Q(x) = x^T A x$ con restricción ${\| x \|}_2 = 1$
\vspace{0.1cm}
$\displaystyle
\begin{array}{c}
max Q(x) \\
{\| x \|}_2 = 1
\end{array} \quad$ o $\displaystyle \quad
\begin{array}{c}
min Q(x) \\
{\| x \|}_2 = 1
\end{array}$
\vspace*{0.2cm}
$\displaystyle
\begin{array}{c}
max Q(x) \\
{\| x \|}_2 = 1
\end{array} = \lambda_{max} \quad$ $Q(x) = \lambda_{max} \Leftrightarrow x=v$ (autovector)
\vspace*{0.2cm}
$\displaystyle
\begin{array}{c}
min Q(x) \\
{\| x \|}_2 = 1
\end{array} = \lambda_{mix} \quad$ $Q(x) = \lambda_{mix} \Leftrightarrow x=v$ (autovector)
\vspace*{0.3cm}
Si la restricción es ${\| x \|}_2 = k$, expresando $x$ como ${\| x \|}_2 \hat{v}$
con $\hat{v} = \frac{x}{{\| x \|}_2}$ resulta:
$$x^T Ax = {\| x \|}_2^2 \hat{v}^T A \hat{v}$$
siendo $\lambda_{min} \leq \hat{v}^T A \hat{v} \leq \lambda_{max}$
$$\Rightarrow \quad {\| x \|}_2^2 \lambda_{min} \leq x^T Ax \leq {\| x \|}_2^2
\lambda_{max}$$
Si la restricción es $x^T BX=1$: \\
(si fuera $x^T Cx = k \rightarrow x^T Bx=1 \wedge B =\frac{C}{k}$)
$B = SDS^T$ con $D=I\left[ \begin{array}{c} \lambda_1 \\ \vdots \\ \lambda_n \end{array} \right]$
Sea $D=D_1 D_1$ con $D_1 =I\left[ \begin{array}{c} \sqrt{\lambda_1} \\ \vdots \\ \sqrt{\lambda_n} \end{array} \right]$
$\Longrightarrow$ $x^T Bx = x^T S D_1 D_1 S^T x = 1$
Al introducirse la variable $z$: $z = D_1 S^T x$, la restricción se convierte,
en z, a $\|z\|_2 = 1$. Ya que:
$$x^T = z^T D_1 S^T \qquad \wedge \qquad x = SD_1^{-1}z$$
$$ \Rightarrow x^T Bx = z^T D_1 S^T S D_1^{-1}z = z^Tz$$
Sustituyendo en la forma cuadrática se reduce el problema a la restricción
$\|z\|_2=1$:
$$Q(x) = x^T A x \qquad \longrightarrow \qquad Q(z) = z^T C z$$
siendo $C=D_1^{-1} S^T A SD_1^{-1}$ $\wedge$ $x = SD_1^{-1}z$.
\section{Descomposición en valores singulares (DVS)}
\underline{Propiedad:} si $A\in R^{m\times n}$ $\Rightarrow$ $A^T A \in R^{n\times n}$
es simétrica y semi-definida positiva.
Se llama valor singular de $A$ a $\sigma = \sqrt{\lambda}$, siendo $\lambda$
autovalor de $A^T A$.
Si $A\in R^{m\times n}$, $rg(A) =r$ $\Rightarrow$ $\exists$ $U$ y $V$ tal
que $A = U \Sigma V^T$, donde
$$\Sigma \in R^{m \times n} \qquad \mbox{,} \qquad \Sigma = \left[
\begin{array}{ccc|c}
\sigma_1 & & & 0 \\
& \ddots & & \vdots \\
& & \sigma_r & \\
\hline
0 & \cdots & & 0
\end{array}
\right]$$
con $\sigma_1 \geq \sigma_2 \geq \cdots \geq \sigma_r > 0$: valores singulares de $A$.
$$U \in R^{m\times m} \mbox{ , ortogonal } \qquad U = \left[ \mu_1 \cdots \mu_r \mu_{r+1}
\cdots \mu_n \right]$$
con $\mu_i = \frac{Av_i}{\sigma_i} \forall i \in \{ 1 \cdots r \}$ y $\left\{
\mu_{r+1} \cdots \mu_n \right\}$ tal que $\left\{
\mu_1 \cdots \mu_n \right\}$ es BON de $R^m$ y $v_i$ autovector de $A^T A$ asociado
a $\lambda_i$.
$$V \in R^{n \times n} \mbox{ , ortogonal } \qquad V=\left[ v_1 \cdots v_n \right]$$
\subsection{DVS Reducida}
$$\displaystyle A = U_r \Sigma_r V_r^T$$
con
$$\displaystyle U_r = \left[ \mu_1 \cdots \mu_r \right]$$
$$\displaystyle \Sigma_r = I \left[ \begin{array}{c} \sigma_1 \\ \ddots \\ \sigma_r \end{array} \right]$$
$$\displaystyle V_r = \left[ v_1 \cdots v_r \right]$$
\subsection{Observaciones}
\begin{itemize}
\item $\left\{ v_1 \cdots v_r \right\}$ BON $Fil(A)$
\item $\left\{ v_{r+1} \cdots v_r \right\}$ BON $Nul(A)$
\item $\left\{ \mu_1 \cdots \mu_r \right\}$ BON $Col(A)$
\item $\left\{ \mu_{r+1} \cdots \mu_r \right\}$ BON ${\left[ Col(A) \right]}^\bot$
\end{itemize}
\subsection{Pseudo inversa de Moore-Penrose}
Sea $A=U_r \Sigma_r V_r^T$, se define $A^\dag = V_r \Sigma_r^\dag U_r^T$ o $A^\dag = V \Sigma^\dag U^T$ donde
$$\Sigma^\dag = \left[ \begin{array}{c|c} \Sigma^{-1} & 0 \\ \hline 0 & 0 \end{array} \right]$$
\subsection{Propiedades}
\begin{itemize}
\item $U_r U_r^T =$ Matriz de proyección sobre $Col(A)$
\item $U_r^T U_r = I_{r\times r}$
\item $V_r V_r^T =$ Matriz de proyección sobre $Fil(A)$
\item $AA^\dag = U_r U_r^T$
\item $A^\dag A = V_r V_r^T$
\item $A(A^\dag A) = A$
\item $A^\dag A A^\dag = A^\dag$
\item $A \in R^{m \times n}$, $rg(A)=n$ $\Rightarrow$ $A^\dag = A^\#$ ($A^\# = (A^T A)^{-1}A$)
\item $A \in R^{n \times n}$, no singular $\Rightarrow$ $A^\dag = A^{-1}$
\item \underline{Relación con mínimos cuadrados:}
$Ax = b$ incompleto $\Longrightarrow$ $A\hat{x} = proy_{Col(A)} b$
$AA^\dag$ es la matriz de proyección $\Longrightarrow$ $A\hat{x} = AA^\dag b$
$\Rightarrow$ $x^\dag = A^\dag b$ es solución del problema de cuadrados mínimos de
menor norma y
todas las soluciones se escriben $\hat{x} = x^\dag + x_n$, con $x_n \in Nul(A)$.
\end{itemize}
\section{Observaciones de la práctica}
\begin{itemize}
\item $||P_S v||\leq ||v|| \quad \forall\ v$
\item $P_S v = v \quad \forall\ v \in S$
\item Householder (ver figura \ref{fig-hh}). $\displaystyle H = I - \frac{2}{w^Tw}ww^T$
\item Sea $P\ \in\ \mathcal{R}^{n\times n}$ la matriz de proyección sobre $S$, $I - P$ es matriz de proyección sobre $S^\perp$.
\item $A\ \in\ \mathcal{R}^{n\times n}$, $rg(A) = k$, $k < n$ $\Rightarrow\ 0$ es autovalor de m.g. $n-k$.
\item Sea $\lambda$ autovalor de $A$, $r\lambda$ es autovalor de $rA$.
\item Sea $\lambda$ autovalor de $A$ y $k\ \in\ \mathcal{N}$ , $\lambda^k$ es autovalor de $A^k$.
\item Sea $\lambda$ autovalor de $A$, $\lambda^{-1}$ es autovalor de $A^{-1}$
\item Sea $\lambda$ autovalor de $A$, $\lambda + r$ es autovalor de $A + rI$.
\item Sea $\lambda$ autovalor de $A$, $r\lambda$ es autovalor de $rA$.
\item Si $A\ \in\ \mathcal{R}^{n\times n}$ posee $n$ autovalores distintos entonces $A$ es diagonalizable.
\item Si $A^2=A$ y $x\ \in\ Col(A)$, $Ax=x$.
\item Sea $T(x)=Px$ con $P\ \in\ \mathcal{R}^{n\times n}$ y ortogonal. Si $S$ es invariante por $T$, $T(S)=S$ y $T(S^\perp)=S^\perp$.
\item $x^HQy=(x,y)$, con $Q\ \in\ C^{n\times n}$ hermítica, define un productoo interno $\Leftrightarrow$ $Q$ es definida positiva.
\item $A\ \in\ R^{n\times n}$, $|det(A)| = \prod \sigma_i$.
\item $A\sim B$ $\Rightarrow$ $A$ tiene los mismos valores singulares que $B$.
\end{itemize}
\begin{figure}
\begin{center}
\begin{pspicture}(0,-2.5856423)(4.0475,2.6056423)
\psline[linewidth=0.04cm,arrowsize=0.05cm 2.0,arrowlength=1.4,arrowinset=0.4]{->}(2.680124,-0.026671702)(3.6199715,2.4189544)
\psline[linewidth=0.04cm,linestyle=dotted,dotsep=0.16cm](1.7044046,-2.5656424)(2.680124,-0.026671702)
\psline[linewidth=0.04cm,linestyle=dotted,dotsep=0.16cm](0.234498,0.91317576)(2.680124,-0.026671702)
\psline[linewidth=0.04cm,arrowsize=0.05cm 2.0,arrowlength=1.4,arrowinset=0.4]{->}(2.680124,-0.026671702)(0.7455011,1.5738388)
\psline[linewidth=0.04cm,arrowsize=0.05cm 2.0,arrowlength=1.4,arrowinset=0.4]{->}(2.680124,-0.026671702)(0.17154849,0.08032679)
\usefont{T1}{ptm}{m}{it}
\rput(3.8853126,2.5165799){$w$}
\rput(1.0451562,2.0365798){$v$}
\rput(0.22375,0.33657977){$Hv$}
\end{pspicture}
\end{center}
\caption{Matriz de Householder.}
\label{fig-hh}
\end{figure}
\end{document}
++++