Apuntes de todos los temas teóricos de la materia. Los que dicen “Apunte de Mancilla” es porque fueron hechos por el profe Jose Luis Mancilla Aguilar. Los demás apuntes fueron hechos por mi (gira) por lo que tranquilamente pueden contener errores. Los apuntes están hechos en LaTeX, por eso les dejo la fuente “TeX” para que puedan modificarlo y corregirlo como gusten (Fíjense que al editarlo probablemente tengan que instalar algun “paquete” de LaTeX).
Para realizar los apuntes utilicé el Scientific Workplace (parecido al LEd, pero comercial) Además se consultó Ecuaciones en LaTeX, por Sebastián Santisi y The not so short introduction to latex
Cualquier error que vean, duda o sugerencia posteenlo acá: http://www.foros-fiuba.com.ar/viewtopic.php?t=11803
Apunte 1: Matrices (Repaso de algunas propiedades)
Descargar PDF: :materias:61:08:1._matrices_repaso_de_algunas_propiedades_v3.0.pdf
\documentclass[19pt]{article} \usepackage{amsfonts} \usepackage[a4paper]{geometry} \usepackage[spanish]{babel} \usepackage[latin1]{inputenc} \usepackage{amsmath} \usepackage[hang,bf]{caption} \usepackage{helvet} \setcounter{MaxMatrixCols}{10} \renewcommand\familydefault{\sfdefault} \numberwithin{equation}{section} \numberwithin{figure}{section} \numberwithin{table}{section} \setlength{\textwidth}{6.5in} \setlength{\textheight}{9.7in} \setlength{\oddsidemargin}{in} \setlength{\topmargin}{-0.5in} \input{tcilatex} \renewcommand{\baselinestretch}{1} \parindent=0em \begin{document} \setcounter{page}{1} \begin{center} {\LARGE Matrices (Repaso de algunas propiedades)} \bigskip \bigskip {\normalsize Última edición: 09/11/2009} \bigskip \end{center} \section{Inversa de una matriz} \bigskip Una matriz cuadrada $A\in %TCIMACRO{\U{211d} }% %BeginExpansion \mathbb{R} %EndExpansion ^{nxn}$ es inversible si existe $B\in %TCIMACRO{\U{211d} }% %BeginExpansion \mathbb{R} %EndExpansion ^{nxn}$ tal que $AB=BA=I.$ Cuando $B$ existe, es única y la notamos: $B=A^{-1}.$ Para el cálculo de una matriz inversa podemos utilizar el \textit{método de Gauss-Jordan. }Para ello se considera la matriz $(A$\TEXTsymbol{\vert}$I_{n}) $ y se realizan aquellas operaciones elementales por filas que consigan transformar la matriz $A$ en la matriz $I_{n}$, de esta forma la matriz $% I_{n}$ se habrá transformado en $A^{-1}$. Es decir, se han de realizar operaciones elementales por filas de forma que. %TCIMACRO{\TeXButton{\medskip}{\medskip}}% %BeginExpansion \medskip% %EndExpansion \begin{center} $(A$\TEXTsymbol{\vert}$I_{n})\approx ...\approx (I_{n}$\TEXTsymbol{\vert}$% A^{-1})$ %TCIMACRO{\TeXButton{\medskip}{\medskip}}% %BeginExpansion \medskip% %EndExpansion \end{center} Por ejemplo: Sea la matriz A = \left( {% \begin{array}{*{20}c} 2 & 1 & { - 1} \\ { - 3} & { - 1} & 2 \\ { - 2} & 1 & 2 \\ \end{array}}\right) %TCIMACRO{\TeXButton{\smallskip}{\smallskip}}% %BeginExpansion \smallskip% %EndExpansion \left( {% \begin{array}{*{20}c} 2 & 1 & { - 1} & 1 & 0 & 0 \\ { - 3} & { - 1} & 2 & 0 & 1 & 0 \\ { - 2} & 1 & 2 & 0 & 0 & 1 \\ \end{array}}\right) $\sim $ \left( {% \begin{array}{*{20}c} 2 & 1 & { - 1} & 1 & 0 & 0 \\ { - 1} & 0 & 1 & 1 & 1 & 0 \\ 0 & 2 & 1 & 1 & 0 & 1 \\ \end{array}}\right) $\sim $ \left( {% \begin{array}{*{20}c} 1 & 0 & { - 1} & { - 1} & { - 1} & 0 \\ 2 & 1 & { - 1} & 1 & 0 & 0 \\ 0 & 2 & 1 & 1 & 0 & 1 \\ \end{array}}\right) $\sim $ %TCIMACRO{\TeXButton{\smallskip}{\smallskip}}% %BeginExpansion \smallskip% %EndExpansion \left( {% \begin{array}{*{20}c} 1 & 0 & { - 1} & { - 1} & { - 1} & 0 \\ 0 & 1 & 1 & 3 & 2 & 0 \\ 0 & 2 & 1 & 1 & 0 & 1 \\ \end{array}}\right) $\sim $ \left( {% \begin{array}{*{20}c} 1 & 0 & { - 1} & { - 1} & { - 1} & 0 \\ 0 & 1 & 1 & 3 & 2 & 0 \\ 0 & 0 & { - 1} & { - 5} & { - 4} & 1 \\ \end{array}}\right) $\sim $ \left( {% \begin{array}{*{20}c} 1 & 0 & 0 & 4 & 3 & { - 1} \\ 0 & 1 & 0 & { - 2} & { - 2} & 1 \\ 0 & 0 & 1 & 5 & 4 & { - 1} \\ \end{array}}\right) %TCIMACRO{\TeXButton{\smallskip}{\smallskip}}% %BeginExpansion \smallskip% %EndExpansion De esta forma A^{ - 1} = \left( {% \begin{array}{*{20}c} 4 & 3 & { - 1} \\ { - 2} & { - 2} & 1 \\ 5 & 4 & { - 1} \\ \end{array} } \right) \subsection{Propiedades% %TCIMACRO{\TeXButton{\smallskip}{\smallskip}}% %BeginExpansion \smallskip% %EndExpansion } $\bullet $ $(A.B)^{-1}=B^{-1}.A^{-1}$% %TCIMACRO{\TeXButton{\smallskip}{\smallskip}}% %BeginExpansion \smallskip% %EndExpansion $\bullet $ $(A^{T})^{-1}=(A^{-1})^{T}$% %TCIMACRO{\TeXButton{\smallskip}{\smallskip}}% %BeginExpansion \smallskip% %EndExpansion $\bullet $ $(A^{-1})^{-1}=A$% %TCIMACRO{\TeXButton{\smallskip}{\smallskip}}% %BeginExpansion \smallskip% %EndExpansion $\bullet $ $A^{-1}=\frac{1}{\det (A)}adj(A)$ (ver siguiente sección) \section{Determinante de una matriz} \bigskip Se define el \textit{determinante} \ de $A$ como la suma de todos los productos elementales con signos tomados de $A$. Notamos: $\ \ det(A)=\left\vert A\right\vert =\sum \pm a_{1j_{1}}a_{2j_{2}}.....a_{nj_{n}}$ donde $(j_{1},j_{2},...,j_{n})$ es una permutación de $\{1,2,...,n\}$, y el signo + o - depende si la permutación $(j_{1},j_{2},...,j_{n})$ es respectivamente par o impar. \subsection{Desarrollo del determinante por cofactores} \textit{Desarrollo a lo largo de la j-ésima columna:} $\quad det(A)=a_{1j}C_{1j}+a_{2j}C_{2j}+...+a_{nj}C_{nj}$% %TCIMACRO{\TeXButton{\medskip}{\medskip}}% %BeginExpansion \medskip% %EndExpansion \textit{Desarrollo a lo largo de la i-éisma fila:} $\quad det(A)=a_{i1}C_{i1}+a_{i2}C_{i2}+...+a_{in}C_{in}$% %TCIMACRO{\TeXButton{\medskip}{\medskip}}% %BeginExpansion \medskip% %EndExpansion donde $C_{ij}=(-1)^{1+j}M_{ij}$ se lo llama \textit{cofactor del elemento} $% a_{ij}.$ $M_{ij}$ es el \textit{menor del elemento} $a_{ij}$ y se lo define como el determinante de la submatriz que queda al eliminar de $A$ la i-ésima fila y la j-ésima columna. Si $A\in %TCIMACRO{\U{211d} }% %BeginExpansion \mathbb{R} %EndExpansion ^{nxn}$ y $C_{ij}$ es el \textit{cofactor del elemento} $a_{ij}$ entonces la matriz \begin{center} $\left( \begin{array}{cccc} C_{11} & C_{21} & ... & C_{n1} \\ C_{12} & C_{22} & ... & C_{n2} \\ ... & ... & & ... \\ C_{1n} & C_{21} & ... & C_{nn}% \end{array}% \right) $% %TCIMACRO{\TeXButton{\smallskip}{\smallskip}}% %BeginExpansion \smallskip% %EndExpansion \end{center} se conoce como \textbf{matriz adjunta de }$A$\textbf{, }y se denota $adj(A)$ %TCIMACRO{\TeXButton{\medskip}{\medskip}}% %BeginExpansion \medskip% %EndExpansion Ejemplos: Si $A\in %TCIMACRO{\U{211d} }% %BeginExpansion \mathbb{R} %EndExpansion ^{2x2}$ tal que $A=\left( \begin{array}{cc} a & b \\ c & d% \end{array}% \right) $ $\implies $ \ $adj(A)=\left( \begin{array}{cc} d & -b \\ -c & a% \end{array}% \right) $% %TCIMACRO{\TeXButton{\smallskip}{\smallskip}}% %BeginExpansion \smallskip% %EndExpansion Si $A\in %TCIMACRO{\U{211d} }% %BeginExpansion \mathbb{R} %EndExpansion ^{3x3}$ tal que \textbf{A} = \begin{pmatrix} A_{11} & A_{12} & A_{13} \\ A_{21} & A_{22} & A_{23} \\ A_{31} & A_{32} & A_{33}% \end{pmatrix}% %TCIMACRO{\TeXButton{\smallskip}{\smallskip}}% %BeginExpansion \smallskip% %EndExpansion $\implies $ \ {\text{adj}}({\textbf{A}}) = \left( {% \begin{array}{*{20}c} { + \left| {\begin{array}{*{20}c} {A_{22} } & {A_{23} } \\ {A_{32} } & {A_{33} } \\ \end{array} } \right|} & { - \left| {\begin{array}{*{20}c} {A_{21} } & {A_{23} } \\ {A_{31} } & {A_{33} } \\ \end{array} } \right|} & { + \left| {\begin{array}{*{20}c} {A_{21} } & {A_{22} } \\ {A_{31} } & {A_{32} } \\ \end{array} } \right|} \\ {} & {} & {} \\ { - \left| {\begin{array}{*{20}c} {A_{12} } & {A_{13} } \\ {A_{32} } & {A_{33} } \\ \end{array} } \right|} & { + \left| {\begin{array}{*{20}c} {A_{11} } & {A_{13} } \\ {A_{31} } & {A_{33} } \\ \end{array} } \right|} & { - \left| {\begin{array}{*{20}c} {A_{11} } & {A_{12} } \\ {A_{31} } & {A_{32} } \\ \end{array} } \right|} \\ {} & {} & {} \\ { + \left| {\begin{array}{*{20}c} {A_{12} } & {A_{13} } \\ {A_{22} } & {A_{23} } \\ \end{array} } \right|} & { - \left| {\begin{array}{*{20}c} {A_{11} } & {A_{13} } \\ {A_{21} } & {A_{23} } \\ \end{array} } \right|} & { + \left| {\begin{array}{*{20}c} {A_{11} } & {A_{12} } \\ {A_{21} } & {A_{22} } \\ \end{array} } \right|} \\ \end{array} } \right) \subsection{Propiedades} $\bullet $ Si $A^{\prime }$ es la matriz que se obtiene cuando una sola fina de $A$ se multiplica por una constante $k$, entonces $\det (A^{\prime })=k\det (A)$% %TCIMACRO{\TeXButton{\smallskip}{\smallskip}}% %BeginExpansion \smallskip% %EndExpansion $\bullet $ Si $A^{\prime }$ es la matriz que se obtiene al intercambiar dos filas de $A$, entonces $\det (A^{\prime })=-\det (A)$% %TCIMACRO{\TeXButton{\smallskip}{\smallskip}}% %BeginExpansion \smallskip% %EndExpansion $\bullet $ Si $A^{\prime }$ es la matriz que se obtiene al sumar un múltiplo de una de las filas de $A$ a otra fila, entonces $\det (A^{\prime })=\det (A) $% %TCIMACRO{\TeXButton{\smallskip}{\smallskip}}% %BeginExpansion \smallskip% %EndExpansion $\bullet $ Si $A\in %TCIMACRO{\U{211d} }% %BeginExpansion \mathbb{R} %EndExpansion ^{nxn}$, entonces $\det (A^{T})=\det (A)$% %TCIMACRO{\TeXButton{\smallskip}{\smallskip}}% %BeginExpansion \smallskip% %EndExpansion $\bullet $ Si $A\in %TCIMACRO{\U{211d} }% %BeginExpansion \mathbb{R} %EndExpansion ^{nxn},B\in %TCIMACRO{\U{211d} }% %BeginExpansion \mathbb{R} %EndExpansion ^{nxn}$ y $k\in %TCIMACRO{\U{211d} }% %BeginExpansion \mathbb{R} %EndExpansion ,$ entonces:\qquad $\det (kA)=k^{n}\det (A)$ ;\ $\det (AB)=\det (A).\det (B)$% %TCIMACRO{\TeXButton{\smallskip}{\smallskip}}% %BeginExpansion \smallskip% %EndExpansion $\bullet $ Si $A$ es una matriz triangular de $nxn$, entonces $det(A)$ es el producto de los elementos de la diagonal, es decir: $% det(A)=a_{11}a_{22}...a_{nn}$% %TCIMACRO{\TeXButton{\smallskip}{\smallskip}}% %BeginExpansion \smallskip% %EndExpansion $\bullet $ $A$ es inversible si y sólo si $\det (A)\neq 0$% %TCIMACRO{\TeXButton{\smallskip}{\smallskip}}% %BeginExpansion \smallskip% %EndExpansion $\bullet $ Si $A$ es inversible, entonces $\det (A^{-1})=\frac{1}{\det (A)}$% %TCIMACRO{\TeXButton{\smallskip}{\smallskip}}% %BeginExpansion \smallskip% %EndExpansion $\bullet $ Si $A$ es inversible, entonces $A^{-1}=\frac{1}{\det (A)}adj(A)$ \subsection{Regla de Sarrus} La regla de Sarrus es un método de fácil memorización para calcular el determinante de una matriz 3\times 3.% %TCIMACRO{\TeXButton{\smallskip}{\smallskip}}% %BeginExpansion \smallskip% %EndExpansion Considérese la matriz de 3\times 3 \ A = \begin{pmatrix} a_{11} & a_{12} & a_{13} \\ a_{21} & a_{22} & a_{23} \\ a_{31} & a_{32} & a_{33}% \end{pmatrix}% %TCIMACRO{\TeXButton{\smallskip}{\smallskip}}% %BeginExpansion \smallskip% %EndExpansion Su determinante se puede calcular de la siguiente manera: En primer lugar, repetir las dos primeras columnas de la matriz a la derecha de la misma de manera que queden cinco columnas en fila. Después sumar los productos de las diagonales descendentes (en línea continua) y sustraer los productos de las diagonales ascendentes (en trazos) Esto resulta en:% %TCIMACRO{\TeXButton{\smallskip}{\smallskip}}% %BeginExpansion \smallskip% %EndExpansion A = \begin{vmatrix} a_{11} & a_{12} & a_{13} \\ a_{21} & a_{22} & a_{23} \\ a_{31} & a_{32} & a_{33}% \end{vmatrix} = a_{11}a_{22}a_{33}+a_{12}a_{23}a_{31}+a_{13}a_{21}a_{32}-a_{31}a_{22}a_{13}-a_{32}a_{23}a_{11}-a_{33}a_{21}a_{12} \FRAME{ftpFU}{3.0943in}{1.4961in}{0pt}{\Qcb{La regla de Sarrus: diagonales continuas y en trazos}}{}{Figure}{\special{language "Scientific Word";type "GRAPHIC";maintain-aspect-ratio TRUE;display "USEDEF";valid_file "T";width 3.0943in;height 1.4961in;depth 0pt;original-width 3.704in;original-height 1.7781in;cropleft "0";croptop "1";cropright "1";cropbottom "0";tempfilename 'KRA9QZ00.bmp';tempfile-properties "XPR";}} \bigskip \qquad \section{Regla de Cramer} \bigskip Si $Ax=b$ es un sistema de $n$ ecuaciones con $n$ incógnitas tal que $% det(A)\neq 0$, entonces la única solución del sistema es $% (x_{1},x_{2},...,x_{n})$ con: \begin{center} $x_{1}=\frac{\det (A_{1})}{\det (A)},x_{2}=\frac{\det (A_{2})}{\det (A)}% ,.....,x_{n}=\frac{\det (A_{n})}{\det (A)}$ \end{center} donde $A_{j}$ es la matriz que se obtiene al reemplazar la jésima columna de $A$ por $b.$ \end{document}
Apunte 2: Complejos
Descargar PDF: :materias:61:08:complejos_v2.0_.pdf
\documentclass[12pt]{article} \usepackage{amsfonts} %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \usepackage{amssymb} \usepackage{amsmath} \usepackage{sw20res1} \setcounter{MaxMatrixCols}{10} %TCIDATA{OutputFilter=LATEX.DLL} %TCIDATA{Version=5.50.0.2953} %TCIDATA{<META NAME="SaveForMode" CONTENT="1">} %TCIDATA{BibliographyScheme=Manual} %TCIDATA{Created=Friday, October 09, 2009 21:18:42} %TCIDATA{LastRevised=Friday, October 09, 2009 21:56:03} %TCIDATA{<META NAME="GraphicsSave" CONTENT="32">} %TCIDATA{<META NAME="DocumentShell" CONTENT="Other Documents\SW\Resume - SW Resume #1">} %TCIDATA{CSTFile=sw20res1.cst} \input{tcilatex} \begin{document} \title{Complejos} \author{by gira} \date{09/10/2009} \maketitle Tenemos dos tipos de espacios vectoriales complejos: \section{1. \protect\underline{$% %TCIMACRO{\U{2102} }% %BeginExpansion \mathbb{C} %EndExpansion ^{n}$ como $% %TCIMACRO{\U{211d} }% %BeginExpansion \mathbb{R} %EndExpansion $-espacio vectorial}} ($% %TCIMACRO{\U{2102} }% %BeginExpansion \mathbb{C} %EndExpansion ^{n},+,% %TCIMACRO{\U{211d} }% %BeginExpansion \mathbb{R} %EndExpansion ,.)$ En este caso la forma de los vectores depender\'{a} de la dimensi\'{o}n del espacio, es decir, de $n$. Veamos un par de ejemplos: \subsection{\protect\underline{$n=1$}:} Base can\'{o}nica: $E(% %TCIMACRO{\U{2102} }% %BeginExpansion \mathbb{C} %EndExpansion ^{1})=\left\{ 1,i\right\} $, \ $dim(% %TCIMACRO{\U{2102} }% %BeginExpansion \mathbb{C} %EndExpansion ^{1})=2$ Sea $z\in %TCIMACRO{\U{2102} }% %BeginExpansion \mathbb{C} %EndExpansion ^{1}$ entonces es de la forma: $z=k_{1}.1+k_{2}.i$ $\ \ \forall k_{1},k_{2}\in %TCIMACRO{\U{211d} }% %BeginExpansion \mathbb{R} %EndExpansion $ En realidad a este z se lo puede escribir de varias formas: \subsubsection{\textit{Forma cartesiana:} $z=a+bi$} donde definimos $a=Re(z),$ $b=Im(z)$ reales. Podemos graficar a $z$ en el plano complejo: \bigskip $\overset{}{\FRAME{itbpF}{2.973in}{2.4515in}{-2.6786pt}{}{}{% numeros-complejos_image082.gif}{\special{language "Scientific Word";type "GRAPHIC";maintain-aspect-ratio TRUE;display "PICT";valid_file "F";width 2.973in;height 2.4515in;depth -2.6786pt;original-width 3.1892in;original-height 2.6253in;cropleft "0";croptop "1";cropright "1";cropbottom "0";filename 'numeros-complejos_image082.gif';file-properties "XNPEU";}}}$ siendo $\left\vert z\right\vert =\sqrt{a^{2}+b^{2}},$ $\arg (z)=\alpha $ tal que $tg(\alpha )=\frac{sen\alpha }{\cos \alpha }=\frac{b}{a}$ \subsubsection{\textit{Forma polar: \ }$z=\left\vert z\right\vert (\cos \protect\alpha +isen\protect\alpha )$} \subsubsection{\textit{Forma Exponencial: \ }$z=\left\vert z\right\vert e^{i% \protect\alpha }$} Esta \'{u}ltima se deduce de la \textit{f\'{o}rmula de Euler} que dice: $% e^{i\alpha }=\cos \alpha +isen\alpha $ (adem\'{a}s, se puede observar que $\ e^{z}=e^{a}(\cos b+isenb)$) \subsection{\protect\underline{$n=2$}:} Base can\'{o}nica: $E(% %TCIMACRO{\U{2102} }% %BeginExpansion \mathbb{C} %EndExpansion ^{2})=\left\{ (1,0),(i,0),(0,1),(0,i)\right\} $, \ $dim(% %TCIMACRO{\U{2102} }% %BeginExpansion \mathbb{C} %EndExpansion ^{2})=4$ Sea $z\in %TCIMACRO{\U{2102} }% %BeginExpansion \mathbb{C} %EndExpansion ^{2}$ entonces es de la forma: $% z=k_{1}(1,0)+k_{2}(i,0)+k_{3}(0,1)+k_{4}(0,i) $ $\ \ \forall k_{1},k_{2},k_{3},k_{4}\in %TCIMACRO{\U{211d} }% %BeginExpansion \mathbb{R} %EndExpansion $ Luego, para $n=3$\ la base can\'{o}nica ser\'{a} como la de $% %TCIMACRO{\U{211d} }% %BeginExpansion \mathbb{R} %EndExpansion ^{3}$ sumandole los tres vectores con $i$ hac\'{\i} como hicimos para $n=2$, y as\'{\i} sucesivamente para los siguientes $n,$ \bigskip \bigskip \bigskip \bigskip \section{2. \protect\underline{$% %TCIMACRO{\U{2102} }% %BeginExpansion \mathbb{C} %EndExpansion ^{n}$ como $% %TCIMACRO{\U{2102} }% %BeginExpansion \mathbb{C} %EndExpansion $-espacio vectorial}} ($% %TCIMACRO{\U{2102} }% %BeginExpansion \mathbb{C} %EndExpansion ^{n},+,% %TCIMACRO{\U{2102} }% %BeginExpansion \mathbb{C} %EndExpansion ,.)$ Veamos algunos ejemplos: \subsection{\protect\underline{$n=1$}:} Base can\'{o}nica: $E(% %TCIMACRO{\U{2102} }% %BeginExpansion \mathbb{C} %EndExpansion ^{1})=\left\{ 1\right\} $, \ $dim(% %TCIMACRO{\U{2102} }% %BeginExpansion \mathbb{C} %EndExpansion ^{1})=1$ Sea $z\in %TCIMACRO{\U{2102} }% %BeginExpansion \mathbb{C} %EndExpansion ^{1}$ entonces es de la forma: $z=k_{1}.1$ $\ \ \forall k_{1}\in %TCIMACRO{\U{2102} }% %BeginExpansion \mathbb{C} %EndExpansion $ \subsection{\protect\underline{$n=2$}:} Base can\'{o}nica: $E(% %TCIMACRO{\U{2102} }% %BeginExpansion \mathbb{C} %EndExpansion ^{2})=\left\{ (1,0),(0,1)\right\} $, \ $dim(% %TCIMACRO{\U{2102} }% %BeginExpansion \mathbb{C} %EndExpansion ^{2})=2$ Sea $z\in %TCIMACRO{\U{2102} }% %BeginExpansion \mathbb{C} %EndExpansion ^{2}$ entonces es de la forma: $z=k_{1}(1,0)+k_{2}(0,1)$ $\ \ \forall k_{1},k_{2}\in %TCIMACRO{\U{2102} }% %BeginExpansion \mathbb{C} %EndExpansion $ \bigskip Luego, para $n=3$\ la base can\'{o}nica ser\'{a} como la de $% %TCIMACRO{\U{211d} }% %BeginExpansion \mathbb{R} %EndExpansion ^{3}$ haci como en $n=2$, y as\'{\i} para los siguientes $n.$ \bigskip \end{document}
Apunte 3: Espacios Vectoriales (Apunte de Mancilla)
Descargar PDF: :materias:61:08:3._espacios_vectoriales_apunte_de_mancilla_.pdf
Apunte 4: Wronksiano (Apunte de Mancilla)
Descargar PDF: :materias:61:08:4._wronksiano_apunte_de_mancilla_.pdf
Apunte 5: Transformaciones Lineales
Descargar PDF: :materias:61:08:5._transformaciones_lineales_v2.0_.pdf
\documentclass[12pt]{article} \usepackage{amssymb} \usepackage{amsmath} %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \usepackage{sw20res1} %TCIDATA{OutputFilter=LATEX.DLL} %TCIDATA{Version=5.50.0.2953} %TCIDATA{<META NAME="SaveForMode" CONTENT="1">} %TCIDATA{BibliographyScheme=Manual} %TCIDATA{Created=Saturday, October 10, 2009 02:45:50} %TCIDATA{LastRevised=Saturday, October 10, 2009 03:18:51} %TCIDATA{<META NAME="GraphicsSave" CONTENT="32">} %TCIDATA{<META NAME="DocumentShell" CONTENT="Other Documents\SW\Resume - SW Resume #1">} %TCIDATA{CSTFile=sw20res1.cst} \input{tcilatex} \begin{document} \title{Transformaciones Lineales} \author{by gira} \date{10/10/2009} \maketitle \section{1. \textbf{Definici\'{o}n}} Sean $V$ y $W$ dos espacios vectoriales, entonces la funci\'{o}n $% T:V\rightarrow W$ es una transformaci\'{o}n lineal si verifica: $a_{1})$ $T(u+v)=T(u)+T(v)$ $\ \forall $ $u,v\in V$ $a_{2})$ $T(\alpha u)=\alpha T(u)$ $\ \forall $ $u\in V$ $\wedge $ $\forall $ $\alpha \in \Bbbk $ \subsection{\textbf{Propiedades:}} $(i)$ $T(0_{V})=0_{W}$ $(ii)$ $T\left( \overset{n}{\underset{i=1}{\sum }}\alpha _{i}v_{i}\right) =% \overset{n}{\underset{i=1}{\sum }}\alpha _{i}T(v_{i})$ \textit{\ (Linealidad)% } \section{2. \textbf{N\'{u}cleo}} $Nu(T)=\{v\in V$ $/$ $T(v)=0_{W}\}$ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ $Nu(T)$ es subespacio de $V.$ \FRAME{ihF}{2.9854in}{1.7358in}{0in}{}{}{núcleo.jpg}{\special{language "Scientific Word";type "GRAPHIC";maintain-aspect-ratio TRUE;display "USEDEF";valid_file "F";width 2.9854in;height 1.7358in;depth 0in;original-width 2.9439in;original-height 1.7005in;cropleft "0";croptop "1";cropright "1.0002";cropbottom "0";filename 'Núcleo.jpg';file-properties "XNPEU";}} \section{3. I\textbf{magen}} $\func{Im}(T)=\{w\in W$ / $w=T(v),$ con $v\in V\}$ $\func{Im}(T)$ es subespacio de $W.$ \FRAME{itbhF}{3.0454in}{1.8514in}{0in}{}{}{imagen.jpg}{\special{language "Scientific Word";type "GRAPHIC";maintain-aspect-ratio TRUE;display "USEDEF";valid_file "F";width 3.0454in;height 1.8514in;depth 0in;original-width 3.0613in;original-height 1.8497in;cropleft "0";croptop "1";cropright "1";cropbottom "0";filename 'Imagen.jpg';file-properties "XNPEU";}} \section{4. \textbf{Teorema de la Dimensi\'{o}n}} Sea $T:V\rightarrow W$, $\dim (V)=n$ (finita), entonces: $\dim (Nu(T))+\dim (\func{Im}(T))=\dim (V)=n$ \subsection{\textbf{Propiedades:}} Sea $T:V\rightarrow W,$ TL \ $($otra notaci\'{o}n es $T\in \tciLaplace (V,W)):$ $\bullet $ Si $\{v_{1},v_{2},.....v_{q}\}$ genera $V$ $\Longrightarrow $ $% \{T(v_{1}),T\left( v_{2}\right) ,.....T\left( v_{q}\right) \}$ genera $\func{% Im}(T)$ \textbf{Obs. 1: }$T(v_{1}),T\left( v_{2}\right) ,.....T\left( v_{q}\right) $ $\in $ $\func{Im}(T)$ \textbf{Obs. 2: }Cualquier $w\in $ $\func{Im}(T)$ puede expresarse como combinaci\'{o}n lineal de $T(v_{1}),T\left( v_{2}\right) ,.....T\left( v_{q}\right) $ $\bullet $ $\{T(v_{1}),T\left( v_{2}\right) ,.....T\left( v_{q}\right) \}$ es LI $\implies $ $\{v_{1},v_{2},.....v_{q}\}$ es LI \section{5. \textbf{Clasificaci\'{o}n}} Sea $T\in \tciLaplace (V,W)$ TL $:$ $-$ $T$ es \textit{inyectiva} (monomorfismo) si verifica: $v_{1}\neq v_{2}\implies T(v_{1})\neq T(v_{2})$ $-$ $T$ es \textit{sobreyectiva} (epimorfismo) $\Longleftrightarrow $ $\func{% Im}(T)=W$ $-$ $T$ es \textit{biyectiva} (isomorfismo) $\Longleftrightarrow $ $T$ es inyectiva y sobreyectiva \subsection{\textbf{Propiedades:}} $\bullet $ $T$ es monomorfismo $\iff $ $Nu(T)=\{0_{V}\}$ $\bullet $ Si $T$ es monomorfismo $\implies $ $\dim (V)\leq \dim (W)$ $\bullet $ Si $T$ es monomorfismo y $\{v_{1},v_{2},.....v_{q}\}\subset V$ es LI $\implies $ $\{T(v_{1}),T\left( v_{2}\right) ,.....T\left( v_{q}\right) \} $ es LI $\bullet $ Si $T$ es epiomorfismo $\implies $ $\dim (W)\leq \dim (V)$ $\bullet $ Si $T$ es isomorfismo $\implies $ $\dim (W)=\dim (V)$ $\bullet $ Si $V$ y $W$ son de dimensi\'{o}n \textbf{finita }entonces $T$ es isomorfismo $\iff $ $\dim (W)=\dim (V)$ $\bullet $ Si $T$ es isomorfismo $\implies $ $\exists $ $T^{-1}:W\rightarrow V$ (Transformaci\'{o}n Inversa) \section{6. \textbf{Transformaciones Matriciales}} Una transformaci\'{o}n matricial es del tipo: $T:\Bbbk ^{n}\rightarrow \Bbbk ^{m},$ $T(x)=Ax,$ $A\in \Bbbk ^{mxn}$ Veamos un par de propiedades: $\bullet $ $x\in Nu(T)\Longleftrightarrow $ $T(x)=0\Longleftrightarrow $ $% Ax=0\Longleftrightarrow $ $x\in Nul(A)$ $\bullet $ $y\in \func{Im}(T)\Longleftrightarrow $ $T(x)=y% \Longleftrightarrow $ $Ax=y\Longleftrightarrow $ $y\in Col(A)$ De aqu\'{\i} deducimos que para las transformaciones matriciales se cumple que: \underline{$Nu(T)=Nul(A)$} \underline{$\func{Im}(T)=Col(A)$} Ahora, aplicando el \textit{teorema de la dimensi\'{o}n}: \underline{$\dim (Nul(A))+\dim (Col(A))=\dim (\Bbbk ^{n})=n$} \textbf{Obs.\ 1:} $\dim (Col(A))$ es el llamado \textit{rango de }$\mathit{A} $\textit{\ }$\Longrightarrow $ $\dim (Nul(A))=n-rg(A)$ \textbf{Obs.\ 2:} $n$ es el n\'{u}mero de columnas de $A$ \section{7. \textbf{Teorema Fundamental de las Transformaciones Lineales (TFTL)}} Sea $B=\{v_{1},v_{2},.....v_{n}\}$ base de $V$ y $w_{1},w_{2},....,w_{n}$ vectores de $W$ (iguales o distintos) entonces, existe una \textbf{\'{u}nica} Transformaci\'{o}n Lineal $% T:V\rightarrow W$ tal que: $\left\{ \begin{array}{c} T\left( v_{1}\right) =w_{1}\text{\ \ \ \ \ \ \ \ \ } \\ T\left( v_{2}\right) =w_{2}\text{ \ \ \ \ \ \ \ \ } \\ \ \ \ \ \ \ \vdots \text{ \ \ \ \ \ \ \ \ \ \ } \\ T\left( v_{n}\right) =w_{n}\text{ \ \ \ \ \ \ \ \ }% \end{array}% \right\vert \begin{array}{c} \bullet \text{ Existencia de T} \\ \bullet \text{ Linealidad de T} \\ \bullet \text{ Unicidad\ de T \ }% \end{array}% $ \section{\textbf{8. Composicion de Transformaciones Lineales}} Sean las transformaciones Lineales: $F:U\rightarrow V$ $G:V\rightarrow W$ entonces la composici\'{o}n $G$ $o$ $F$ $:$ $U\rightarrow W$ es transformaci% \'{o}n lineal, tal que $G$ $o$ $F$ $(u)=G(F(u))$ \ \ $\forall $ $u\in U$ \textbf{Propiedades:} $\bullet $ $Nu(F)\subseteq Nu(G$ $o$ $F)$ $\bullet $ $Nu(F)=Nu(G$ $o$ $F)\iff $ $G$ es monomorfismo (inyectiva) $\iff $ $Nu(G)=\left\{ 0_{V}\right\} $ \section{9. \textbf{Transformaci\'{o}n Inversa}} Sea $T:V\rightarrow W$ isomorfismo $\Longrightarrow $ $\exists $ $% T^{-1}:W\rightarrow V$ / $T^{-1}(w)=v\iff T(v)=w$ \subsection{\textbf{Propiedades:}} $\bullet $ $T^{-1}$ es una TL biyectiva $\bullet $ $T^{-1}$ $o$ $T=Id_{V}$ \ \ $\ \ \ \ \left( T^{-1}oT(v)=v\right) $ $\bullet $ $T$ $o$ $T^{-1}=Id_{W}$ $\ \ \ \ \ \left( T^{-1}oT(w)=w\right) $ \section{10. \textbf{Matriz asociada a una Transformaci\'{o}n Lineal}} Sea $T:V\rightarrow W$ \ TL $B=\{v_{1},v_{2},.....v_{n}\}$ base de $V$ $B=\{w_{1},w_{2},.....w_{m}\}$ base de $W$ $\left[ T\right] _{BB^{\prime }}=\left[ \begin{array}{c} \text{ \TEXTsymbol{\vert}\ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \TEXTsymbol{\vert}\ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \TEXTsymbol{\vert}\ \ \ } \\ C_{B^{\prime }}(T(v_{1}))\ \ C_{B^{\prime }}(T(v_{2}))......C_{B^{\prime }}(T(v_{n})) \\ \text{\TEXTsymbol{\vert} \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \TEXTsymbol{\vert}\ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \TEXTsymbol{\vert}\ \ }% \end{array}% \right] $ \ \ $\in \Bbbk ^{mxn}$ es la matriz asociada a $T.$ \ $\left[ T\right] _{BB^{\prime }},C_{B}(v)=C_{B^{\prime }}(T(v))$ $V\overset{T}{\longrightarrow }W$ $v\overset{T}{\longrightarrow }T(v)=w$ $C_{B}(v)$ $\overset{\left[ T\right] _{BB^{\prime }}}{\longrightarrow }$ $% C_{B^{\prime }}(T(v))=C_{B^{\prime }}(w)$ \subsection{\textbf{Propiedades:}} $\bullet $ Si $T$ es isomorfismo $\implies $ $\exists $ $\left[ T^{-1}\right] _{BB^{\prime }}=\left[ T\right] _{BB^{\prime }}^{-1}$ $\bullet $ $T:V\rightarrow W$ TL, $B$ base de $V$ $C$ base de $W$ $\cdot $ $v\in Nu(T)\iff C_{B}(v)\in Nul(\left[ T\right] _{BC})$ $\cdot $ $v\in \func{Im}(T)\iff C_{C}(T(v))\in Col(\left[ T\right] _{BC})$ $\cdot $ $rg(\left[ T\right] _{BC})=\dim (\func{Im}(T))$ $\cdot $ $\left\{ \begin{array}{c} B^{\prime }\text{ base de }V\text{ \ \ \ \ \ \ } \\ C^{\prime }\text{ base de }W\text{ \ \ \ \ \ }% \end{array}% \right. \implies rg(\left[ T\right] _{BC})=rg(\left[ T\right] _{B^{\prime }C^{\prime }})$ $\bullet $ $T:V\rightarrow W$ TL, $B$ y $D$ bases de $V$ $B\prime $ y $D\prime $ bases de $W$ $A=\left[ T\right] _{BB^{\prime }}$ \ $M=\left[ T\right] _{DD^{\prime }}$ $\implies \left[ T\right] _{DD^{\prime }}\mathbf{=C}_{B^{\prime }D^{\prime }}% \left[ T\right] _{BB^{\prime }}\mathbf{C}_{DB}$ $\ \ \ C_{B}(v)$ \ \ $\overset{A}{\longrightarrow }$ $\ \ \ C_{B^{\prime }}(T(v))$ $\ $ $C_{BD}$ $\uparrow $ $\ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \downarrow $ $% C_{B^{\prime }D^{\prime }}$ \ (Cuadrito did\'{a}ctico) $\ \ \ C_{D}(v)$ $\ \ \overset{M}{\longrightarrow }$ $\ $\ $\ C_{D^{\prime }}(T(v))$ \end{document}
Apunte 6: Producto Interno
Descargar PDF: :materias:61:08:producto_interno_v2.0_.pdf
\documentclass[12pt]{article} %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \usepackage{amsfonts} \usepackage{amsmath} \usepackage{sw20res1} \setcounter{MaxMatrixCols}{10} %TCIDATA{OutputFilter=LATEX.DLL} %TCIDATA{Version=5.50.0.2953} %TCIDATA{<META NAME="SaveForMode" CONTENT="1">} %TCIDATA{BibliographyScheme=Manual} %TCIDATA{Created=Saturday, October 10, 2009 02:45:56} %TCIDATA{LastRevised=Sunday, October 11, 2009 01:57:29} %TCIDATA{<META NAME="GraphicsSave" CONTENT="32">} %TCIDATA{<META NAME="DocumentShell" CONTENT="Other Documents\SW\Resume - SW Resume #1">} %TCIDATA{CSTFile=sw20res1.cst} \input{tcilatex} \begin{document} \title{Producto Interno} \author{by gira} \date{10/10/2009} \maketitle \section{1. Definici\'{o}n} Sea $V$ un $% %TCIMACRO{\U{2102} }% %BeginExpansion \mathbb{C} %EndExpansion $-espacio vectorial, y sean $u\in V,$ $v\in V,$ $w\in V$ y $\alpha \in %TCIMACRO{\U{2102} }% %BeginExpansion \mathbb{C} %EndExpansion $ , entonces \newline $(\cdot ,\cdot ):V_{% %TCIMACRO{\U{2102} }% %BeginExpansion \mathbb{C} %EndExpansion }$x$V_{% %TCIMACRO{\U{2102} }% %BeginExpansion \mathbb{C} %EndExpansion }\rightarrow %TCIMACRO{\U{2102} }% %BeginExpansion \mathbb{C} %EndExpansion $ es un \textit{producto interno} (pi) en $V$ si se cumplen los siguientes axiomas: $a_{1})$ $\ (u,v)=\overline{(v,u)}$ \ \ \ $\vee $ \ \ \ $(u,v)=(v,u)\ \ $si $% V$ es $% %TCIMACRO{\U{211d} }% %BeginExpansion \mathbb{R} %EndExpansion $-ev $a_{2})$ $\ (u+v,w)=(u,w)+(v,w)$ $a_{3})$ $\ (\alpha u,v)=\overline{\alpha }(u,v)$ \ \ \ $\vee $ \ \ \ $% (\alpha u,v)=\alpha (u,v)\ \ $si $V$ es $% %TCIMACRO{\U{211d} }% %BeginExpansion \mathbb{R} %EndExpansion $-ev $a_{3})$ $\ (u,u)>0$ \ \ \ $\wedge $ \ \ \ $(u,u)=0$ \ \ $\iff $ \ \ $% u=0_{V} $ \section{2. Propiedades del pi} $(i)$ $\ (u,v+w)=(u,v)+(u,w)$ $(ii)$ $\ (u,\alpha v)=\alpha (u,v)\ $ $(iii)$ $\ (v,0_{V})=0$ \subsection{El producto interno can\'{o}nico (pic)} En $% %TCIMACRO{\U{211d} }% %BeginExpansion \mathbb{R} %EndExpansion ^{n}:(u,v)=u^{T}v$ En $% %TCIMACRO{\U{2102} }% %BeginExpansion \mathbb{C} %EndExpansion ^{n}:(u,v)=u^{H}v=\overline{(u^{T})}v$ En $% %TCIMACRO{\U{211d} }% %BeginExpansion \mathbb{R} %EndExpansion ^{nxn}:(A,B)=\overset{n}{\underset{j=1}{\overset{n}{\underset{i=1}{\sum }}}}% a_{ij}b_{ij}$ \section{3. Norma y distancia} Sea $V$ un $EVPI$ (espacio vectorial con prod. int.), se define como \textit{% norma} al n\'{u}mero real $\left\Vert u\right\Vert =(u,u)$ y la \textit{distancia} entre dos elementos $u$ y $v$ de $V$ se define como: $d(u,v)=\left\Vert v-u\right\Vert $ \subsection{3.1. Propiedades de la norma} $(i)$ $\ \left\Vert u\right\Vert >0$ $\ \ \wedge $ $\ \ \left\Vert u\right\Vert =0$ $\ \iff $ $\ \ u=0_{V}$ $(ii)$ $\ \left\Vert ku\right\Vert =\left\vert k\right\vert \left\Vert u\right\Vert $ \ \ $(k\in K)$ $(iii)$ $\ \left\Vert u+v\right\Vert \leq \left\Vert u\right\Vert +\left\Vert v\right\Vert $ \ \ (Desigualdad Triangular) \section{4. Desigualdad de Cauchy-Schwarz} Ver apunte 7. \section{5. Ortogonalidad} \subsection{5.1. Definici\'{o}n} Dos elementos $u$ y $v$ de $V$ ($EVPI)$ son ortogonales $\iff $ $\ (u,v)=0$ \textbf{Atenci\'{o}n:} La ortogonalidad depende del producto interno del correspondiente espacio vectorial \subsection{5.2. Propiedad Pitag\'{o}rica} Si u y v son ortogonales $\implies $ \ $\left\Vert u+v\right\Vert ^{2}=\left\Vert u\right\Vert ^{2}+\left\Vert v\right\Vert ^{2}$ Si el espacio vectorial es Real entonces se cumple el "si y solo si". \subsection{5.3. Conjuntos Ortogonales} \underline{Definici\'{o}n:} $\{u_{1},u_{2},....,u_{r}\}$ \ es un conjunto ortogonal $\iff $ \ $(u_{i},u_{j})=0$ \ \ $\forall $ $i\neq j$ \underline{Propiedad:} Todo conjunto ortogonal que no contenga al $0_{V}$ es LI $B$ es una base ortogonal ($BOG$) si es base y es ortogonal \subsection{5.4. Conjuntos Ortonormales} \underline{Definici\'{o}n:} $\{u_{1},u_{2},....,u_{r}\}$ \ es un conjunto ortonormal $\iff $ \ $\left\{ \begin{array}{c} (u_{i},u_{j})=0\ \ \forall i\neq j\text{ \ \ \ \ \ } \\ \left\Vert u_{i}\right\Vert =1\text{ , \ }i=1,...,r% \end{array}% \right. $ $B$ es una base ortonormal ($BON$) si es base y es ortonormal $\frac{v}{\left\Vert v\right\Vert }$ es llamado\textit{\ versor asociado a} $% v$ y tiene norma 1. \section{6. Matriz del Producto Interno (Matriz de Gram)} Sea $B=\{u_{1},u_{2},....,u_{r}\}$ base de $V$ ($EVPI$), y sean $v$ y $w$ de $V,$ entonces: $(v,w)=[v]_{B}^{H}.G_{B}.[w]_{B}$ \ \ \ \ \ \ \ \ \ //\ \ \ \ \ \ \ \ \ \ Con la otra notaci\'{o}n: $(v,w)=C_{B}(v)^{H}.G_{B}.C_{B}(w)$ donde $G_{B}=\left( \begin{array}{cccc} (u_{1},u_{1}) & (u_{1},u_{2}) & \cdots & (u_{1},u_{r}) \\ (u_{2},u_{1}) & (u_{2},u_{2}) & \cdots & (u_{2},u_{r}) \\ \vdots & \vdots & \ddots & \vdots \\ (u_{r},u_{1}) & (u_{r},u_{2}) & \cdots & (u_{r},u_{r})% \end{array}% \right) $ \ \ \ \ \ \ \ \ \ $% \begin{array}{c} \text{ }G_{B}\in K^{rxr}\text{ \ \ (Si }dim(V)=r\text{)} \\ \bullet \text{ Herm\'{\i}tica (Sim\'{e}trica)\ \ \ \ \ \ \ } \\ \bullet \text{ Definida Positiva\ \ \ \ \ \ \ \ \ \ \ \ \ } \\ \bullet \text{ Inversible \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ }% \end{array}% $ \subsection{6.1. Observaciones} $\bullet $ $\ A\in %TCIMACRO{\U{2102} }% %BeginExpansion \mathbb{C} %EndExpansion ^{nxn}$ es \textit{herm\'{\i}tica} \ $\iff $ \ $A=A^{H}$ \ ($a_{ij}=% \overline{a_{ji}}$) $\bullet $ $\ A\in %TCIMACRO{\U{211d} }% %BeginExpansion \mathbb{R} %EndExpansion ^{nxn}$ es \textit{sim\'{e}trica} \ $\iff $ \ $A=A^{T}$ \ ($a_{ij}=a_{ji}$) $\bullet $ $\ $Si $K=% %TCIMACRO{\U{2102} }% %BeginExpansion \mathbb{C} %EndExpansion $, entonces sea $A\in %TCIMACRO{\U{2102} }% %BeginExpansion \mathbb{C} %EndExpansion ^{nxn}$ herm\'{\i}tica $\implies $ \ $A$ es \textit{definida positiva} \ $% \iff $ \ $x^{H}Ax\geq 0$ \ \ $\forall $ $x$ \ \ $\wedge $ \ $\ x^{H}Ax=0$ \ $% \iff $ \ $x=0$ $\bullet $ $\ $Si $K=% %TCIMACRO{\U{211d} }% %BeginExpansion \mathbb{R} %EndExpansion $, entonces sea $A\in %TCIMACRO{\U{211d} }% %BeginExpansion \mathbb{R} %EndExpansion ^{nxn}$ sim\'{e}trica $\implies $ \ $A$ es \textit{definida positiva} \ $% \iff $ \ $x^{T}Ax\geq 0$ \ \ $\forall $ $x$ \ \ $\wedge $ \ $\ x^{T}Ax=0$ \ $% \iff $ \ $x=0$ $\bullet $ $\ $Sea $A\in %TCIMACRO{\U{2102} }% %BeginExpansion \mathbb{C} %EndExpansion ^{nxn}$ ($% %TCIMACRO{\U{211d} }% %BeginExpansion \mathbb{R} %EndExpansion ^{nxn})$ herm\'{\i}tica (sim\'{e}trica) $\implies $ \ $A$ es \textit{% definida positiva} \ $\iff $ \ todos los subdeterminantes (o menores) principales de $A$ son $>0$ $\bullet $ $\ $Sea $A\in %TCIMACRO{\U{2102} }% %BeginExpansion \mathbb{C} %EndExpansion ^{nxn}$ ($% %TCIMACRO{\U{211d} }% %BeginExpansion \mathbb{R} %EndExpansion ^{nxn})$ herm\'{\i}tica (sim\'{e}trica) $\implies $ \ $A$ es \textit{% definida positiva} \ $\iff $ \ todos los autovalores de $A$ son $>0$ \subsection{6.2. Casos Especiales} $\bullet $ $B=\{g_{1},g_{2},....,g_{r}\}$ BOG de $V$ $\implies $ \ $% G_{B}=\left( \begin{array}{cccc} (g_{1},g_{1}) & 0 & \cdots & 0 \\ 0 & (g_{2},g_{2}) & \cdots & 0 \\ \vdots & \vdots & \ddots & \vdots \\ 0 & 0 & \cdots & (g_{r},g_{r})% \end{array}% \right) $ \ (Diagonal) $\bullet $ $B=\{u_{1},u_{2},....,u_{r}\}$ BON de $V$ $\implies $ \ $G_{B}=I$ \ \ \ \ \ (pues $\left\Vert u_{i}\right\Vert =1$) \section{7. Proyecciones Ortogonales} Sea $V$ un $EVPI$, $S$ un subespacio de $V$ y $v\in V:$ \subsection{7.1. Definici\'{o}n} $\widehat{v}$ es la proyecci\'{o}n de v sobre S $\iff $ \ $\left\{ \begin{array}{c} \widehat{v}\in S\text{ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ } \\ v-\widehat{v}\perp S\text{ \ \ }\vee \text{\ \ }(v-\widehat{v},w)=0\text{ \ }% \forall \text{ }w\in S% \end{array}% \right. $ \underline{Notaci\'{o}n:}$\ \widehat{v}=\ p_{S}(v)$ \ \'{o} $\widehat{v}% =p_{S}v$ \FRAME{ftbpF}{3.1292in}{2.1762in}{0in}{}{}{proyeccion.jpg}{\special{language "Scientific Word";type "GRAPHIC";maintain-aspect-ratio TRUE;display "USEDEF";valid_file "F";width 3.1292in;height 2.1762in;depth 0in;original-width 3.146in;original-height 2.1788in;cropleft "0";croptop "1";cropright "1";cropbottom "0";filename 'proyeccion.jpg';file-properties "XNPEU";}} \subsection{7.2. Propiedades} $\bullet \ $Si existe la proyecci\'{o}n de $v$ sobre $S$ $\implies p_{S}(v)$ es \'{u}nica\ \ $\bullet $ \ $p_{S}(u+v)=p_{S}(u)+p_{S}(v)$ $\bullet $ \ $p_{S}(kv)=kp_{S}(v)$ $\bullet $\ \ $p_{S}(v)=v$ \ $\iff $ $v\in S$ $\bullet $\ \ $p_{S}(v)=0_{V}$ \ $\iff $ $v\perp S$ \subsection{7.3. F\'{o}rmula de proyecci\'{o}n} Sea $S$ un subespacio de $V$ y $B=\{g_{1},g_{2},....,g_{r}\}$ una BOG de S, entonces: $p_{S}(v)=\overset{r}{\underset{i=1}{\sum }}\frac{(g_{i},v)}{\left\Vert g_{i}\right\Vert ^{2}}.g_{i}$ \underline{Caso particular:} Si $B=\{u_{1},u_{2},....,u_{r}\}$ es BON de S, entonces: $p_{S}(v)=\overset{r}{\underset{i=1}{\sum }}(u_{i},v).u_{i}$ \subsection{7.4. M\'{e}todo de Gram-Schmidt (Construcci\'{o}n de una BOG)} Sea $S$ subespacio de $V$ y $B$ $=\{v_{1},v_{2},....,v_{r}\}$ base de S $% \implies $ $\ \exists $ $B^{\prime }$ $=\{g_{1},g_{2},....,g_{r}\}$ BOG de S donde: $g_{1}=v_{1}$ $g_{i}=v_{i}-p_{S_{i-1}}(v_{i})$ \ donde $S_{i-1}=\{g_{1},....,g_{i-1}\}$ con $2\leq i\leq r$ \subsection{7.5. La proyecci\'{o}n como mejor aproximaci\'{o}n} Sea $S$ subespacio de $V$ y $v\in V,$ si $\widehat{v}=p_{S}(v)$ resulta: $d(v,\widehat{v})\leq d(v,w)$ \ $\forall $ $w\in S$ \ \ \ \ \ \ \ \ (\ $% \left\Vert v-\widehat{v}\right\Vert \leq \left\Vert v-w\right\Vert $ ) es decir, $\widehat{v}$ es el vector de $S$ que est\'{a} "m\'{a}s cerca" de $% v$ o "mejor aproxima" a $v$. \subsubsection{7.5.1. Distancia de un vector a un subespacio} $d(v,S)=\left\Vert v-\widehat{v}\right\Vert $ \ \subsection{7.6. Complemento Ortogonal} \subsubsection{7.6.1. Definici\'{o}n} Sea $S$ subespacio de $V$ $(EVPI)$ entonces el \textit{complemento ortogonal de }$S$ se define como: $S^{\perp }=\{v\in V$ / $(v,w)=0$ \ $\forall $ $w\in S\}$ $S^{\perp }$ es subespacio de $V.$ Si $S=gen\{v_{1},v_{2},....,v_{q}\}\subset V\implies S^{\perp }=\{v\in V$ / $% (v,v_{1})=0,...,(v,v_{q})=0$ $\}$ \subsubsection{7.6.2. Propiedad} Sea $S\subseteq V$ un subespacio de V tal que $\forall $ $v\in V$ existe $% p_{S}(v)$ $\ \implies $ \ $S\oplus S^{\perp }=V$ \ \ \ \ \ \ ( $S\cap S^{\perp }=\{0_{V}\}$ \ $\wedge $\ $\ S+S^{\perp }=\ V$\ ) \subsubsection{7.6.3. Corolarios} $(i)$ \ Si $dim(S)$ es finita \ $\implies $ \ $\exists $ $p_{S}(v)$ \ $% \forall $ $v\in V$ \ $\implies $ \ $S\oplus S^{\perp }=V$ $(ii)$ \ Si $dim(V)=n$ \ $\implies $ \ $dim(S\oplus S^{\perp })=dim(S)+dim(S^{\perp })=n$ $(iii)$ \ Si $S\oplus S^{\perp }=V$ \ $\implies $ \ $(S^{\perp })^{\perp }=S$ $(iv)$ \ Si $S\oplus S^{\perp }=V$ \ $\implies $ \ $v=p_{S}(v)+p_{S^{\perp }}(v)$ \ $\forall $ $v\in V$ \subsubsection{7.6.4. Casos Especiales} $\bullet $ Si$\ S=Nul(A)=\{x\in %TCIMACRO{\U{211d} }% %BeginExpansion \mathbb{R} %EndExpansion ^{n}$ / $Ax=0\}$, En general, para \textit{p.i. can\'{o}nico}: $x\in Nul(A)\iff Ax=0\iff (F_{i}^{T},x)=0\iff x\perp Fil(A)\iff x\in \lbrack Fil(A)]^{\perp }$ \ $\implies $ \ \ \fbox{$Nul(A)=[Fil(A)]^{\perp }$} $\implies S^{\perp }=Fil(A)$ $\bullet $ Si$\ S=Nul(A^{T})=\{x\in %TCIMACRO{\U{211d} }% %BeginExpansion \mathbb{R} %EndExpansion ^{n}$ / $A^{T}x=0\}$, $Nul(A^{T})\perp Fil(A^{T})=Col(A)\implies $\fbox{$Nul(A^{T})=[Col(A)]^{% \perp }$} $\implies S^{\perp }=Col(A)$ \subsection{7.8. Matriz de Proyecci\'{o}n} \underline{\textit{Atenci\'{o}n}}\textit{: A partir de ahora usamos s\'{o}lo p.i. can\'{o}nico.} Sea $V=K^{n}$ (p.i.c.), $S$ subespacio de $V:$ \subsubsection{7.8.1. Definici\'{o}n} $P\in K^{n}$ es la \textit{matriz de proyecci\'{o}n sobre S} si $% P.v=p_{S}(v) $ \ tal que $P=QQ^{H},$ con $Q=[u_{1}$ $u_{2}$ $.....$ $u_{r}]$ \ y $B=\{u_{1},u_{2},.....,u_{r}\}$ una BON de S. \subsubsection{7.8.2. Propiedades} $\bullet $ \ $P$ es \'{u}nica $\bullet $ \ $Q=[u_{1}$ $u_{2}$ $.....$ $u_{r}]$ \ $\implies $ \ $% Col(Q)=gen\{u_{1},u_{2},.....,u_{r}\}=S$ $\bullet $ \ $Q^{H}Q=I$ $\bullet $ \ $Col(P)=Col(Q)=S$ $\bullet $ \ $P^{H}=P$ (Herm\'{\i}tica) \ $\wedge $ \ $P^{2}=P$ (Idempotente) \textbf{Obs: }$rg(P)=dim(S)=r$ \subsubsection{7.8.3. Relaci\'{o}n entre $P_{S}$ y $P_{S^{\perp }}$} Si $P_{S}$ la matriz de proyecci\'{o}n sobre S y $P_{S^{\perp }}$ la matriz de proyecci\'{o}n sobre $S^{\perp }$ entonces: $v=p_{S}(v)+p_{S^{\perp }}(v)$ \ \ $\forall $ $v\in R^{n}$ $v=P_{S}.v+P_{S^{\perp }}.v$ $I.v=(P_{S}+P_{S^{\perp }}).v$ $\ \implies $ \ \ \ \fbox{$P_{S}+P_{S^{\perp }}=I$} \subsubsection{7.8.4. Un par de observaciones} $\bullet $ \ $P.v\in Col(P)$ $\ \ \implies \ \ \ v-P.v\in \lbrack Col(P)]^{\perp }$ $\bullet $ $\ P$ es inversible $\iff \det (P)\neq 0\iff $ $...\iff \underline{P=I}$ $\bullet $ $\ $Si $P\neq I$ \ $\implies $ \ \ $rg(P)\leq (n-1)$ $\bullet $ $\ P^{T}=P\implies Nul(P^{T})=[Col(P)]^{\perp }\implies Nul(P)=[Col(P)]^{\perp }\implies \underline{Nul(P)\perp Col(P)}$ $\implies $\fbox{$Nul(P)\oplus Col(P)=R^{n}$} \end{document}
Apunte 7: Desigualdad de Cauchy-Schwarz (Apunte de Mancilla)
Descargar PDF: :materias:61:08:7._desigualdad_de_cauchy-schwarz_apunte_de_mancilla_.pdf
Apunte 8: Descomposición QR (Apunte de Mancilla)
Descargar PDF: :materias:61:08:8._descomposicion_qr_apunte_de_mancilla_.pdf
Apunte 9: Cuadrados Mínimos
Descargar PDF: :materias:61:08:9._cuadrados_minimos.pdf
\documentclass[12pt]{article} %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \usepackage{amsmath} \usepackage{sw20res1} \setcounter{MaxMatrixCols}{10} %TCIDATA{OutputFilter=LATEX.DLL} %TCIDATA{Version=5.50.0.2953} %TCIDATA{<META NAME="SaveForMode" CONTENT="1">} %TCIDATA{BibliographyScheme=Manual} %TCIDATA{Created=Friday, October 09, 2009 17:57:23} %TCIDATA{LastRevised=Friday, October 09, 2009 20:51:20} %TCIDATA{<META NAME="GraphicsSave" CONTENT="32">} %TCIDATA{<META NAME="DocumentShell" CONTENT="Other Documents\SW\Resume - SW Resume #1">} %TCIDATA{CSTFile=sw20res1.cst} \input{tcilatex} \begin{document} \title{Cuadrados M\'{\i}nimos} \author{by gira} \date{09/10/2009} \maketitle \name{by gira} Sean $A\in R^{mxn},$ $b\in R^{m}$ y $x\in R^{n}:$ el sistema $Ax=b$ $\ $entonces es compatible $\iff $ $b\in Col(A)$ Ahora, sea el sistema $Ax=b$ tal que $b\notin Col(A)$ (uno incompatible) entonces queremos la soluci\'{o}n de este sistema $($un $\widehat{x})$ de forma tal de encontrar un $\widehat{b}$ que perteneza al $\func{col}(A)$ y sea lo m\'{a}s "parecido" a $b$ posible, o mejor dicho, de forma que el vector $\widehat{b}$ sea el que m\'{a}s se aproxime a $b$ (y el "error" sea el m\'{\i}nimo)$,$ es decir de forma que $\widehat{b}=p_{Col(A)}(b)$ \FRAME{itbpFU}{2.8867in}{1.599in}{0in}{\Qcb{Ejemplo en R3}}{}{c.m.jpg}{% \special{language "Scientific Word";type "GRAPHIC";maintain-aspect-ratio TRUE;display "USEDEF";valid_file "F";width 2.8867in;height 1.599in;depth 0in;original-width 2.8435in;original-height 1.5627in;cropleft "0";croptop "1";cropright "1";cropbottom "0";filename 'c.m.jpg';file-properties "XNPEU";}% } El error $\varepsilon $ es igual a $\left\Vert b-\widehat{b}\right\Vert .$ Entonces el objetivo es encontrar la soluci\'{o}n a este sistema: $A\widehat{% x}=\widehat{b}=p_{Col(A)}(b)$. La soluci\'{o}n $\widehat{x}$ recibe el nombre de \textit{"soluci\'{o}n por cuadrados m\'{\i}nimos"} del sistema $% Ax=b.$ Entonces veamos ahora como encontrar $\widehat{x}$ sin necesidad de calcular la proyecci\'{o}n de $b$ sobre $Col(A):$ $A\widehat{x}=p_{Col(A)}(b)\iff \left\{ \begin{array}{c} A\widehat{x}\in Col(A) \\ b-A\widehat{x}\perp Col(A)% \end{array}% \right. $ Recordemos que para matrices reales y con el prod.\ interno can\'{o}nico se cumple que: $\left[ Col(A)\right] ^{\perp }=Nul\left( A^{T}\right) $ $\implies $ $b-A\widehat{x}\in Nul\left( A^{T}\right) \implies A^{T}(b-A% \widehat{x})=0\implies A^{T}b-A^{T}A\widehat{x}=0\iff $% \begin{equation} \fbox{$A^{T}A\widehat{x}=A^{T}b$} \end{equation} A este sistema se lo llama \textit{"Ecuaciones normales de cuadrados m\'{\i}% nimos"}. La soluci\'{o}n de este sistema es la soluci\'{o}n por cuadrados m% \'{\i}nimos que buscabamos. Sin embargo todo no termina aqu\'{\i}. Para este sistema tenemos dos casos: que sea compatible determinado \textbf{(SCD)} o compatible indeterminado \textbf{(SCI)}, y cada caso tiene sus propiedades; veamos: \underline{Caso 1:} Si $A^{T}A$ es inversible, entonces no est\'{a} nada mal que cambiemos el sistema a esta forma: $\widehat{x}=\left( A^{T}A\right) ^{-1}A^{T}b,$ De esta forma podemos afirmar que el sistema es compatible determinado y la soluci\'{o}n es \'{u}nica. La matriz $A^{\text{\#}}=\left( A^{T}A\right) ^{-1}A^{T}$ es llamada "matriz pseudoinversa de A". Ahora, observen lo siguiente: Si $A^{T}A$ es inversible entonces como recordar\'{a}n $rg(A^{T}A)=n,$ pero adem\'{a}s existe una propiedad que dice que $rg(A^{T}A)=rg(A)$ (ver ej. 21 de la gu\'{\i}a), entonces este caso podr% \'{\i}a resumirse de la siguiente forma: Ecs. normales son SCD $\iff \widehat{x}$ es \'{u}nico $\iff $ $A^{T}A$ es inversible $\iff rg(A^{T}A)=rg(A)=n\iff $ Las columnas de A son LI (o $% det(A)\neq 0$, etc$)$ $\iff $ $\widehat{x}=\left( A^{T}A\right) ^{-1}A^{T}b\iff $ $\widehat{x}=A^{\text{\#}}b$ \textbf{Propiedades de la Pseudoinversa:} 1. $A^{\text{\#}}\in R^{nxm}$ 2. $A^{\text{\#}}A=I$ \ \ \ \ \ \ (pues $A^{\text{\#}}A=\left( A^{T}A\right) ^{-1}A^{T}A=I)$ 3. $AA^{\text{\#}}=P_{Col(A)}(b)$ \ \ \ (pues $\widehat{x}=A^{\text{\#}% }b\rightarrow A\widehat{x}=AA^{\text{\#}}b\rightarrow p_{Col(A)}(b)=AA^{% \text{\#}}b\rightarrow P_{Col(A)}(b)=AA^{\text{\#}})$ \bigskip \underline{Caso 2:} Si $A^{T}A$ no es inversible, entonces $\widehat{x}$ no es \'{u}nico y las ecs. normales son un SCI. Adem\'{a}s las columnas de A son LD y su determinante es 0 (pues $rg(A)=$ $rg(A^{T}A)).$ Sin embargo podemos encontrar una expresi\'{o}n de $\widehat{x}$ de la siguiente forma: $\widehat{x}=\widehat{x}_{p}+\widehat{x}_{h}$ La soluci\'{o}n $\widehat{x}$ la podemos expresar como la suma de una particular ($\widehat{x}_{p})$ y una homog\'{e}nea ($\widehat{x}_{h}).$ La homog\'{e}nea ser\'{\i}a la soluci\'{o}n de $A^{T}A\widehat{x}=0,$ y la particular es simplemente una soluci\'{o}n de las infinitas que hay. Podemos observar entonces que $\widehat{x}_{h}\in Nul(A^{T}A),$ pero (ver ej. 21 de la gu\'{\i}a) $Nul(A^{T}A)=Nul(A)$, entonces $\widehat{x}_{h}\in Nul(A)!.$ \textbf{Algunas propiedades a tener en cuenta:} 1. Sea $\widehat{x}$ soluci\'{o}n por cuadrados m\'{\i}nimos del sistema $% Ax=b$ $\implies \left\Vert A\widehat{x}\right\Vert \leq \left\Vert b\right\Vert $ 2. $\widehat{x}=0$ es soluci\'{o}n por cuadrados m\'{\i}nimos del sistema $% Ax=b\iff b\perp Col(A)$ \end{document}
Apunte 10: Ecuaciones Diferenciales Lineales (Apunte de Mancilla)
Descargar PDF: :materias:61:08:10._ecuaciones_diferenciales_lineales_apunte_de_mancilla_.pdf
Apunte 11: Autovalores y Autovectores - Diagonalización
Descargar PDF: :materias:61:08:11._autovalores_y_autovectores_-_diagonalizacion.pdf
\documentclass[19pt]{article} \usepackage[a4paper]{geometry} \usepackage[spanish]{babel} \usepackage[latin1]{inputenc} \usepackage{amsmath} \usepackage[hang,bf]{caption} \usepackage{helvet} \setcounter{MaxMatrixCols}{10} \renewcommand\familydefault{\sfdefault} \numberwithin{equation}{section} \numberwithin{figure}{section} \numberwithin{table}{section} \setlength{\textwidth}{6.5in} \setlength{\textheight}{9.7in} \setlength{\oddsidemargin}{in} \setlength{\topmargin}{-0.5in} \input{tcilatex} \renewcommand{\baselinestretch}{1} \parindent=0em \begin{document} \setcounter{page}{1} \begin{center} {\LARGE Autovalores y Autovectores - Diagonalización } \bigskip \bigskip {\normalsize Última edición: 09/11/2009} \bigskip \end{center} \section{Autovalores y Autovectores} \bigskip Sea $A\in K^{nxn}$ (matriz cuadrada): \subsection{Definición} $\lambda \in K$ es \textit{autovalor} (ava) de $A$ si existe $v\in K^{n},$ no nulo ($v\neq 0_{K^{n}}$) tal que \fbox{$A.v=\lambda v$}. $v$ se denomina como \textit{autovector} (ave) de $A$ asociado al ava $\lambda .$ \subsection{Polinomio Característico} $\lambda $ ava de $A\iff A.v=\lambda .v$ $\iff A.v-\lambda .v=0_{K^{n}}\iff (A-\lambda I).v=0_{K^{n}}$ $\iff v\in Nul(A-\lambda I)\iff Nul(A-\lambda I)\neq \left\{ 0_{K^{n}}\right\} $ (pues $v\neq 0_{K^{n}}$) $\iff \det (A-\lambda I)=0$ (pues $rg(A-\lambda I)$ debe ser menor a $n$).% %TCIMACRO{\TeXButton{\smallskip}{\smallskip}}% %BeginExpansion \smallskip% %EndExpansion En conclusión: \fbox{$\lambda $ ava de $A\iff \det (A-\lambda I)=0$}$,$ donde $\det (A-\lambda I)$ se denomina como el \textit{polinomio caracterí% stico} de $A$ y se denota como $p_{A}(\lambda )$% %TCIMACRO{\TeXButton{\smallskip}{\smallskip}}% %BeginExpansion \smallskip% %EndExpansion $p_{A}(\lambda )=\det (A-\lambda I)$ es un polinomio de grado $n$ y sus raí% ces son los autovalores de $A$.% %TCIMACRO{\TeXButton{\medskip}{\medskip}}% %BeginExpansion \medskip% %EndExpansion \textbf{Obs:} Algunos profesores escriben "$(\lambda I-A).v"$ en vez de "$% (A-\lambda I).v"$, \ pero no es dificil ver que cualquiera de las dos formas esta bien.% %TCIMACRO{\TeXButton{\smallskip}{\smallskip}}% %BeginExpansion \smallskip% %EndExpansion \textbf{Multiplicidad Algebraica:} Se la denota como $m_{a}(\lambda )$ y se la denomina como la multiplicidad de $\lambda $ como raíz del polinomio característico. (Es decir, si es raíz doble, simple, triple, etc.) \subsubsection{Propiedades:} $(a)$ Son equivalentes: $a_{1}.$ $\lambda $ ava de $A$ $a_{2}.$ $\det (A-\lambda I)=0$ $a_{3}.$ $Nul(A-\lambda I)\neq \left\{ 0\right\} $ $a_{4}.$ $rg(A-\lambda I)<n$ $(b)$ Si $A\in K^{2x2}\longrightarrow \fbox{$p_{A}(\lambda )=\lambda ^{2}-\lambda .tr\left( A\right) +\det \left( A\right) $}$% %TCIMACRO{\TeXButton{\smallskip}{\smallskip}}% %BeginExpansion \smallskip% %EndExpansion dem) $p_{A}(\lambda )=\det (A-\lambda I)=\left( \begin{array}{cc} a_{11}-\lambda & a_{12} \\ a_{21} & a_{22}-\lambda% \end{array}% \right) =\left( a_{11}-\lambda \right) \left( a_{22}-\lambda \right) -a_{21}.a_{12}=\lambda ^{2}-\lambda (a_{11}+a_{22})+a_{11}.a_{22}-a_{21}.a_{12}=\lambda ^{2}-\lambda .tr\left( A\right) +\det \left( A\right) $ $(c)$ \fbox{$tr(A)=\underset{i=1}{\overset{n}{\dsum }}\lambda _{i}$}$% =\lambda _{1}+\lambda _{2}+.......+\lambda _{n}$% %TCIMACRO{\TeXButton{\smallskip}{\smallskip}}% %BeginExpansion \smallskip% %EndExpansion $(d)$ $\fbox{$det(A)=\underset{i=1}{\overset{n}{\dprod }}\lambda _{i}$}% =\lambda _{1}.\lambda _{2}........\lambda _{n}$% %TCIMACRO{\TeXButton{\smallskip}{\smallskip}}% %BeginExpansion \smallskip% %EndExpansion dem.b y c) Para 2x2: Si $\alpha _{1}$ y $\alpha _{2}$ son autovalores de $A$ $\longrightarrow p_{A}(\lambda )=(\lambda -\alpha _{1}).(\lambda -\alpha _{2})=\lambda ^{2}-\lambda (\alpha _{1}+\alpha _{2})+\alpha _{1}.\alpha _{2}\iff \alpha _{1}+\alpha _{2}=tr(A)$ $\wedge $ $\alpha _{1}.\alpha _{2}=\det (A)$% %TCIMACRO{\TeXButton{\smallskip}{\smallskip}}% %BeginExpansion \smallskip% %EndExpansion $(e)$ \fbox{$\lambda =0$ es ava de $A\iff \det (A)=0$} ($A$ singular) $\iff rg(A)<n$% %TCIMACRO{\TeXButton{\smallskip}{\smallskip}}% %BeginExpansion \smallskip% %EndExpansion $(f)$ Si $A$ es triangular (superior o inferior) $\longrightarrow $% \underline{ sus avas son los elementos de la diagonal principal.}% %TCIMACRO{\TeXButton{\smallskip}{\smallskip}}% %BeginExpansion \smallskip% %EndExpansion Ej.) Si $A=\left( \begin{array}{cc} 832 & 123 \\ 0 & 321% \end{array}% \right) \longrightarrow $ avas de A: 832 y 321% %TCIMACRO{\TeXButton{\smallskip}{\smallskip}}% %BeginExpansion \smallskip% %EndExpansion $(g)$ Si $A$ es triangular por bloques $\longrightarrow $ $% det(A)=de(A_{11}).\det (A_{22})$ siendo $A=\left( \begin{array}{cc} A_{11} & A_{12} \\ 0_{(n-p)xp} & A_{22}% \end{array}% \right) $ y $A$ de $nxn$, $A_{11}$ de $pxp$, $A_{12}$ de $px(n-p)$ $A_{22}$ de $(n-p)x(n-p)$% %TCIMACRO{\TeXButton{\smallskip}{\smallskip}}% %BeginExpansion \smallskip% %EndExpansion Entonces $det(A-\lambda I)=det(A_{11}-\lambda I).\det (A_{22}-\lambda I)\longrightarrow p_{A}(\lambda )=p_{A_{11}}(\lambda ).p_{A_{22}}(\lambda )$ $\longrightarrow $\fbox{$\lambda $ es ava de $A\iff \lambda $ es un ava de $% A_{11}$ o de $A_{22}$}% %TCIMACRO{\TeXButton{\smallskip}{\smallskip}}% %BeginExpansion \smallskip% %EndExpansion (y la suma de los avas de $A_{11}$ más los de $A_{22}$ nos da todos los avas de $A$) $(h)$ Si $A\in K^{nxn}\longrightarrow $\fbox{$m_{a}(\lambda _{1})+m_{a}(\lambda _{2})+......+m_{a}(\lambda _{r})=n$} siendo $\lambda _{i}\neq \lambda _{j}$% %TCIMACRO{\TeXButton{\smallskip}{\smallskip}}% %BeginExpansion \smallskip% %EndExpansion $(i)$ Sea $\lambda $ ava de $A$ y $v$ el ave de $A$ asociado a $\lambda \longrightarrow A.v=\lambda .v\iff (A-\lambda I).v=0\iff $\fbox{$v\in Nul(A-\lambda I)$}% %TCIMACRO{\TeXButton{\smallskip}{\smallskip}}% %BeginExpansion \smallskip% %EndExpansion \subsection{Autoespacio Asociado} Se define como el autoespacio de $A\in K^{nxn}$ (o subespacio propio de A) asociado al autovalor $\lambda \in K$ a:% %TCIMACRO{\TeXButton{\smallskip}{\smallskip}}% %BeginExpansion \smallskip% %EndExpansion \fbox{$S_{\lambda }=Nul(A-\lambda I)$}$=\left\{ v\in K^{n}\text{ }/\text{ }% A.v=\lambda v\right\} $% %TCIMACRO{\TeXButton{\smallskip}{\smallskip}}% %BeginExpansion \smallskip% %EndExpansion Este subespacio contiene a todos los autovectores de A asociados al autovalor $\lambda $ y su dimensión se denomina \textit{multiplicidad geomé% trica de }$\lambda .$ ($m_{g}(\lambda )$):% %TCIMACRO{\TeXButton{\smallskip}{\smallskip}}% %BeginExpansion \smallskip% %EndExpansion \fbox{$dim(S_{\lambda })=m_{g}(\lambda )$}% %TCIMACRO{\TeXButton{\smallskip}{\smallskip}}% %BeginExpansion \smallskip% %EndExpansion %TCIMACRO{\TeXButton{\medskip}{\medskip}}% %BeginExpansion \medskip% %EndExpansion \textbf{Observación: }$dim(Nul(A-\lambda I))+rg(A-\lambda I)=n\longrightarrow rg(A-\lambda I)=n-m_{g}(\lambda )$ Si $rg(A-\lambda I)<n.\longrightarrow \det (A-\lambda I)=0\longrightarrow \lambda $ es ava de $A$ \subsubsection{Propiedades% %TCIMACRO{\TeXButton{\smallskip}{\smallskip}}% %BeginExpansion \smallskip% %EndExpansion } $(a)$ \fbox{Aves asociados a avas distintos son LI}% %TCIMACRO{\TeXButton{\smallskip}{\smallskip}}% %BeginExpansion \smallskip% %EndExpansion dem) Debemos demostrar que si $\lambda _{1}\neq \lambda _{2}\longrightarrow \left\{ v_{1},v_{2}\right\} $ LI siendo $v_{1},v_{2}$ aves asociados a $% \lambda _{1},\lambda _{2}$ respectivamente. Entonces demostremos que $\alpha _{1}.v_{1}+\alpha _{2}.v_{2}=0\iff \alpha _{1}=\alpha _{2}=0$ $\lambda _{2}.(\alpha _{1}.v_{1}+\alpha _{2}.v_{2})=0\longrightarrow \alpha _{1}.\lambda _{2}.v_{1}+\alpha _{2}.\lambda _{2}.v_{2}=0$ (1) $A.(\alpha _{1}.v_{1}+\alpha _{2}.v_{2})=0\longrightarrow \alpha _{1}.A.v_{1}+\alpha _{2}.A.v_{2}=0\longrightarrow \alpha _{1}.\lambda _{1}.v_{1}+\alpha _{2}.\lambda _{2}.v_{2}=0$ (2) $(1)-(2):\alpha _{1}.(\lambda _{2}.v_{1}-\lambda _{1}.v_{1})=0\longrightarrow \alpha _{1}.(\lambda _{2}-\lambda _{1}).v_{1}=0$ $;$ $v_{1}\neq 0$ y $\lambda _{1}\neq \lambda _{2}$ $\longrightarrow \underline{\alpha _{1}=0}$ $\longrightarrow $ si $\alpha _{1}.v_{1}+\alpha _{2}.v_{2}=0$ $% \longrightarrow $ $\alpha _{2}.v_{2}=0$ $\iff $ $\underline{\alpha _{2}=0}$% %TCIMACRO{\TeXButton{\smallskip}{\smallskip}}% %BeginExpansion \smallskip% %EndExpansion $(b)$ $\forall $ autovalor $\lambda $ de $A$ se cumple que: \fbox{$1\leq m_{g}(\lambda )\leq m_{a}(\lambda )$}% %TCIMACRO{\TeXButton{\smallskip}{\smallskip}}% %BeginExpansion \smallskip% %EndExpansion $(c)$ \fbox{La suma de autoespacios es directa.} Es decir, $S_{\lambda _{1}}+S_{\lambda _{2}}+.....+S_{\lambda _{r}}=S_{\lambda _{1}}\oplus S_{\lambda _{2}}\oplus .....\oplus S_{\lambda _{r}}=S$ con $\lambda _{i}\neq \lambda _{j}$% %TCIMACRO{\TeXButton{\smallskip}{\smallskip}}% %BeginExpansion \smallskip% %EndExpansion $(d)$ Si $A\in K^{nxn}$ es diagonal por bloques, es decir $A=\left( \begin{array}{cc} A_{11} & 0_{px(n-p)} \\ 0_{(n-p)xp} & A_{22}% \end{array}% \right) $ con $A_{11}$ de $pxp$ y $A_{22}$ de $\left( n-p\right) x\left( n-p\right) $ entonces:% %TCIMACRO{\TeXButton{\smallskip}{\smallskip}}% %BeginExpansion \smallskip% %EndExpansion $\quad d_{1}).$\fbox{Si $v\in K^{px1}$ es ave de $A_{11}\longrightarrow \left( \begin{array}{c} v \\ 0_{(n-p)x1}% \end{array}% \right) $ es ave de $A.$}% %TCIMACRO{\TeXButton{\smallskip}{\smallskip}}% %BeginExpansion \smallskip% %EndExpansion dem) $\left( \begin{array}{cc} A_{11} & 0_{px(n-p)} \\ 0_{(n-p)xp} & A_{22}% \end{array}% \right) .\left( \begin{array}{c} v \\ 0_{(n-p)x1}% \end{array}% \right) =\left( \begin{array}{c} A_{11}.v \\ 0_{px1}% \end{array}% \right) =\left( \begin{array}{c} \lambda .v \\ 0_{px1}% \end{array}% \right) =\lambda \left( \begin{array}{c} v \\ 0_{px1}% \end{array}% \right) \longrightarrow \left( \begin{array}{c} v \\ 0_{(n-p)x1}% \end{array}% \right) $% %TCIMACRO{\TeXButton{\smallskip}{\smallskip}}% %BeginExpansion \smallskip% %EndExpansion es ave de $A$% %TCIMACRO{\TeXButton{\smallskip}{\smallskip}}% %BeginExpansion \smallskip% %EndExpansion $\quad d_{2}$)\fbox{Si $w\in K^{(n-p)x1}$ es ave de $A_{22}\longrightarrow \left( \begin{array}{c} 0_{p} \\ w% \end{array}% \right) $ es ave de $A.$} (demostración similar)% %TCIMACRO{\TeXButton{\smallskip}{\smallskip}}% %BeginExpansion \smallskip% %EndExpansion $(e)$ \fbox{Si $A$\ es semejante a $B$ $\longrightarrow $ $A$ y $B$ tienen los mismos autovalores.} dem)% %TCIMACRO{\TeXButton{\medskip}{\medskip}}% %BeginExpansion \medskip% %EndExpansion {\large Matrices Semejantes} %TCIMACRO{\TeXButton{\medskip}{\medskip}}% %BeginExpansion \medskip% %EndExpansion Sean $A\in K^{nxn},$ $B\in K^{nxn}$% %TCIMACRO{\TeXButton{\medskip}{\medskip}}% %BeginExpansion \medskip% %EndExpansion \textbf{Definición:} $A$\ es \textit{semejante} a $B$ si existe $P\in K^{nxn} $ inversible tal que:\ $B=P^{-1}AP$ ó $A=PBP^{-1}$ Notación: $A$ $\sim $ $B$ Entonces sean A y B dos matrices semejantes, veamos que $p_{A}(\lambda )=p_{B}(\lambda ):$ $p_{B}(\lambda )=\det (B-\lambda I)=\det (P^{-1}AP-\lambda I)$ $;$ sabiendo que\ $I=P^{-1}IP=P^{-1}P=I$ : $p_{B}(\lambda )=\det (P^{-1}AP-P^{-1}\lambda IP)=\det (P^{-1}(A-\lambda I)P) $ ; y por propiedad del determinante $det(A.B)=det(A).det(B)$ : $p_{B}(\lambda )=\det (P^{-1}).\det (A-\lambda I).\det (P)$ $;$ pero $% det(P^{-1})=\frac{1}{\det (P)}$ $\longrightarrow p_{B}(\lambda )=\det (A-\lambda I)=$ $p_{A}(\lambda ).$% %TCIMACRO{\TeXButton{\medskip}{\medskip}}% %BeginExpansion \medskip% %EndExpansion \textbf{Recordar:} \fbox{Matrices semejantes tienen el mismo polinomio característico}% %TCIMACRO{\TeXButton{\smallskip}{\smallskip}}% %BeginExpansion \smallskip% %EndExpansion \textbf{Caso particular: }$[T]_{BB}=C_{B^{\prime }B}[T]_{B^{\prime }B^{\prime }}C_{BB^{\prime }}$ . En este caso \fbox{$[T]_{BB}$ \symbol{126}$% [T]_{B^{\prime }B^{\prime }}$} y $C_{B^{\prime }B}=\left( C_{BB^{\prime }}\right) ^{-1}$% %TCIMACRO{\TeXButton{\smallskip}{\smallskip}}% %BeginExpansion \smallskip% %EndExpansion \textbf{Observar: }\fbox{Si $A$ $\sim $ $B$ entonces $det(A)=det(B)$ y $% tr(A)=tr(B)$}, recordando que la traza es la suma de los autovalores, etc.% %TCIMACRO{\TeXButton{\smallskip}{\smallskip}}% %BeginExpansion \smallskip% %EndExpansion %TCIMACRO{\TeXButton{\bigskip}{\bigskip}}% %BeginExpansion \bigskip% %EndExpansion %TCIMACRO{\TeXButton{\bigskip}{\bigskip}}% %BeginExpansion \bigskip% %EndExpansion \section{Diagonalización} \bigskip Sea $A\in K^{nxn}$ (matriz cuadrada): \subsection{Definición} $A$ es \textit{diagonalizable }(dgz) si es semejante a una matriz diagonal $% D\in K^{nxn}$, es decir, existe $P\in K^{nxn}$ inversible tal que \fbox{$% A=PDP^{-1}$}% %TCIMACRO{\TeXButton{\medskip}{\medskip}}% %BeginExpansion \medskip% %EndExpansion \textbf{Teorema:} \fbox{$A$ es diagonalizable $\iff $ existe una base de $% K^{n}$ formada por autovectores de $A$}% %TCIMACRO{\TeXButton{\smallskip}{\smallskip}}% %BeginExpansion \smallskip% %EndExpansion dem) $(\Rightarrow )$ $A$ es dgz $\longrightarrow $ $A=PDP^{-1}\longrightarrow AP=PD\longrightarrow A[P_{1}P_{2}...P_{n}]=[P_{1}P_{2}...P_{n}]\left[ \begin{array}{ccc} \lambda _{1} & & 0 \\ & \ddots & \\ 0 & & \lambda _{n}% \end{array}% \right] $% %TCIMACRO{\TeXButton{\smallskip}{\smallskip}}% %BeginExpansion \smallskip% %EndExpansion $\longrightarrow \lbrack AP_{1}AP_{2}...AP_{n}]=[\lambda _{1}P_{1}\lambda _{2}P_{2}...\lambda _{n}P_{n}]$% %TCIMACRO{\TeXButton{\smallskip}{\smallskip}}% %BeginExpansion \smallskip% %EndExpansion $\longrightarrow \left\{ \begin{array}{c} AP_{1}=\lambda _{1}P_{1} \\ AP_{2}=\lambda _{2}P_{2} \\ \ \vdots \ \ \ \ \ \ \ \ \ \ \ \vdots \\ AP_{n}=\lambda _{n}P_{n}% \end{array}% \right. $% %TCIMACRO{\TeXButton{\medskip}{\medskip}}% %BeginExpansion \medskip% %EndExpansion $rg(P)=n$ por ser inversible $\longrightarrow \left\{ P_{1},P_{2},...,P_{n}\right\} $ es LI $\longrightarrow $ es una base de $% K^{n}$ formada por autovectores de $A.$ $(\Leftarrow )$ Sea $B=\left\{ v_{1},v_{2},...,v_{n}\right\} $ base de $% K^{n} $ con $v_{1},v_{2},...,v_{n}$ aves de A asociados a $\lambda _{1},\lambda _{2},...,\lambda _{n}$: $A\overset{?}{=}PDP^{-1}$ $AP\overset{?}{=}PD$% %TCIMACRO{\TeXButton{\smallskip}{\smallskip}}% %BeginExpansion \smallskip% %EndExpansion Propongo $P=[v_{1},v_{2},...,v_{n}]$ y $D=\left[ \begin{array}{ccc} \lambda _{1} & & 0 \\ & \ddots & \\ 0 & & \lambda _{n}% \end{array}% \right] $ \ y entonces verifico que: $AP=PD.$% %TCIMACRO{\TeXButton{\smallskip}{\smallskip}}% %BeginExpansion \smallskip% %EndExpansion Entonces A es diagonalizable pues es semejante a una matriz diagonal. \subsection{Propiedades} $(a)$ Si $A\in C^{nxn}$ $n$ avas distintos $\longrightarrow $ $A$ es diagonalizable \textbf{(no se cumple la recíproca)} $(b)$ Si $A\in R^{nxn}$ $n$ avas reales distintos $\longrightarrow $ $A$ es diagonalizable \textbf{(no se cumple la recíproca)} dem) Si $A$ tiene $n$ avas distintos $\longrightarrow $ habrán $n$ autovectores LI asociados a cada autovalor pues aves asociados a avas distintos son LI $\longrightarrow $ existirá una base de $K^{n}$ formada por $n$ autovectores de $A$ $\longrightarrow $ $A$ es diagonalizable. Pero que hallan $n$ autovectores LI de $A$ no significa que cada uno esté asociado a un autovalor distinto y que en consecuancia hallan $n$ avas distintos.% %TCIMACRO{\TeXButton{\smallskip}{\smallskip}}% %BeginExpansion \smallskip% %EndExpansion $(c)$ \fbox{$A$ es diagonalizable $\iff $ $S_{\lambda _{1}}\oplus S_{\lambda _{2}}\oplus .....\oplus S_{\lambda _{r}}=K^{n}\iff $ $m_{a}(\lambda _{i})=m_{g}(\lambda _{i})$} $\forall $ $\lambda _{i}$ autovalor de $A.$% %TCIMACRO{\TeXButton{\smallskip}{\smallskip}}% %BeginExpansion \smallskip% %EndExpansion dem) Como demostramos anteriormente, la suma de autoespacio es directa. Pero si A es diagonalizable entonces existe base de $K^{n}$ formada por aves de A, entonces si los aves forman base de $K^{n},$ entonces la suma de los autoespacios formará todo $K^{n},$ es decir cualquier vector de $K^{n}$ podrá ser combinación lineal de los autovectores de A. De esta forma, si la suma directa de los autoespacios nos da todo $K^{n},$ entonces la suma de las$% \circ $ dimensiones (las multiplicidades geométricas) nos dará $n$: $m_{g}(\lambda _{1})+m_{g}(\lambda _{2})+....+m_{g}(\lambda _{r})=n$ Y por propiedad $m_{a}(\lambda _{1})+m_{a}(\lambda _{2})+......+m_{a}(\lambda _{r})=n$ , y la otra propiedad dice que $1\leq m_{g}(\lambda _{i})\leq m_{a}(\lambda _{i})$ $\longrightarrow m_{g}(\lambda _{i})=m_{a}(\lambda _{i})$ \subsection{Polinomios Matriciales} Dada $A\in R^{nxn}$ y dado un polinjomio $% p(x)=a_{0}+a_{1}x+a_{2}x^{2}+....+a_{m}x^{m}$ con $% a_{0},a_{1},a_{2},....,a_{m}\in R$ se define un \textit{polinomio matricial} como \ $% p(A)=a_{0}+a_{1}A+a_{2}A^{2}+....+a_{m}A^{m}$ \subsubsection{Propiedades% %TCIMACRO{\TeXButton{\smallskip}{\smallskip}}% %BeginExpansion \smallskip% %EndExpansion } $(a)$ \fbox{$Av=\lambda v\longrightarrow p(A)v=p(\lambda )v$} \ \ \ Esto significa que si $\lambda $ es ava de $A$ entonces $p(\lambda )$ es ava de $% p(A),$ y si $v$ es autovector de $A$ asociado a $\lambda $ entonces $v$ es autovector de $p(A)$ asociado a $p(\lambda ).$% %TCIMACRO{\TeXButton{\smallskip}{\smallskip}}% %BeginExpansion \smallskip% %EndExpansion dem) Si $Av=\lambda v\longrightarrow A^{2}v=A\lambda v=\lambda ^{2}v,$ $\ A^{3}v=A\lambda ^{2}v=\lambda ^{3}v,$ $...........$ $\ ,$ $A^{m}v=\lambda ^{m}v$ \ y\ $A^{0}v=\lambda ^{0}v$ (convención: $A^{0}=I)$ Luego: $\ p(A)v=\left( a_{0}+a_{1}A+a_{2}A^{2}+....+a_{m}A^{m}\right) v=a_{0}Iv+a_{1}Av+a_{2}A^{2}v+....+a_{m}A^{m}v=a_{0}\lambda ^{0}v+a_{1}\lambda v+a_{2}\lambda ^{2}v+....+a_{m}\lambda ^{m}v=\left( a_{0}+a_{1}\lambda +a_{2}\lambda ^{2}+....+a_{m}\lambda ^{m}\right) v=p\left( \lambda \right) v$% %TCIMACRO{\TeXButton{\smallskip}{\smallskip}}% %BeginExpansion \smallskip% %EndExpansion $(b)$ \fbox{Si $A$ es diagonalizable $\longrightarrow p(A)$ es diagonalizable% }% %TCIMACRO{\TeXButton{\smallskip}{\smallskip}}% %BeginExpansion \smallskip% %EndExpansion dem) Si $A\in R^{nxn}$ es diagonalizable entonces existe $P\in R^{nxn}$ inversible formada por aves de $A$ y $D\in R^{nxn}$ diagonal que contiene a todos los avas de $A$ tal que $A=PDP^{-1}.$ Luego, $A^{2}=PDP^{-1}PDP^{-1}=PDDP^{-1}=PD^{2}P^{-1}....$ en definitiva: $% A^{m}=PD^{m}P^{-1}$ Ahora, si aplico el polinomio p: $p(A)=p\left( PDP^{-1}\right) =a_{0}+a_{1}PDP^{-1}+a_{2}PD^{2}P^{-1}+....+a_{m}PD^{m}P^{-1}=P\left[ a_{0}+a_{1}D+a_{2}D^{2}+....+a_{m}D^{m}\right] P^{-1}=Pp(D)P^{-1}$% %TCIMACRO{\TeXButton{\smallskip}{\smallskip}}% %BeginExpansion \smallskip% %EndExpansion con $p(D)$ diagonal que contiene a\ todos los avas de $p(A)$: $p(D)=\left( \begin{array}{ccc} p(\lambda _{1}) & & 0 \\ & \ddots & \\ 0 & & p(\lambda _{n})% \end{array}% \right) .$ Los aves de $A$ y $p(A)$ son los mismos, por lo tanto concluimos que \underline{$p(A)$ es diagonalizable}% %TCIMACRO{\TeXButton{\smallskip}{\smallskip}}% %BeginExpansion \smallskip% %EndExpansion \textbf{Obs:} Tener muy en cuenta la propiedad que se utilizó que dice: \fbox{Si $A=PDP^{-1}\longrightarrow p(A)=Pp(D)P^{-1}$}% %TCIMACRO{\TeXButton{\medskip}{\medskip}}% %BeginExpansion \medskip% %EndExpansion $(c)$ \textbf{Teorema de Cayley-Hamilton: \ }\fbox{$p_{A}(A)=0$} siendo \textbf{\ }$p_{A}(\lambda )$ el polinomio característico de una matriz $A$ cuadrada.% %TCIMACRO{\TeXButton{\smallskip}{\smallskip}}% %BeginExpansion \smallskip% %EndExpansion dem. para matrices dgz) De acuerdo a la propiedad anterior si $% A=PDP^{-1}\longrightarrow p(A)=Pp(D)P^{-1}$ para cualquier polinomio. En particular, para el polinomio característico $p_{A}(D)=0_{R^{nxn}}$ pues $% p_{A}(\lambda _{1})=0,$ $p_{A}(\lambda _{2})=0,....,p_{A}(\lambda _{n})=0\longrightarrow $\underline{$p_{A}(A)=0$} %TCIMACRO{\TeXButton{\newpage}{\newpage}}% %BeginExpansion \newpage% %EndExpansion \section{Avas y Aves de un Endomorfismo Lineal% %TCIMACRO{\TeXButton{\bigskip}{\bigskip}}% %BeginExpansion \bigskip% %EndExpansion } Sea el endomorfismo $T:V\longrightarrow V$ \ (TL), siendo $V$ un $K$-ev: \subsection{Definición% %TCIMACRO{\TeXButton{\smallskip}{\smallskip}}% %BeginExpansion \smallskip% %EndExpansion } $\lambda \in K$ es autovalor de T si $\exists $ $v\in V$ no nulo tal que \fbox{$T(v)=\lambda v$}$.$ $v$ es el autovector de $T$ asociado al autovalor $\lambda .$% %TCIMACRO{\TeXButton{\smallskip}{\smallskip}}% %BeginExpansion \smallskip% %EndExpansion \subsection{Propiedades% %TCIMACRO{\TeXButton{\smallskip}{\smallskip}}% %BeginExpansion \smallskip% %EndExpansion } $(a)$ \fbox{$\lambda $ es ava de $T\iff \lambda $ es ava de $[T]_{BB}$} siendo $B$ base de $V.$% %TCIMACRO{\TeXButton{\smallskip}{\smallskip}}% %BeginExpansion \smallskip% %EndExpansion $(b)$ \fbox{$v\in V$ es ave de T $\iff x=[v]_{B}\in K^{n}$ es ave de $% [T]_{BB}$}% %TCIMACRO{\TeXButton{\smallskip}{\smallskip}}% %BeginExpansion \smallskip% %EndExpansion dem.$a$ y $b$) Sea $T\in \tciLaplace (V),$ $dim(V)=n$, $B$ base de $V$ y $% [T]_{BB}$ matriz asociada a $T:$ $T(v)=\lambda v\iff \left[ T(v)\right] _{B}=\left[ \lambda v\right] _{B}$ ; $% \left[ T(v)\right] _{B}=[T]_{BB}.[v]_{B}$ (prop. del apunte de TL) $\iff \lbrack T]_{BB}.[v]_{B}=\lambda \left[ v\right] _{B}\iff $ $\lambda $ es ava de $[T]_{BB}$ y $[v]_{B}$ ave de $[T]_{BB}$ asociado a $\lambda $% %TCIMACRO{\TeXButton{\smallskip}{\smallskip}}% %BeginExpansion \smallskip% %EndExpansion $(c)$ \fbox{$p_{T}(\lambda )=p_{A}(\lambda )$} siendo $A=[T]_{BB}$ (notar que $A$ podría ser $[T]_{B^{\prime }B^{\prime }}$ o con cualquier otra base $% V$ recordando que estas matrices serán semejantes y por lo tanto tendrán el mismo polinomio característico) \subsection{Diagonalización de un Endomorfismo Lineal} Sea $T:V\longrightarrow V,$ y $dim(V)=n:$% %TCIMACRO{\TeXButton{\medskip}{\medskip}}% %BeginExpansion \medskip% %EndExpansion \textbf{3.2.1.} \textbf{Definición: }\fbox{$T$ es diagonalizable si existe una base $C$ en $V$ tal que $[T]_{CC}$ es diagonal}% %TCIMACRO{\TeXButton{\medskip}{\medskip}}% %BeginExpansion \medskip% %EndExpansion \textbf{Teorema:} \fbox{$T$ es diagonalizable $\iff $ existe una base $C$ en $V$ formada por autovectores de $T$}% %TCIMACRO{\TeXButton{\medskip}{\medskip}}% %BeginExpansion \medskip% %EndExpansion \textbf{3.2.2. Propiedad:} \fbox{Si $C$ \ es una base de $V$ formada por autovectores de $T$ $\ \longrightarrow $ $[T]_{CC}$ es diagonal}% %TCIMACRO{\TeXButton{\medskip}{\medskip}}% %BeginExpansion \medskip% %EndExpansion dem) Sea $C=\left\{ v_{1},v_{2},...,v_{n}\right\} $ entonces: $% \begin{array}{c} T(v_{1})=\lambda _{1}v_{1} \\ T(v_{2})=\lambda _{2}v_{2} \\ \vdots \\ T(v_{n})=\lambda _{n}v_{n}% \end{array}% $% %TCIMACRO{\TeXButton{\smallskip}{\smallskip}}% %BeginExpansion \smallskip% %EndExpansion $\bigskip $Ahora: $\left[ T(v_{i})\right] _{B}=\left[ \lambda v_{i}\right] _{B}=\lambda \left[ v_{i}\right] _{B}\longrightarrow \left[ T(v_{1})\right] _{B}=\left( \begin{array}{c} \lambda _{1} \\ 0 \\ \vdots \\ 0% \end{array}% \right) $ ; $\left[ T(v_{2})\right] _{B}=\left( \begin{array}{c} 0 \\ \lambda _{2} \\ \vdots \\ 0% \end{array}% \right) $ ; ... ; $\left[ T(v_{n})\right] _{B}=\left( \begin{array}{c} 0 \\ 0 \\ \vdots \\ \lambda _{n}% \end{array}% \right) $ $\bigskip $ $\longrightarrow \left[ T\right] _{CC}=\left( \begin{array}{cccc} \lambda _{1} & 0 & \cdots & 0 \\ 0 & \lambda _{2} & \cdots & 0 \\ \vdots & \vdots & \ddots & \vdots \\ 0 & 0 & \cdots & \lambda _{n}% \end{array}% \right) =D$ siendo $C$ la base formada por autovectores de $T$% %TCIMACRO{\TeXButton{\smallskip}{\smallskip}}% %BeginExpansion \smallskip% %EndExpansion De esta forma si T es diagonalizable entonces $[T]_{BB}=P\left[ T\right] _{CC}P^{-1}$ para cierta base $B$ de $V.$ $C$ es la base de autovectores de $% T$, $P=C_{CB}$ y $P^{-1}=C_{BC}.$ Además las columnas de $P$ son los autovectores de $[T]_{BB}.$ %TCIMACRO{\TeXButton{\newpage}{\newpage}}% %BeginExpansion \newpage% %EndExpansion \section{Subespacios Invariantes} \bigskip \subsection{Definición} $S$ es un subespacio invariante por $A$ (o $A$-estable) si $\forall $ $v\in S,$ $Av\in S$ \subsection{Propiedad} \fbox{Si $S$ es autoespacio de $A$ $\longrightarrow $ $S$ es invariante por $% A$} (no vale la recíproca) (y $S^{\perp }$ también es invariante por $A$)% %TCIMACRO{\TeXButton{\medskip}{\medskip}}% %BeginExpansion \medskip% %EndExpansion \textbf{Observación: }Si $S$ es invariante por $A$ y $dim(S)=1$ $% \longrightarrow $ $S$ es autoespacio de $A$ (en este caso si vale la recí% proca, en los demás no necesariamente). Esto es claro, pues si $S=gen\left\{ v\right\} $ y $Av\in S\rightarrow Av=\alpha v$ $\longrightarrow $ $v$ es autovector de $A$ y claramente $S$ es autoespacio de $A.$ Pero ya con $% dim(S)=2$ se ve que no se cumple necesariamente.% %TCIMACRO{\TeXButton{\smallskip}{\smallskip}}% %BeginExpansion \smallskip% %EndExpansion \textbf{Observación 2: }Si en un enunciado nos piden hallar una matriz $A $ tal que un subespacio $S$ es invariante por $A$, entonces generalmente es muy útil proponer que $S$ sea autoespacio de $A$, entonces hallamos un $A $ que cumple con la condición de que $S$ es invariante por $A$, pues por hipó% tesis es autoespacio. Pero de ningún modo significa que $S$ invariante por $% A $ implica $S$ autoespacio de $A$. \end{document}
Apunte 12: Matrices Simétricas y Hermíticas (Apunte de Mancilla)
Descargar PDF: :materias:61:08:12._matrices_simetricas_y_hermiticas_apunte_de_mancilla_.pdf
Apunte 13: Formas Cuadráticas (Apunte de Mancilla)
Descargar PDF: :materias:61:08:13._formas_cuadraticas_apunte_de_mancilla_.pdf
Apunte 14: Sistemas de Ecuaciones Diferenciales (Apunte de Mancilla)
Descargar PDF: :materias:61:08:14._sistemas_de_ecuaciones_diferenciales_apunte_de_mancilla_.pdf
Apunte 15: Descomposición en Valores Singulares (Apunte de Mancilla)
Descargar PDF: :materias:61:08:15._descomposicion_en_valores_singulares_apunte_de_mancilla_.pdf
Cuaderno de cursada Acero