\\ Apuntes de todos los temas teóricos de la materia. Los que dicen "Apunte de Mancilla" es porque fueron hechos por el profe Jose Luis Mancilla Aguilar. Los demás apuntes fueron hechos por mi (gira) por lo que tranquilamente pueden contener errores. Los apuntes están hechos en LaTeX, por eso les dejo la fuente "TeX" para que puedan modificarlo y corregirlo como gusten (Fíjense que al editarlo probablemente tengan que instalar algun "paquete" de LaTeX). \\ Para realizar los apuntes utilicé el [[http://www.mackichan.com/|Scientific Workplace]] (parecido al [[ http://www.latexeditor.org/|LEd]], pero comercial) Además se consultó [[http://web.fi.uba.ar/~ssantisi/works/ecuaciones_en_latex/|Ecuaciones en LaTeX, por Sebastián Santisi]] y [[http://ctan.localhost.net.ar/info/lshort/spanish/lshort.pdf|The not so short introduction to latex]] \\ **Cualquier error que vean, duda o sugerencia posteenlo acá:** http://www.foros-fiuba.com.ar/viewtopic.php?t=11803 ---- \\ __Apunte 1:__ Matrices (Repaso de algunas propiedades) Descargar PDF: {{:materias:61:08:1._matrices_repaso_de_algunas_propiedades_v3.0.pdf|:materias:61:08:1._matrices_repaso_de_algunas_propiedades_v3.0.pdf}} ++++Ver fuente TEX:| \documentclass[19pt]{article} \usepackage{amsfonts} \usepackage[a4paper]{geometry} \usepackage[spanish]{babel} \usepackage[latin1]{inputenc} \usepackage{amsmath} \usepackage[hang,bf]{caption} \usepackage{helvet} \setcounter{MaxMatrixCols}{10} \renewcommand\familydefault{\sfdefault} \numberwithin{equation}{section} \numberwithin{figure}{section} \numberwithin{table}{section} \setlength{\textwidth}{6.5in} \setlength{\textheight}{9.7in} \setlength{\oddsidemargin}{in} \setlength{\topmargin}{-0.5in} \input{tcilatex} \renewcommand{\baselinestretch}{1} \parindent=0em \begin{document} \setcounter{page}{1} \begin{center} {\LARGE Matrices (Repaso de algunas propiedades)} \bigskip \bigskip {\normalsize Última edición: 09/11/2009} \bigskip \end{center} \section{Inversa de una matriz} \bigskip Una matriz cuadrada $A\in %TCIMACRO{\U{211d} }% %BeginExpansion \mathbb{R} %EndExpansion ^{nxn}$ es inversible si existe $B\in %TCIMACRO{\U{211d} }% %BeginExpansion \mathbb{R} %EndExpansion ^{nxn}$ tal que $AB=BA=I.$ Cuando $B$ existe, es única y la notamos: $B=A^{-1}.$ Para el cálculo de una matriz inversa podemos utilizar el \textit{método de Gauss-Jordan. }Para ello se considera la matriz $(A$\TEXTsymbol{\vert}$I_{n}) $ y se realizan aquellas operaciones elementales por filas que consigan transformar la matriz $A$ en la matriz $I_{n}$, de esta forma la matriz $% I_{n}$ se habrá transformado en $A^{-1}$. Es decir, se han de realizar operaciones elementales por filas de forma que. %TCIMACRO{\TeXButton{\medskip}{\medskip}}% %BeginExpansion \medskip% %EndExpansion \begin{center} $(A$\TEXTsymbol{\vert}$I_{n})\approx ...\approx (I_{n}$\TEXTsymbol{\vert}$% A^{-1})$ %TCIMACRO{\TeXButton{\medskip}{\medskip}}% %BeginExpansion \medskip% %EndExpansion \end{center} Por ejemplo: Sea la matriz A = \left( {% \begin{array}{*{20}c} 2 & 1 & { - 1} \\ { - 3} & { - 1} & 2 \\ { - 2} & 1 & 2 \\ \end{array}}\right) %TCIMACRO{\TeXButton{\smallskip}{\smallskip}}% %BeginExpansion \smallskip% %EndExpansion \left( {% \begin{array}{*{20}c} 2 & 1 & { - 1} & 1 & 0 & 0 \\ { - 3} & { - 1} & 2 & 0 & 1 & 0 \\ { - 2} & 1 & 2 & 0 & 0 & 1 \\ \end{array}}\right) $\sim $ \left( {% \begin{array}{*{20}c} 2 & 1 & { - 1} & 1 & 0 & 0 \\ { - 1} & 0 & 1 & 1 & 1 & 0 \\ 0 & 2 & 1 & 1 & 0 & 1 \\ \end{array}}\right) $\sim $ \left( {% \begin{array}{*{20}c} 1 & 0 & { - 1} & { - 1} & { - 1} & 0 \\ 2 & 1 & { - 1} & 1 & 0 & 0 \\ 0 & 2 & 1 & 1 & 0 & 1 \\ \end{array}}\right) $\sim $ %TCIMACRO{\TeXButton{\smallskip}{\smallskip}}% %BeginExpansion \smallskip% %EndExpansion \left( {% \begin{array}{*{20}c} 1 & 0 & { - 1} & { - 1} & { - 1} & 0 \\ 0 & 1 & 1 & 3 & 2 & 0 \\ 0 & 2 & 1 & 1 & 0 & 1 \\ \end{array}}\right) $\sim $ \left( {% \begin{array}{*{20}c} 1 & 0 & { - 1} & { - 1} & { - 1} & 0 \\ 0 & 1 & 1 & 3 & 2 & 0 \\ 0 & 0 & { - 1} & { - 5} & { - 4} & 1 \\ \end{array}}\right) $\sim $ \left( {% \begin{array}{*{20}c} 1 & 0 & 0 & 4 & 3 & { - 1} \\ 0 & 1 & 0 & { - 2} & { - 2} & 1 \\ 0 & 0 & 1 & 5 & 4 & { - 1} \\ \end{array}}\right) %TCIMACRO{\TeXButton{\smallskip}{\smallskip}}% %BeginExpansion \smallskip% %EndExpansion De esta forma A^{ - 1} = \left( {% \begin{array}{*{20}c} 4 & 3 & { - 1} \\ { - 2} & { - 2} & 1 \\ 5 & 4 & { - 1} \\ \end{array} } \right) \subsection{Propiedades% %TCIMACRO{\TeXButton{\smallskip}{\smallskip}}% %BeginExpansion \smallskip% %EndExpansion } $\bullet $ $(A.B)^{-1}=B^{-1}.A^{-1}$% %TCIMACRO{\TeXButton{\smallskip}{\smallskip}}% %BeginExpansion \smallskip% %EndExpansion $\bullet $ $(A^{T})^{-1}=(A^{-1})^{T}$% %TCIMACRO{\TeXButton{\smallskip}{\smallskip}}% %BeginExpansion \smallskip% %EndExpansion $\bullet $ $(A^{-1})^{-1}=A$% %TCIMACRO{\TeXButton{\smallskip}{\smallskip}}% %BeginExpansion \smallskip% %EndExpansion $\bullet $ $A^{-1}=\frac{1}{\det (A)}adj(A)$ (ver siguiente sección) \section{Determinante de una matriz} \bigskip Se define el \textit{determinante} \ de $A$ como la suma de todos los productos elementales con signos tomados de $A$. Notamos: $\ \ det(A)=\left\vert A\right\vert =\sum \pm a_{1j_{1}}a_{2j_{2}}.....a_{nj_{n}}$ donde $(j_{1},j_{2},...,j_{n})$ es una permutación de $\{1,2,...,n\}$, y el signo + o - depende si la permutación $(j_{1},j_{2},...,j_{n})$ es respectivamente par o impar. \subsection{Desarrollo del determinante por cofactores} \textit{Desarrollo a lo largo de la j-ésima columna:} $\quad det(A)=a_{1j}C_{1j}+a_{2j}C_{2j}+...+a_{nj}C_{nj}$% %TCIMACRO{\TeXButton{\medskip}{\medskip}}% %BeginExpansion \medskip% %EndExpansion \textit{Desarrollo a lo largo de la i-éisma fila:} $\quad det(A)=a_{i1}C_{i1}+a_{i2}C_{i2}+...+a_{in}C_{in}$% %TCIMACRO{\TeXButton{\medskip}{\medskip}}% %BeginExpansion \medskip% %EndExpansion donde $C_{ij}=(-1)^{1+j}M_{ij}$ se lo llama \textit{cofactor del elemento} $% a_{ij}.$ $M_{ij}$ es el \textit{menor del elemento} $a_{ij}$ y se lo define como el determinante de la submatriz que queda al eliminar de $A$ la i-ésima fila y la j-ésima columna. Si $A\in %TCIMACRO{\U{211d} }% %BeginExpansion \mathbb{R} %EndExpansion ^{nxn}$ y $C_{ij}$ es el \textit{cofactor del elemento} $a_{ij}$ entonces la matriz \begin{center} $\left( \begin{array}{cccc} C_{11} & C_{21} & ... & C_{n1} \\ C_{12} & C_{22} & ... & C_{n2} \\ ... & ... & & ... \\ C_{1n} & C_{21} & ... & C_{nn}% \end{array}% \right) $% %TCIMACRO{\TeXButton{\smallskip}{\smallskip}}% %BeginExpansion \smallskip% %EndExpansion \end{center} se conoce como \textbf{matriz adjunta de }$A$\textbf{, }y se denota $adj(A)$ %TCIMACRO{\TeXButton{\medskip}{\medskip}}% %BeginExpansion \medskip% %EndExpansion Ejemplos: Si $A\in %TCIMACRO{\U{211d} }% %BeginExpansion \mathbb{R} %EndExpansion ^{2x2}$ tal que $A=\left( \begin{array}{cc} a & b \\ c & d% \end{array}% \right) $ $\implies $ \ $adj(A)=\left( \begin{array}{cc} d & -b \\ -c & a% \end{array}% \right) $% %TCIMACRO{\TeXButton{\smallskip}{\smallskip}}% %BeginExpansion \smallskip% %EndExpansion Si $A\in %TCIMACRO{\U{211d} }% %BeginExpansion \mathbb{R} %EndExpansion ^{3x3}$ tal que \textbf{A} = \begin{pmatrix} A_{11} & A_{12} & A_{13} \\ A_{21} & A_{22} & A_{23} \\ A_{31} & A_{32} & A_{33}% \end{pmatrix}% %TCIMACRO{\TeXButton{\smallskip}{\smallskip}}% %BeginExpansion \smallskip% %EndExpansion $\implies $ \ {\text{adj}}({\textbf{A}}) = \left( {% \begin{array}{*{20}c} { + \left| {\begin{array}{*{20}c} {A_{22} } & {A_{23} } \\ {A_{32} } & {A_{33} } \\ \end{array} } \right|} & { - \left| {\begin{array}{*{20}c} {A_{21} } & {A_{23} } \\ {A_{31} } & {A_{33} } \\ \end{array} } \right|} & { + \left| {\begin{array}{*{20}c} {A_{21} } & {A_{22} } \\ {A_{31} } & {A_{32} } \\ \end{array} } \right|} \\ {} & {} & {} \\ { - \left| {\begin{array}{*{20}c} {A_{12} } & {A_{13} } \\ {A_{32} } & {A_{33} } \\ \end{array} } \right|} & { + \left| {\begin{array}{*{20}c} {A_{11} } & {A_{13} } \\ {A_{31} } & {A_{33} } \\ \end{array} } \right|} & { - \left| {\begin{array}{*{20}c} {A_{11} } & {A_{12} } \\ {A_{31} } & {A_{32} } \\ \end{array} } \right|} \\ {} & {} & {} \\ { + \left| {\begin{array}{*{20}c} {A_{12} } & {A_{13} } \\ {A_{22} } & {A_{23} } \\ \end{array} } \right|} & { - \left| {\begin{array}{*{20}c} {A_{11} } & {A_{13} } \\ {A_{21} } & {A_{23} } \\ \end{array} } \right|} & { + \left| {\begin{array}{*{20}c} {A_{11} } & {A_{12} } \\ {A_{21} } & {A_{22} } \\ \end{array} } \right|} \\ \end{array} } \right) \subsection{Propiedades} $\bullet $ Si $A^{\prime }$ es la matriz que se obtiene cuando una sola fina de $A$ se multiplica por una constante $k$, entonces $\det (A^{\prime })=k\det (A)$% %TCIMACRO{\TeXButton{\smallskip}{\smallskip}}% %BeginExpansion \smallskip% %EndExpansion $\bullet $ Si $A^{\prime }$ es la matriz que se obtiene al intercambiar dos filas de $A$, entonces $\det (A^{\prime })=-\det (A)$% %TCIMACRO{\TeXButton{\smallskip}{\smallskip}}% %BeginExpansion \smallskip% %EndExpansion $\bullet $ Si $A^{\prime }$ es la matriz que se obtiene al sumar un múltiplo de una de las filas de $A$ a otra fila, entonces $\det (A^{\prime })=\det (A) $% %TCIMACRO{\TeXButton{\smallskip}{\smallskip}}% %BeginExpansion \smallskip% %EndExpansion $\bullet $ Si $A\in %TCIMACRO{\U{211d} }% %BeginExpansion \mathbb{R} %EndExpansion ^{nxn}$, entonces $\det (A^{T})=\det (A)$% %TCIMACRO{\TeXButton{\smallskip}{\smallskip}}% %BeginExpansion \smallskip% %EndExpansion $\bullet $ Si $A\in %TCIMACRO{\U{211d} }% %BeginExpansion \mathbb{R} %EndExpansion ^{nxn},B\in %TCIMACRO{\U{211d} }% %BeginExpansion \mathbb{R} %EndExpansion ^{nxn}$ y $k\in %TCIMACRO{\U{211d} }% %BeginExpansion \mathbb{R} %EndExpansion ,$ entonces:\qquad $\det (kA)=k^{n}\det (A)$ ;\ $\det (AB)=\det (A).\det (B)$% %TCIMACRO{\TeXButton{\smallskip}{\smallskip}}% %BeginExpansion \smallskip% %EndExpansion $\bullet $ Si $A$ es una matriz triangular de $nxn$, entonces $det(A)$ es el producto de los elementos de la diagonal, es decir: $% det(A)=a_{11}a_{22}...a_{nn}$% %TCIMACRO{\TeXButton{\smallskip}{\smallskip}}% %BeginExpansion \smallskip% %EndExpansion $\bullet $ $A$ es inversible si y sólo si $\det (A)\neq 0$% %TCIMACRO{\TeXButton{\smallskip}{\smallskip}}% %BeginExpansion \smallskip% %EndExpansion $\bullet $ Si $A$ es inversible, entonces $\det (A^{-1})=\frac{1}{\det (A)}$% %TCIMACRO{\TeXButton{\smallskip}{\smallskip}}% %BeginExpansion \smallskip% %EndExpansion $\bullet $ Si $A$ es inversible, entonces $A^{-1}=\frac{1}{\det (A)}adj(A)$ \subsection{Regla de Sarrus} La regla de Sarrus es un método de fácil memorización para calcular el determinante de una matriz 3\times 3.% %TCIMACRO{\TeXButton{\smallskip}{\smallskip}}% %BeginExpansion \smallskip% %EndExpansion Considérese la matriz de 3\times 3 \ A = \begin{pmatrix} a_{11} & a_{12} & a_{13} \\ a_{21} & a_{22} & a_{23} \\ a_{31} & a_{32} & a_{33}% \end{pmatrix}% %TCIMACRO{\TeXButton{\smallskip}{\smallskip}}% %BeginExpansion \smallskip% %EndExpansion Su determinante se puede calcular de la siguiente manera: En primer lugar, repetir las dos primeras columnas de la matriz a la derecha de la misma de manera que queden cinco columnas en fila. Después sumar los productos de las diagonales descendentes (en línea continua) y sustraer los productos de las diagonales ascendentes (en trazos) Esto resulta en:% %TCIMACRO{\TeXButton{\smallskip}{\smallskip}}% %BeginExpansion \smallskip% %EndExpansion A = \begin{vmatrix} a_{11} & a_{12} & a_{13} \\ a_{21} & a_{22} & a_{23} \\ a_{31} & a_{32} & a_{33}% \end{vmatrix} = a_{11}a_{22}a_{33}+a_{12}a_{23}a_{31}+a_{13}a_{21}a_{32}-a_{31}a_{22}a_{13}-a_{32}a_{23}a_{11}-a_{33}a_{21}a_{12} \FRAME{ftpFU}{3.0943in}{1.4961in}{0pt}{\Qcb{La regla de Sarrus: diagonales continuas y en trazos}}{}{Figure}{\special{language "Scientific Word";type "GRAPHIC";maintain-aspect-ratio TRUE;display "USEDEF";valid_file "T";width 3.0943in;height 1.4961in;depth 0pt;original-width 3.704in;original-height 1.7781in;cropleft "0";croptop "1";cropright "1";cropbottom "0";tempfilename 'KRA9QZ00.bmp';tempfile-properties "XPR";}} \bigskip \qquad \section{Regla de Cramer} \bigskip Si $Ax=b$ es un sistema de $n$ ecuaciones con $n$ incógnitas tal que $% det(A)\neq 0$, entonces la única solución del sistema es $% (x_{1},x_{2},...,x_{n})$ con: \begin{center} $x_{1}=\frac{\det (A_{1})}{\det (A)},x_{2}=\frac{\det (A_{2})}{\det (A)}% ,.....,x_{n}=\frac{\det (A_{n})}{\det (A)}$ \end{center} donde $A_{j}$ es la matriz que se obtiene al reemplazar la jésima columna de $A$ por $b.$ \end{document} ++++ \\ __Apunte 2:__ Complejos Descargar PDF: {{:materias:61:08:complejos_v2.0_.pdf|:materias:61:08:complejos_v2.0_.pdf}} ++++Ver fuente TEX:| \documentclass[12pt]{article} \usepackage{amsfonts} %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \usepackage{amssymb} \usepackage{amsmath} \usepackage{sw20res1} \setcounter{MaxMatrixCols}{10} %TCIDATA{OutputFilter=LATEX.DLL} %TCIDATA{Version=5.50.0.2953} %TCIDATA{} %TCIDATA{BibliographyScheme=Manual} %TCIDATA{Created=Friday, October 09, 2009 21:18:42} %TCIDATA{LastRevised=Friday, October 09, 2009 21:56:03} %TCIDATA{} %TCIDATA{} %TCIDATA{CSTFile=sw20res1.cst} \input{tcilatex} \begin{document} \title{Complejos} \author{by gira} \date{09/10/2009} \maketitle Tenemos dos tipos de espacios vectoriales complejos: \section{1. \protect\underline{$% %TCIMACRO{\U{2102} }% %BeginExpansion \mathbb{C} %EndExpansion ^{n}$ como $% %TCIMACRO{\U{211d} }% %BeginExpansion \mathbb{R} %EndExpansion $-espacio vectorial}} ($% %TCIMACRO{\U{2102} }% %BeginExpansion \mathbb{C} %EndExpansion ^{n},+,% %TCIMACRO{\U{211d} }% %BeginExpansion \mathbb{R} %EndExpansion ,.)$ En este caso la forma de los vectores depender\'{a} de la dimensi\'{o}n del espacio, es decir, de $n$. Veamos un par de ejemplos: \subsection{\protect\underline{$n=1$}:} Base can\'{o}nica: $E(% %TCIMACRO{\U{2102} }% %BeginExpansion \mathbb{C} %EndExpansion ^{1})=\left\{ 1,i\right\} $, \ $dim(% %TCIMACRO{\U{2102} }% %BeginExpansion \mathbb{C} %EndExpansion ^{1})=2$ Sea $z\in %TCIMACRO{\U{2102} }% %BeginExpansion \mathbb{C} %EndExpansion ^{1}$ entonces es de la forma: $z=k_{1}.1+k_{2}.i$ $\ \ \forall k_{1},k_{2}\in %TCIMACRO{\U{211d} }% %BeginExpansion \mathbb{R} %EndExpansion $ En realidad a este z se lo puede escribir de varias formas: \subsubsection{\textit{Forma cartesiana:} $z=a+bi$} donde definimos $a=Re(z),$ $b=Im(z)$ reales. Podemos graficar a $z$ en el plano complejo: \bigskip $\overset{}{\FRAME{itbpF}{2.973in}{2.4515in}{-2.6786pt}{}{}{% numeros-complejos_image082.gif}{\special{language "Scientific Word";type "GRAPHIC";maintain-aspect-ratio TRUE;display "PICT";valid_file "F";width 2.973in;height 2.4515in;depth -2.6786pt;original-width 3.1892in;original-height 2.6253in;cropleft "0";croptop "1";cropright "1";cropbottom "0";filename 'numeros-complejos_image082.gif';file-properties "XNPEU";}}}$ siendo $\left\vert z\right\vert =\sqrt{a^{2}+b^{2}},$ $\arg (z)=\alpha $ tal que $tg(\alpha )=\frac{sen\alpha }{\cos \alpha }=\frac{b}{a}$ \subsubsection{\textit{Forma polar: \ }$z=\left\vert z\right\vert (\cos \protect\alpha +isen\protect\alpha )$} \subsubsection{\textit{Forma Exponencial: \ }$z=\left\vert z\right\vert e^{i% \protect\alpha }$} Esta \'{u}ltima se deduce de la \textit{f\'{o}rmula de Euler} que dice: $% e^{i\alpha }=\cos \alpha +isen\alpha $ (adem\'{a}s, se puede observar que $\ e^{z}=e^{a}(\cos b+isenb)$) \subsection{\protect\underline{$n=2$}:} Base can\'{o}nica: $E(% %TCIMACRO{\U{2102} }% %BeginExpansion \mathbb{C} %EndExpansion ^{2})=\left\{ (1,0),(i,0),(0,1),(0,i)\right\} $, \ $dim(% %TCIMACRO{\U{2102} }% %BeginExpansion \mathbb{C} %EndExpansion ^{2})=4$ Sea $z\in %TCIMACRO{\U{2102} }% %BeginExpansion \mathbb{C} %EndExpansion ^{2}$ entonces es de la forma: $% z=k_{1}(1,0)+k_{2}(i,0)+k_{3}(0,1)+k_{4}(0,i) $ $\ \ \forall k_{1},k_{2},k_{3},k_{4}\in %TCIMACRO{\U{211d} }% %BeginExpansion \mathbb{R} %EndExpansion $ Luego, para $n=3$\ la base can\'{o}nica ser\'{a} como la de $% %TCIMACRO{\U{211d} }% %BeginExpansion \mathbb{R} %EndExpansion ^{3}$ sumandole los tres vectores con $i$ hac\'{\i} como hicimos para $n=2$, y as\'{\i} sucesivamente para los siguientes $n,$ \bigskip \bigskip \bigskip \bigskip \section{2. \protect\underline{$% %TCIMACRO{\U{2102} }% %BeginExpansion \mathbb{C} %EndExpansion ^{n}$ como $% %TCIMACRO{\U{2102} }% %BeginExpansion \mathbb{C} %EndExpansion $-espacio vectorial}} ($% %TCIMACRO{\U{2102} }% %BeginExpansion \mathbb{C} %EndExpansion ^{n},+,% %TCIMACRO{\U{2102} }% %BeginExpansion \mathbb{C} %EndExpansion ,.)$ Veamos algunos ejemplos: \subsection{\protect\underline{$n=1$}:} Base can\'{o}nica: $E(% %TCIMACRO{\U{2102} }% %BeginExpansion \mathbb{C} %EndExpansion ^{1})=\left\{ 1\right\} $, \ $dim(% %TCIMACRO{\U{2102} }% %BeginExpansion \mathbb{C} %EndExpansion ^{1})=1$ Sea $z\in %TCIMACRO{\U{2102} }% %BeginExpansion \mathbb{C} %EndExpansion ^{1}$ entonces es de la forma: $z=k_{1}.1$ $\ \ \forall k_{1}\in %TCIMACRO{\U{2102} }% %BeginExpansion \mathbb{C} %EndExpansion $ \subsection{\protect\underline{$n=2$}:} Base can\'{o}nica: $E(% %TCIMACRO{\U{2102} }% %BeginExpansion \mathbb{C} %EndExpansion ^{2})=\left\{ (1,0),(0,1)\right\} $, \ $dim(% %TCIMACRO{\U{2102} }% %BeginExpansion \mathbb{C} %EndExpansion ^{2})=2$ Sea $z\in %TCIMACRO{\U{2102} }% %BeginExpansion \mathbb{C} %EndExpansion ^{2}$ entonces es de la forma: $z=k_{1}(1,0)+k_{2}(0,1)$ $\ \ \forall k_{1},k_{2}\in %TCIMACRO{\U{2102} }% %BeginExpansion \mathbb{C} %EndExpansion $ \bigskip Luego, para $n=3$\ la base can\'{o}nica ser\'{a} como la de $% %TCIMACRO{\U{211d} }% %BeginExpansion \mathbb{R} %EndExpansion ^{3}$ haci como en $n=2$, y as\'{\i} para los siguientes $n.$ \bigskip \end{document} ++++ \\ __Apunte 3:__ Espacios Vectoriales (Apunte de Mancilla) Descargar PDF: {{:materias:61:08:3._espacios_vectoriales_apunte_de_mancilla_.pdf|:materias:61:08:3._espacios_vectoriales_apunte_de_mancilla_.pdf}} \\ __Apunte 4:__ Wronksiano (Apunte de Mancilla) Descargar PDF: {{:materias:61:08:4._wronksiano_apunte_de_mancilla_.pdf|:materias:61:08:4._wronksiano_apunte_de_mancilla_.pdf}} \\ __Apunte 5:__ Transformaciones Lineales Descargar PDF: {{:materias:61:08:5._transformaciones_lineales_v2.0_.pdf|:materias:61:08:5._transformaciones_lineales_v2.0_.pdf}} ++++Ver fuente TEX:| \documentclass[12pt]{article} \usepackage{amssymb} \usepackage{amsmath} %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \usepackage{sw20res1} %TCIDATA{OutputFilter=LATEX.DLL} %TCIDATA{Version=5.50.0.2953} %TCIDATA{} %TCIDATA{BibliographyScheme=Manual} %TCIDATA{Created=Saturday, October 10, 2009 02:45:50} %TCIDATA{LastRevised=Saturday, October 10, 2009 03:18:51} %TCIDATA{} %TCIDATA{} %TCIDATA{CSTFile=sw20res1.cst} \input{tcilatex} \begin{document} \title{Transformaciones Lineales} \author{by gira} \date{10/10/2009} \maketitle \section{1. \textbf{Definici\'{o}n}} Sean $V$ y $W$ dos espacios vectoriales, entonces la funci\'{o}n $% T:V\rightarrow W$ es una transformaci\'{o}n lineal si verifica: $a_{1})$ $T(u+v)=T(u)+T(v)$ $\ \forall $ $u,v\in V$ $a_{2})$ $T(\alpha u)=\alpha T(u)$ $\ \forall $ $u\in V$ $\wedge $ $\forall $ $\alpha \in \Bbbk $ \subsection{\textbf{Propiedades:}} $(i)$ $T(0_{V})=0_{W}$ $(ii)$ $T\left( \overset{n}{\underset{i=1}{\sum }}\alpha _{i}v_{i}\right) =% \overset{n}{\underset{i=1}{\sum }}\alpha _{i}T(v_{i})$ \textit{\ (Linealidad)% } \section{2. \textbf{N\'{u}cleo}} $Nu(T)=\{v\in V$ $/$ $T(v)=0_{W}\}$ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ $Nu(T)$ es subespacio de $V.$ \FRAME{ihF}{2.9854in}{1.7358in}{0in}{}{}{núcleo.jpg}{\special{language "Scientific Word";type "GRAPHIC";maintain-aspect-ratio TRUE;display "USEDEF";valid_file "F";width 2.9854in;height 1.7358in;depth 0in;original-width 2.9439in;original-height 1.7005in;cropleft "0";croptop "1";cropright "1.0002";cropbottom "0";filename 'Núcleo.jpg';file-properties "XNPEU";}} \section{3. I\textbf{magen}} $\func{Im}(T)=\{w\in W$ / $w=T(v),$ con $v\in V\}$ $\func{Im}(T)$ es subespacio de $W.$ \FRAME{itbhF}{3.0454in}{1.8514in}{0in}{}{}{imagen.jpg}{\special{language "Scientific Word";type "GRAPHIC";maintain-aspect-ratio TRUE;display "USEDEF";valid_file "F";width 3.0454in;height 1.8514in;depth 0in;original-width 3.0613in;original-height 1.8497in;cropleft "0";croptop "1";cropright "1";cropbottom "0";filename 'Imagen.jpg';file-properties "XNPEU";}} \section{4. \textbf{Teorema de la Dimensi\'{o}n}} Sea $T:V\rightarrow W$, $\dim (V)=n$ (finita), entonces: $\dim (Nu(T))+\dim (\func{Im}(T))=\dim (V)=n$ \subsection{\textbf{Propiedades:}} Sea $T:V\rightarrow W,$ TL \ $($otra notaci\'{o}n es $T\in \tciLaplace (V,W)):$ $\bullet $ Si $\{v_{1},v_{2},.....v_{q}\}$ genera $V$ $\Longrightarrow $ $% \{T(v_{1}),T\left( v_{2}\right) ,.....T\left( v_{q}\right) \}$ genera $\func{% Im}(T)$ \textbf{Obs. 1: }$T(v_{1}),T\left( v_{2}\right) ,.....T\left( v_{q}\right) $ $\in $ $\func{Im}(T)$ \textbf{Obs. 2: }Cualquier $w\in $ $\func{Im}(T)$ puede expresarse como combinaci\'{o}n lineal de $T(v_{1}),T\left( v_{2}\right) ,.....T\left( v_{q}\right) $ $\bullet $ $\{T(v_{1}),T\left( v_{2}\right) ,.....T\left( v_{q}\right) \}$ es LI $\implies $ $\{v_{1},v_{2},.....v_{q}\}$ es LI \section{5. \textbf{Clasificaci\'{o}n}} Sea $T\in \tciLaplace (V,W)$ TL $:$ $-$ $T$ es \textit{inyectiva} (monomorfismo) si verifica: $v_{1}\neq v_{2}\implies T(v_{1})\neq T(v_{2})$ $-$ $T$ es \textit{sobreyectiva} (epimorfismo) $\Longleftrightarrow $ $\func{% Im}(T)=W$ $-$ $T$ es \textit{biyectiva} (isomorfismo) $\Longleftrightarrow $ $T$ es inyectiva y sobreyectiva \subsection{\textbf{Propiedades:}} $\bullet $ $T$ es monomorfismo $\iff $ $Nu(T)=\{0_{V}\}$ $\bullet $ Si $T$ es monomorfismo $\implies $ $\dim (V)\leq \dim (W)$ $\bullet $ Si $T$ es monomorfismo y $\{v_{1},v_{2},.....v_{q}\}\subset V$ es LI $\implies $ $\{T(v_{1}),T\left( v_{2}\right) ,.....T\left( v_{q}\right) \} $ es LI $\bullet $ Si $T$ es epiomorfismo $\implies $ $\dim (W)\leq \dim (V)$ $\bullet $ Si $T$ es isomorfismo $\implies $ $\dim (W)=\dim (V)$ $\bullet $ Si $V$ y $W$ son de dimensi\'{o}n \textbf{finita }entonces $T$ es isomorfismo $\iff $ $\dim (W)=\dim (V)$ $\bullet $ Si $T$ es isomorfismo $\implies $ $\exists $ $T^{-1}:W\rightarrow V$ (Transformaci\'{o}n Inversa) \section{6. \textbf{Transformaciones Matriciales}} Una transformaci\'{o}n matricial es del tipo: $T:\Bbbk ^{n}\rightarrow \Bbbk ^{m},$ $T(x)=Ax,$ $A\in \Bbbk ^{mxn}$ Veamos un par de propiedades: $\bullet $ $x\in Nu(T)\Longleftrightarrow $ $T(x)=0\Longleftrightarrow $ $% Ax=0\Longleftrightarrow $ $x\in Nul(A)$ $\bullet $ $y\in \func{Im}(T)\Longleftrightarrow $ $T(x)=y% \Longleftrightarrow $ $Ax=y\Longleftrightarrow $ $y\in Col(A)$ De aqu\'{\i} deducimos que para las transformaciones matriciales se cumple que: \underline{$Nu(T)=Nul(A)$} \underline{$\func{Im}(T)=Col(A)$} Ahora, aplicando el \textit{teorema de la dimensi\'{o}n}: \underline{$\dim (Nul(A))+\dim (Col(A))=\dim (\Bbbk ^{n})=n$} \textbf{Obs.\ 1:} $\dim (Col(A))$ es el llamado \textit{rango de }$\mathit{A} $\textit{\ }$\Longrightarrow $ $\dim (Nul(A))=n-rg(A)$ \textbf{Obs.\ 2:} $n$ es el n\'{u}mero de columnas de $A$ \section{7. \textbf{Teorema Fundamental de las Transformaciones Lineales (TFTL)}} Sea $B=\{v_{1},v_{2},.....v_{n}\}$ base de $V$ y $w_{1},w_{2},....,w_{n}$ vectores de $W$ (iguales o distintos) entonces, existe una \textbf{\'{u}nica} Transformaci\'{o}n Lineal $% T:V\rightarrow W$ tal que: $\left\{ \begin{array}{c} T\left( v_{1}\right) =w_{1}\text{\ \ \ \ \ \ \ \ \ } \\ T\left( v_{2}\right) =w_{2}\text{ \ \ \ \ \ \ \ \ } \\ \ \ \ \ \ \ \vdots \text{ \ \ \ \ \ \ \ \ \ \ } \\ T\left( v_{n}\right) =w_{n}\text{ \ \ \ \ \ \ \ \ }% \end{array}% \right\vert \begin{array}{c} \bullet \text{ Existencia de T} \\ \bullet \text{ Linealidad de T} \\ \bullet \text{ Unicidad\ de T \ }% \end{array}% $ \section{\textbf{8. Composicion de Transformaciones Lineales}} Sean las transformaciones Lineales: $F:U\rightarrow V$ $G:V\rightarrow W$ entonces la composici\'{o}n $G$ $o$ $F$ $:$ $U\rightarrow W$ es transformaci% \'{o}n lineal, tal que $G$ $o$ $F$ $(u)=G(F(u))$ \ \ $\forall $ $u\in U$ \textbf{Propiedades:} $\bullet $ $Nu(F)\subseteq Nu(G$ $o$ $F)$ $\bullet $ $Nu(F)=Nu(G$ $o$ $F)\iff $ $G$ es monomorfismo (inyectiva) $\iff $ $Nu(G)=\left\{ 0_{V}\right\} $ \section{9. \textbf{Transformaci\'{o}n Inversa}} Sea $T:V\rightarrow W$ isomorfismo $\Longrightarrow $ $\exists $ $% T^{-1}:W\rightarrow V$ / $T^{-1}(w)=v\iff T(v)=w$ \subsection{\textbf{Propiedades:}} $\bullet $ $T^{-1}$ es una TL biyectiva $\bullet $ $T^{-1}$ $o$ $T=Id_{V}$ \ \ $\ \ \ \ \left( T^{-1}oT(v)=v\right) $ $\bullet $ $T$ $o$ $T^{-1}=Id_{W}$ $\ \ \ \ \ \left( T^{-1}oT(w)=w\right) $ \section{10. \textbf{Matriz asociada a una Transformaci\'{o}n Lineal}} Sea $T:V\rightarrow W$ \ TL $B=\{v_{1},v_{2},.....v_{n}\}$ base de $V$ $B=\{w_{1},w_{2},.....w_{m}\}$ base de $W$ $\left[ T\right] _{BB^{\prime }}=\left[ \begin{array}{c} \text{ \TEXTsymbol{\vert}\ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \TEXTsymbol{\vert}\ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \TEXTsymbol{\vert}\ \ \ } \\ C_{B^{\prime }}(T(v_{1}))\ \ C_{B^{\prime }}(T(v_{2}))......C_{B^{\prime }}(T(v_{n})) \\ \text{\TEXTsymbol{\vert} \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \TEXTsymbol{\vert}\ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \TEXTsymbol{\vert}\ \ }% \end{array}% \right] $ \ \ $\in \Bbbk ^{mxn}$ es la matriz asociada a $T.$ \ $\left[ T\right] _{BB^{\prime }},C_{B}(v)=C_{B^{\prime }}(T(v))$ $V\overset{T}{\longrightarrow }W$ $v\overset{T}{\longrightarrow }T(v)=w$ $C_{B}(v)$ $\overset{\left[ T\right] _{BB^{\prime }}}{\longrightarrow }$ $% C_{B^{\prime }}(T(v))=C_{B^{\prime }}(w)$ \subsection{\textbf{Propiedades:}} $\bullet $ Si $T$ es isomorfismo $\implies $ $\exists $ $\left[ T^{-1}\right] _{BB^{\prime }}=\left[ T\right] _{BB^{\prime }}^{-1}$ $\bullet $ $T:V\rightarrow W$ TL, $B$ base de $V$ $C$ base de $W$ $\cdot $ $v\in Nu(T)\iff C_{B}(v)\in Nul(\left[ T\right] _{BC})$ $\cdot $ $v\in \func{Im}(T)\iff C_{C}(T(v))\in Col(\left[ T\right] _{BC})$ $\cdot $ $rg(\left[ T\right] _{BC})=\dim (\func{Im}(T))$ $\cdot $ $\left\{ \begin{array}{c} B^{\prime }\text{ base de }V\text{ \ \ \ \ \ \ } \\ C^{\prime }\text{ base de }W\text{ \ \ \ \ \ }% \end{array}% \right. \implies rg(\left[ T\right] _{BC})=rg(\left[ T\right] _{B^{\prime }C^{\prime }})$ $\bullet $ $T:V\rightarrow W$ TL, $B$ y $D$ bases de $V$ $B\prime $ y $D\prime $ bases de $W$ $A=\left[ T\right] _{BB^{\prime }}$ \ $M=\left[ T\right] _{DD^{\prime }}$ $\implies \left[ T\right] _{DD^{\prime }}\mathbf{=C}_{B^{\prime }D^{\prime }}% \left[ T\right] _{BB^{\prime }}\mathbf{C}_{DB}$ $\ \ \ C_{B}(v)$ \ \ $\overset{A}{\longrightarrow }$ $\ \ \ C_{B^{\prime }}(T(v))$ $\ $ $C_{BD}$ $\uparrow $ $\ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \downarrow $ $% C_{B^{\prime }D^{\prime }}$ \ (Cuadrito did\'{a}ctico) $\ \ \ C_{D}(v)$ $\ \ \overset{M}{\longrightarrow }$ $\ $\ $\ C_{D^{\prime }}(T(v))$ \end{document} ++++ \\ __Apunte 6:__ Producto Interno Descargar PDF: {{:materias:61:08:producto_interno_v2.0_.pdf|:materias:61:08:producto_interno_v2.0_.pdf}} ++++Ver fuente TEX:| \documentclass[12pt]{article} %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \usepackage{amsfonts} \usepackage{amsmath} \usepackage{sw20res1} \setcounter{MaxMatrixCols}{10} %TCIDATA{OutputFilter=LATEX.DLL} %TCIDATA{Version=5.50.0.2953} %TCIDATA{} %TCIDATA{BibliographyScheme=Manual} %TCIDATA{Created=Saturday, October 10, 2009 02:45:56} %TCIDATA{LastRevised=Sunday, October 11, 2009 01:57:29} %TCIDATA{} %TCIDATA{} %TCIDATA{CSTFile=sw20res1.cst} \input{tcilatex} \begin{document} \title{Producto Interno} \author{by gira} \date{10/10/2009} \maketitle \section{1. Definici\'{o}n} Sea $V$ un $% %TCIMACRO{\U{2102} }% %BeginExpansion \mathbb{C} %EndExpansion $-espacio vectorial, y sean $u\in V,$ $v\in V,$ $w\in V$ y $\alpha \in %TCIMACRO{\U{2102} }% %BeginExpansion \mathbb{C} %EndExpansion $ , entonces \newline $(\cdot ,\cdot ):V_{% %TCIMACRO{\U{2102} }% %BeginExpansion \mathbb{C} %EndExpansion }$x$V_{% %TCIMACRO{\U{2102} }% %BeginExpansion \mathbb{C} %EndExpansion }\rightarrow %TCIMACRO{\U{2102} }% %BeginExpansion \mathbb{C} %EndExpansion $ es un \textit{producto interno} (pi) en $V$ si se cumplen los siguientes axiomas: $a_{1})$ $\ (u,v)=\overline{(v,u)}$ \ \ \ $\vee $ \ \ \ $(u,v)=(v,u)\ \ $si $% V$ es $% %TCIMACRO{\U{211d} }% %BeginExpansion \mathbb{R} %EndExpansion $-ev $a_{2})$ $\ (u+v,w)=(u,w)+(v,w)$ $a_{3})$ $\ (\alpha u,v)=\overline{\alpha }(u,v)$ \ \ \ $\vee $ \ \ \ $% (\alpha u,v)=\alpha (u,v)\ \ $si $V$ es $% %TCIMACRO{\U{211d} }% %BeginExpansion \mathbb{R} %EndExpansion $-ev $a_{3})$ $\ (u,u)>0$ \ \ \ $\wedge $ \ \ \ $(u,u)=0$ \ \ $\iff $ \ \ $% u=0_{V} $ \section{2. Propiedades del pi} $(i)$ $\ (u,v+w)=(u,v)+(u,w)$ $(ii)$ $\ (u,\alpha v)=\alpha (u,v)\ $ $(iii)$ $\ (v,0_{V})=0$ \subsection{El producto interno can\'{o}nico (pic)} En $% %TCIMACRO{\U{211d} }% %BeginExpansion \mathbb{R} %EndExpansion ^{n}:(u,v)=u^{T}v$ En $% %TCIMACRO{\U{2102} }% %BeginExpansion \mathbb{C} %EndExpansion ^{n}:(u,v)=u^{H}v=\overline{(u^{T})}v$ En $% %TCIMACRO{\U{211d} }% %BeginExpansion \mathbb{R} %EndExpansion ^{nxn}:(A,B)=\overset{n}{\underset{j=1}{\overset{n}{\underset{i=1}{\sum }}}}% a_{ij}b_{ij}$ \section{3. Norma y distancia} Sea $V$ un $EVPI$ (espacio vectorial con prod. int.), se define como \textit{% norma} al n\'{u}mero real $\left\Vert u\right\Vert =(u,u)$ y la \textit{distancia} entre dos elementos $u$ y $v$ de $V$ se define como: $d(u,v)=\left\Vert v-u\right\Vert $ \subsection{3.1. Propiedades de la norma} $(i)$ $\ \left\Vert u\right\Vert >0$ $\ \ \wedge $ $\ \ \left\Vert u\right\Vert =0$ $\ \iff $ $\ \ u=0_{V}$ $(ii)$ $\ \left\Vert ku\right\Vert =\left\vert k\right\vert \left\Vert u\right\Vert $ \ \ $(k\in K)$ $(iii)$ $\ \left\Vert u+v\right\Vert \leq \left\Vert u\right\Vert +\left\Vert v\right\Vert $ \ \ (Desigualdad Triangular) \section{4. Desigualdad de Cauchy-Schwarz} Ver apunte 7. \section{5. Ortogonalidad} \subsection{5.1. Definici\'{o}n} Dos elementos $u$ y $v$ de $V$ ($EVPI)$ son ortogonales $\iff $ $\ (u,v)=0$ \textbf{Atenci\'{o}n:} La ortogonalidad depende del producto interno del correspondiente espacio vectorial \subsection{5.2. Propiedad Pitag\'{o}rica} Si u y v son ortogonales $\implies $ \ $\left\Vert u+v\right\Vert ^{2}=\left\Vert u\right\Vert ^{2}+\left\Vert v\right\Vert ^{2}$ Si el espacio vectorial es Real entonces se cumple el "si y solo si". \subsection{5.3. Conjuntos Ortogonales} \underline{Definici\'{o}n:} $\{u_{1},u_{2},....,u_{r}\}$ \ es un conjunto ortogonal $\iff $ \ $(u_{i},u_{j})=0$ \ \ $\forall $ $i\neq j$ \underline{Propiedad:} Todo conjunto ortogonal que no contenga al $0_{V}$ es LI $B$ es una base ortogonal ($BOG$) si es base y es ortogonal \subsection{5.4. Conjuntos Ortonormales} \underline{Definici\'{o}n:} $\{u_{1},u_{2},....,u_{r}\}$ \ es un conjunto ortonormal $\iff $ \ $\left\{ \begin{array}{c} (u_{i},u_{j})=0\ \ \forall i\neq j\text{ \ \ \ \ \ } \\ \left\Vert u_{i}\right\Vert =1\text{ , \ }i=1,...,r% \end{array}% \right. $ $B$ es una base ortonormal ($BON$) si es base y es ortonormal $\frac{v}{\left\Vert v\right\Vert }$ es llamado\textit{\ versor asociado a} $% v$ y tiene norma 1. \section{6. Matriz del Producto Interno (Matriz de Gram)} Sea $B=\{u_{1},u_{2},....,u_{r}\}$ base de $V$ ($EVPI$), y sean $v$ y $w$ de $V,$ entonces: $(v,w)=[v]_{B}^{H}.G_{B}.[w]_{B}$ \ \ \ \ \ \ \ \ \ //\ \ \ \ \ \ \ \ \ \ Con la otra notaci\'{o}n: $(v,w)=C_{B}(v)^{H}.G_{B}.C_{B}(w)$ donde $G_{B}=\left( \begin{array}{cccc} (u_{1},u_{1}) & (u_{1},u_{2}) & \cdots & (u_{1},u_{r}) \\ (u_{2},u_{1}) & (u_{2},u_{2}) & \cdots & (u_{2},u_{r}) \\ \vdots & \vdots & \ddots & \vdots \\ (u_{r},u_{1}) & (u_{r},u_{2}) & \cdots & (u_{r},u_{r})% \end{array}% \right) $ \ \ \ \ \ \ \ \ \ $% \begin{array}{c} \text{ }G_{B}\in K^{rxr}\text{ \ \ (Si }dim(V)=r\text{)} \\ \bullet \text{ Herm\'{\i}tica (Sim\'{e}trica)\ \ \ \ \ \ \ } \\ \bullet \text{ Definida Positiva\ \ \ \ \ \ \ \ \ \ \ \ \ } \\ \bullet \text{ Inversible \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ }% \end{array}% $ \subsection{6.1. Observaciones} $\bullet $ $\ A\in %TCIMACRO{\U{2102} }% %BeginExpansion \mathbb{C} %EndExpansion ^{nxn}$ es \textit{herm\'{\i}tica} \ $\iff $ \ $A=A^{H}$ \ ($a_{ij}=% \overline{a_{ji}}$) $\bullet $ $\ A\in %TCIMACRO{\U{211d} }% %BeginExpansion \mathbb{R} %EndExpansion ^{nxn}$ es \textit{sim\'{e}trica} \ $\iff $ \ $A=A^{T}$ \ ($a_{ij}=a_{ji}$) $\bullet $ $\ $Si $K=% %TCIMACRO{\U{2102} }% %BeginExpansion \mathbb{C} %EndExpansion $, entonces sea $A\in %TCIMACRO{\U{2102} }% %BeginExpansion \mathbb{C} %EndExpansion ^{nxn}$ herm\'{\i}tica $\implies $ \ $A$ es \textit{definida positiva} \ $% \iff $ \ $x^{H}Ax\geq 0$ \ \ $\forall $ $x$ \ \ $\wedge $ \ $\ x^{H}Ax=0$ \ $% \iff $ \ $x=0$ $\bullet $ $\ $Si $K=% %TCIMACRO{\U{211d} }% %BeginExpansion \mathbb{R} %EndExpansion $, entonces sea $A\in %TCIMACRO{\U{211d} }% %BeginExpansion \mathbb{R} %EndExpansion ^{nxn}$ sim\'{e}trica $\implies $ \ $A$ es \textit{definida positiva} \ $% \iff $ \ $x^{T}Ax\geq 0$ \ \ $\forall $ $x$ \ \ $\wedge $ \ $\ x^{T}Ax=0$ \ $% \iff $ \ $x=0$ $\bullet $ $\ $Sea $A\in %TCIMACRO{\U{2102} }% %BeginExpansion \mathbb{C} %EndExpansion ^{nxn}$ ($% %TCIMACRO{\U{211d} }% %BeginExpansion \mathbb{R} %EndExpansion ^{nxn})$ herm\'{\i}tica (sim\'{e}trica) $\implies $ \ $A$ es \textit{% definida positiva} \ $\iff $ \ todos los subdeterminantes (o menores) principales de $A$ son $>0$ $\bullet $ $\ $Sea $A\in %TCIMACRO{\U{2102} }% %BeginExpansion \mathbb{C} %EndExpansion ^{nxn}$ ($% %TCIMACRO{\U{211d} }% %BeginExpansion \mathbb{R} %EndExpansion ^{nxn})$ herm\'{\i}tica (sim\'{e}trica) $\implies $ \ $A$ es \textit{% definida positiva} \ $\iff $ \ todos los autovalores de $A$ son $>0$ \subsection{6.2. Casos Especiales} $\bullet $ $B=\{g_{1},g_{2},....,g_{r}\}$ BOG de $V$ $\implies $ \ $% G_{B}=\left( \begin{array}{cccc} (g_{1},g_{1}) & 0 & \cdots & 0 \\ 0 & (g_{2},g_{2}) & \cdots & 0 \\ \vdots & \vdots & \ddots & \vdots \\ 0 & 0 & \cdots & (g_{r},g_{r})% \end{array}% \right) $ \ (Diagonal) $\bullet $ $B=\{u_{1},u_{2},....,u_{r}\}$ BON de $V$ $\implies $ \ $G_{B}=I$ \ \ \ \ \ (pues $\left\Vert u_{i}\right\Vert =1$) \section{7. Proyecciones Ortogonales} Sea $V$ un $EVPI$, $S$ un subespacio de $V$ y $v\in V:$ \subsection{7.1. Definici\'{o}n} $\widehat{v}$ es la proyecci\'{o}n de v sobre S $\iff $ \ $\left\{ \begin{array}{c} \widehat{v}\in S\text{ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ } \\ v-\widehat{v}\perp S\text{ \ \ }\vee \text{\ \ }(v-\widehat{v},w)=0\text{ \ }% \forall \text{ }w\in S% \end{array}% \right. $ \underline{Notaci\'{o}n:}$\ \widehat{v}=\ p_{S}(v)$ \ \'{o} $\widehat{v}% =p_{S}v$ \FRAME{ftbpF}{3.1292in}{2.1762in}{0in}{}{}{proyeccion.jpg}{\special{language "Scientific Word";type "GRAPHIC";maintain-aspect-ratio TRUE;display "USEDEF";valid_file "F";width 3.1292in;height 2.1762in;depth 0in;original-width 3.146in;original-height 2.1788in;cropleft "0";croptop "1";cropright "1";cropbottom "0";filename 'proyeccion.jpg';file-properties "XNPEU";}} \subsection{7.2. Propiedades} $\bullet \ $Si existe la proyecci\'{o}n de $v$ sobre $S$ $\implies p_{S}(v)$ es \'{u}nica\ \ $\bullet $ \ $p_{S}(u+v)=p_{S}(u)+p_{S}(v)$ $\bullet $ \ $p_{S}(kv)=kp_{S}(v)$ $\bullet $\ \ $p_{S}(v)=v$ \ $\iff $ $v\in S$ $\bullet $\ \ $p_{S}(v)=0_{V}$ \ $\iff $ $v\perp S$ \subsection{7.3. F\'{o}rmula de proyecci\'{o}n} Sea $S$ un subespacio de $V$ y $B=\{g_{1},g_{2},....,g_{r}\}$ una BOG de S, entonces: $p_{S}(v)=\overset{r}{\underset{i=1}{\sum }}\frac{(g_{i},v)}{\left\Vert g_{i}\right\Vert ^{2}}.g_{i}$ \underline{Caso particular:} Si $B=\{u_{1},u_{2},....,u_{r}\}$ es BON de S, entonces: $p_{S}(v)=\overset{r}{\underset{i=1}{\sum }}(u_{i},v).u_{i}$ \subsection{7.4. M\'{e}todo de Gram-Schmidt (Construcci\'{o}n de una BOG)} Sea $S$ subespacio de $V$ y $B$ $=\{v_{1},v_{2},....,v_{r}\}$ base de S $% \implies $ $\ \exists $ $B^{\prime }$ $=\{g_{1},g_{2},....,g_{r}\}$ BOG de S donde: $g_{1}=v_{1}$ $g_{i}=v_{i}-p_{S_{i-1}}(v_{i})$ \ donde $S_{i-1}=\{g_{1},....,g_{i-1}\}$ con $2\leq i\leq r$ \subsection{7.5. La proyecci\'{o}n como mejor aproximaci\'{o}n} Sea $S$ subespacio de $V$ y $v\in V,$ si $\widehat{v}=p_{S}(v)$ resulta: $d(v,\widehat{v})\leq d(v,w)$ \ $\forall $ $w\in S$ \ \ \ \ \ \ \ \ (\ $% \left\Vert v-\widehat{v}\right\Vert \leq \left\Vert v-w\right\Vert $ ) es decir, $\widehat{v}$ es el vector de $S$ que est\'{a} "m\'{a}s cerca" de $% v$ o "mejor aproxima" a $v$. \subsubsection{7.5.1. Distancia de un vector a un subespacio} $d(v,S)=\left\Vert v-\widehat{v}\right\Vert $ \ \subsection{7.6. Complemento Ortogonal} \subsubsection{7.6.1. Definici\'{o}n} Sea $S$ subespacio de $V$ $(EVPI)$ entonces el \textit{complemento ortogonal de }$S$ se define como: $S^{\perp }=\{v\in V$ / $(v,w)=0$ \ $\forall $ $w\in S\}$ $S^{\perp }$ es subespacio de $V.$ Si $S=gen\{v_{1},v_{2},....,v_{q}\}\subset V\implies S^{\perp }=\{v\in V$ / $% (v,v_{1})=0,...,(v,v_{q})=0$ $\}$ \subsubsection{7.6.2. Propiedad} Sea $S\subseteq V$ un subespacio de V tal que $\forall $ $v\in V$ existe $% p_{S}(v)$ $\ \implies $ \ $S\oplus S^{\perp }=V$ \ \ \ \ \ \ ( $S\cap S^{\perp }=\{0_{V}\}$ \ $\wedge $\ $\ S+S^{\perp }=\ V$\ ) \subsubsection{7.6.3. Corolarios} $(i)$ \ Si $dim(S)$ es finita \ $\implies $ \ $\exists $ $p_{S}(v)$ \ $% \forall $ $v\in V$ \ $\implies $ \ $S\oplus S^{\perp }=V$ $(ii)$ \ Si $dim(V)=n$ \ $\implies $ \ $dim(S\oplus S^{\perp })=dim(S)+dim(S^{\perp })=n$ $(iii)$ \ Si $S\oplus S^{\perp }=V$ \ $\implies $ \ $(S^{\perp })^{\perp }=S$ $(iv)$ \ Si $S\oplus S^{\perp }=V$ \ $\implies $ \ $v=p_{S}(v)+p_{S^{\perp }}(v)$ \ $\forall $ $v\in V$ \subsubsection{7.6.4. Casos Especiales} $\bullet $ Si$\ S=Nul(A)=\{x\in %TCIMACRO{\U{211d} }% %BeginExpansion \mathbb{R} %EndExpansion ^{n}$ / $Ax=0\}$, En general, para \textit{p.i. can\'{o}nico}: $x\in Nul(A)\iff Ax=0\iff (F_{i}^{T},x)=0\iff x\perp Fil(A)\iff x\in \lbrack Fil(A)]^{\perp }$ \ $\implies $ \ \ \fbox{$Nul(A)=[Fil(A)]^{\perp }$} $\implies S^{\perp }=Fil(A)$ $\bullet $ Si$\ S=Nul(A^{T})=\{x\in %TCIMACRO{\U{211d} }% %BeginExpansion \mathbb{R} %EndExpansion ^{n}$ / $A^{T}x=0\}$, $Nul(A^{T})\perp Fil(A^{T})=Col(A)\implies $\fbox{$Nul(A^{T})=[Col(A)]^{% \perp }$} $\implies S^{\perp }=Col(A)$ \subsection{7.8. Matriz de Proyecci\'{o}n} \underline{\textit{Atenci\'{o}n}}\textit{: A partir de ahora usamos s\'{o}lo p.i. can\'{o}nico.} Sea $V=K^{n}$ (p.i.c.), $S$ subespacio de $V:$ \subsubsection{7.8.1. Definici\'{o}n} $P\in K^{n}$ es la \textit{matriz de proyecci\'{o}n sobre S} si $% P.v=p_{S}(v) $ \ tal que $P=QQ^{H},$ con $Q=[u_{1}$ $u_{2}$ $.....$ $u_{r}]$ \ y $B=\{u_{1},u_{2},.....,u_{r}\}$ una BON de S. \subsubsection{7.8.2. Propiedades} $\bullet $ \ $P$ es \'{u}nica $\bullet $ \ $Q=[u_{1}$ $u_{2}$ $.....$ $u_{r}]$ \ $\implies $ \ $% Col(Q)=gen\{u_{1},u_{2},.....,u_{r}\}=S$ $\bullet $ \ $Q^{H}Q=I$ $\bullet $ \ $Col(P)=Col(Q)=S$ $\bullet $ \ $P^{H}=P$ (Herm\'{\i}tica) \ $\wedge $ \ $P^{2}=P$ (Idempotente) \textbf{Obs: }$rg(P)=dim(S)=r$ \subsubsection{7.8.3. Relaci\'{o}n entre $P_{S}$ y $P_{S^{\perp }}$} Si $P_{S}$ la matriz de proyecci\'{o}n sobre S y $P_{S^{\perp }}$ la matriz de proyecci\'{o}n sobre $S^{\perp }$ entonces: $v=p_{S}(v)+p_{S^{\perp }}(v)$ \ \ $\forall $ $v\in R^{n}$ $v=P_{S}.v+P_{S^{\perp }}.v$ $I.v=(P_{S}+P_{S^{\perp }}).v$ $\ \implies $ \ \ \ \fbox{$P_{S}+P_{S^{\perp }}=I$} \subsubsection{7.8.4. Un par de observaciones} $\bullet $ \ $P.v\in Col(P)$ $\ \ \implies \ \ \ v-P.v\in \lbrack Col(P)]^{\perp }$ $\bullet $ $\ P$ es inversible $\iff \det (P)\neq 0\iff $ $...\iff \underline{P=I}$ $\bullet $ $\ $Si $P\neq I$ \ $\implies $ \ \ $rg(P)\leq (n-1)$ $\bullet $ $\ P^{T}=P\implies Nul(P^{T})=[Col(P)]^{\perp }\implies Nul(P)=[Col(P)]^{\perp }\implies \underline{Nul(P)\perp Col(P)}$ $\implies $\fbox{$Nul(P)\oplus Col(P)=R^{n}$} \end{document} ++++ \\ __Apunte 7:__ Desigualdad de Cauchy-Schwarz (Apunte de Mancilla) Descargar PDF: {{:materias:61:08:7._desigualdad_de_cauchy-schwarz_apunte_de_mancilla_.pdf|:materias:61:08:7._desigualdad_de_cauchy-schwarz_apunte_de_mancilla_.pdf}} \\ __Apunte 8:__ Descomposición QR (Apunte de Mancilla) Descargar PDF: {{:materias:61:08:8._descomposicion_qr_apunte_de_mancilla_.pdf|:materias:61:08:8._descomposicion_qr_apunte_de_mancilla_.pdf}} \\ __Apunte 9:__ Cuadrados Mínimos Descargar PDF: {{:materias:61:08:9._cuadrados_minimos.pdf|:materias:61:08:9._cuadrados_minimos.pdf}} ++++Ver fuente TEX:| \documentclass[12pt]{article} %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \usepackage{amsmath} \usepackage{sw20res1} \setcounter{MaxMatrixCols}{10} %TCIDATA{OutputFilter=LATEX.DLL} %TCIDATA{Version=5.50.0.2953} %TCIDATA{} %TCIDATA{BibliographyScheme=Manual} %TCIDATA{Created=Friday, October 09, 2009 17:57:23} %TCIDATA{LastRevised=Friday, October 09, 2009 20:51:20} %TCIDATA{} %TCIDATA{} %TCIDATA{CSTFile=sw20res1.cst} \input{tcilatex} \begin{document} \title{Cuadrados M\'{\i}nimos} \author{by gira} \date{09/10/2009} \maketitle \name{by gira} Sean $A\in R^{mxn},$ $b\in R^{m}$ y $x\in R^{n}:$ el sistema $Ax=b$ $\ $entonces es compatible $\iff $ $b\in Col(A)$ Ahora, sea el sistema $Ax=b$ tal que $b\notin Col(A)$ (uno incompatible) entonces queremos la soluci\'{o}n de este sistema $($un $\widehat{x})$ de forma tal de encontrar un $\widehat{b}$ que perteneza al $\func{col}(A)$ y sea lo m\'{a}s "parecido" a $b$ posible, o mejor dicho, de forma que el vector $\widehat{b}$ sea el que m\'{a}s se aproxime a $b$ (y el "error" sea el m\'{\i}nimo)$,$ es decir de forma que $\widehat{b}=p_{Col(A)}(b)$ \FRAME{itbpFU}{2.8867in}{1.599in}{0in}{\Qcb{Ejemplo en R3}}{}{c.m.jpg}{% \special{language "Scientific Word";type "GRAPHIC";maintain-aspect-ratio TRUE;display "USEDEF";valid_file "F";width 2.8867in;height 1.599in;depth 0in;original-width 2.8435in;original-height 1.5627in;cropleft "0";croptop "1";cropright "1";cropbottom "0";filename 'c.m.jpg';file-properties "XNPEU";}% } El error $\varepsilon $ es igual a $\left\Vert b-\widehat{b}\right\Vert .$ Entonces el objetivo es encontrar la soluci\'{o}n a este sistema: $A\widehat{% x}=\widehat{b}=p_{Col(A)}(b)$. La soluci\'{o}n $\widehat{x}$ recibe el nombre de \textit{"soluci\'{o}n por cuadrados m\'{\i}nimos"} del sistema $% Ax=b.$ Entonces veamos ahora como encontrar $\widehat{x}$ sin necesidad de calcular la proyecci\'{o}n de $b$ sobre $Col(A):$ $A\widehat{x}=p_{Col(A)}(b)\iff \left\{ \begin{array}{c} A\widehat{x}\in Col(A) \\ b-A\widehat{x}\perp Col(A)% \end{array}% \right. $ Recordemos que para matrices reales y con el prod.\ interno can\'{o}nico se cumple que: $\left[ Col(A)\right] ^{\perp }=Nul\left( A^{T}\right) $ $\implies $ $b-A\widehat{x}\in Nul\left( A^{T}\right) \implies A^{T}(b-A% \widehat{x})=0\implies A^{T}b-A^{T}A\widehat{x}=0\iff $% \begin{equation} \fbox{$A^{T}A\widehat{x}=A^{T}b$} \end{equation} A este sistema se lo llama \textit{"Ecuaciones normales de cuadrados m\'{\i}% nimos"}. La soluci\'{o}n de este sistema es la soluci\'{o}n por cuadrados m% \'{\i}nimos que buscabamos. Sin embargo todo no termina aqu\'{\i}. Para este sistema tenemos dos casos: que sea compatible determinado \textbf{(SCD)} o compatible indeterminado \textbf{(SCI)}, y cada caso tiene sus propiedades; veamos: \underline{Caso 1:} Si $A^{T}A$ es inversible, entonces no est\'{a} nada mal que cambiemos el sistema a esta forma: $\widehat{x}=\left( A^{T}A\right) ^{-1}A^{T}b,$ De esta forma podemos afirmar que el sistema es compatible determinado y la soluci\'{o}n es \'{u}nica. La matriz $A^{\text{\#}}=\left( A^{T}A\right) ^{-1}A^{T}$ es llamada "matriz pseudoinversa de A". Ahora, observen lo siguiente: Si $A^{T}A$ es inversible entonces como recordar\'{a}n $rg(A^{T}A)=n,$ pero adem\'{a}s existe una propiedad que dice que $rg(A^{T}A)=rg(A)$ (ver ej. 21 de la gu\'{\i}a), entonces este caso podr% \'{\i}a resumirse de la siguiente forma: Ecs. normales son SCD $\iff \widehat{x}$ es \'{u}nico $\iff $ $A^{T}A$ es inversible $\iff rg(A^{T}A)=rg(A)=n\iff $ Las columnas de A son LI (o $% det(A)\neq 0$, etc$)$ $\iff $ $\widehat{x}=\left( A^{T}A\right) ^{-1}A^{T}b\iff $ $\widehat{x}=A^{\text{\#}}b$ \textbf{Propiedades de la Pseudoinversa:} 1. $A^{\text{\#}}\in R^{nxm}$ 2. $A^{\text{\#}}A=I$ \ \ \ \ \ \ (pues $A^{\text{\#}}A=\left( A^{T}A\right) ^{-1}A^{T}A=I)$ 3. $AA^{\text{\#}}=P_{Col(A)}(b)$ \ \ \ (pues $\widehat{x}=A^{\text{\#}% }b\rightarrow A\widehat{x}=AA^{\text{\#}}b\rightarrow p_{Col(A)}(b)=AA^{% \text{\#}}b\rightarrow P_{Col(A)}(b)=AA^{\text{\#}})$ \bigskip \underline{Caso 2:} Si $A^{T}A$ no es inversible, entonces $\widehat{x}$ no es \'{u}nico y las ecs. normales son un SCI. Adem\'{a}s las columnas de A son LD y su determinante es 0 (pues $rg(A)=$ $rg(A^{T}A)).$ Sin embargo podemos encontrar una expresi\'{o}n de $\widehat{x}$ de la siguiente forma: $\widehat{x}=\widehat{x}_{p}+\widehat{x}_{h}$ La soluci\'{o}n $\widehat{x}$ la podemos expresar como la suma de una particular ($\widehat{x}_{p})$ y una homog\'{e}nea ($\widehat{x}_{h}).$ La homog\'{e}nea ser\'{\i}a la soluci\'{o}n de $A^{T}A\widehat{x}=0,$ y la particular es simplemente una soluci\'{o}n de las infinitas que hay. Podemos observar entonces que $\widehat{x}_{h}\in Nul(A^{T}A),$ pero (ver ej. 21 de la gu\'{\i}a) $Nul(A^{T}A)=Nul(A)$, entonces $\widehat{x}_{h}\in Nul(A)!.$ \textbf{Algunas propiedades a tener en cuenta:} 1. Sea $\widehat{x}$ soluci\'{o}n por cuadrados m\'{\i}nimos del sistema $% Ax=b$ $\implies \left\Vert A\widehat{x}\right\Vert \leq \left\Vert b\right\Vert $ 2. $\widehat{x}=0$ es soluci\'{o}n por cuadrados m\'{\i}nimos del sistema $% Ax=b\iff b\perp Col(A)$ \end{document} ++++ \\ __Apunte 10:__ Ecuaciones Diferenciales Lineales (Apunte de Mancilla) Descargar PDF: {{:materias:61:08:10._ecuaciones_diferenciales_lineales_apunte_de_mancilla_.pdf|:materias:61:08:10._ecuaciones_diferenciales_lineales_apunte_de_mancilla_.pdf}} \\ __Apunte 11:__ Autovalores y Autovectores - Diagonalización Descargar PDF: {{:materias:61:08:11._autovalores_y_autovectores_-_diagonalizacion.pdf|:materias:61:08:11._autovalores_y_autovectores_-_diagonalizacion.pdf}} ++++Ver fuente TEX:| \documentclass[19pt]{article} \usepackage[a4paper]{geometry} \usepackage[spanish]{babel} \usepackage[latin1]{inputenc} \usepackage{amsmath} \usepackage[hang,bf]{caption} \usepackage{helvet} \setcounter{MaxMatrixCols}{10} \renewcommand\familydefault{\sfdefault} \numberwithin{equation}{section} \numberwithin{figure}{section} \numberwithin{table}{section} \setlength{\textwidth}{6.5in} \setlength{\textheight}{9.7in} \setlength{\oddsidemargin}{in} \setlength{\topmargin}{-0.5in} \input{tcilatex} \renewcommand{\baselinestretch}{1} \parindent=0em \begin{document} \setcounter{page}{1} \begin{center} {\LARGE Autovalores y Autovectores - Diagonalización } \bigskip \bigskip {\normalsize Última edición: 09/11/2009} \bigskip \end{center} \section{Autovalores y Autovectores} \bigskip Sea $A\in K^{nxn}$ (matriz cuadrada): \subsection{Definición} $\lambda \in K$ es \textit{autovalor} (ava) de $A$ si existe $v\in K^{n},$ no nulo ($v\neq 0_{K^{n}}$) tal que \fbox{$A.v=\lambda v$}. $v$ se denomina como \textit{autovector} (ave) de $A$ asociado al ava $\lambda .$ \subsection{Polinomio Característico} $\lambda $ ava de $A\iff A.v=\lambda .v$ $\iff A.v-\lambda .v=0_{K^{n}}\iff (A-\lambda I).v=0_{K^{n}}$ $\iff v\in Nul(A-\lambda I)\iff Nul(A-\lambda I)\neq \left\{ 0_{K^{n}}\right\} $ (pues $v\neq 0_{K^{n}}$) $\iff \det (A-\lambda I)=0$ (pues $rg(A-\lambda I)$ debe ser menor a $n$).% %TCIMACRO{\TeXButton{\smallskip}{\smallskip}}% %BeginExpansion \smallskip% %EndExpansion En conclusión: \fbox{$\lambda $ ava de $A\iff \det (A-\lambda I)=0$}$,$ donde $\det (A-\lambda I)$ se denomina como el \textit{polinomio caracterí% stico} de $A$ y se denota como $p_{A}(\lambda )$% %TCIMACRO{\TeXButton{\smallskip}{\smallskip}}% %BeginExpansion \smallskip% %EndExpansion $p_{A}(\lambda )=\det (A-\lambda I)$ es un polinomio de grado $n$ y sus raí% ces son los autovalores de $A$.% %TCIMACRO{\TeXButton{\medskip}{\medskip}}% %BeginExpansion \medskip% %EndExpansion \textbf{Obs:} Algunos profesores escriben "$(\lambda I-A).v"$ en vez de "$% (A-\lambda I).v"$, \ pero no es dificil ver que cualquiera de las dos formas esta bien.% %TCIMACRO{\TeXButton{\smallskip}{\smallskip}}% %BeginExpansion \smallskip% %EndExpansion \textbf{Multiplicidad Algebraica:} Se la denota como $m_{a}(\lambda )$ y se la denomina como la multiplicidad de $\lambda $ como raíz del polinomio característico. (Es decir, si es raíz doble, simple, triple, etc.) \subsubsection{Propiedades:} $(a)$ Son equivalentes: $a_{1}.$ $\lambda $ ava de $A$ $a_{2}.$ $\det (A-\lambda I)=0$ $a_{3}.$ $Nul(A-\lambda I)\neq \left\{ 0\right\} $ $a_{4}.$ $rg(A-\lambda I) ++++ \\ __Apunte 12:__ Matrices Simétricas y Hermíticas (Apunte de Mancilla) Descargar PDF: {{:materias:61:08:12._matrices_simetricas_y_hermiticas_apunte_de_mancilla_.pdf|:materias:61:08:12._matrices_simetricas_y_hermiticas_apunte_de_mancilla_.pdf}} \\ __Apunte 13:__ Formas Cuadráticas (Apunte de Mancilla) Descargar PDF: {{:materias:61:08:13._formas_cuadraticas_apunte_de_mancilla_.pdf|:materias:61:08:13._formas_cuadraticas_apunte_de_mancilla_.pdf}} \\ __Apunte 14:__ Sistemas de Ecuaciones Diferenciales (Apunte de Mancilla) Descargar PDF: {{:materias:61:08:14._sistemas_de_ecuaciones_diferenciales_apunte_de_mancilla_.pdf|:materias:61:08:14._sistemas_de_ecuaciones_diferenciales_apunte_de_mancilla_.pdf}} \\ __Apunte 15:__ Descomposición en Valores Singulares (Apunte de Mancilla) Descargar PDF: {{:materias:61:08:15._descomposicion_en_valores_singulares_apunte_de_mancilla_.pdf|:materias:61:08:15._descomposicion_en_valores_singulares_apunte_de_mancilla_.pdf}} \\ Cuaderno de cursada Acero http://www.mediafire.com/?4rxd9f15vb8qa55