Apuntes de todos los temas teóricos de la materia. Los que dicen “Apunte de Mancilla” es porque fueron hechos por el profe Jose Luis Mancilla Aguilar. Los demás apuntes fueron hechos por mi (gira) por lo que tranquilamente pueden contener errores. Los apuntes están hechos en LaTeX, por eso les dejo la fuente “TeX” para que puedan modificarlo y corregirlo como gusten (Fíjense que al editarlo probablemente tengan que instalar algun “paquete” de LaTeX).
Para realizar los apuntes utilicé el Scientific Workplace (parecido al LEd, pero comercial) Además se consultó Ecuaciones en LaTeX, por Sebastián Santisi y The not so short introduction to latex
Cualquier error que vean, duda o sugerencia posteenlo acá: http://www.foros-fiuba.com.ar/viewtopic.php?t=11803
Apunte 1: Matrices (Repaso de algunas propiedades)
Descargar PDF: :materias:61:08:1._matrices_repaso_de_algunas_propiedades_v3.0.pdf
\documentclass[19pt]{article}
\usepackage{amsfonts}
\usepackage[a4paper]{geometry}
\usepackage[spanish]{babel}
\usepackage[latin1]{inputenc}
\usepackage{amsmath}
\usepackage[hang,bf]{caption}
\usepackage{helvet}
\setcounter{MaxMatrixCols}{10}
\renewcommand\familydefault{\sfdefault}
\numberwithin{equation}{section}
\numberwithin{figure}{section}
\numberwithin{table}{section}
\setlength{\textwidth}{6.5in}
\setlength{\textheight}{9.7in}
\setlength{\oddsidemargin}{in}
\setlength{\topmargin}{-0.5in}
\input{tcilatex}
\renewcommand{\baselinestretch}{1}
\parindent=0em
\begin{document}
\setcounter{page}{1}
\begin{center}
{\LARGE Matrices (Repaso de algunas propiedades)}
\bigskip \bigskip
{\normalsize Última edición: 09/11/2009}
\bigskip
\end{center}
\section{Inversa de una matriz}
\bigskip
Una matriz cuadrada $A\in
%TCIMACRO{\U{211d} }%
%BeginExpansion
\mathbb{R}
%EndExpansion
^{nxn}$ es inversible si existe $B\in
%TCIMACRO{\U{211d} }%
%BeginExpansion
\mathbb{R}
%EndExpansion
^{nxn}$ tal que $AB=BA=I.$
Cuando $B$ existe, es única y la notamos: $B=A^{-1}.$
Para el cálculo de una matriz inversa podemos utilizar el \textit{método de
Gauss-Jordan. }Para ello se considera la matriz $(A$\TEXTsymbol{\vert}$I_{n})
$ y se realizan aquellas operaciones elementales por filas que consigan
transformar la matriz $A$ en la matriz $I_{n}$, de esta forma la matriz $%
I_{n}$ se habrá transformado en $A^{-1}$. Es decir, se han de realizar
operaciones elementales por filas de forma que.
%TCIMACRO{\TeXButton{\medskip}{\medskip}}%
%BeginExpansion
\medskip%
%EndExpansion
\begin{center}
$(A$\TEXTsymbol{\vert}$I_{n})\approx ...\approx (I_{n}$\TEXTsymbol{\vert}$%
A^{-1})$
%TCIMACRO{\TeXButton{\medskip}{\medskip}}%
%BeginExpansion
\medskip%
%EndExpansion
\end{center}
Por ejemplo:
Sea la matriz A = \left( {%
\begin{array}{*{20}c}
2 & 1 & { - 1} \\
{ - 3} & { - 1} & 2 \\
{ - 2} & 1 & 2 \\
\end{array}}\right)
%TCIMACRO{\TeXButton{\smallskip}{\smallskip}}%
%BeginExpansion
\smallskip%
%EndExpansion
\left( {%
\begin{array}{*{20}c}
2 & 1 & { - 1} & 1 & 0 & 0 \\
{ - 3} & { - 1} & 2 & 0 & 1 & 0 \\
{ - 2} & 1 & 2 & 0 & 0 & 1 \\
\end{array}}\right) $\sim $ \left( {%
\begin{array}{*{20}c}
2 & 1 & { - 1} & 1 & 0 & 0 \\
{ - 1} & 0 & 1 & 1 & 1 & 0 \\
0 & 2 & 1 & 1 & 0 & 1 \\
\end{array}}\right) $\sim $ \left( {%
\begin{array}{*{20}c}
1 & 0 & { - 1} & { - 1} & { - 1} & 0 \\
2 & 1 & { - 1} & 1 & 0 & 0 \\
0 & 2 & 1 & 1 & 0 & 1 \\
\end{array}}\right) $\sim $
%TCIMACRO{\TeXButton{\smallskip}{\smallskip}}%
%BeginExpansion
\smallskip%
%EndExpansion
\left( {%
\begin{array}{*{20}c}
1 & 0 & { - 1} & { - 1} & { - 1} & 0 \\
0 & 1 & 1 & 3 & 2 & 0 \\
0 & 2 & 1 & 1 & 0 & 1 \\
\end{array}}\right) $\sim $ \left( {%
\begin{array}{*{20}c}
1 & 0 & { - 1} & { - 1} & { - 1} & 0 \\
0 & 1 & 1 & 3 & 2 & 0 \\
0 & 0 & { - 1} & { - 5} & { - 4} & 1 \\
\end{array}}\right) $\sim $ \left( {%
\begin{array}{*{20}c}
1 & 0 & 0 & 4 & 3 & { - 1} \\
0 & 1 & 0 & { - 2} & { - 2} & 1 \\
0 & 0 & 1 & 5 & 4 & { - 1} \\
\end{array}}\right)
%TCIMACRO{\TeXButton{\smallskip}{\smallskip}}%
%BeginExpansion
\smallskip%
%EndExpansion
De esta forma A^{ - 1} = \left( {%
\begin{array}{*{20}c}
4 & 3 & { - 1} \\
{ - 2} & { - 2} & 1 \\
5 & 4 & { - 1} \\
\end{array} } \right)
\subsection{Propiedades%
%TCIMACRO{\TeXButton{\smallskip}{\smallskip}}%
%BeginExpansion
\smallskip%
%EndExpansion
}
$\bullet $ $(A.B)^{-1}=B^{-1}.A^{-1}$%
%TCIMACRO{\TeXButton{\smallskip}{\smallskip}}%
%BeginExpansion
\smallskip%
%EndExpansion
$\bullet $ $(A^{T})^{-1}=(A^{-1})^{T}$%
%TCIMACRO{\TeXButton{\smallskip}{\smallskip}}%
%BeginExpansion
\smallskip%
%EndExpansion
$\bullet $ $(A^{-1})^{-1}=A$%
%TCIMACRO{\TeXButton{\smallskip}{\smallskip}}%
%BeginExpansion
\smallskip%
%EndExpansion
$\bullet $ $A^{-1}=\frac{1}{\det (A)}adj(A)$ (ver siguiente sección)
\section{Determinante de una matriz}
\bigskip
Se define el \textit{determinante} \ de $A$ como la suma de todos los
productos elementales con signos tomados de $A$.
Notamos: $\ \ det(A)=\left\vert A\right\vert =\sum \pm
a_{1j_{1}}a_{2j_{2}}.....a_{nj_{n}}$
donde $(j_{1},j_{2},...,j_{n})$ es una permutación de $\{1,2,...,n\}$, y el
signo + o - depende si la permutación $(j_{1},j_{2},...,j_{n})$ es
respectivamente par o impar.
\subsection{Desarrollo del determinante por cofactores}
\textit{Desarrollo a lo largo de la j-ésima columna:}
$\quad det(A)=a_{1j}C_{1j}+a_{2j}C_{2j}+...+a_{nj}C_{nj}$%
%TCIMACRO{\TeXButton{\medskip}{\medskip}}%
%BeginExpansion
\medskip%
%EndExpansion
\textit{Desarrollo a lo largo de la i-éisma fila:}
$\quad det(A)=a_{i1}C_{i1}+a_{i2}C_{i2}+...+a_{in}C_{in}$%
%TCIMACRO{\TeXButton{\medskip}{\medskip}}%
%BeginExpansion
\medskip%
%EndExpansion
donde $C_{ij}=(-1)^{1+j}M_{ij}$ se lo llama \textit{cofactor del elemento} $%
a_{ij}.$ $M_{ij}$ es el \textit{menor del elemento} $a_{ij}$ y se lo define
como el determinante de la submatriz que queda al eliminar de $A$ la i-ésima
fila y la j-ésima columna.
Si $A\in
%TCIMACRO{\U{211d} }%
%BeginExpansion
\mathbb{R}
%EndExpansion
^{nxn}$ y $C_{ij}$ es el \textit{cofactor del elemento} $a_{ij}$ entonces la
matriz
\begin{center}
$\left(
\begin{array}{cccc}
C_{11} & C_{21} & ... & C_{n1} \\
C_{12} & C_{22} & ... & C_{n2} \\
... & ... & & ... \\
C_{1n} & C_{21} & ... & C_{nn}%
\end{array}%
\right) $%
%TCIMACRO{\TeXButton{\smallskip}{\smallskip}}%
%BeginExpansion
\smallskip%
%EndExpansion
\end{center}
se conoce como \textbf{matriz adjunta de }$A$\textbf{, }y se denota $adj(A)$
%TCIMACRO{\TeXButton{\medskip}{\medskip}}%
%BeginExpansion
\medskip%
%EndExpansion
Ejemplos:
Si $A\in
%TCIMACRO{\U{211d} }%
%BeginExpansion
\mathbb{R}
%EndExpansion
^{2x2}$ tal que $A=\left(
\begin{array}{cc}
a & b \\
c & d%
\end{array}%
\right) $ $\implies $ \ $adj(A)=\left(
\begin{array}{cc}
d & -b \\
-c & a%
\end{array}%
\right) $%
%TCIMACRO{\TeXButton{\smallskip}{\smallskip}}%
%BeginExpansion
\smallskip%
%EndExpansion
Si $A\in
%TCIMACRO{\U{211d} }%
%BeginExpansion
\mathbb{R}
%EndExpansion
^{3x3}$ tal que \textbf{A} =
\begin{pmatrix}
A_{11} & A_{12} & A_{13} \\
A_{21} & A_{22} & A_{23} \\
A_{31} & A_{32} & A_{33}%
\end{pmatrix}%
%TCIMACRO{\TeXButton{\smallskip}{\smallskip}}%
%BeginExpansion
\smallskip%
%EndExpansion
$\implies $ \ {\text{adj}}({\textbf{A}}) = \left( {%
\begin{array}{*{20}c}
{ + \left| {\begin{array}{*{20}c}
{A_{22} } & {A_{23} } \\
{A_{32} } & {A_{33} } \\
\end{array} } \right|} & { - \left| {\begin{array}{*{20}c}
{A_{21} } & {A_{23} } \\
{A_{31} } & {A_{33} } \\
\end{array} } \right|} & { + \left| {\begin{array}{*{20}c}
{A_{21} } & {A_{22} } \\
{A_{31} } & {A_{32} } \\
\end{array} } \right|} \\
{} & {} & {} \\
{ - \left| {\begin{array}{*{20}c}
{A_{12} } & {A_{13} } \\
{A_{32} } & {A_{33} } \\
\end{array} } \right|} & { + \left| {\begin{array}{*{20}c}
{A_{11} } & {A_{13} } \\
{A_{31} } & {A_{33} } \\
\end{array} } \right|} & { - \left| {\begin{array}{*{20}c}
{A_{11} } & {A_{12} } \\
{A_{31} } & {A_{32} } \\
\end{array} } \right|} \\
{} & {} & {} \\
{ + \left| {\begin{array}{*{20}c}
{A_{12} } & {A_{13} } \\
{A_{22} } & {A_{23} } \\
\end{array} } \right|} & { - \left| {\begin{array}{*{20}c}
{A_{11} } & {A_{13} } \\
{A_{21} } & {A_{23} } \\
\end{array} } \right|} & { + \left| {\begin{array}{*{20}c}
{A_{11} } & {A_{12} } \\
{A_{21} } & {A_{22} } \\
\end{array} } \right|} \\
\end{array} } \right)
\subsection{Propiedades}
$\bullet $ Si $A^{\prime }$ es la matriz que se obtiene cuando una sola fina
de $A$ se multiplica por una constante $k$, entonces $\det (A^{\prime
})=k\det (A)$%
%TCIMACRO{\TeXButton{\smallskip}{\smallskip}}%
%BeginExpansion
\smallskip%
%EndExpansion
$\bullet $ Si $A^{\prime }$ es la matriz que se obtiene al intercambiar dos
filas de $A$, entonces $\det (A^{\prime })=-\det (A)$%
%TCIMACRO{\TeXButton{\smallskip}{\smallskip}}%
%BeginExpansion
\smallskip%
%EndExpansion
$\bullet $ Si $A^{\prime }$ es la matriz que se obtiene al sumar un múltiplo
de una de las filas de $A$ a otra fila, entonces $\det (A^{\prime })=\det (A)
$%
%TCIMACRO{\TeXButton{\smallskip}{\smallskip}}%
%BeginExpansion
\smallskip%
%EndExpansion
$\bullet $ Si $A\in
%TCIMACRO{\U{211d} }%
%BeginExpansion
\mathbb{R}
%EndExpansion
^{nxn}$, entonces $\det (A^{T})=\det (A)$%
%TCIMACRO{\TeXButton{\smallskip}{\smallskip}}%
%BeginExpansion
\smallskip%
%EndExpansion
$\bullet $ Si $A\in
%TCIMACRO{\U{211d} }%
%BeginExpansion
\mathbb{R}
%EndExpansion
^{nxn},B\in
%TCIMACRO{\U{211d} }%
%BeginExpansion
\mathbb{R}
%EndExpansion
^{nxn}$ y $k\in
%TCIMACRO{\U{211d} }%
%BeginExpansion
\mathbb{R}
%EndExpansion
,$ entonces:\qquad $\det (kA)=k^{n}\det (A)$ ;\ $\det (AB)=\det (A).\det (B)$%
%TCIMACRO{\TeXButton{\smallskip}{\smallskip}}%
%BeginExpansion
\smallskip%
%EndExpansion
$\bullet $ Si $A$ es una matriz triangular de $nxn$, entonces $det(A)$ es el
producto de los elementos de la diagonal, es decir: $%
det(A)=a_{11}a_{22}...a_{nn}$%
%TCIMACRO{\TeXButton{\smallskip}{\smallskip}}%
%BeginExpansion
\smallskip%
%EndExpansion
$\bullet $ $A$ es inversible si y sólo si $\det (A)\neq 0$%
%TCIMACRO{\TeXButton{\smallskip}{\smallskip}}%
%BeginExpansion
\smallskip%
%EndExpansion
$\bullet $ Si $A$ es inversible, entonces $\det (A^{-1})=\frac{1}{\det (A)}$%
%TCIMACRO{\TeXButton{\smallskip}{\smallskip}}%
%BeginExpansion
\smallskip%
%EndExpansion
$\bullet $ Si $A$ es inversible, entonces $A^{-1}=\frac{1}{\det (A)}adj(A)$
\subsection{Regla de Sarrus}
La regla de Sarrus es un método de fácil memorización para calcular el
determinante de una matriz 3\times 3.%
%TCIMACRO{\TeXButton{\smallskip}{\smallskip}}%
%BeginExpansion
\smallskip%
%EndExpansion
Considérese la matriz de 3\times 3 \ A =
\begin{pmatrix}
a_{11} & a_{12} & a_{13} \\
a_{21} & a_{22} & a_{23} \\
a_{31} & a_{32} & a_{33}%
\end{pmatrix}%
%TCIMACRO{\TeXButton{\smallskip}{\smallskip}}%
%BeginExpansion
\smallskip%
%EndExpansion
Su determinante se puede calcular de la siguiente manera:
En primer lugar, repetir las dos primeras columnas de la matriz a la derecha
de la misma de manera que queden cinco columnas en fila. Después sumar los
productos de las diagonales descendentes (en línea continua) y sustraer los
productos de las diagonales ascendentes (en trazos)
Esto resulta en:%
%TCIMACRO{\TeXButton{\smallskip}{\smallskip}}%
%BeginExpansion
\smallskip%
%EndExpansion
A =
\begin{vmatrix}
a_{11} & a_{12} & a_{13} \\
a_{21} & a_{22} & a_{23} \\
a_{31} & a_{32} & a_{33}%
\end{vmatrix}
=
a_{11}a_{22}a_{33}+a_{12}a_{23}a_{31}+a_{13}a_{21}a_{32}-a_{31}a_{22}a_{13}-a_{32}a_{23}a_{11}-a_{33}a_{21}a_{12}
\FRAME{ftpFU}{3.0943in}{1.4961in}{0pt}{\Qcb{La regla de Sarrus: diagonales
continuas y en trazos}}{}{Figure}{\special{language "Scientific Word";type
"GRAPHIC";maintain-aspect-ratio TRUE;display "USEDEF";valid_file "T";width
3.0943in;height 1.4961in;depth 0pt;original-width 3.704in;original-height
1.7781in;cropleft "0";croptop "1";cropright "1";cropbottom "0";tempfilename
'KRA9QZ00.bmp';tempfile-properties "XPR";}}
\bigskip \qquad
\section{Regla de Cramer}
\bigskip
Si $Ax=b$ es un sistema de $n$ ecuaciones con $n$ incógnitas tal que $%
det(A)\neq 0$, entonces la única solución del sistema es $%
(x_{1},x_{2},...,x_{n})$ con:
\begin{center}
$x_{1}=\frac{\det (A_{1})}{\det (A)},x_{2}=\frac{\det (A_{2})}{\det (A)}%
,.....,x_{n}=\frac{\det (A_{n})}{\det (A)}$
\end{center}
donde $A_{j}$ es la matriz que se obtiene al reemplazar la jésima columna de
$A$ por $b.$
\end{document}
Apunte 2: Complejos
Descargar PDF: :materias:61:08:complejos_v2.0_.pdf
\documentclass[12pt]{article}
\usepackage{amsfonts}
%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
\usepackage{amssymb}
\usepackage{amsmath}
\usepackage{sw20res1}
\setcounter{MaxMatrixCols}{10}
%TCIDATA{OutputFilter=LATEX.DLL}
%TCIDATA{Version=5.50.0.2953}
%TCIDATA{<META NAME="SaveForMode" CONTENT="1">}
%TCIDATA{BibliographyScheme=Manual}
%TCIDATA{Created=Friday, October 09, 2009 21:18:42}
%TCIDATA{LastRevised=Friday, October 09, 2009 21:56:03}
%TCIDATA{<META NAME="GraphicsSave" CONTENT="32">}
%TCIDATA{<META NAME="DocumentShell" CONTENT="Other Documents\SW\Resume - SW Resume #1">}
%TCIDATA{CSTFile=sw20res1.cst}
\input{tcilatex}
\begin{document}
\title{Complejos}
\author{by gira}
\date{09/10/2009}
\maketitle
Tenemos dos tipos de espacios vectoriales complejos:
\section{1. \protect\underline{$%
%TCIMACRO{\U{2102} }%
%BeginExpansion
\mathbb{C}
%EndExpansion
^{n}$ como $%
%TCIMACRO{\U{211d} }%
%BeginExpansion
\mathbb{R}
%EndExpansion
$-espacio vectorial}}
($%
%TCIMACRO{\U{2102} }%
%BeginExpansion
\mathbb{C}
%EndExpansion
^{n},+,%
%TCIMACRO{\U{211d} }%
%BeginExpansion
\mathbb{R}
%EndExpansion
,.)$
En este caso la forma de los vectores depender\'{a} de la dimensi\'{o}n del
espacio, es decir, de $n$. Veamos un par de ejemplos:
\subsection{\protect\underline{$n=1$}:}
Base can\'{o}nica: $E(%
%TCIMACRO{\U{2102} }%
%BeginExpansion
\mathbb{C}
%EndExpansion
^{1})=\left\{ 1,i\right\} $, \ $dim(%
%TCIMACRO{\U{2102} }%
%BeginExpansion
\mathbb{C}
%EndExpansion
^{1})=2$
Sea $z\in
%TCIMACRO{\U{2102} }%
%BeginExpansion
\mathbb{C}
%EndExpansion
^{1}$ entonces es de la forma: $z=k_{1}.1+k_{2}.i$ $\ \ \forall
k_{1},k_{2}\in
%TCIMACRO{\U{211d} }%
%BeginExpansion
\mathbb{R}
%EndExpansion
$
En realidad a este z se lo puede escribir de varias formas:
\subsubsection{\textit{Forma cartesiana:} $z=a+bi$}
donde definimos $a=Re(z),$ $b=Im(z)$ reales.
Podemos graficar a $z$ en el plano complejo:
\bigskip $\overset{}{\FRAME{itbpF}{2.973in}{2.4515in}{-2.6786pt}{}{}{%
numeros-complejos_image082.gif}{\special{language "Scientific Word";type
"GRAPHIC";maintain-aspect-ratio TRUE;display "PICT";valid_file "F";width
2.973in;height 2.4515in;depth -2.6786pt;original-width
3.1892in;original-height 2.6253in;cropleft "0";croptop "1";cropright
"1";cropbottom "0";filename 'numeros-complejos_image082.gif';file-properties
"XNPEU";}}}$
siendo $\left\vert z\right\vert =\sqrt{a^{2}+b^{2}},$ $\arg (z)=\alpha $ tal
que $tg(\alpha )=\frac{sen\alpha }{\cos \alpha }=\frac{b}{a}$
\subsubsection{\textit{Forma polar: \ }$z=\left\vert z\right\vert (\cos
\protect\alpha +isen\protect\alpha )$}
\subsubsection{\textit{Forma Exponencial: \ }$z=\left\vert z\right\vert e^{i%
\protect\alpha }$}
Esta \'{u}ltima se deduce de la \textit{f\'{o}rmula de Euler} que dice: $%
e^{i\alpha }=\cos \alpha +isen\alpha $
(adem\'{a}s, se puede observar que $\ e^{z}=e^{a}(\cos b+isenb)$)
\subsection{\protect\underline{$n=2$}:}
Base can\'{o}nica: $E(%
%TCIMACRO{\U{2102} }%
%BeginExpansion
\mathbb{C}
%EndExpansion
^{2})=\left\{ (1,0),(i,0),(0,1),(0,i)\right\} $, \ $dim(%
%TCIMACRO{\U{2102} }%
%BeginExpansion
\mathbb{C}
%EndExpansion
^{2})=4$
Sea $z\in
%TCIMACRO{\U{2102} }%
%BeginExpansion
\mathbb{C}
%EndExpansion
^{2}$ entonces es de la forma: $%
z=k_{1}(1,0)+k_{2}(i,0)+k_{3}(0,1)+k_{4}(0,i) $ $\ \ \forall
k_{1},k_{2},k_{3},k_{4}\in
%TCIMACRO{\U{211d} }%
%BeginExpansion
\mathbb{R}
%EndExpansion
$
Luego, para $n=3$\ la base can\'{o}nica ser\'{a} como la de $%
%TCIMACRO{\U{211d} }%
%BeginExpansion
\mathbb{R}
%EndExpansion
^{3}$ sumandole los tres vectores con $i$ hac\'{\i} como hicimos para $n=2$,
y as\'{\i} sucesivamente para los siguientes $n,$
\bigskip
\bigskip
\bigskip
\bigskip
\section{2. \protect\underline{$%
%TCIMACRO{\U{2102} }%
%BeginExpansion
\mathbb{C}
%EndExpansion
^{n}$ como $%
%TCIMACRO{\U{2102} }%
%BeginExpansion
\mathbb{C}
%EndExpansion
$-espacio vectorial}}
($%
%TCIMACRO{\U{2102} }%
%BeginExpansion
\mathbb{C}
%EndExpansion
^{n},+,%
%TCIMACRO{\U{2102} }%
%BeginExpansion
\mathbb{C}
%EndExpansion
,.)$
Veamos algunos ejemplos:
\subsection{\protect\underline{$n=1$}:}
Base can\'{o}nica: $E(%
%TCIMACRO{\U{2102} }%
%BeginExpansion
\mathbb{C}
%EndExpansion
^{1})=\left\{ 1\right\} $, \ $dim(%
%TCIMACRO{\U{2102} }%
%BeginExpansion
\mathbb{C}
%EndExpansion
^{1})=1$
Sea $z\in
%TCIMACRO{\U{2102} }%
%BeginExpansion
\mathbb{C}
%EndExpansion
^{1}$ entonces es de la forma: $z=k_{1}.1$ $\ \ \forall k_{1}\in
%TCIMACRO{\U{2102} }%
%BeginExpansion
\mathbb{C}
%EndExpansion
$
\subsection{\protect\underline{$n=2$}:}
Base can\'{o}nica: $E(%
%TCIMACRO{\U{2102} }%
%BeginExpansion
\mathbb{C}
%EndExpansion
^{2})=\left\{ (1,0),(0,1)\right\} $, \ $dim(%
%TCIMACRO{\U{2102} }%
%BeginExpansion
\mathbb{C}
%EndExpansion
^{2})=2$
Sea $z\in
%TCIMACRO{\U{2102} }%
%BeginExpansion
\mathbb{C}
%EndExpansion
^{2}$ entonces es de la forma: $z=k_{1}(1,0)+k_{2}(0,1)$ $\ \ \forall
k_{1},k_{2}\in
%TCIMACRO{\U{2102} }%
%BeginExpansion
\mathbb{C}
%EndExpansion
$
\bigskip Luego, para $n=3$\ la base can\'{o}nica ser\'{a} como la de $%
%TCIMACRO{\U{211d} }%
%BeginExpansion
\mathbb{R}
%EndExpansion
^{3}$ haci como en $n=2$, y as\'{\i} para los siguientes $n.$
\bigskip
\end{document}
Apunte 3: Espacios Vectoriales (Apunte de Mancilla)
Descargar PDF: :materias:61:08:3._espacios_vectoriales_apunte_de_mancilla_.pdf
Apunte 4: Wronksiano (Apunte de Mancilla)
Descargar PDF: :materias:61:08:4._wronksiano_apunte_de_mancilla_.pdf
Apunte 5: Transformaciones Lineales
Descargar PDF: :materias:61:08:5._transformaciones_lineales_v2.0_.pdf
\documentclass[12pt]{article}
\usepackage{amssymb}
\usepackage{amsmath}
%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
\usepackage{sw20res1}
%TCIDATA{OutputFilter=LATEX.DLL}
%TCIDATA{Version=5.50.0.2953}
%TCIDATA{<META NAME="SaveForMode" CONTENT="1">}
%TCIDATA{BibliographyScheme=Manual}
%TCIDATA{Created=Saturday, October 10, 2009 02:45:50}
%TCIDATA{LastRevised=Saturday, October 10, 2009 03:18:51}
%TCIDATA{<META NAME="GraphicsSave" CONTENT="32">}
%TCIDATA{<META NAME="DocumentShell" CONTENT="Other Documents\SW\Resume - SW Resume #1">}
%TCIDATA{CSTFile=sw20res1.cst}
\input{tcilatex}
\begin{document}
\title{Transformaciones Lineales}
\author{by gira}
\date{10/10/2009}
\maketitle
\section{1. \textbf{Definici\'{o}n}}
Sean $V$ y $W$ dos espacios vectoriales, entonces la funci\'{o}n $%
T:V\rightarrow W$ es una transformaci\'{o}n lineal si verifica:
$a_{1})$ $T(u+v)=T(u)+T(v)$ $\ \forall $ $u,v\in V$
$a_{2})$ $T(\alpha u)=\alpha T(u)$ $\ \forall $ $u\in V$ $\wedge $ $\forall $
$\alpha \in \Bbbk $
\subsection{\textbf{Propiedades:}}
$(i)$ $T(0_{V})=0_{W}$
$(ii)$ $T\left( \overset{n}{\underset{i=1}{\sum }}\alpha _{i}v_{i}\right) =%
\overset{n}{\underset{i=1}{\sum }}\alpha _{i}T(v_{i})$ \textit{\ (Linealidad)%
}
\section{2. \textbf{N\'{u}cleo}}
$Nu(T)=\{v\in V$ $/$ $T(v)=0_{W}\}$ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \
\ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \
\ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \
$Nu(T)$ es subespacio de $V.$
\FRAME{ihF}{2.9854in}{1.7358in}{0in}{}{}{núcleo.jpg}{\special{language
"Scientific Word";type "GRAPHIC";maintain-aspect-ratio TRUE;display
"USEDEF";valid_file "F";width 2.9854in;height 1.7358in;depth
0in;original-width 2.9439in;original-height 1.7005in;cropleft "0";croptop
"1";cropright "1.0002";cropbottom "0";filename 'Núcleo.jpg';file-properties
"XNPEU";}}
\section{3. I\textbf{magen}}
$\func{Im}(T)=\{w\in W$ / $w=T(v),$ con $v\in V\}$
$\func{Im}(T)$ es subespacio de $W.$
\FRAME{itbhF}{3.0454in}{1.8514in}{0in}{}{}{imagen.jpg}{\special{language
"Scientific Word";type "GRAPHIC";maintain-aspect-ratio TRUE;display
"USEDEF";valid_file "F";width 3.0454in;height 1.8514in;depth
0in;original-width 3.0613in;original-height 1.8497in;cropleft "0";croptop
"1";cropright "1";cropbottom "0";filename 'Imagen.jpg';file-properties
"XNPEU";}}
\section{4. \textbf{Teorema de la Dimensi\'{o}n}}
Sea $T:V\rightarrow W$, $\dim (V)=n$ (finita), entonces:
$\dim (Nu(T))+\dim (\func{Im}(T))=\dim (V)=n$
\subsection{\textbf{Propiedades:}}
Sea $T:V\rightarrow W,$ TL \ $($otra notaci\'{o}n es $T\in \tciLaplace
(V,W)):$
$\bullet $ Si $\{v_{1},v_{2},.....v_{q}\}$ genera $V$ $\Longrightarrow $ $%
\{T(v_{1}),T\left( v_{2}\right) ,.....T\left( v_{q}\right) \}$ genera $\func{%
Im}(T)$
\textbf{Obs. 1: }$T(v_{1}),T\left( v_{2}\right) ,.....T\left( v_{q}\right) $
$\in $ $\func{Im}(T)$
\textbf{Obs. 2: }Cualquier $w\in $ $\func{Im}(T)$ puede expresarse como
combinaci\'{o}n lineal de $T(v_{1}),T\left( v_{2}\right) ,.....T\left(
v_{q}\right) $
$\bullet $ $\{T(v_{1}),T\left( v_{2}\right) ,.....T\left( v_{q}\right) \}$
es LI $\implies $ $\{v_{1},v_{2},.....v_{q}\}$ es LI
\section{5. \textbf{Clasificaci\'{o}n}}
Sea $T\in \tciLaplace (V,W)$ TL $:$
$-$ $T$ es \textit{inyectiva} (monomorfismo) si verifica: $v_{1}\neq
v_{2}\implies T(v_{1})\neq T(v_{2})$
$-$ $T$ es \textit{sobreyectiva} (epimorfismo) $\Longleftrightarrow $ $\func{%
Im}(T)=W$
$-$ $T$ es \textit{biyectiva} (isomorfismo) $\Longleftrightarrow $ $T$ es
inyectiva y sobreyectiva
\subsection{\textbf{Propiedades:}}
$\bullet $ $T$ es monomorfismo $\iff $ $Nu(T)=\{0_{V}\}$
$\bullet $ Si $T$ es monomorfismo $\implies $ $\dim (V)\leq \dim (W)$
$\bullet $ Si $T$ es monomorfismo y $\{v_{1},v_{2},.....v_{q}\}\subset V$ es
LI $\implies $ $\{T(v_{1}),T\left( v_{2}\right) ,.....T\left( v_{q}\right) \}
$ es LI
$\bullet $ Si $T$ es epiomorfismo $\implies $ $\dim (W)\leq \dim (V)$
$\bullet $ Si $T$ es isomorfismo $\implies $ $\dim (W)=\dim (V)$
$\bullet $ Si $V$ y $W$ son de dimensi\'{o}n \textbf{finita }entonces $T$ es
isomorfismo $\iff $ $\dim (W)=\dim (V)$
$\bullet $ Si $T$ es isomorfismo $\implies $ $\exists $ $T^{-1}:W\rightarrow
V$ (Transformaci\'{o}n Inversa)
\section{6. \textbf{Transformaciones Matriciales}}
Una transformaci\'{o}n matricial es del tipo: $T:\Bbbk ^{n}\rightarrow \Bbbk
^{m},$ $T(x)=Ax,$ $A\in \Bbbk ^{mxn}$
Veamos un par de propiedades:
$\bullet $ $x\in Nu(T)\Longleftrightarrow $ $T(x)=0\Longleftrightarrow $ $%
Ax=0\Longleftrightarrow $ $x\in Nul(A)$
$\bullet $ $y\in \func{Im}(T)\Longleftrightarrow $ $T(x)=y%
\Longleftrightarrow $ $Ax=y\Longleftrightarrow $ $y\in Col(A)$
De aqu\'{\i} deducimos que para las transformaciones matriciales se cumple
que:
\underline{$Nu(T)=Nul(A)$}
\underline{$\func{Im}(T)=Col(A)$}
Ahora, aplicando el \textit{teorema de la dimensi\'{o}n}:
\underline{$\dim (Nul(A))+\dim (Col(A))=\dim (\Bbbk ^{n})=n$}
\textbf{Obs.\ 1:} $\dim (Col(A))$ es el llamado \textit{rango de }$\mathit{A}
$\textit{\ }$\Longrightarrow $ $\dim (Nul(A))=n-rg(A)$
\textbf{Obs.\ 2:} $n$ es el n\'{u}mero de columnas de $A$
\section{7. \textbf{Teorema Fundamental de las Transformaciones Lineales
(TFTL)}}
Sea $B=\{v_{1},v_{2},.....v_{n}\}$ base de $V$ y
$w_{1},w_{2},....,w_{n}$ vectores de $W$ (iguales o distintos)
entonces, existe una \textbf{\'{u}nica} Transformaci\'{o}n Lineal $%
T:V\rightarrow W$ tal que:
$\left\{
\begin{array}{c}
T\left( v_{1}\right) =w_{1}\text{\ \ \ \ \ \ \ \ \ } \\
T\left( v_{2}\right) =w_{2}\text{ \ \ \ \ \ \ \ \ } \\
\ \ \ \ \ \ \vdots \text{ \ \ \ \ \ \ \ \ \ \ } \\
T\left( v_{n}\right) =w_{n}\text{ \ \ \ \ \ \ \ \ }%
\end{array}%
\right\vert
\begin{array}{c}
\bullet \text{ Existencia de T} \\
\bullet \text{ Linealidad de T} \\
\bullet \text{ Unicidad\ de T \ }%
\end{array}%
$
\section{\textbf{8. Composicion de Transformaciones Lineales}}
Sean las transformaciones Lineales:
$F:U\rightarrow V$
$G:V\rightarrow W$
entonces la composici\'{o}n $G$ $o$ $F$ $:$ $U\rightarrow W$ es transformaci%
\'{o}n lineal, tal que
$G$ $o$ $F$ $(u)=G(F(u))$ \ \ $\forall $ $u\in U$
\textbf{Propiedades:}
$\bullet $ $Nu(F)\subseteq Nu(G$ $o$ $F)$
$\bullet $ $Nu(F)=Nu(G$ $o$ $F)\iff $ $G$ es monomorfismo (inyectiva) $\iff $
$Nu(G)=\left\{ 0_{V}\right\} $
\section{9. \textbf{Transformaci\'{o}n Inversa}}
Sea $T:V\rightarrow W$ isomorfismo $\Longrightarrow $ $\exists $ $%
T^{-1}:W\rightarrow V$ / $T^{-1}(w)=v\iff T(v)=w$
\subsection{\textbf{Propiedades:}}
$\bullet $ $T^{-1}$ es una TL biyectiva
$\bullet $ $T^{-1}$ $o$ $T=Id_{V}$ \ \ $\ \ \ \ \left( T^{-1}oT(v)=v\right) $
$\bullet $ $T$ $o$ $T^{-1}=Id_{W}$ $\ \ \ \ \ \left( T^{-1}oT(w)=w\right) $
\section{10. \textbf{Matriz asociada a una Transformaci\'{o}n Lineal}}
Sea $T:V\rightarrow W$ \ TL
$B=\{v_{1},v_{2},.....v_{n}\}$ base de $V$
$B=\{w_{1},w_{2},.....w_{m}\}$ base de $W$
$\left[ T\right] _{BB^{\prime }}=\left[
\begin{array}{c}
\text{ \TEXTsymbol{\vert}\ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \TEXTsymbol{\vert}\
\ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \TEXTsymbol{\vert}\ \ \ } \\
C_{B^{\prime }}(T(v_{1}))\ \ C_{B^{\prime }}(T(v_{2}))......C_{B^{\prime
}}(T(v_{n})) \\
\text{\TEXTsymbol{\vert} \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \TEXTsymbol{\vert}\ \
\ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \TEXTsymbol{\vert}\ \ }%
\end{array}%
\right] $ \ \ $\in \Bbbk ^{mxn}$
es la matriz asociada a $T.$
\ $\left[ T\right] _{BB^{\prime }},C_{B}(v)=C_{B^{\prime }}(T(v))$
$V\overset{T}{\longrightarrow }W$
$v\overset{T}{\longrightarrow }T(v)=w$
$C_{B}(v)$ $\overset{\left[ T\right] _{BB^{\prime }}}{\longrightarrow }$ $%
C_{B^{\prime }}(T(v))=C_{B^{\prime }}(w)$
\subsection{\textbf{Propiedades:}}
$\bullet $ Si $T$ es isomorfismo $\implies $ $\exists $ $\left[ T^{-1}\right]
_{BB^{\prime }}=\left[ T\right] _{BB^{\prime }}^{-1}$
$\bullet $ $T:V\rightarrow W$ TL,
$B$ base de $V$
$C$ base de $W$
$\cdot $ $v\in Nu(T)\iff C_{B}(v)\in Nul(\left[ T\right] _{BC})$
$\cdot $ $v\in \func{Im}(T)\iff C_{C}(T(v))\in Col(\left[ T\right] _{BC})$
$\cdot $ $rg(\left[ T\right] _{BC})=\dim (\func{Im}(T))$
$\cdot $ $\left\{
\begin{array}{c}
B^{\prime }\text{ base de }V\text{ \ \ \ \ \ \ } \\
C^{\prime }\text{ base de }W\text{ \ \ \ \ \ }%
\end{array}%
\right. \implies rg(\left[ T\right] _{BC})=rg(\left[ T\right] _{B^{\prime
}C^{\prime }})$
$\bullet $ $T:V\rightarrow W$ TL,
$B$ y $D$ bases de $V$
$B\prime $ y $D\prime $ bases de $W$
$A=\left[ T\right] _{BB^{\prime }}$
\ $M=\left[ T\right] _{DD^{\prime }}$
$\implies \left[ T\right] _{DD^{\prime }}\mathbf{=C}_{B^{\prime }D^{\prime }}%
\left[ T\right] _{BB^{\prime }}\mathbf{C}_{DB}$
$\ \ \ C_{B}(v)$ \ \ $\overset{A}{\longrightarrow }$ $\ \ \ C_{B^{\prime
}}(T(v))$ $\ $
$C_{BD}$ $\uparrow $ $\ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \downarrow $ $%
C_{B^{\prime }D^{\prime }}$ \ (Cuadrito did\'{a}ctico)
$\ \ \ C_{D}(v)$ $\ \ \overset{M}{\longrightarrow }$ $\ $\ $\ C_{D^{\prime
}}(T(v))$
\end{document}
Apunte 6: Producto Interno
Descargar PDF: :materias:61:08:producto_interno_v2.0_.pdf
\documentclass[12pt]{article}
%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
\usepackage{amsfonts}
\usepackage{amsmath}
\usepackage{sw20res1}
\setcounter{MaxMatrixCols}{10}
%TCIDATA{OutputFilter=LATEX.DLL}
%TCIDATA{Version=5.50.0.2953}
%TCIDATA{<META NAME="SaveForMode" CONTENT="1">}
%TCIDATA{BibliographyScheme=Manual}
%TCIDATA{Created=Saturday, October 10, 2009 02:45:56}
%TCIDATA{LastRevised=Sunday, October 11, 2009 01:57:29}
%TCIDATA{<META NAME="GraphicsSave" CONTENT="32">}
%TCIDATA{<META NAME="DocumentShell" CONTENT="Other Documents\SW\Resume - SW Resume #1">}
%TCIDATA{CSTFile=sw20res1.cst}
\input{tcilatex}
\begin{document}
\title{Producto Interno}
\author{by gira}
\date{10/10/2009}
\maketitle
\section{1. Definici\'{o}n}
Sea $V$ un $%
%TCIMACRO{\U{2102} }%
%BeginExpansion
\mathbb{C}
%EndExpansion
$-espacio vectorial, y sean $u\in V,$ $v\in V,$ $w\in V$ y $\alpha \in
%TCIMACRO{\U{2102} }%
%BeginExpansion
\mathbb{C}
%EndExpansion
$ , entonces \newline
$(\cdot ,\cdot ):V_{%
%TCIMACRO{\U{2102} }%
%BeginExpansion
\mathbb{C}
%EndExpansion
}$x$V_{%
%TCIMACRO{\U{2102} }%
%BeginExpansion
\mathbb{C}
%EndExpansion
}\rightarrow
%TCIMACRO{\U{2102} }%
%BeginExpansion
\mathbb{C}
%EndExpansion
$ es un \textit{producto interno} (pi) en $V$ si se cumplen los siguientes
axiomas:
$a_{1})$ $\ (u,v)=\overline{(v,u)}$ \ \ \ $\vee $ \ \ \ $(u,v)=(v,u)\ \ $si $%
V$ es $%
%TCIMACRO{\U{211d} }%
%BeginExpansion
\mathbb{R}
%EndExpansion
$-ev
$a_{2})$ $\ (u+v,w)=(u,w)+(v,w)$
$a_{3})$ $\ (\alpha u,v)=\overline{\alpha }(u,v)$ \ \ \ $\vee $ \ \ \ $%
(\alpha u,v)=\alpha (u,v)\ \ $si $V$ es $%
%TCIMACRO{\U{211d} }%
%BeginExpansion
\mathbb{R}
%EndExpansion
$-ev
$a_{3})$ $\ (u,u)>0$ \ \ \ $\wedge $ \ \ \ $(u,u)=0$ \ \ $\iff $ \ \ $%
u=0_{V} $
\section{2. Propiedades del pi}
$(i)$ $\ (u,v+w)=(u,v)+(u,w)$
$(ii)$ $\ (u,\alpha v)=\alpha (u,v)\ $
$(iii)$ $\ (v,0_{V})=0$
\subsection{El producto interno can\'{o}nico (pic)}
En $%
%TCIMACRO{\U{211d} }%
%BeginExpansion
\mathbb{R}
%EndExpansion
^{n}:(u,v)=u^{T}v$
En $%
%TCIMACRO{\U{2102} }%
%BeginExpansion
\mathbb{C}
%EndExpansion
^{n}:(u,v)=u^{H}v=\overline{(u^{T})}v$
En $%
%TCIMACRO{\U{211d} }%
%BeginExpansion
\mathbb{R}
%EndExpansion
^{nxn}:(A,B)=\overset{n}{\underset{j=1}{\overset{n}{\underset{i=1}{\sum }}}}%
a_{ij}b_{ij}$
\section{3. Norma y distancia}
Sea $V$ un $EVPI$ (espacio vectorial con prod. int.), se define como \textit{%
norma} al n\'{u}mero real
$\left\Vert u\right\Vert =(u,u)$
y la \textit{distancia} entre dos elementos $u$ y $v$ de $V$ se define como:
$d(u,v)=\left\Vert v-u\right\Vert $
\subsection{3.1. Propiedades de la norma}
$(i)$ $\ \left\Vert u\right\Vert >0$ $\ \ \wedge $ $\ \ \left\Vert
u\right\Vert =0$ $\ \iff $ $\ \ u=0_{V}$
$(ii)$ $\ \left\Vert ku\right\Vert =\left\vert k\right\vert \left\Vert
u\right\Vert $ \ \ $(k\in K)$
$(iii)$ $\ \left\Vert u+v\right\Vert \leq \left\Vert u\right\Vert
+\left\Vert v\right\Vert $ \ \ (Desigualdad Triangular)
\section{4. Desigualdad de Cauchy-Schwarz}
Ver apunte 7.
\section{5. Ortogonalidad}
\subsection{5.1. Definici\'{o}n}
Dos elementos $u$ y $v$ de $V$ ($EVPI)$ son ortogonales $\iff $ $\ (u,v)=0$
\textbf{Atenci\'{o}n:} La ortogonalidad depende del producto interno del
correspondiente espacio vectorial
\subsection{5.2. Propiedad Pitag\'{o}rica}
Si u y v son ortogonales $\implies $ \ $\left\Vert u+v\right\Vert
^{2}=\left\Vert u\right\Vert ^{2}+\left\Vert v\right\Vert ^{2}$
Si el espacio vectorial es Real entonces se cumple el "si y solo si".
\subsection{5.3. Conjuntos Ortogonales}
\underline{Definici\'{o}n:} $\{u_{1},u_{2},....,u_{r}\}$ \ es un conjunto
ortogonal $\iff $ \ $(u_{i},u_{j})=0$ \ \ $\forall $ $i\neq j$
\underline{Propiedad:} Todo conjunto ortogonal que no contenga al $0_{V}$ es
LI
$B$ es una base ortogonal ($BOG$) si es base y es ortogonal
\subsection{5.4. Conjuntos Ortonormales}
\underline{Definici\'{o}n:} $\{u_{1},u_{2},....,u_{r}\}$ \ es un conjunto
ortonormal $\iff $ \ $\left\{
\begin{array}{c}
(u_{i},u_{j})=0\ \ \forall i\neq j\text{ \ \ \ \ \ } \\
\left\Vert u_{i}\right\Vert =1\text{ , \ }i=1,...,r%
\end{array}%
\right. $
$B$ es una base ortonormal ($BON$) si es base y es ortonormal
$\frac{v}{\left\Vert v\right\Vert }$ es llamado\textit{\ versor asociado a} $%
v$ y tiene norma 1.
\section{6. Matriz del Producto Interno (Matriz de Gram)}
Sea $B=\{u_{1},u_{2},....,u_{r}\}$ base de $V$ ($EVPI$), y sean $v$ y $w$ de
$V,$ entonces:
$(v,w)=[v]_{B}^{H}.G_{B}.[w]_{B}$ \ \ \ \ \ \ \ \ \ //\ \ \ \ \ \ \ \ \ \
Con la otra notaci\'{o}n: $(v,w)=C_{B}(v)^{H}.G_{B}.C_{B}(w)$
donde $G_{B}=\left(
\begin{array}{cccc}
(u_{1},u_{1}) & (u_{1},u_{2}) & \cdots & (u_{1},u_{r}) \\
(u_{2},u_{1}) & (u_{2},u_{2}) & \cdots & (u_{2},u_{r}) \\
\vdots & \vdots & \ddots & \vdots \\
(u_{r},u_{1}) & (u_{r},u_{2}) & \cdots & (u_{r},u_{r})%
\end{array}%
\right) $ \ \ \ \ \ \ \ \ \ $%
\begin{array}{c}
\text{ }G_{B}\in K^{rxr}\text{ \ \ (Si }dim(V)=r\text{)} \\
\bullet \text{ Herm\'{\i}tica (Sim\'{e}trica)\ \ \ \ \ \ \ } \\
\bullet \text{ Definida Positiva\ \ \ \ \ \ \ \ \ \ \ \ \ } \\
\bullet \text{ Inversible \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ }%
\end{array}%
$
\subsection{6.1. Observaciones}
$\bullet $ $\ A\in
%TCIMACRO{\U{2102} }%
%BeginExpansion
\mathbb{C}
%EndExpansion
^{nxn}$ es \textit{herm\'{\i}tica} \ $\iff $ \ $A=A^{H}$ \ ($a_{ij}=%
\overline{a_{ji}}$)
$\bullet $ $\ A\in
%TCIMACRO{\U{211d} }%
%BeginExpansion
\mathbb{R}
%EndExpansion
^{nxn}$ es \textit{sim\'{e}trica} \ $\iff $ \ $A=A^{T}$ \ ($a_{ij}=a_{ji}$)
$\bullet $ $\ $Si $K=%
%TCIMACRO{\U{2102} }%
%BeginExpansion
\mathbb{C}
%EndExpansion
$, entonces sea $A\in
%TCIMACRO{\U{2102} }%
%BeginExpansion
\mathbb{C}
%EndExpansion
^{nxn}$ herm\'{\i}tica $\implies $ \ $A$ es \textit{definida positiva} \ $%
\iff $ \ $x^{H}Ax\geq 0$ \ \ $\forall $ $x$ \ \ $\wedge $ \ $\ x^{H}Ax=0$ \ $%
\iff $ \ $x=0$
$\bullet $ $\ $Si $K=%
%TCIMACRO{\U{211d} }%
%BeginExpansion
\mathbb{R}
%EndExpansion
$, entonces sea $A\in
%TCIMACRO{\U{211d} }%
%BeginExpansion
\mathbb{R}
%EndExpansion
^{nxn}$ sim\'{e}trica $\implies $ \ $A$ es \textit{definida positiva} \ $%
\iff $ \ $x^{T}Ax\geq 0$ \ \ $\forall $ $x$ \ \ $\wedge $ \ $\ x^{T}Ax=0$ \ $%
\iff $ \ $x=0$
$\bullet $ $\ $Sea $A\in
%TCIMACRO{\U{2102} }%
%BeginExpansion
\mathbb{C}
%EndExpansion
^{nxn}$ ($%
%TCIMACRO{\U{211d} }%
%BeginExpansion
\mathbb{R}
%EndExpansion
^{nxn})$ herm\'{\i}tica (sim\'{e}trica) $\implies $ \ $A$ es \textit{%
definida positiva} \ $\iff $ \ todos los subdeterminantes (o menores)
principales de $A$ son $>0$
$\bullet $ $\ $Sea $A\in
%TCIMACRO{\U{2102} }%
%BeginExpansion
\mathbb{C}
%EndExpansion
^{nxn}$ ($%
%TCIMACRO{\U{211d} }%
%BeginExpansion
\mathbb{R}
%EndExpansion
^{nxn})$ herm\'{\i}tica (sim\'{e}trica) $\implies $ \ $A$ es \textit{%
definida positiva} \ $\iff $ \ todos los autovalores de $A$ son $>0$
\subsection{6.2. Casos Especiales}
$\bullet $ $B=\{g_{1},g_{2},....,g_{r}\}$ BOG de $V$ $\implies $ \ $%
G_{B}=\left(
\begin{array}{cccc}
(g_{1},g_{1}) & 0 & \cdots & 0 \\
0 & (g_{2},g_{2}) & \cdots & 0 \\
\vdots & \vdots & \ddots & \vdots \\
0 & 0 & \cdots & (g_{r},g_{r})%
\end{array}%
\right) $ \ (Diagonal)
$\bullet $ $B=\{u_{1},u_{2},....,u_{r}\}$ BON de $V$ $\implies $ \ $G_{B}=I$
\ \ \ \ \ (pues $\left\Vert u_{i}\right\Vert =1$)
\section{7. Proyecciones Ortogonales}
Sea $V$ un $EVPI$, $S$ un subespacio de $V$ y $v\in V:$
\subsection{7.1. Definici\'{o}n}
$\widehat{v}$ es la proyecci\'{o}n de v sobre S $\iff $ \ $\left\{
\begin{array}{c}
\widehat{v}\in S\text{ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \
\ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ } \\
v-\widehat{v}\perp S\text{ \ \ }\vee \text{\ \ }(v-\widehat{v},w)=0\text{ \ }%
\forall \text{ }w\in S%
\end{array}%
\right. $
\underline{Notaci\'{o}n:}$\ \widehat{v}=\ p_{S}(v)$ \ \'{o} $\widehat{v}%
=p_{S}v$
\FRAME{ftbpF}{3.1292in}{2.1762in}{0in}{}{}{proyeccion.jpg}{\special{language
"Scientific Word";type "GRAPHIC";maintain-aspect-ratio TRUE;display
"USEDEF";valid_file "F";width 3.1292in;height 2.1762in;depth
0in;original-width 3.146in;original-height 2.1788in;cropleft "0";croptop
"1";cropright "1";cropbottom "0";filename 'proyeccion.jpg';file-properties
"XNPEU";}}
\subsection{7.2. Propiedades}
$\bullet \ $Si existe la proyecci\'{o}n de $v$ sobre $S$ $\implies p_{S}(v)$
es \'{u}nica\ \
$\bullet $ \ $p_{S}(u+v)=p_{S}(u)+p_{S}(v)$
$\bullet $ \ $p_{S}(kv)=kp_{S}(v)$
$\bullet $\ \ $p_{S}(v)=v$ \ $\iff $ $v\in S$
$\bullet $\ \ $p_{S}(v)=0_{V}$ \ $\iff $ $v\perp S$
\subsection{7.3. F\'{o}rmula de proyecci\'{o}n}
Sea $S$ un subespacio de $V$ y $B=\{g_{1},g_{2},....,g_{r}\}$ una BOG de S,
entonces:
$p_{S}(v)=\overset{r}{\underset{i=1}{\sum }}\frac{(g_{i},v)}{\left\Vert
g_{i}\right\Vert ^{2}}.g_{i}$
\underline{Caso particular:} Si $B=\{u_{1},u_{2},....,u_{r}\}$ es BON de S,
entonces:
$p_{S}(v)=\overset{r}{\underset{i=1}{\sum }}(u_{i},v).u_{i}$
\subsection{7.4. M\'{e}todo de Gram-Schmidt (Construcci\'{o}n de una BOG)}
Sea $S$ subespacio de $V$ y $B$ $=\{v_{1},v_{2},....,v_{r}\}$ base de S $%
\implies $ $\ \exists $ $B^{\prime }$ $=\{g_{1},g_{2},....,g_{r}\}$ BOG de S
donde:
$g_{1}=v_{1}$
$g_{i}=v_{i}-p_{S_{i-1}}(v_{i})$ \ donde $S_{i-1}=\{g_{1},....,g_{i-1}\}$
con $2\leq i\leq r$
\subsection{7.5. La proyecci\'{o}n como mejor aproximaci\'{o}n}
Sea $S$ subespacio de $V$ y $v\in V,$ si $\widehat{v}=p_{S}(v)$ resulta:
$d(v,\widehat{v})\leq d(v,w)$ \ $\forall $ $w\in S$ \ \ \ \ \ \ \ \ (\ $%
\left\Vert v-\widehat{v}\right\Vert \leq \left\Vert v-w\right\Vert $ )
es decir, $\widehat{v}$ es el vector de $S$ que est\'{a} "m\'{a}s cerca" de $%
v$ o "mejor aproxima" a $v$.
\subsubsection{7.5.1. Distancia de un vector a un subespacio}
$d(v,S)=\left\Vert v-\widehat{v}\right\Vert $ \
\subsection{7.6. Complemento Ortogonal}
\subsubsection{7.6.1. Definici\'{o}n}
Sea $S$ subespacio de $V$ $(EVPI)$ entonces el \textit{complemento ortogonal
de }$S$ se define como:
$S^{\perp }=\{v\in V$ / $(v,w)=0$ \ $\forall $ $w\in S\}$
$S^{\perp }$ es subespacio de $V.$
Si $S=gen\{v_{1},v_{2},....,v_{q}\}\subset V\implies S^{\perp }=\{v\in V$ / $%
(v,v_{1})=0,...,(v,v_{q})=0$ $\}$
\subsubsection{7.6.2. Propiedad}
Sea $S\subseteq V$ un subespacio de V tal que $\forall $ $v\in V$ existe $%
p_{S}(v)$
$\ \implies $ \ $S\oplus S^{\perp }=V$ \ \ \ \ \ \ ( $S\cap S^{\perp
}=\{0_{V}\}$ \ $\wedge $\ $\ S+S^{\perp }=\ V$\ )
\subsubsection{7.6.3. Corolarios}
$(i)$ \ Si $dim(S)$ es finita \ $\implies $ \ $\exists $ $p_{S}(v)$ \ $%
\forall $ $v\in V$ \ $\implies $ \ $S\oplus S^{\perp }=V$
$(ii)$ \ Si $dim(V)=n$ \ $\implies $ \ $dim(S\oplus S^{\perp
})=dim(S)+dim(S^{\perp })=n$
$(iii)$ \ Si $S\oplus S^{\perp }=V$ \ $\implies $ \ $(S^{\perp })^{\perp }=S$
$(iv)$ \ Si $S\oplus S^{\perp }=V$ \ $\implies $ \ $v=p_{S}(v)+p_{S^{\perp
}}(v)$ \ $\forall $ $v\in V$
\subsubsection{7.6.4. Casos Especiales}
$\bullet $ Si$\ S=Nul(A)=\{x\in
%TCIMACRO{\U{211d} }%
%BeginExpansion
\mathbb{R}
%EndExpansion
^{n}$ / $Ax=0\}$,
En general, para \textit{p.i. can\'{o}nico}:
$x\in Nul(A)\iff Ax=0\iff (F_{i}^{T},x)=0\iff x\perp Fil(A)\iff x\in \lbrack
Fil(A)]^{\perp }$ \ $\implies $ \ \ \fbox{$Nul(A)=[Fil(A)]^{\perp }$}
$\implies S^{\perp }=Fil(A)$
$\bullet $ Si$\ S=Nul(A^{T})=\{x\in
%TCIMACRO{\U{211d} }%
%BeginExpansion
\mathbb{R}
%EndExpansion
^{n}$ / $A^{T}x=0\}$,
$Nul(A^{T})\perp Fil(A^{T})=Col(A)\implies $\fbox{$Nul(A^{T})=[Col(A)]^{%
\perp }$} $\implies S^{\perp }=Col(A)$
\subsection{7.8. Matriz de Proyecci\'{o}n}
\underline{\textit{Atenci\'{o}n}}\textit{: A partir de ahora usamos s\'{o}lo
p.i. can\'{o}nico.}
Sea $V=K^{n}$ (p.i.c.), $S$ subespacio de $V:$
\subsubsection{7.8.1. Definici\'{o}n}
$P\in K^{n}$ es la \textit{matriz de proyecci\'{o}n sobre S} si $%
P.v=p_{S}(v) $ \ tal que $P=QQ^{H},$ con $Q=[u_{1}$ $u_{2}$ $.....$ $u_{r}]$
\ y $B=\{u_{1},u_{2},.....,u_{r}\}$ una BON de S.
\subsubsection{7.8.2. Propiedades}
$\bullet $ \ $P$ es \'{u}nica
$\bullet $ \ $Q=[u_{1}$ $u_{2}$ $.....$ $u_{r}]$ \ $\implies $ \ $%
Col(Q)=gen\{u_{1},u_{2},.....,u_{r}\}=S$
$\bullet $ \ $Q^{H}Q=I$
$\bullet $ \ $Col(P)=Col(Q)=S$
$\bullet $ \ $P^{H}=P$ (Herm\'{\i}tica) \ $\wedge $ \ $P^{2}=P$ (Idempotente)
\textbf{Obs: }$rg(P)=dim(S)=r$
\subsubsection{7.8.3. Relaci\'{o}n entre $P_{S}$ y $P_{S^{\perp }}$}
Si $P_{S}$ la matriz de proyecci\'{o}n sobre S y $P_{S^{\perp }}$ la matriz
de proyecci\'{o}n sobre $S^{\perp }$ entonces:
$v=p_{S}(v)+p_{S^{\perp }}(v)$ \ \ $\forall $ $v\in R^{n}$
$v=P_{S}.v+P_{S^{\perp }}.v$
$I.v=(P_{S}+P_{S^{\perp }}).v$ $\ \implies $ \ \ \ \fbox{$P_{S}+P_{S^{\perp
}}=I$}
\subsubsection{7.8.4. Un par de observaciones}
$\bullet $ \ $P.v\in Col(P)$ $\ \ \implies \ \ \ v-P.v\in \lbrack
Col(P)]^{\perp }$
$\bullet $ $\ P$ es inversible $\iff \det (P)\neq 0\iff $ $...\iff
\underline{P=I}$
$\bullet $ $\ $Si $P\neq I$ \ $\implies $ \ \ $rg(P)\leq (n-1)$
$\bullet $ $\ P^{T}=P\implies Nul(P^{T})=[Col(P)]^{\perp }\implies
Nul(P)=[Col(P)]^{\perp }\implies \underline{Nul(P)\perp Col(P)}$
$\implies $\fbox{$Nul(P)\oplus Col(P)=R^{n}$}
\end{document}
Apunte 7: Desigualdad de Cauchy-Schwarz (Apunte de Mancilla)
Descargar PDF: :materias:61:08:7._desigualdad_de_cauchy-schwarz_apunte_de_mancilla_.pdf
Apunte 8: Descomposición QR (Apunte de Mancilla)
Descargar PDF: :materias:61:08:8._descomposicion_qr_apunte_de_mancilla_.pdf
Apunte 9: Cuadrados Mínimos
Descargar PDF: :materias:61:08:9._cuadrados_minimos.pdf
\documentclass[12pt]{article}
%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
\usepackage{amsmath}
\usepackage{sw20res1}
\setcounter{MaxMatrixCols}{10}
%TCIDATA{OutputFilter=LATEX.DLL}
%TCIDATA{Version=5.50.0.2953}
%TCIDATA{<META NAME="SaveForMode" CONTENT="1">}
%TCIDATA{BibliographyScheme=Manual}
%TCIDATA{Created=Friday, October 09, 2009 17:57:23}
%TCIDATA{LastRevised=Friday, October 09, 2009 20:51:20}
%TCIDATA{<META NAME="GraphicsSave" CONTENT="32">}
%TCIDATA{<META NAME="DocumentShell" CONTENT="Other Documents\SW\Resume - SW Resume #1">}
%TCIDATA{CSTFile=sw20res1.cst}
\input{tcilatex}
\begin{document}
\title{Cuadrados M\'{\i}nimos}
\author{by gira}
\date{09/10/2009}
\maketitle
\name{by gira}
Sean $A\in R^{mxn},$ $b\in R^{m}$ y $x\in R^{n}:$
el sistema $Ax=b$ $\ $entonces es compatible $\iff $ $b\in Col(A)$
Ahora, sea el sistema $Ax=b$ tal que $b\notin Col(A)$ (uno incompatible)
entonces queremos la soluci\'{o}n de este sistema $($un $\widehat{x})$ de
forma tal de encontrar un $\widehat{b}$ que perteneza al $\func{col}(A)$ y
sea lo m\'{a}s "parecido" a $b$ posible, o mejor dicho, de forma que el
vector $\widehat{b}$ sea el que m\'{a}s se aproxime a $b$ (y el "error" sea
el m\'{\i}nimo)$,$ es decir de forma que $\widehat{b}=p_{Col(A)}(b)$
\FRAME{itbpFU}{2.8867in}{1.599in}{0in}{\Qcb{Ejemplo en R3}}{}{c.m.jpg}{%
\special{language "Scientific Word";type "GRAPHIC";maintain-aspect-ratio
TRUE;display "USEDEF";valid_file "F";width 2.8867in;height 1.599in;depth
0in;original-width 2.8435in;original-height 1.5627in;cropleft "0";croptop
"1";cropright "1";cropbottom "0";filename 'c.m.jpg';file-properties "XNPEU";}%
}
El error $\varepsilon $ es igual a $\left\Vert b-\widehat{b}\right\Vert .$
Entonces el objetivo es encontrar la soluci\'{o}n a este sistema: $A\widehat{%
x}=\widehat{b}=p_{Col(A)}(b)$. La soluci\'{o}n $\widehat{x}$ recibe el
nombre de \textit{"soluci\'{o}n por cuadrados m\'{\i}nimos"} del sistema $%
Ax=b.$
Entonces veamos ahora como encontrar $\widehat{x}$ sin necesidad de calcular
la proyecci\'{o}n de $b$ sobre $Col(A):$
$A\widehat{x}=p_{Col(A)}(b)\iff \left\{
\begin{array}{c}
A\widehat{x}\in Col(A) \\
b-A\widehat{x}\perp Col(A)%
\end{array}%
\right. $
Recordemos que para matrices reales y con el prod.\ interno can\'{o}nico se
cumple que:
$\left[ Col(A)\right] ^{\perp }=Nul\left( A^{T}\right) $
$\implies $ $b-A\widehat{x}\in Nul\left( A^{T}\right) \implies A^{T}(b-A%
\widehat{x})=0\implies A^{T}b-A^{T}A\widehat{x}=0\iff $%
\begin{equation}
\fbox{$A^{T}A\widehat{x}=A^{T}b$}
\end{equation}
A este sistema se lo llama \textit{"Ecuaciones normales de cuadrados m\'{\i}%
nimos"}. La soluci\'{o}n de este sistema es la soluci\'{o}n por cuadrados m%
\'{\i}nimos que buscabamos.
Sin embargo todo no termina aqu\'{\i}. Para este sistema tenemos dos casos:
que sea compatible determinado \textbf{(SCD)} o compatible indeterminado
\textbf{(SCI)}, y cada caso tiene sus propiedades; veamos:
\underline{Caso 1:} Si $A^{T}A$ es inversible, entonces no est\'{a} nada mal
que cambiemos el sistema a esta forma: $\widehat{x}=\left( A^{T}A\right)
^{-1}A^{T}b,$ De esta forma podemos afirmar que el sistema es compatible
determinado y la soluci\'{o}n es \'{u}nica. La matriz $A^{\text{\#}}=\left(
A^{T}A\right) ^{-1}A^{T}$ es llamada "matriz pseudoinversa de A".
Ahora, observen lo siguiente: Si $A^{T}A$ es inversible entonces como
recordar\'{a}n $rg(A^{T}A)=n,$ pero adem\'{a}s existe una propiedad que dice
que $rg(A^{T}A)=rg(A)$ (ver ej. 21 de la gu\'{\i}a), entonces este caso podr%
\'{\i}a resumirse de la siguiente forma:
Ecs. normales son SCD $\iff \widehat{x}$ es \'{u}nico $\iff $ $A^{T}A$ es
inversible $\iff rg(A^{T}A)=rg(A)=n\iff $ Las columnas de A son LI (o $%
det(A)\neq 0$, etc$)$ $\iff $ $\widehat{x}=\left( A^{T}A\right)
^{-1}A^{T}b\iff $ $\widehat{x}=A^{\text{\#}}b$
\textbf{Propiedades de la Pseudoinversa:}
1. $A^{\text{\#}}\in R^{nxm}$
2. $A^{\text{\#}}A=I$ \ \ \ \ \ \ (pues $A^{\text{\#}}A=\left( A^{T}A\right)
^{-1}A^{T}A=I)$
3. $AA^{\text{\#}}=P_{Col(A)}(b)$ \ \ \ (pues $\widehat{x}=A^{\text{\#}%
}b\rightarrow A\widehat{x}=AA^{\text{\#}}b\rightarrow p_{Col(A)}(b)=AA^{%
\text{\#}}b\rightarrow P_{Col(A)}(b)=AA^{\text{\#}})$
\bigskip
\underline{Caso 2:} Si $A^{T}A$ no es inversible, entonces $\widehat{x}$ no
es \'{u}nico y las ecs. normales son un SCI. Adem\'{a}s las columnas de A
son LD y su determinante es 0 (pues $rg(A)=$ $rg(A^{T}A)).$ Sin embargo
podemos encontrar una expresi\'{o}n de $\widehat{x}$ de la siguiente forma:
$\widehat{x}=\widehat{x}_{p}+\widehat{x}_{h}$
La soluci\'{o}n $\widehat{x}$ la podemos expresar como la suma de una
particular ($\widehat{x}_{p})$ y una homog\'{e}nea ($\widehat{x}_{h}).$ La
homog\'{e}nea ser\'{\i}a la soluci\'{o}n de $A^{T}A\widehat{x}=0,$ y la
particular es simplemente una soluci\'{o}n de las infinitas que hay. Podemos
observar entonces que $\widehat{x}_{h}\in Nul(A^{T}A),$ pero (ver ej. 21 de
la gu\'{\i}a) $Nul(A^{T}A)=Nul(A)$, entonces $\widehat{x}_{h}\in Nul(A)!.$
\textbf{Algunas propiedades a tener en cuenta:}
1. Sea $\widehat{x}$ soluci\'{o}n por cuadrados m\'{\i}nimos del sistema $%
Ax=b$ $\implies \left\Vert A\widehat{x}\right\Vert \leq \left\Vert
b\right\Vert $
2. $\widehat{x}=0$ es soluci\'{o}n por cuadrados m\'{\i}nimos del sistema $%
Ax=b\iff b\perp Col(A)$
\end{document}
Apunte 10: Ecuaciones Diferenciales Lineales (Apunte de Mancilla)
Descargar PDF: :materias:61:08:10._ecuaciones_diferenciales_lineales_apunte_de_mancilla_.pdf
Apunte 11: Autovalores y Autovectores - Diagonalización
Descargar PDF: :materias:61:08:11._autovalores_y_autovectores_-_diagonalizacion.pdf
\documentclass[19pt]{article}
\usepackage[a4paper]{geometry}
\usepackage[spanish]{babel}
\usepackage[latin1]{inputenc}
\usepackage{amsmath}
\usepackage[hang,bf]{caption}
\usepackage{helvet}
\setcounter{MaxMatrixCols}{10}
\renewcommand\familydefault{\sfdefault}
\numberwithin{equation}{section}
\numberwithin{figure}{section}
\numberwithin{table}{section}
\setlength{\textwidth}{6.5in}
\setlength{\textheight}{9.7in}
\setlength{\oddsidemargin}{in}
\setlength{\topmargin}{-0.5in}
\input{tcilatex}
\renewcommand{\baselinestretch}{1}
\parindent=0em
\begin{document}
\setcounter{page}{1}
\begin{center}
{\LARGE Autovalores y Autovectores - Diagonalización }
\bigskip \bigskip
{\normalsize Última edición: 09/11/2009}
\bigskip
\end{center}
\section{Autovalores y Autovectores}
\bigskip
Sea $A\in K^{nxn}$ (matriz cuadrada):
\subsection{Definición}
$\lambda \in K$ es \textit{autovalor} (ava) de $A$ si existe $v\in K^{n},$
no nulo ($v\neq 0_{K^{n}}$) tal que \fbox{$A.v=\lambda v$}. $v$ se denomina
como \textit{autovector} (ave) de $A$ asociado al ava $\lambda .$
\subsection{Polinomio Característico}
$\lambda $ ava de $A\iff A.v=\lambda .v$ $\iff A.v-\lambda .v=0_{K^{n}}\iff
(A-\lambda I).v=0_{K^{n}}$ $\iff v\in Nul(A-\lambda I)\iff Nul(A-\lambda
I)\neq \left\{ 0_{K^{n}}\right\} $ (pues $v\neq 0_{K^{n}}$) $\iff \det
(A-\lambda I)=0$ (pues $rg(A-\lambda I)$ debe ser menor a $n$).%
%TCIMACRO{\TeXButton{\smallskip}{\smallskip}}%
%BeginExpansion
\smallskip%
%EndExpansion
En conclusión: \fbox{$\lambda $ ava de $A\iff \det (A-\lambda I)=0$}$,$
donde $\det (A-\lambda I)$ se denomina como el \textit{polinomio caracterí%
stico} de $A$ y se denota como $p_{A}(\lambda )$%
%TCIMACRO{\TeXButton{\smallskip}{\smallskip}}%
%BeginExpansion
\smallskip%
%EndExpansion
$p_{A}(\lambda )=\det (A-\lambda I)$ es un polinomio de grado $n$ y sus raí%
ces son los autovalores de $A$.%
%TCIMACRO{\TeXButton{\medskip}{\medskip}}%
%BeginExpansion
\medskip%
%EndExpansion
\textbf{Obs:} Algunos profesores escriben "$(\lambda I-A).v"$ en vez de "$%
(A-\lambda I).v"$, \ pero no es dificil ver que cualquiera de las dos formas
esta bien.%
%TCIMACRO{\TeXButton{\smallskip}{\smallskip}}%
%BeginExpansion
\smallskip%
%EndExpansion
\textbf{Multiplicidad Algebraica:} Se la denota como $m_{a}(\lambda )$ y se
la denomina como la multiplicidad de $\lambda $ como raíz del polinomio
característico. (Es decir, si es raíz doble, simple, triple, etc.)
\subsubsection{Propiedades:}
$(a)$ Son equivalentes:
$a_{1}.$ $\lambda $ ava de $A$
$a_{2}.$ $\det (A-\lambda I)=0$
$a_{3}.$ $Nul(A-\lambda I)\neq \left\{ 0\right\} $
$a_{4}.$ $rg(A-\lambda I)<n$
$(b)$ Si $A\in K^{2x2}\longrightarrow \fbox{$p_{A}(\lambda )=\lambda
^{2}-\lambda .tr\left( A\right) +\det \left( A\right) $}$%
%TCIMACRO{\TeXButton{\smallskip}{\smallskip}}%
%BeginExpansion
\smallskip%
%EndExpansion
dem) $p_{A}(\lambda )=\det (A-\lambda I)=\left(
\begin{array}{cc}
a_{11}-\lambda & a_{12} \\
a_{21} & a_{22}-\lambda%
\end{array}%
\right) =\left( a_{11}-\lambda \right) \left( a_{22}-\lambda \right)
-a_{21}.a_{12}=\lambda ^{2}-\lambda
(a_{11}+a_{22})+a_{11}.a_{22}-a_{21}.a_{12}=\lambda ^{2}-\lambda .tr\left(
A\right) +\det \left( A\right) $
$(c)$ \fbox{$tr(A)=\underset{i=1}{\overset{n}{\dsum }}\lambda _{i}$}$%
=\lambda _{1}+\lambda _{2}+.......+\lambda _{n}$%
%TCIMACRO{\TeXButton{\smallskip}{\smallskip}}%
%BeginExpansion
\smallskip%
%EndExpansion
$(d)$ $\fbox{$det(A)=\underset{i=1}{\overset{n}{\dprod }}\lambda _{i}$}%
=\lambda _{1}.\lambda _{2}........\lambda _{n}$%
%TCIMACRO{\TeXButton{\smallskip}{\smallskip}}%
%BeginExpansion
\smallskip%
%EndExpansion
dem.b y c) Para 2x2: Si $\alpha _{1}$ y $\alpha _{2}$ son autovalores de $A$
$\longrightarrow p_{A}(\lambda )=(\lambda -\alpha _{1}).(\lambda -\alpha
_{2})=\lambda ^{2}-\lambda (\alpha _{1}+\alpha _{2})+\alpha _{1}.\alpha
_{2}\iff \alpha _{1}+\alpha _{2}=tr(A)$ $\wedge $ $\alpha _{1}.\alpha
_{2}=\det (A)$%
%TCIMACRO{\TeXButton{\smallskip}{\smallskip}}%
%BeginExpansion
\smallskip%
%EndExpansion
$(e)$ \fbox{$\lambda =0$ es ava de $A\iff \det (A)=0$} ($A$ singular) $\iff
rg(A)<n$%
%TCIMACRO{\TeXButton{\smallskip}{\smallskip}}%
%BeginExpansion
\smallskip%
%EndExpansion
$(f)$ Si $A$ es triangular (superior o inferior) $\longrightarrow $%
\underline{ sus avas son los elementos de la diagonal principal.}%
%TCIMACRO{\TeXButton{\smallskip}{\smallskip}}%
%BeginExpansion
\smallskip%
%EndExpansion
Ej.) Si $A=\left(
\begin{array}{cc}
832 & 123 \\
0 & 321%
\end{array}%
\right) \longrightarrow $ avas de A: 832 y 321%
%TCIMACRO{\TeXButton{\smallskip}{\smallskip}}%
%BeginExpansion
\smallskip%
%EndExpansion
$(g)$ Si $A$ es triangular por bloques $\longrightarrow $ $%
det(A)=de(A_{11}).\det (A_{22})$ siendo $A=\left(
\begin{array}{cc}
A_{11} & A_{12} \\
0_{(n-p)xp} & A_{22}%
\end{array}%
\right) $ y $A$ de $nxn$, $A_{11}$ de $pxp$, $A_{12}$ de $px(n-p)$ $A_{22}$
de $(n-p)x(n-p)$%
%TCIMACRO{\TeXButton{\smallskip}{\smallskip}}%
%BeginExpansion
\smallskip%
%EndExpansion
Entonces $det(A-\lambda I)=det(A_{11}-\lambda I).\det (A_{22}-\lambda
I)\longrightarrow p_{A}(\lambda )=p_{A_{11}}(\lambda ).p_{A_{22}}(\lambda )$
$\longrightarrow $\fbox{$\lambda $ es ava de $A\iff \lambda $ es un ava de $%
A_{11}$ o de $A_{22}$}%
%TCIMACRO{\TeXButton{\smallskip}{\smallskip}}%
%BeginExpansion
\smallskip%
%EndExpansion
(y la suma de los avas de $A_{11}$ más los de $A_{22}$ nos da todos los avas
de $A$)
$(h)$ Si $A\in K^{nxn}\longrightarrow $\fbox{$m_{a}(\lambda
_{1})+m_{a}(\lambda _{2})+......+m_{a}(\lambda _{r})=n$} siendo $\lambda
_{i}\neq \lambda _{j}$%
%TCIMACRO{\TeXButton{\smallskip}{\smallskip}}%
%BeginExpansion
\smallskip%
%EndExpansion
$(i)$ Sea $\lambda $ ava de $A$ y $v$ el ave de $A$ asociado a $\lambda
\longrightarrow A.v=\lambda .v\iff (A-\lambda I).v=0\iff $\fbox{$v\in
Nul(A-\lambda I)$}%
%TCIMACRO{\TeXButton{\smallskip}{\smallskip}}%
%BeginExpansion
\smallskip%
%EndExpansion
\subsection{Autoespacio Asociado}
Se define como el autoespacio de $A\in K^{nxn}$ (o subespacio propio de A)
asociado al autovalor $\lambda \in K$ a:%
%TCIMACRO{\TeXButton{\smallskip}{\smallskip}}%
%BeginExpansion
\smallskip%
%EndExpansion
\fbox{$S_{\lambda }=Nul(A-\lambda I)$}$=\left\{ v\in K^{n}\text{ }/\text{ }%
A.v=\lambda v\right\} $%
%TCIMACRO{\TeXButton{\smallskip}{\smallskip}}%
%BeginExpansion
\smallskip%
%EndExpansion
Este subespacio contiene a todos los autovectores de A asociados al
autovalor $\lambda $ y su dimensión se denomina \textit{multiplicidad geomé%
trica de }$\lambda .$ ($m_{g}(\lambda )$):%
%TCIMACRO{\TeXButton{\smallskip}{\smallskip}}%
%BeginExpansion
\smallskip%
%EndExpansion
\fbox{$dim(S_{\lambda })=m_{g}(\lambda )$}%
%TCIMACRO{\TeXButton{\smallskip}{\smallskip}}%
%BeginExpansion
\smallskip%
%EndExpansion
%TCIMACRO{\TeXButton{\medskip}{\medskip}}%
%BeginExpansion
\medskip%
%EndExpansion
\textbf{Observación: }$dim(Nul(A-\lambda I))+rg(A-\lambda
I)=n\longrightarrow rg(A-\lambda I)=n-m_{g}(\lambda )$
Si $rg(A-\lambda I)<n.\longrightarrow \det (A-\lambda I)=0\longrightarrow
\lambda $ es ava de $A$
\subsubsection{Propiedades%
%TCIMACRO{\TeXButton{\smallskip}{\smallskip}}%
%BeginExpansion
\smallskip%
%EndExpansion
}
$(a)$ \fbox{Aves asociados a avas distintos son LI}%
%TCIMACRO{\TeXButton{\smallskip}{\smallskip}}%
%BeginExpansion
\smallskip%
%EndExpansion
dem) Debemos demostrar que si $\lambda _{1}\neq \lambda _{2}\longrightarrow
\left\{ v_{1},v_{2}\right\} $ LI siendo $v_{1},v_{2}$ aves asociados a $%
\lambda _{1},\lambda _{2}$ respectivamente.
Entonces demostremos que $\alpha _{1}.v_{1}+\alpha _{2}.v_{2}=0\iff \alpha
_{1}=\alpha _{2}=0$
$\lambda _{2}.(\alpha _{1}.v_{1}+\alpha _{2}.v_{2})=0\longrightarrow \alpha
_{1}.\lambda _{2}.v_{1}+\alpha _{2}.\lambda _{2}.v_{2}=0$ (1)
$A.(\alpha _{1}.v_{1}+\alpha _{2}.v_{2})=0\longrightarrow \alpha
_{1}.A.v_{1}+\alpha _{2}.A.v_{2}=0\longrightarrow \alpha _{1}.\lambda
_{1}.v_{1}+\alpha _{2}.\lambda _{2}.v_{2}=0$ (2)
$(1)-(2):\alpha _{1}.(\lambda _{2}.v_{1}-\lambda
_{1}.v_{1})=0\longrightarrow \alpha _{1}.(\lambda _{2}-\lambda _{1}).v_{1}=0$
$;$ $v_{1}\neq 0$ y $\lambda _{1}\neq \lambda _{2}$ $\longrightarrow
\underline{\alpha _{1}=0}$
$\longrightarrow $ si $\alpha _{1}.v_{1}+\alpha _{2}.v_{2}=0$ $%
\longrightarrow $ $\alpha _{2}.v_{2}=0$ $\iff $ $\underline{\alpha _{2}=0}$%
%TCIMACRO{\TeXButton{\smallskip}{\smallskip}}%
%BeginExpansion
\smallskip%
%EndExpansion
$(b)$ $\forall $ autovalor $\lambda $ de $A$ se cumple que: \fbox{$1\leq
m_{g}(\lambda )\leq m_{a}(\lambda )$}%
%TCIMACRO{\TeXButton{\smallskip}{\smallskip}}%
%BeginExpansion
\smallskip%
%EndExpansion
$(c)$ \fbox{La suma de autoespacios es directa.} Es decir, $S_{\lambda
_{1}}+S_{\lambda _{2}}+.....+S_{\lambda _{r}}=S_{\lambda _{1}}\oplus
S_{\lambda _{2}}\oplus .....\oplus S_{\lambda _{r}}=S$ con $\lambda _{i}\neq
\lambda _{j}$%
%TCIMACRO{\TeXButton{\smallskip}{\smallskip}}%
%BeginExpansion
\smallskip%
%EndExpansion
$(d)$ Si $A\in K^{nxn}$ es diagonal por bloques, es decir $A=\left(
\begin{array}{cc}
A_{11} & 0_{px(n-p)} \\
0_{(n-p)xp} & A_{22}%
\end{array}%
\right) $ con $A_{11}$ de $pxp$ y $A_{22}$ de $\left( n-p\right) x\left(
n-p\right) $ entonces:%
%TCIMACRO{\TeXButton{\smallskip}{\smallskip}}%
%BeginExpansion
\smallskip%
%EndExpansion
$\quad d_{1}).$\fbox{Si $v\in K^{px1}$ es ave de $A_{11}\longrightarrow
\left(
\begin{array}{c}
v \\
0_{(n-p)x1}%
\end{array}%
\right) $ es ave de $A.$}%
%TCIMACRO{\TeXButton{\smallskip}{\smallskip}}%
%BeginExpansion
\smallskip%
%EndExpansion
dem) $\left(
\begin{array}{cc}
A_{11} & 0_{px(n-p)} \\
0_{(n-p)xp} & A_{22}%
\end{array}%
\right) .\left(
\begin{array}{c}
v \\
0_{(n-p)x1}%
\end{array}%
\right) =\left(
\begin{array}{c}
A_{11}.v \\
0_{px1}%
\end{array}%
\right) =\left(
\begin{array}{c}
\lambda .v \\
0_{px1}%
\end{array}%
\right) =\lambda \left(
\begin{array}{c}
v \\
0_{px1}%
\end{array}%
\right) \longrightarrow \left(
\begin{array}{c}
v \\
0_{(n-p)x1}%
\end{array}%
\right) $%
%TCIMACRO{\TeXButton{\smallskip}{\smallskip}}%
%BeginExpansion
\smallskip%
%EndExpansion
es ave de $A$%
%TCIMACRO{\TeXButton{\smallskip}{\smallskip}}%
%BeginExpansion
\smallskip%
%EndExpansion
$\quad d_{2}$)\fbox{Si $w\in K^{(n-p)x1}$ es ave de $A_{22}\longrightarrow
\left(
\begin{array}{c}
0_{p} \\
w%
\end{array}%
\right) $ es ave de $A.$} (demostración similar)%
%TCIMACRO{\TeXButton{\smallskip}{\smallskip}}%
%BeginExpansion
\smallskip%
%EndExpansion
$(e)$ \fbox{Si $A$\ es semejante a $B$ $\longrightarrow $ $A$ y $B$ tienen
los mismos autovalores.}
dem)%
%TCIMACRO{\TeXButton{\medskip}{\medskip}}%
%BeginExpansion
\medskip%
%EndExpansion
{\large Matrices Semejantes}
%TCIMACRO{\TeXButton{\medskip}{\medskip}}%
%BeginExpansion
\medskip%
%EndExpansion
Sean $A\in K^{nxn},$ $B\in K^{nxn}$%
%TCIMACRO{\TeXButton{\medskip}{\medskip}}%
%BeginExpansion
\medskip%
%EndExpansion
\textbf{Definición:} $A$\ es \textit{semejante} a $B$ si existe $P\in
K^{nxn} $ inversible tal que:\ $B=P^{-1}AP$ ó $A=PBP^{-1}$
Notación: $A$ $\sim $ $B$
Entonces sean A y B dos matrices semejantes, veamos que $p_{A}(\lambda
)=p_{B}(\lambda ):$
$p_{B}(\lambda )=\det (B-\lambda I)=\det (P^{-1}AP-\lambda I)$ $;$ sabiendo
que\ $I=P^{-1}IP=P^{-1}P=I$ :
$p_{B}(\lambda )=\det (P^{-1}AP-P^{-1}\lambda IP)=\det (P^{-1}(A-\lambda
I)P) $ ; y por propiedad del determinante $det(A.B)=det(A).det(B)$ :
$p_{B}(\lambda )=\det (P^{-1}).\det (A-\lambda I).\det (P)$ $;$ pero $%
det(P^{-1})=\frac{1}{\det (P)}$
$\longrightarrow p_{B}(\lambda )=\det (A-\lambda I)=$ $p_{A}(\lambda ).$%
%TCIMACRO{\TeXButton{\medskip}{\medskip}}%
%BeginExpansion
\medskip%
%EndExpansion
\textbf{Recordar:} \fbox{Matrices semejantes tienen el mismo polinomio
característico}%
%TCIMACRO{\TeXButton{\smallskip}{\smallskip}}%
%BeginExpansion
\smallskip%
%EndExpansion
\textbf{Caso particular: }$[T]_{BB}=C_{B^{\prime }B}[T]_{B^{\prime
}B^{\prime }}C_{BB^{\prime }}$ . En este caso \fbox{$[T]_{BB}$ \symbol{126}$%
[T]_{B^{\prime }B^{\prime }}$} y $C_{B^{\prime }B}=\left( C_{BB^{\prime
}}\right) ^{-1}$%
%TCIMACRO{\TeXButton{\smallskip}{\smallskip}}%
%BeginExpansion
\smallskip%
%EndExpansion
\textbf{Observar: }\fbox{Si $A$ $\sim $ $B$ entonces $det(A)=det(B)$ y $%
tr(A)=tr(B)$}, recordando que la traza es la suma de los autovalores, etc.%
%TCIMACRO{\TeXButton{\smallskip}{\smallskip}}%
%BeginExpansion
\smallskip%
%EndExpansion
%TCIMACRO{\TeXButton{\bigskip}{\bigskip}}%
%BeginExpansion
\bigskip%
%EndExpansion
%TCIMACRO{\TeXButton{\bigskip}{\bigskip}}%
%BeginExpansion
\bigskip%
%EndExpansion
\section{Diagonalización}
\bigskip
Sea $A\in K^{nxn}$ (matriz cuadrada):
\subsection{Definición}
$A$ es \textit{diagonalizable }(dgz) si es semejante a una matriz diagonal $%
D\in K^{nxn}$, es decir, existe $P\in K^{nxn}$ inversible tal que \fbox{$%
A=PDP^{-1}$}%
%TCIMACRO{\TeXButton{\medskip}{\medskip}}%
%BeginExpansion
\medskip%
%EndExpansion
\textbf{Teorema:} \fbox{$A$ es diagonalizable $\iff $ existe una base de $%
K^{n}$ formada por autovectores de $A$}%
%TCIMACRO{\TeXButton{\smallskip}{\smallskip}}%
%BeginExpansion
\smallskip%
%EndExpansion
dem)
$(\Rightarrow )$ $A$ es dgz $\longrightarrow $ $A=PDP^{-1}\longrightarrow
AP=PD\longrightarrow A[P_{1}P_{2}...P_{n}]=[P_{1}P_{2}...P_{n}]\left[
\begin{array}{ccc}
\lambda _{1} & & 0 \\
& \ddots & \\
0 & & \lambda _{n}%
\end{array}%
\right] $%
%TCIMACRO{\TeXButton{\smallskip}{\smallskip}}%
%BeginExpansion
\smallskip%
%EndExpansion
$\longrightarrow \lbrack AP_{1}AP_{2}...AP_{n}]=[\lambda _{1}P_{1}\lambda
_{2}P_{2}...\lambda _{n}P_{n}]$%
%TCIMACRO{\TeXButton{\smallskip}{\smallskip}}%
%BeginExpansion
\smallskip%
%EndExpansion
$\longrightarrow \left\{
\begin{array}{c}
AP_{1}=\lambda _{1}P_{1} \\
AP_{2}=\lambda _{2}P_{2} \\
\ \vdots \ \ \ \ \ \ \ \ \ \ \ \vdots \\
AP_{n}=\lambda _{n}P_{n}%
\end{array}%
\right. $%
%TCIMACRO{\TeXButton{\medskip}{\medskip}}%
%BeginExpansion
\medskip%
%EndExpansion
$rg(P)=n$ por ser inversible $\longrightarrow \left\{
P_{1},P_{2},...,P_{n}\right\} $ es LI $\longrightarrow $ es una base de $%
K^{n}$ formada por autovectores de $A.$
$(\Leftarrow )$ Sea $B=\left\{ v_{1},v_{2},...,v_{n}\right\} $ base de $%
K^{n} $ con $v_{1},v_{2},...,v_{n}$ aves de A asociados a $\lambda
_{1},\lambda _{2},...,\lambda _{n}$:
$A\overset{?}{=}PDP^{-1}$
$AP\overset{?}{=}PD$%
%TCIMACRO{\TeXButton{\smallskip}{\smallskip}}%
%BeginExpansion
\smallskip%
%EndExpansion
Propongo $P=[v_{1},v_{2},...,v_{n}]$ y $D=\left[
\begin{array}{ccc}
\lambda _{1} & & 0 \\
& \ddots & \\
0 & & \lambda _{n}%
\end{array}%
\right] $ \ y entonces verifico que: $AP=PD.$%
%TCIMACRO{\TeXButton{\smallskip}{\smallskip}}%
%BeginExpansion
\smallskip%
%EndExpansion
Entonces A es diagonalizable pues es semejante a una matriz diagonal.
\subsection{Propiedades}
$(a)$ Si $A\in C^{nxn}$ $n$ avas distintos $\longrightarrow $ $A$ es
diagonalizable \textbf{(no se cumple la recíproca)}
$(b)$ Si $A\in R^{nxn}$ $n$ avas reales distintos $\longrightarrow $ $A$ es
diagonalizable \textbf{(no se cumple la recíproca)}
dem) Si $A$ tiene $n$ avas distintos $\longrightarrow $ habrán $n$
autovectores LI asociados a cada autovalor pues aves asociados a avas
distintos son LI $\longrightarrow $ existirá una base de $K^{n}$ formada por
$n$ autovectores de $A$ $\longrightarrow $ $A$ es diagonalizable. Pero que
hallan $n$ autovectores LI de $A$ no significa que cada uno esté asociado a
un autovalor distinto y que en consecuancia hallan $n$ avas distintos.%
%TCIMACRO{\TeXButton{\smallskip}{\smallskip}}%
%BeginExpansion
\smallskip%
%EndExpansion
$(c)$ \fbox{$A$ es diagonalizable $\iff $ $S_{\lambda _{1}}\oplus S_{\lambda
_{2}}\oplus .....\oplus S_{\lambda _{r}}=K^{n}\iff $ $m_{a}(\lambda
_{i})=m_{g}(\lambda _{i})$} $\forall $ $\lambda _{i}$ autovalor de $A.$%
%TCIMACRO{\TeXButton{\smallskip}{\smallskip}}%
%BeginExpansion
\smallskip%
%EndExpansion
dem) Como demostramos anteriormente, la suma de autoespacio es directa. Pero
si A es diagonalizable entonces existe base de $K^{n}$ formada por aves de
A, entonces si los aves forman base de $K^{n},$ entonces la suma de los
autoespacios formará todo $K^{n},$ es decir cualquier vector de $K^{n}$ podrá
ser combinación lineal de los autovectores de A. De esta forma, si la suma
directa de los autoespacios nos da todo $K^{n},$ entonces la suma de las$%
\circ $ dimensiones (las multiplicidades geométricas) nos dará $n$:
$m_{g}(\lambda _{1})+m_{g}(\lambda _{2})+....+m_{g}(\lambda _{r})=n$
Y por propiedad $m_{a}(\lambda _{1})+m_{a}(\lambda
_{2})+......+m_{a}(\lambda _{r})=n$ , y la otra propiedad dice que $1\leq
m_{g}(\lambda _{i})\leq m_{a}(\lambda _{i})$ $\longrightarrow m_{g}(\lambda
_{i})=m_{a}(\lambda _{i})$
\subsection{Polinomios Matriciales}
Dada $A\in R^{nxn}$ y dado un polinjomio $%
p(x)=a_{0}+a_{1}x+a_{2}x^{2}+....+a_{m}x^{m}$ con $%
a_{0},a_{1},a_{2},....,a_{m}\in R$
se define un \textit{polinomio matricial} como \ $%
p(A)=a_{0}+a_{1}A+a_{2}A^{2}+....+a_{m}A^{m}$
\subsubsection{Propiedades%
%TCIMACRO{\TeXButton{\smallskip}{\smallskip}}%
%BeginExpansion
\smallskip%
%EndExpansion
}
$(a)$ \fbox{$Av=\lambda v\longrightarrow p(A)v=p(\lambda )v$} \ \ \ Esto
significa que si $\lambda $ es ava de $A$ entonces $p(\lambda )$ es ava de $%
p(A),$ y si $v$ es autovector de $A$ asociado a $\lambda $ entonces $v$ es
autovector de $p(A)$ asociado a $p(\lambda ).$%
%TCIMACRO{\TeXButton{\smallskip}{\smallskip}}%
%BeginExpansion
\smallskip%
%EndExpansion
dem) Si $Av=\lambda v\longrightarrow A^{2}v=A\lambda v=\lambda ^{2}v,$ $\
A^{3}v=A\lambda ^{2}v=\lambda ^{3}v,$ $...........$ $\ ,$ $A^{m}v=\lambda
^{m}v$ \ y\ $A^{0}v=\lambda ^{0}v$ (convención: $A^{0}=I)$
Luego: $\ p(A)v=\left( a_{0}+a_{1}A+a_{2}A^{2}+....+a_{m}A^{m}\right)
v=a_{0}Iv+a_{1}Av+a_{2}A^{2}v+....+a_{m}A^{m}v=a_{0}\lambda
^{0}v+a_{1}\lambda v+a_{2}\lambda ^{2}v+....+a_{m}\lambda ^{m}v=\left(
a_{0}+a_{1}\lambda +a_{2}\lambda ^{2}+....+a_{m}\lambda ^{m}\right)
v=p\left( \lambda \right) v$%
%TCIMACRO{\TeXButton{\smallskip}{\smallskip}}%
%BeginExpansion
\smallskip%
%EndExpansion
$(b)$ \fbox{Si $A$ es diagonalizable $\longrightarrow p(A)$ es diagonalizable%
}%
%TCIMACRO{\TeXButton{\smallskip}{\smallskip}}%
%BeginExpansion
\smallskip%
%EndExpansion
dem) Si $A\in R^{nxn}$ es diagonalizable entonces existe $P\in R^{nxn}$
inversible formada por aves de $A$ y $D\in R^{nxn}$ diagonal que contiene a
todos los avas de $A$ tal que $A=PDP^{-1}.$
Luego, $A^{2}=PDP^{-1}PDP^{-1}=PDDP^{-1}=PD^{2}P^{-1}....$ en definitiva: $%
A^{m}=PD^{m}P^{-1}$
Ahora, si aplico el polinomio p: $p(A)=p\left( PDP^{-1}\right)
=a_{0}+a_{1}PDP^{-1}+a_{2}PD^{2}P^{-1}+....+a_{m}PD^{m}P^{-1}=P\left[
a_{0}+a_{1}D+a_{2}D^{2}+....+a_{m}D^{m}\right] P^{-1}=Pp(D)P^{-1}$%
%TCIMACRO{\TeXButton{\smallskip}{\smallskip}}%
%BeginExpansion
\smallskip%
%EndExpansion
con $p(D)$ diagonal que contiene a\ todos los avas de $p(A)$: $p(D)=\left(
\begin{array}{ccc}
p(\lambda _{1}) & & 0 \\
& \ddots & \\
0 & & p(\lambda _{n})%
\end{array}%
\right) .$ Los aves de $A$ y $p(A)$ son los mismos, por lo tanto concluimos
que \underline{$p(A)$ es diagonalizable}%
%TCIMACRO{\TeXButton{\smallskip}{\smallskip}}%
%BeginExpansion
\smallskip%
%EndExpansion
\textbf{Obs:} Tener muy en cuenta la propiedad que se utilizó que dice:
\fbox{Si $A=PDP^{-1}\longrightarrow p(A)=Pp(D)P^{-1}$}%
%TCIMACRO{\TeXButton{\medskip}{\medskip}}%
%BeginExpansion
\medskip%
%EndExpansion
$(c)$ \textbf{Teorema de Cayley-Hamilton: \ }\fbox{$p_{A}(A)=0$} siendo
\textbf{\ }$p_{A}(\lambda )$ el polinomio característico de una matriz $A$
cuadrada.%
%TCIMACRO{\TeXButton{\smallskip}{\smallskip}}%
%BeginExpansion
\smallskip%
%EndExpansion
dem. para matrices dgz) De acuerdo a la propiedad anterior si $%
A=PDP^{-1}\longrightarrow p(A)=Pp(D)P^{-1}$ para cualquier polinomio. En
particular, para el polinomio característico $p_{A}(D)=0_{R^{nxn}}$ pues $%
p_{A}(\lambda _{1})=0,$ $p_{A}(\lambda _{2})=0,....,p_{A}(\lambda
_{n})=0\longrightarrow $\underline{$p_{A}(A)=0$}
%TCIMACRO{\TeXButton{\newpage}{\newpage}}%
%BeginExpansion
\newpage%
%EndExpansion
\section{Avas y Aves de un Endomorfismo Lineal%
%TCIMACRO{\TeXButton{\bigskip}{\bigskip}}%
%BeginExpansion
\bigskip%
%EndExpansion
}
Sea el endomorfismo $T:V\longrightarrow V$ \ (TL), siendo $V$ un $K$-ev:
\subsection{Definición%
%TCIMACRO{\TeXButton{\smallskip}{\smallskip}}%
%BeginExpansion
\smallskip%
%EndExpansion
}
$\lambda \in K$ es autovalor de T si $\exists $ $v\in V$ no nulo tal que
\fbox{$T(v)=\lambda v$}$.$ $v$ es el autovector de $T$ asociado al autovalor
$\lambda .$%
%TCIMACRO{\TeXButton{\smallskip}{\smallskip}}%
%BeginExpansion
\smallskip%
%EndExpansion
\subsection{Propiedades%
%TCIMACRO{\TeXButton{\smallskip}{\smallskip}}%
%BeginExpansion
\smallskip%
%EndExpansion
}
$(a)$ \fbox{$\lambda $ es ava de $T\iff \lambda $ es ava de $[T]_{BB}$}
siendo $B$ base de $V.$%
%TCIMACRO{\TeXButton{\smallskip}{\smallskip}}%
%BeginExpansion
\smallskip%
%EndExpansion
$(b)$ \fbox{$v\in V$ es ave de T $\iff x=[v]_{B}\in K^{n}$ es ave de $%
[T]_{BB}$}%
%TCIMACRO{\TeXButton{\smallskip}{\smallskip}}%
%BeginExpansion
\smallskip%
%EndExpansion
dem.$a$ y $b$) Sea $T\in \tciLaplace (V),$ $dim(V)=n$, $B$ base de $V$ y $%
[T]_{BB}$ matriz asociada a $T:$
$T(v)=\lambda v\iff \left[ T(v)\right] _{B}=\left[ \lambda v\right] _{B}$ ; $%
\left[ T(v)\right] _{B}=[T]_{BB}.[v]_{B}$ (prop. del apunte de TL)
$\iff \lbrack T]_{BB}.[v]_{B}=\lambda \left[ v\right] _{B}\iff $ $\lambda $
es ava de $[T]_{BB}$ y $[v]_{B}$ ave de $[T]_{BB}$ asociado a $\lambda $%
%TCIMACRO{\TeXButton{\smallskip}{\smallskip}}%
%BeginExpansion
\smallskip%
%EndExpansion
$(c)$ \fbox{$p_{T}(\lambda )=p_{A}(\lambda )$} siendo $A=[T]_{BB}$ (notar
que $A$ podría ser $[T]_{B^{\prime }B^{\prime }}$ o con cualquier otra base $%
V$ recordando que estas matrices serán semejantes y por lo tanto tendrán el
mismo polinomio característico)
\subsection{Diagonalización de un Endomorfismo Lineal}
Sea $T:V\longrightarrow V,$ y $dim(V)=n:$%
%TCIMACRO{\TeXButton{\medskip}{\medskip}}%
%BeginExpansion
\medskip%
%EndExpansion
\textbf{3.2.1.} \textbf{Definición: }\fbox{$T$ es diagonalizable si existe
una base $C$ en $V$ tal que $[T]_{CC}$ es diagonal}%
%TCIMACRO{\TeXButton{\medskip}{\medskip}}%
%BeginExpansion
\medskip%
%EndExpansion
\textbf{Teorema:} \fbox{$T$ es diagonalizable $\iff $ existe una base $C$ en
$V$ formada por autovectores de $T$}%
%TCIMACRO{\TeXButton{\medskip}{\medskip}}%
%BeginExpansion
\medskip%
%EndExpansion
\textbf{3.2.2. Propiedad:} \fbox{Si $C$ \ es una base de $V$ formada por
autovectores de $T$ $\ \longrightarrow $ $[T]_{CC}$ es diagonal}%
%TCIMACRO{\TeXButton{\medskip}{\medskip}}%
%BeginExpansion
\medskip%
%EndExpansion
dem) Sea $C=\left\{ v_{1},v_{2},...,v_{n}\right\} $ entonces:
$%
\begin{array}{c}
T(v_{1})=\lambda _{1}v_{1} \\
T(v_{2})=\lambda _{2}v_{2} \\
\vdots \\
T(v_{n})=\lambda _{n}v_{n}%
\end{array}%
$%
%TCIMACRO{\TeXButton{\smallskip}{\smallskip}}%
%BeginExpansion
\smallskip%
%EndExpansion
$\bigskip $Ahora: $\left[ T(v_{i})\right] _{B}=\left[ \lambda v_{i}\right]
_{B}=\lambda \left[ v_{i}\right] _{B}\longrightarrow \left[ T(v_{1})\right]
_{B}=\left(
\begin{array}{c}
\lambda _{1} \\
0 \\
\vdots \\
0%
\end{array}%
\right) $ ; $\left[ T(v_{2})\right] _{B}=\left(
\begin{array}{c}
0 \\
\lambda _{2} \\
\vdots \\
0%
\end{array}%
\right) $ ; ... ; $\left[ T(v_{n})\right] _{B}=\left(
\begin{array}{c}
0 \\
0 \\
\vdots \\
\lambda _{n}%
\end{array}%
\right) $
$\bigskip $
$\longrightarrow \left[ T\right] _{CC}=\left(
\begin{array}{cccc}
\lambda _{1} & 0 & \cdots & 0 \\
0 & \lambda _{2} & \cdots & 0 \\
\vdots & \vdots & \ddots & \vdots \\
0 & 0 & \cdots & \lambda _{n}%
\end{array}%
\right) =D$ siendo $C$ la base formada por autovectores de $T$%
%TCIMACRO{\TeXButton{\smallskip}{\smallskip}}%
%BeginExpansion
\smallskip%
%EndExpansion
De esta forma si T es diagonalizable entonces $[T]_{BB}=P\left[ T\right]
_{CC}P^{-1}$ para cierta base $B$ de $V.$ $C$ es la base de autovectores de $%
T$, $P=C_{CB}$ y $P^{-1}=C_{BC}.$ Además las columnas de $P$ son los
autovectores de $[T]_{BB}.$
%TCIMACRO{\TeXButton{\newpage}{\newpage}}%
%BeginExpansion
\newpage%
%EndExpansion
\section{Subespacios Invariantes}
\bigskip
\subsection{Definición}
$S$ es un subespacio invariante por $A$ (o $A$-estable) si $\forall $ $v\in
S,$ $Av\in S$
\subsection{Propiedad}
\fbox{Si $S$ es autoespacio de $A$ $\longrightarrow $ $S$ es invariante por $%
A$} (no vale la recíproca) (y $S^{\perp }$ también es invariante por $A$)%
%TCIMACRO{\TeXButton{\medskip}{\medskip}}%
%BeginExpansion
\medskip%
%EndExpansion
\textbf{Observación: }Si $S$ es invariante por $A$ y $dim(S)=1$ $%
\longrightarrow $ $S$ es autoespacio de $A$ (en este caso si vale la recí%
proca, en los demás no necesariamente). Esto es claro, pues si $S=gen\left\{
v\right\} $ y $Av\in S\rightarrow Av=\alpha v$ $\longrightarrow $ $v$ es
autovector de $A$ y claramente $S$ es autoespacio de $A.$ Pero ya con $%
dim(S)=2$ se ve que no se cumple necesariamente.%
%TCIMACRO{\TeXButton{\smallskip}{\smallskip}}%
%BeginExpansion
\smallskip%
%EndExpansion
\textbf{Observación 2: }Si en un enunciado nos piden hallar una matriz $A $
tal que un subespacio $S$ es invariante por $A$, entonces generalmente es
muy útil proponer que $S$ sea autoespacio de $A$, entonces hallamos un $A $
que cumple con la condición de que $S$ es invariante por $A$, pues por hipó%
tesis es autoespacio. Pero de ningún modo significa que $S$ invariante por $%
A $ implica $S$ autoespacio de $A$.
\end{document}
Apunte 12: Matrices Simétricas y Hermíticas (Apunte de Mancilla)
Descargar PDF: :materias:61:08:12._matrices_simetricas_y_hermiticas_apunte_de_mancilla_.pdf
Apunte 13: Formas Cuadráticas (Apunte de Mancilla)
Descargar PDF: :materias:61:08:13._formas_cuadraticas_apunte_de_mancilla_.pdf
Apunte 14: Sistemas de Ecuaciones Diferenciales (Apunte de Mancilla)
Descargar PDF: :materias:61:08:14._sistemas_de_ecuaciones_diferenciales_apunte_de_mancilla_.pdf
Apunte 15: Descomposición en Valores Singulares (Apunte de Mancilla)
Descargar PDF: :materias:61:08:15._descomposicion_en_valores_singulares_apunte_de_mancilla_.pdf
Cuaderno de cursada Acero

