\\
Apuntes de todos los temas teóricos de la materia. Los que dicen "Apunte de Mancilla" es porque fueron hechos por el profe Jose Luis Mancilla Aguilar. Los demás apuntes fueron hechos por mi (gira) por lo que tranquilamente pueden contener errores.
Los apuntes están hechos en LaTeX, por eso les dejo la fuente "TeX" para que puedan modificarlo y corregirlo como gusten (Fíjense que al editarlo probablemente tengan que instalar algun "paquete" de LaTeX).
\\
Para realizar los apuntes utilicé el [[http://www.mackichan.com/|Scientific Workplace]] (parecido al [[
http://www.latexeditor.org/|LEd]], pero comercial)
Además se consultó [[http://web.fi.uba.ar/~ssantisi/works/ecuaciones_en_latex/|Ecuaciones en LaTeX, por Sebastián Santisi]] y [[http://ctan.localhost.net.ar/info/lshort/spanish/lshort.pdf|The not so short introduction to latex]]
\\
**Cualquier error que vean, duda o sugerencia posteenlo acá:** http://www.foros-fiuba.com.ar/viewtopic.php?t=11803
----
\\
__Apunte 1:__ Matrices (Repaso de algunas propiedades)
Descargar PDF: {{:materias:61:08:1._matrices_repaso_de_algunas_propiedades_v3.0.pdf|:materias:61:08:1._matrices_repaso_de_algunas_propiedades_v3.0.pdf}}
++++Ver fuente TEX:|
\documentclass[19pt]{article}
\usepackage{amsfonts}
\usepackage[a4paper]{geometry}
\usepackage[spanish]{babel}
\usepackage[latin1]{inputenc}
\usepackage{amsmath}
\usepackage[hang,bf]{caption}
\usepackage{helvet}
\setcounter{MaxMatrixCols}{10}
\renewcommand\familydefault{\sfdefault}
\numberwithin{equation}{section}
\numberwithin{figure}{section}
\numberwithin{table}{section}
\setlength{\textwidth}{6.5in}
\setlength{\textheight}{9.7in}
\setlength{\oddsidemargin}{in}
\setlength{\topmargin}{-0.5in}
\input{tcilatex}
\renewcommand{\baselinestretch}{1}
\parindent=0em
\begin{document}
\setcounter{page}{1}
\begin{center}
{\LARGE Matrices (Repaso de algunas propiedades)}
\bigskip \bigskip
{\normalsize Última edición: 09/11/2009}
\bigskip
\end{center}
\section{Inversa de una matriz}
\bigskip
Una matriz cuadrada $A\in
%TCIMACRO{\U{211d} }%
%BeginExpansion
\mathbb{R}
%EndExpansion
^{nxn}$ es inversible si existe $B\in
%TCIMACRO{\U{211d} }%
%BeginExpansion
\mathbb{R}
%EndExpansion
^{nxn}$ tal que $AB=BA=I.$
Cuando $B$ existe, es única y la notamos: $B=A^{-1}.$
Para el cálculo de una matriz inversa podemos utilizar el \textit{método de
Gauss-Jordan. }Para ello se considera la matriz $(A$\TEXTsymbol{\vert}$I_{n})
$ y se realizan aquellas operaciones elementales por filas que consigan
transformar la matriz $A$ en la matriz $I_{n}$, de esta forma la matriz $%
I_{n}$ se habrá transformado en $A^{-1}$. Es decir, se han de realizar
operaciones elementales por filas de forma que.
%TCIMACRO{\TeXButton{\medskip}{\medskip}}%
%BeginExpansion
\medskip%
%EndExpansion
\begin{center}
$(A$\TEXTsymbol{\vert}$I_{n})\approx ...\approx (I_{n}$\TEXTsymbol{\vert}$%
A^{-1})$
%TCIMACRO{\TeXButton{\medskip}{\medskip}}%
%BeginExpansion
\medskip%
%EndExpansion
\end{center}
Por ejemplo:
Sea la matriz A = \left( {%
\begin{array}{*{20}c}
2 & 1 & { - 1} \\
{ - 3} & { - 1} & 2 \\
{ - 2} & 1 & 2 \\
\end{array}}\right)
%TCIMACRO{\TeXButton{\smallskip}{\smallskip}}%
%BeginExpansion
\smallskip%
%EndExpansion
\left( {%
\begin{array}{*{20}c}
2 & 1 & { - 1} & 1 & 0 & 0 \\
{ - 3} & { - 1} & 2 & 0 & 1 & 0 \\
{ - 2} & 1 & 2 & 0 & 0 & 1 \\
\end{array}}\right) $\sim $ \left( {%
\begin{array}{*{20}c}
2 & 1 & { - 1} & 1 & 0 & 0 \\
{ - 1} & 0 & 1 & 1 & 1 & 0 \\
0 & 2 & 1 & 1 & 0 & 1 \\
\end{array}}\right) $\sim $ \left( {%
\begin{array}{*{20}c}
1 & 0 & { - 1} & { - 1} & { - 1} & 0 \\
2 & 1 & { - 1} & 1 & 0 & 0 \\
0 & 2 & 1 & 1 & 0 & 1 \\
\end{array}}\right) $\sim $
%TCIMACRO{\TeXButton{\smallskip}{\smallskip}}%
%BeginExpansion
\smallskip%
%EndExpansion
\left( {%
\begin{array}{*{20}c}
1 & 0 & { - 1} & { - 1} & { - 1} & 0 \\
0 & 1 & 1 & 3 & 2 & 0 \\
0 & 2 & 1 & 1 & 0 & 1 \\
\end{array}}\right) $\sim $ \left( {%
\begin{array}{*{20}c}
1 & 0 & { - 1} & { - 1} & { - 1} & 0 \\
0 & 1 & 1 & 3 & 2 & 0 \\
0 & 0 & { - 1} & { - 5} & { - 4} & 1 \\
\end{array}}\right) $\sim $ \left( {%
\begin{array}{*{20}c}
1 & 0 & 0 & 4 & 3 & { - 1} \\
0 & 1 & 0 & { - 2} & { - 2} & 1 \\
0 & 0 & 1 & 5 & 4 & { - 1} \\
\end{array}}\right)
%TCIMACRO{\TeXButton{\smallskip}{\smallskip}}%
%BeginExpansion
\smallskip%
%EndExpansion
De esta forma A^{ - 1} = \left( {%
\begin{array}{*{20}c}
4 & 3 & { - 1} \\
{ - 2} & { - 2} & 1 \\
5 & 4 & { - 1} \\
\end{array} } \right)
\subsection{Propiedades%
%TCIMACRO{\TeXButton{\smallskip}{\smallskip}}%
%BeginExpansion
\smallskip%
%EndExpansion
}
$\bullet $ $(A.B)^{-1}=B^{-1}.A^{-1}$%
%TCIMACRO{\TeXButton{\smallskip}{\smallskip}}%
%BeginExpansion
\smallskip%
%EndExpansion
$\bullet $ $(A^{T})^{-1}=(A^{-1})^{T}$%
%TCIMACRO{\TeXButton{\smallskip}{\smallskip}}%
%BeginExpansion
\smallskip%
%EndExpansion
$\bullet $ $(A^{-1})^{-1}=A$%
%TCIMACRO{\TeXButton{\smallskip}{\smallskip}}%
%BeginExpansion
\smallskip%
%EndExpansion
$\bullet $ $A^{-1}=\frac{1}{\det (A)}adj(A)$ (ver siguiente sección)
\section{Determinante de una matriz}
\bigskip
Se define el \textit{determinante} \ de $A$ como la suma de todos los
productos elementales con signos tomados de $A$.
Notamos: $\ \ det(A)=\left\vert A\right\vert =\sum \pm
a_{1j_{1}}a_{2j_{2}}.....a_{nj_{n}}$
donde $(j_{1},j_{2},...,j_{n})$ es una permutación de $\{1,2,...,n\}$, y el
signo + o - depende si la permutación $(j_{1},j_{2},...,j_{n})$ es
respectivamente par o impar.
\subsection{Desarrollo del determinante por cofactores}
\textit{Desarrollo a lo largo de la j-ésima columna:}
$\quad det(A)=a_{1j}C_{1j}+a_{2j}C_{2j}+...+a_{nj}C_{nj}$%
%TCIMACRO{\TeXButton{\medskip}{\medskip}}%
%BeginExpansion
\medskip%
%EndExpansion
\textit{Desarrollo a lo largo de la i-éisma fila:}
$\quad det(A)=a_{i1}C_{i1}+a_{i2}C_{i2}+...+a_{in}C_{in}$%
%TCIMACRO{\TeXButton{\medskip}{\medskip}}%
%BeginExpansion
\medskip%
%EndExpansion
donde $C_{ij}=(-1)^{1+j}M_{ij}$ se lo llama \textit{cofactor del elemento} $%
a_{ij}.$ $M_{ij}$ es el \textit{menor del elemento} $a_{ij}$ y se lo define
como el determinante de la submatriz que queda al eliminar de $A$ la i-ésima
fila y la j-ésima columna.
Si $A\in
%TCIMACRO{\U{211d} }%
%BeginExpansion
\mathbb{R}
%EndExpansion
^{nxn}$ y $C_{ij}$ es el \textit{cofactor del elemento} $a_{ij}$ entonces la
matriz
\begin{center}
$\left(
\begin{array}{cccc}
C_{11} & C_{21} & ... & C_{n1} \\
C_{12} & C_{22} & ... & C_{n2} \\
... & ... & & ... \\
C_{1n} & C_{21} & ... & C_{nn}%
\end{array}%
\right) $%
%TCIMACRO{\TeXButton{\smallskip}{\smallskip}}%
%BeginExpansion
\smallskip%
%EndExpansion
\end{center}
se conoce como \textbf{matriz adjunta de }$A$\textbf{, }y se denota $adj(A)$
%TCIMACRO{\TeXButton{\medskip}{\medskip}}%
%BeginExpansion
\medskip%
%EndExpansion
Ejemplos:
Si $A\in
%TCIMACRO{\U{211d} }%
%BeginExpansion
\mathbb{R}
%EndExpansion
^{2x2}$ tal que $A=\left(
\begin{array}{cc}
a & b \\
c & d%
\end{array}%
\right) $ $\implies $ \ $adj(A)=\left(
\begin{array}{cc}
d & -b \\
-c & a%
\end{array}%
\right) $%
%TCIMACRO{\TeXButton{\smallskip}{\smallskip}}%
%BeginExpansion
\smallskip%
%EndExpansion
Si $A\in
%TCIMACRO{\U{211d} }%
%BeginExpansion
\mathbb{R}
%EndExpansion
^{3x3}$ tal que \textbf{A} =
\begin{pmatrix}
A_{11} & A_{12} & A_{13} \\
A_{21} & A_{22} & A_{23} \\
A_{31} & A_{32} & A_{33}%
\end{pmatrix}%
%TCIMACRO{\TeXButton{\smallskip}{\smallskip}}%
%BeginExpansion
\smallskip%
%EndExpansion
$\implies $ \ {\text{adj}}({\textbf{A}}) = \left( {%
\begin{array}{*{20}c}
{ + \left| {\begin{array}{*{20}c}
{A_{22} } & {A_{23} } \\
{A_{32} } & {A_{33} } \\
\end{array} } \right|} & { - \left| {\begin{array}{*{20}c}
{A_{21} } & {A_{23} } \\
{A_{31} } & {A_{33} } \\
\end{array} } \right|} & { + \left| {\begin{array}{*{20}c}
{A_{21} } & {A_{22} } \\
{A_{31} } & {A_{32} } \\
\end{array} } \right|} \\
{} & {} & {} \\
{ - \left| {\begin{array}{*{20}c}
{A_{12} } & {A_{13} } \\
{A_{32} } & {A_{33} } \\
\end{array} } \right|} & { + \left| {\begin{array}{*{20}c}
{A_{11} } & {A_{13} } \\
{A_{31} } & {A_{33} } \\
\end{array} } \right|} & { - \left| {\begin{array}{*{20}c}
{A_{11} } & {A_{12} } \\
{A_{31} } & {A_{32} } \\
\end{array} } \right|} \\
{} & {} & {} \\
{ + \left| {\begin{array}{*{20}c}
{A_{12} } & {A_{13} } \\
{A_{22} } & {A_{23} } \\
\end{array} } \right|} & { - \left| {\begin{array}{*{20}c}
{A_{11} } & {A_{13} } \\
{A_{21} } & {A_{23} } \\
\end{array} } \right|} & { + \left| {\begin{array}{*{20}c}
{A_{11} } & {A_{12} } \\
{A_{21} } & {A_{22} } \\
\end{array} } \right|} \\
\end{array} } \right)
\subsection{Propiedades}
$\bullet $ Si $A^{\prime }$ es la matriz que se obtiene cuando una sola fina
de $A$ se multiplica por una constante $k$, entonces $\det (A^{\prime
})=k\det (A)$%
%TCIMACRO{\TeXButton{\smallskip}{\smallskip}}%
%BeginExpansion
\smallskip%
%EndExpansion
$\bullet $ Si $A^{\prime }$ es la matriz que se obtiene al intercambiar dos
filas de $A$, entonces $\det (A^{\prime })=-\det (A)$%
%TCIMACRO{\TeXButton{\smallskip}{\smallskip}}%
%BeginExpansion
\smallskip%
%EndExpansion
$\bullet $ Si $A^{\prime }$ es la matriz que se obtiene al sumar un múltiplo
de una de las filas de $A$ a otra fila, entonces $\det (A^{\prime })=\det (A)
$%
%TCIMACRO{\TeXButton{\smallskip}{\smallskip}}%
%BeginExpansion
\smallskip%
%EndExpansion
$\bullet $ Si $A\in
%TCIMACRO{\U{211d} }%
%BeginExpansion
\mathbb{R}
%EndExpansion
^{nxn}$, entonces $\det (A^{T})=\det (A)$%
%TCIMACRO{\TeXButton{\smallskip}{\smallskip}}%
%BeginExpansion
\smallskip%
%EndExpansion
$\bullet $ Si $A\in
%TCIMACRO{\U{211d} }%
%BeginExpansion
\mathbb{R}
%EndExpansion
^{nxn},B\in
%TCIMACRO{\U{211d} }%
%BeginExpansion
\mathbb{R}
%EndExpansion
^{nxn}$ y $k\in
%TCIMACRO{\U{211d} }%
%BeginExpansion
\mathbb{R}
%EndExpansion
,$ entonces:\qquad $\det (kA)=k^{n}\det (A)$ ;\ $\det (AB)=\det (A).\det (B)$%
%TCIMACRO{\TeXButton{\smallskip}{\smallskip}}%
%BeginExpansion
\smallskip%
%EndExpansion
$\bullet $ Si $A$ es una matriz triangular de $nxn$, entonces $det(A)$ es el
producto de los elementos de la diagonal, es decir: $%
det(A)=a_{11}a_{22}...a_{nn}$%
%TCIMACRO{\TeXButton{\smallskip}{\smallskip}}%
%BeginExpansion
\smallskip%
%EndExpansion
$\bullet $ $A$ es inversible si y sólo si $\det (A)\neq 0$%
%TCIMACRO{\TeXButton{\smallskip}{\smallskip}}%
%BeginExpansion
\smallskip%
%EndExpansion
$\bullet $ Si $A$ es inversible, entonces $\det (A^{-1})=\frac{1}{\det (A)}$%
%TCIMACRO{\TeXButton{\smallskip}{\smallskip}}%
%BeginExpansion
\smallskip%
%EndExpansion
$\bullet $ Si $A$ es inversible, entonces $A^{-1}=\frac{1}{\det (A)}adj(A)$
\subsection{Regla de Sarrus}
La regla de Sarrus es un método de fácil memorización para calcular el
determinante de una matriz 3\times 3.%
%TCIMACRO{\TeXButton{\smallskip}{\smallskip}}%
%BeginExpansion
\smallskip%
%EndExpansion
Considérese la matriz de 3\times 3 \ A =
\begin{pmatrix}
a_{11} & a_{12} & a_{13} \\
a_{21} & a_{22} & a_{23} \\
a_{31} & a_{32} & a_{33}%
\end{pmatrix}%
%TCIMACRO{\TeXButton{\smallskip}{\smallskip}}%
%BeginExpansion
\smallskip%
%EndExpansion
Su determinante se puede calcular de la siguiente manera:
En primer lugar, repetir las dos primeras columnas de la matriz a la derecha
de la misma de manera que queden cinco columnas en fila. Después sumar los
productos de las diagonales descendentes (en línea continua) y sustraer los
productos de las diagonales ascendentes (en trazos)
Esto resulta en:%
%TCIMACRO{\TeXButton{\smallskip}{\smallskip}}%
%BeginExpansion
\smallskip%
%EndExpansion
A =
\begin{vmatrix}
a_{11} & a_{12} & a_{13} \\
a_{21} & a_{22} & a_{23} \\
a_{31} & a_{32} & a_{33}%
\end{vmatrix}
=
a_{11}a_{22}a_{33}+a_{12}a_{23}a_{31}+a_{13}a_{21}a_{32}-a_{31}a_{22}a_{13}-a_{32}a_{23}a_{11}-a_{33}a_{21}a_{12}
\FRAME{ftpFU}{3.0943in}{1.4961in}{0pt}{\Qcb{La regla de Sarrus: diagonales
continuas y en trazos}}{}{Figure}{\special{language "Scientific Word";type
"GRAPHIC";maintain-aspect-ratio TRUE;display "USEDEF";valid_file "T";width
3.0943in;height 1.4961in;depth 0pt;original-width 3.704in;original-height
1.7781in;cropleft "0";croptop "1";cropright "1";cropbottom "0";tempfilename
'KRA9QZ00.bmp';tempfile-properties "XPR";}}
\bigskip \qquad
\section{Regla de Cramer}
\bigskip
Si $Ax=b$ es un sistema de $n$ ecuaciones con $n$ incógnitas tal que $%
det(A)\neq 0$, entonces la única solución del sistema es $%
(x_{1},x_{2},...,x_{n})$ con:
\begin{center}
$x_{1}=\frac{\det (A_{1})}{\det (A)},x_{2}=\frac{\det (A_{2})}{\det (A)}%
,.....,x_{n}=\frac{\det (A_{n})}{\det (A)}$
\end{center}
donde $A_{j}$ es la matriz que se obtiene al reemplazar la jésima columna de
$A$ por $b.$
\end{document}
++++
\\
__Apunte 2:__ Complejos
Descargar PDF: {{:materias:61:08:complejos_v2.0_.pdf|:materias:61:08:complejos_v2.0_.pdf}}
++++Ver fuente TEX:|
\documentclass[12pt]{article}
\usepackage{amsfonts}
%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
\usepackage{amssymb}
\usepackage{amsmath}
\usepackage{sw20res1}
\setcounter{MaxMatrixCols}{10}
%TCIDATA{OutputFilter=LATEX.DLL}
%TCIDATA{Version=5.50.0.2953}
%TCIDATA{}
%TCIDATA{BibliographyScheme=Manual}
%TCIDATA{Created=Friday, October 09, 2009 21:18:42}
%TCIDATA{LastRevised=Friday, October 09, 2009 21:56:03}
%TCIDATA{}
%TCIDATA{}
%TCIDATA{CSTFile=sw20res1.cst}
\input{tcilatex}
\begin{document}
\title{Complejos}
\author{by gira}
\date{09/10/2009}
\maketitle
Tenemos dos tipos de espacios vectoriales complejos:
\section{1. \protect\underline{$%
%TCIMACRO{\U{2102} }%
%BeginExpansion
\mathbb{C}
%EndExpansion
^{n}$ como $%
%TCIMACRO{\U{211d} }%
%BeginExpansion
\mathbb{R}
%EndExpansion
$-espacio vectorial}}
($%
%TCIMACRO{\U{2102} }%
%BeginExpansion
\mathbb{C}
%EndExpansion
^{n},+,%
%TCIMACRO{\U{211d} }%
%BeginExpansion
\mathbb{R}
%EndExpansion
,.)$
En este caso la forma de los vectores depender\'{a} de la dimensi\'{o}n del
espacio, es decir, de $n$. Veamos un par de ejemplos:
\subsection{\protect\underline{$n=1$}:}
Base can\'{o}nica: $E(%
%TCIMACRO{\U{2102} }%
%BeginExpansion
\mathbb{C}
%EndExpansion
^{1})=\left\{ 1,i\right\} $, \ $dim(%
%TCIMACRO{\U{2102} }%
%BeginExpansion
\mathbb{C}
%EndExpansion
^{1})=2$
Sea $z\in
%TCIMACRO{\U{2102} }%
%BeginExpansion
\mathbb{C}
%EndExpansion
^{1}$ entonces es de la forma: $z=k_{1}.1+k_{2}.i$ $\ \ \forall
k_{1},k_{2}\in
%TCIMACRO{\U{211d} }%
%BeginExpansion
\mathbb{R}
%EndExpansion
$
En realidad a este z se lo puede escribir de varias formas:
\subsubsection{\textit{Forma cartesiana:} $z=a+bi$}
donde definimos $a=Re(z),$ $b=Im(z)$ reales.
Podemos graficar a $z$ en el plano complejo:
\bigskip $\overset{}{\FRAME{itbpF}{2.973in}{2.4515in}{-2.6786pt}{}{}{%
numeros-complejos_image082.gif}{\special{language "Scientific Word";type
"GRAPHIC";maintain-aspect-ratio TRUE;display "PICT";valid_file "F";width
2.973in;height 2.4515in;depth -2.6786pt;original-width
3.1892in;original-height 2.6253in;cropleft "0";croptop "1";cropright
"1";cropbottom "0";filename 'numeros-complejos_image082.gif';file-properties
"XNPEU";}}}$
siendo $\left\vert z\right\vert =\sqrt{a^{2}+b^{2}},$ $\arg (z)=\alpha $ tal
que $tg(\alpha )=\frac{sen\alpha }{\cos \alpha }=\frac{b}{a}$
\subsubsection{\textit{Forma polar: \ }$z=\left\vert z\right\vert (\cos
\protect\alpha +isen\protect\alpha )$}
\subsubsection{\textit{Forma Exponencial: \ }$z=\left\vert z\right\vert e^{i%
\protect\alpha }$}
Esta \'{u}ltima se deduce de la \textit{f\'{o}rmula de Euler} que dice: $%
e^{i\alpha }=\cos \alpha +isen\alpha $
(adem\'{a}s, se puede observar que $\ e^{z}=e^{a}(\cos b+isenb)$)
\subsection{\protect\underline{$n=2$}:}
Base can\'{o}nica: $E(%
%TCIMACRO{\U{2102} }%
%BeginExpansion
\mathbb{C}
%EndExpansion
^{2})=\left\{ (1,0),(i,0),(0,1),(0,i)\right\} $, \ $dim(%
%TCIMACRO{\U{2102} }%
%BeginExpansion
\mathbb{C}
%EndExpansion
^{2})=4$
Sea $z\in
%TCIMACRO{\U{2102} }%
%BeginExpansion
\mathbb{C}
%EndExpansion
^{2}$ entonces es de la forma: $%
z=k_{1}(1,0)+k_{2}(i,0)+k_{3}(0,1)+k_{4}(0,i) $ $\ \ \forall
k_{1},k_{2},k_{3},k_{4}\in
%TCIMACRO{\U{211d} }%
%BeginExpansion
\mathbb{R}
%EndExpansion
$
Luego, para $n=3$\ la base can\'{o}nica ser\'{a} como la de $%
%TCIMACRO{\U{211d} }%
%BeginExpansion
\mathbb{R}
%EndExpansion
^{3}$ sumandole los tres vectores con $i$ hac\'{\i} como hicimos para $n=2$,
y as\'{\i} sucesivamente para los siguientes $n,$
\bigskip
\bigskip
\bigskip
\bigskip
\section{2. \protect\underline{$%
%TCIMACRO{\U{2102} }%
%BeginExpansion
\mathbb{C}
%EndExpansion
^{n}$ como $%
%TCIMACRO{\U{2102} }%
%BeginExpansion
\mathbb{C}
%EndExpansion
$-espacio vectorial}}
($%
%TCIMACRO{\U{2102} }%
%BeginExpansion
\mathbb{C}
%EndExpansion
^{n},+,%
%TCIMACRO{\U{2102} }%
%BeginExpansion
\mathbb{C}
%EndExpansion
,.)$
Veamos algunos ejemplos:
\subsection{\protect\underline{$n=1$}:}
Base can\'{o}nica: $E(%
%TCIMACRO{\U{2102} }%
%BeginExpansion
\mathbb{C}
%EndExpansion
^{1})=\left\{ 1\right\} $, \ $dim(%
%TCIMACRO{\U{2102} }%
%BeginExpansion
\mathbb{C}
%EndExpansion
^{1})=1$
Sea $z\in
%TCIMACRO{\U{2102} }%
%BeginExpansion
\mathbb{C}
%EndExpansion
^{1}$ entonces es de la forma: $z=k_{1}.1$ $\ \ \forall k_{1}\in
%TCIMACRO{\U{2102} }%
%BeginExpansion
\mathbb{C}
%EndExpansion
$
\subsection{\protect\underline{$n=2$}:}
Base can\'{o}nica: $E(%
%TCIMACRO{\U{2102} }%
%BeginExpansion
\mathbb{C}
%EndExpansion
^{2})=\left\{ (1,0),(0,1)\right\} $, \ $dim(%
%TCIMACRO{\U{2102} }%
%BeginExpansion
\mathbb{C}
%EndExpansion
^{2})=2$
Sea $z\in
%TCIMACRO{\U{2102} }%
%BeginExpansion
\mathbb{C}
%EndExpansion
^{2}$ entonces es de la forma: $z=k_{1}(1,0)+k_{2}(0,1)$ $\ \ \forall
k_{1},k_{2}\in
%TCIMACRO{\U{2102} }%
%BeginExpansion
\mathbb{C}
%EndExpansion
$
\bigskip Luego, para $n=3$\ la base can\'{o}nica ser\'{a} como la de $%
%TCIMACRO{\U{211d} }%
%BeginExpansion
\mathbb{R}
%EndExpansion
^{3}$ haci como en $n=2$, y as\'{\i} para los siguientes $n.$
\bigskip
\end{document}
++++
\\
__Apunte 3:__ Espacios Vectoriales (Apunte de Mancilla)
Descargar PDF: {{:materias:61:08:3._espacios_vectoriales_apunte_de_mancilla_.pdf|:materias:61:08:3._espacios_vectoriales_apunte_de_mancilla_.pdf}}
\\
__Apunte 4:__ Wronksiano (Apunte de Mancilla)
Descargar PDF: {{:materias:61:08:4._wronksiano_apunte_de_mancilla_.pdf|:materias:61:08:4._wronksiano_apunte_de_mancilla_.pdf}}
\\
__Apunte 5:__ Transformaciones Lineales
Descargar PDF: {{:materias:61:08:5._transformaciones_lineales_v2.0_.pdf|:materias:61:08:5._transformaciones_lineales_v2.0_.pdf}}
++++Ver fuente TEX:|
\documentclass[12pt]{article}
\usepackage{amssymb}
\usepackage{amsmath}
%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
\usepackage{sw20res1}
%TCIDATA{OutputFilter=LATEX.DLL}
%TCIDATA{Version=5.50.0.2953}
%TCIDATA{}
%TCIDATA{BibliographyScheme=Manual}
%TCIDATA{Created=Saturday, October 10, 2009 02:45:50}
%TCIDATA{LastRevised=Saturday, October 10, 2009 03:18:51}
%TCIDATA{}
%TCIDATA{}
%TCIDATA{CSTFile=sw20res1.cst}
\input{tcilatex}
\begin{document}
\title{Transformaciones Lineales}
\author{by gira}
\date{10/10/2009}
\maketitle
\section{1. \textbf{Definici\'{o}n}}
Sean $V$ y $W$ dos espacios vectoriales, entonces la funci\'{o}n $%
T:V\rightarrow W$ es una transformaci\'{o}n lineal si verifica:
$a_{1})$ $T(u+v)=T(u)+T(v)$ $\ \forall $ $u,v\in V$
$a_{2})$ $T(\alpha u)=\alpha T(u)$ $\ \forall $ $u\in V$ $\wedge $ $\forall $
$\alpha \in \Bbbk $
\subsection{\textbf{Propiedades:}}
$(i)$ $T(0_{V})=0_{W}$
$(ii)$ $T\left( \overset{n}{\underset{i=1}{\sum }}\alpha _{i}v_{i}\right) =%
\overset{n}{\underset{i=1}{\sum }}\alpha _{i}T(v_{i})$ \textit{\ (Linealidad)%
}
\section{2. \textbf{N\'{u}cleo}}
$Nu(T)=\{v\in V$ $/$ $T(v)=0_{W}\}$ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \
\ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \
\ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \
$Nu(T)$ es subespacio de $V.$
\FRAME{ihF}{2.9854in}{1.7358in}{0in}{}{}{núcleo.jpg}{\special{language
"Scientific Word";type "GRAPHIC";maintain-aspect-ratio TRUE;display
"USEDEF";valid_file "F";width 2.9854in;height 1.7358in;depth
0in;original-width 2.9439in;original-height 1.7005in;cropleft "0";croptop
"1";cropright "1.0002";cropbottom "0";filename 'Núcleo.jpg';file-properties
"XNPEU";}}
\section{3. I\textbf{magen}}
$\func{Im}(T)=\{w\in W$ / $w=T(v),$ con $v\in V\}$
$\func{Im}(T)$ es subespacio de $W.$
\FRAME{itbhF}{3.0454in}{1.8514in}{0in}{}{}{imagen.jpg}{\special{language
"Scientific Word";type "GRAPHIC";maintain-aspect-ratio TRUE;display
"USEDEF";valid_file "F";width 3.0454in;height 1.8514in;depth
0in;original-width 3.0613in;original-height 1.8497in;cropleft "0";croptop
"1";cropright "1";cropbottom "0";filename 'Imagen.jpg';file-properties
"XNPEU";}}
\section{4. \textbf{Teorema de la Dimensi\'{o}n}}
Sea $T:V\rightarrow W$, $\dim (V)=n$ (finita), entonces:
$\dim (Nu(T))+\dim (\func{Im}(T))=\dim (V)=n$
\subsection{\textbf{Propiedades:}}
Sea $T:V\rightarrow W,$ TL \ $($otra notaci\'{o}n es $T\in \tciLaplace
(V,W)):$
$\bullet $ Si $\{v_{1},v_{2},.....v_{q}\}$ genera $V$ $\Longrightarrow $ $%
\{T(v_{1}),T\left( v_{2}\right) ,.....T\left( v_{q}\right) \}$ genera $\func{%
Im}(T)$
\textbf{Obs. 1: }$T(v_{1}),T\left( v_{2}\right) ,.....T\left( v_{q}\right) $
$\in $ $\func{Im}(T)$
\textbf{Obs. 2: }Cualquier $w\in $ $\func{Im}(T)$ puede expresarse como
combinaci\'{o}n lineal de $T(v_{1}),T\left( v_{2}\right) ,.....T\left(
v_{q}\right) $
$\bullet $ $\{T(v_{1}),T\left( v_{2}\right) ,.....T\left( v_{q}\right) \}$
es LI $\implies $ $\{v_{1},v_{2},.....v_{q}\}$ es LI
\section{5. \textbf{Clasificaci\'{o}n}}
Sea $T\in \tciLaplace (V,W)$ TL $:$
$-$ $T$ es \textit{inyectiva} (monomorfismo) si verifica: $v_{1}\neq
v_{2}\implies T(v_{1})\neq T(v_{2})$
$-$ $T$ es \textit{sobreyectiva} (epimorfismo) $\Longleftrightarrow $ $\func{%
Im}(T)=W$
$-$ $T$ es \textit{biyectiva} (isomorfismo) $\Longleftrightarrow $ $T$ es
inyectiva y sobreyectiva
\subsection{\textbf{Propiedades:}}
$\bullet $ $T$ es monomorfismo $\iff $ $Nu(T)=\{0_{V}\}$
$\bullet $ Si $T$ es monomorfismo $\implies $ $\dim (V)\leq \dim (W)$
$\bullet $ Si $T$ es monomorfismo y $\{v_{1},v_{2},.....v_{q}\}\subset V$ es
LI $\implies $ $\{T(v_{1}),T\left( v_{2}\right) ,.....T\left( v_{q}\right) \}
$ es LI
$\bullet $ Si $T$ es epiomorfismo $\implies $ $\dim (W)\leq \dim (V)$
$\bullet $ Si $T$ es isomorfismo $\implies $ $\dim (W)=\dim (V)$
$\bullet $ Si $V$ y $W$ son de dimensi\'{o}n \textbf{finita }entonces $T$ es
isomorfismo $\iff $ $\dim (W)=\dim (V)$
$\bullet $ Si $T$ es isomorfismo $\implies $ $\exists $ $T^{-1}:W\rightarrow
V$ (Transformaci\'{o}n Inversa)
\section{6. \textbf{Transformaciones Matriciales}}
Una transformaci\'{o}n matricial es del tipo: $T:\Bbbk ^{n}\rightarrow \Bbbk
^{m},$ $T(x)=Ax,$ $A\in \Bbbk ^{mxn}$
Veamos un par de propiedades:
$\bullet $ $x\in Nu(T)\Longleftrightarrow $ $T(x)=0\Longleftrightarrow $ $%
Ax=0\Longleftrightarrow $ $x\in Nul(A)$
$\bullet $ $y\in \func{Im}(T)\Longleftrightarrow $ $T(x)=y%
\Longleftrightarrow $ $Ax=y\Longleftrightarrow $ $y\in Col(A)$
De aqu\'{\i} deducimos que para las transformaciones matriciales se cumple
que:
\underline{$Nu(T)=Nul(A)$}
\underline{$\func{Im}(T)=Col(A)$}
Ahora, aplicando el \textit{teorema de la dimensi\'{o}n}:
\underline{$\dim (Nul(A))+\dim (Col(A))=\dim (\Bbbk ^{n})=n$}
\textbf{Obs.\ 1:} $\dim (Col(A))$ es el llamado \textit{rango de }$\mathit{A}
$\textit{\ }$\Longrightarrow $ $\dim (Nul(A))=n-rg(A)$
\textbf{Obs.\ 2:} $n$ es el n\'{u}mero de columnas de $A$
\section{7. \textbf{Teorema Fundamental de las Transformaciones Lineales
(TFTL)}}
Sea $B=\{v_{1},v_{2},.....v_{n}\}$ base de $V$ y
$w_{1},w_{2},....,w_{n}$ vectores de $W$ (iguales o distintos)
entonces, existe una \textbf{\'{u}nica} Transformaci\'{o}n Lineal $%
T:V\rightarrow W$ tal que:
$\left\{
\begin{array}{c}
T\left( v_{1}\right) =w_{1}\text{\ \ \ \ \ \ \ \ \ } \\
T\left( v_{2}\right) =w_{2}\text{ \ \ \ \ \ \ \ \ } \\
\ \ \ \ \ \ \vdots \text{ \ \ \ \ \ \ \ \ \ \ } \\
T\left( v_{n}\right) =w_{n}\text{ \ \ \ \ \ \ \ \ }%
\end{array}%
\right\vert
\begin{array}{c}
\bullet \text{ Existencia de T} \\
\bullet \text{ Linealidad de T} \\
\bullet \text{ Unicidad\ de T \ }%
\end{array}%
$
\section{\textbf{8. Composicion de Transformaciones Lineales}}
Sean las transformaciones Lineales:
$F:U\rightarrow V$
$G:V\rightarrow W$
entonces la composici\'{o}n $G$ $o$ $F$ $:$ $U\rightarrow W$ es transformaci%
\'{o}n lineal, tal que
$G$ $o$ $F$ $(u)=G(F(u))$ \ \ $\forall $ $u\in U$
\textbf{Propiedades:}
$\bullet $ $Nu(F)\subseteq Nu(G$ $o$ $F)$
$\bullet $ $Nu(F)=Nu(G$ $o$ $F)\iff $ $G$ es monomorfismo (inyectiva) $\iff $
$Nu(G)=\left\{ 0_{V}\right\} $
\section{9. \textbf{Transformaci\'{o}n Inversa}}
Sea $T:V\rightarrow W$ isomorfismo $\Longrightarrow $ $\exists $ $%
T^{-1}:W\rightarrow V$ / $T^{-1}(w)=v\iff T(v)=w$
\subsection{\textbf{Propiedades:}}
$\bullet $ $T^{-1}$ es una TL biyectiva
$\bullet $ $T^{-1}$ $o$ $T=Id_{V}$ \ \ $\ \ \ \ \left( T^{-1}oT(v)=v\right) $
$\bullet $ $T$ $o$ $T^{-1}=Id_{W}$ $\ \ \ \ \ \left( T^{-1}oT(w)=w\right) $
\section{10. \textbf{Matriz asociada a una Transformaci\'{o}n Lineal}}
Sea $T:V\rightarrow W$ \ TL
$B=\{v_{1},v_{2},.....v_{n}\}$ base de $V$
$B=\{w_{1},w_{2},.....w_{m}\}$ base de $W$
$\left[ T\right] _{BB^{\prime }}=\left[
\begin{array}{c}
\text{ \TEXTsymbol{\vert}\ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \TEXTsymbol{\vert}\
\ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \TEXTsymbol{\vert}\ \ \ } \\
C_{B^{\prime }}(T(v_{1}))\ \ C_{B^{\prime }}(T(v_{2}))......C_{B^{\prime
}}(T(v_{n})) \\
\text{\TEXTsymbol{\vert} \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \TEXTsymbol{\vert}\ \
\ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \TEXTsymbol{\vert}\ \ }%
\end{array}%
\right] $ \ \ $\in \Bbbk ^{mxn}$
es la matriz asociada a $T.$
\ $\left[ T\right] _{BB^{\prime }},C_{B}(v)=C_{B^{\prime }}(T(v))$
$V\overset{T}{\longrightarrow }W$
$v\overset{T}{\longrightarrow }T(v)=w$
$C_{B}(v)$ $\overset{\left[ T\right] _{BB^{\prime }}}{\longrightarrow }$ $%
C_{B^{\prime }}(T(v))=C_{B^{\prime }}(w)$
\subsection{\textbf{Propiedades:}}
$\bullet $ Si $T$ es isomorfismo $\implies $ $\exists $ $\left[ T^{-1}\right]
_{BB^{\prime }}=\left[ T\right] _{BB^{\prime }}^{-1}$
$\bullet $ $T:V\rightarrow W$ TL,
$B$ base de $V$
$C$ base de $W$
$\cdot $ $v\in Nu(T)\iff C_{B}(v)\in Nul(\left[ T\right] _{BC})$
$\cdot $ $v\in \func{Im}(T)\iff C_{C}(T(v))\in Col(\left[ T\right] _{BC})$
$\cdot $ $rg(\left[ T\right] _{BC})=\dim (\func{Im}(T))$
$\cdot $ $\left\{
\begin{array}{c}
B^{\prime }\text{ base de }V\text{ \ \ \ \ \ \ } \\
C^{\prime }\text{ base de }W\text{ \ \ \ \ \ }%
\end{array}%
\right. \implies rg(\left[ T\right] _{BC})=rg(\left[ T\right] _{B^{\prime
}C^{\prime }})$
$\bullet $ $T:V\rightarrow W$ TL,
$B$ y $D$ bases de $V$
$B\prime $ y $D\prime $ bases de $W$
$A=\left[ T\right] _{BB^{\prime }}$
\ $M=\left[ T\right] _{DD^{\prime }}$
$\implies \left[ T\right] _{DD^{\prime }}\mathbf{=C}_{B^{\prime }D^{\prime }}%
\left[ T\right] _{BB^{\prime }}\mathbf{C}_{DB}$
$\ \ \ C_{B}(v)$ \ \ $\overset{A}{\longrightarrow }$ $\ \ \ C_{B^{\prime
}}(T(v))$ $\ $
$C_{BD}$ $\uparrow $ $\ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \downarrow $ $%
C_{B^{\prime }D^{\prime }}$ \ (Cuadrito did\'{a}ctico)
$\ \ \ C_{D}(v)$ $\ \ \overset{M}{\longrightarrow }$ $\ $\ $\ C_{D^{\prime
}}(T(v))$
\end{document}
++++
\\
__Apunte 6:__ Producto Interno
Descargar PDF: {{:materias:61:08:producto_interno_v2.0_.pdf|:materias:61:08:producto_interno_v2.0_.pdf}}
++++Ver fuente TEX:|
\documentclass[12pt]{article}
%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
\usepackage{amsfonts}
\usepackage{amsmath}
\usepackage{sw20res1}
\setcounter{MaxMatrixCols}{10}
%TCIDATA{OutputFilter=LATEX.DLL}
%TCIDATA{Version=5.50.0.2953}
%TCIDATA{}
%TCIDATA{BibliographyScheme=Manual}
%TCIDATA{Created=Saturday, October 10, 2009 02:45:56}
%TCIDATA{LastRevised=Sunday, October 11, 2009 01:57:29}
%TCIDATA{}
%TCIDATA{}
%TCIDATA{CSTFile=sw20res1.cst}
\input{tcilatex}
\begin{document}
\title{Producto Interno}
\author{by gira}
\date{10/10/2009}
\maketitle
\section{1. Definici\'{o}n}
Sea $V$ un $%
%TCIMACRO{\U{2102} }%
%BeginExpansion
\mathbb{C}
%EndExpansion
$-espacio vectorial, y sean $u\in V,$ $v\in V,$ $w\in V$ y $\alpha \in
%TCIMACRO{\U{2102} }%
%BeginExpansion
\mathbb{C}
%EndExpansion
$ , entonces \newline
$(\cdot ,\cdot ):V_{%
%TCIMACRO{\U{2102} }%
%BeginExpansion
\mathbb{C}
%EndExpansion
}$x$V_{%
%TCIMACRO{\U{2102} }%
%BeginExpansion
\mathbb{C}
%EndExpansion
}\rightarrow
%TCIMACRO{\U{2102} }%
%BeginExpansion
\mathbb{C}
%EndExpansion
$ es un \textit{producto interno} (pi) en $V$ si se cumplen los siguientes
axiomas:
$a_{1})$ $\ (u,v)=\overline{(v,u)}$ \ \ \ $\vee $ \ \ \ $(u,v)=(v,u)\ \ $si $%
V$ es $%
%TCIMACRO{\U{211d} }%
%BeginExpansion
\mathbb{R}
%EndExpansion
$-ev
$a_{2})$ $\ (u+v,w)=(u,w)+(v,w)$
$a_{3})$ $\ (\alpha u,v)=\overline{\alpha }(u,v)$ \ \ \ $\vee $ \ \ \ $%
(\alpha u,v)=\alpha (u,v)\ \ $si $V$ es $%
%TCIMACRO{\U{211d} }%
%BeginExpansion
\mathbb{R}
%EndExpansion
$-ev
$a_{3})$ $\ (u,u)>0$ \ \ \ $\wedge $ \ \ \ $(u,u)=0$ \ \ $\iff $ \ \ $%
u=0_{V} $
\section{2. Propiedades del pi}
$(i)$ $\ (u,v+w)=(u,v)+(u,w)$
$(ii)$ $\ (u,\alpha v)=\alpha (u,v)\ $
$(iii)$ $\ (v,0_{V})=0$
\subsection{El producto interno can\'{o}nico (pic)}
En $%
%TCIMACRO{\U{211d} }%
%BeginExpansion
\mathbb{R}
%EndExpansion
^{n}:(u,v)=u^{T}v$
En $%
%TCIMACRO{\U{2102} }%
%BeginExpansion
\mathbb{C}
%EndExpansion
^{n}:(u,v)=u^{H}v=\overline{(u^{T})}v$
En $%
%TCIMACRO{\U{211d} }%
%BeginExpansion
\mathbb{R}
%EndExpansion
^{nxn}:(A,B)=\overset{n}{\underset{j=1}{\overset{n}{\underset{i=1}{\sum }}}}%
a_{ij}b_{ij}$
\section{3. Norma y distancia}
Sea $V$ un $EVPI$ (espacio vectorial con prod. int.), se define como \textit{%
norma} al n\'{u}mero real
$\left\Vert u\right\Vert =(u,u)$
y la \textit{distancia} entre dos elementos $u$ y $v$ de $V$ se define como:
$d(u,v)=\left\Vert v-u\right\Vert $
\subsection{3.1. Propiedades de la norma}
$(i)$ $\ \left\Vert u\right\Vert >0$ $\ \ \wedge $ $\ \ \left\Vert
u\right\Vert =0$ $\ \iff $ $\ \ u=0_{V}$
$(ii)$ $\ \left\Vert ku\right\Vert =\left\vert k\right\vert \left\Vert
u\right\Vert $ \ \ $(k\in K)$
$(iii)$ $\ \left\Vert u+v\right\Vert \leq \left\Vert u\right\Vert
+\left\Vert v\right\Vert $ \ \ (Desigualdad Triangular)
\section{4. Desigualdad de Cauchy-Schwarz}
Ver apunte 7.
\section{5. Ortogonalidad}
\subsection{5.1. Definici\'{o}n}
Dos elementos $u$ y $v$ de $V$ ($EVPI)$ son ortogonales $\iff $ $\ (u,v)=0$
\textbf{Atenci\'{o}n:} La ortogonalidad depende del producto interno del
correspondiente espacio vectorial
\subsection{5.2. Propiedad Pitag\'{o}rica}
Si u y v son ortogonales $\implies $ \ $\left\Vert u+v\right\Vert
^{2}=\left\Vert u\right\Vert ^{2}+\left\Vert v\right\Vert ^{2}$
Si el espacio vectorial es Real entonces se cumple el "si y solo si".
\subsection{5.3. Conjuntos Ortogonales}
\underline{Definici\'{o}n:} $\{u_{1},u_{2},....,u_{r}\}$ \ es un conjunto
ortogonal $\iff $ \ $(u_{i},u_{j})=0$ \ \ $\forall $ $i\neq j$
\underline{Propiedad:} Todo conjunto ortogonal que no contenga al $0_{V}$ es
LI
$B$ es una base ortogonal ($BOG$) si es base y es ortogonal
\subsection{5.4. Conjuntos Ortonormales}
\underline{Definici\'{o}n:} $\{u_{1},u_{2},....,u_{r}\}$ \ es un conjunto
ortonormal $\iff $ \ $\left\{
\begin{array}{c}
(u_{i},u_{j})=0\ \ \forall i\neq j\text{ \ \ \ \ \ } \\
\left\Vert u_{i}\right\Vert =1\text{ , \ }i=1,...,r%
\end{array}%
\right. $
$B$ es una base ortonormal ($BON$) si es base y es ortonormal
$\frac{v}{\left\Vert v\right\Vert }$ es llamado\textit{\ versor asociado a} $%
v$ y tiene norma 1.
\section{6. Matriz del Producto Interno (Matriz de Gram)}
Sea $B=\{u_{1},u_{2},....,u_{r}\}$ base de $V$ ($EVPI$), y sean $v$ y $w$ de
$V,$ entonces:
$(v,w)=[v]_{B}^{H}.G_{B}.[w]_{B}$ \ \ \ \ \ \ \ \ \ //\ \ \ \ \ \ \ \ \ \
Con la otra notaci\'{o}n: $(v,w)=C_{B}(v)^{H}.G_{B}.C_{B}(w)$
donde $G_{B}=\left(
\begin{array}{cccc}
(u_{1},u_{1}) & (u_{1},u_{2}) & \cdots & (u_{1},u_{r}) \\
(u_{2},u_{1}) & (u_{2},u_{2}) & \cdots & (u_{2},u_{r}) \\
\vdots & \vdots & \ddots & \vdots \\
(u_{r},u_{1}) & (u_{r},u_{2}) & \cdots & (u_{r},u_{r})%
\end{array}%
\right) $ \ \ \ \ \ \ \ \ \ $%
\begin{array}{c}
\text{ }G_{B}\in K^{rxr}\text{ \ \ (Si }dim(V)=r\text{)} \\
\bullet \text{ Herm\'{\i}tica (Sim\'{e}trica)\ \ \ \ \ \ \ } \\
\bullet \text{ Definida Positiva\ \ \ \ \ \ \ \ \ \ \ \ \ } \\
\bullet \text{ Inversible \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ }%
\end{array}%
$
\subsection{6.1. Observaciones}
$\bullet $ $\ A\in
%TCIMACRO{\U{2102} }%
%BeginExpansion
\mathbb{C}
%EndExpansion
^{nxn}$ es \textit{herm\'{\i}tica} \ $\iff $ \ $A=A^{H}$ \ ($a_{ij}=%
\overline{a_{ji}}$)
$\bullet $ $\ A\in
%TCIMACRO{\U{211d} }%
%BeginExpansion
\mathbb{R}
%EndExpansion
^{nxn}$ es \textit{sim\'{e}trica} \ $\iff $ \ $A=A^{T}$ \ ($a_{ij}=a_{ji}$)
$\bullet $ $\ $Si $K=%
%TCIMACRO{\U{2102} }%
%BeginExpansion
\mathbb{C}
%EndExpansion
$, entonces sea $A\in
%TCIMACRO{\U{2102} }%
%BeginExpansion
\mathbb{C}
%EndExpansion
^{nxn}$ herm\'{\i}tica $\implies $ \ $A$ es \textit{definida positiva} \ $%
\iff $ \ $x^{H}Ax\geq 0$ \ \ $\forall $ $x$ \ \ $\wedge $ \ $\ x^{H}Ax=0$ \ $%
\iff $ \ $x=0$
$\bullet $ $\ $Si $K=%
%TCIMACRO{\U{211d} }%
%BeginExpansion
\mathbb{R}
%EndExpansion
$, entonces sea $A\in
%TCIMACRO{\U{211d} }%
%BeginExpansion
\mathbb{R}
%EndExpansion
^{nxn}$ sim\'{e}trica $\implies $ \ $A$ es \textit{definida positiva} \ $%
\iff $ \ $x^{T}Ax\geq 0$ \ \ $\forall $ $x$ \ \ $\wedge $ \ $\ x^{T}Ax=0$ \ $%
\iff $ \ $x=0$
$\bullet $ $\ $Sea $A\in
%TCIMACRO{\U{2102} }%
%BeginExpansion
\mathbb{C}
%EndExpansion
^{nxn}$ ($%
%TCIMACRO{\U{211d} }%
%BeginExpansion
\mathbb{R}
%EndExpansion
^{nxn})$ herm\'{\i}tica (sim\'{e}trica) $\implies $ \ $A$ es \textit{%
definida positiva} \ $\iff $ \ todos los subdeterminantes (o menores)
principales de $A$ son $>0$
$\bullet $ $\ $Sea $A\in
%TCIMACRO{\U{2102} }%
%BeginExpansion
\mathbb{C}
%EndExpansion
^{nxn}$ ($%
%TCIMACRO{\U{211d} }%
%BeginExpansion
\mathbb{R}
%EndExpansion
^{nxn})$ herm\'{\i}tica (sim\'{e}trica) $\implies $ \ $A$ es \textit{%
definida positiva} \ $\iff $ \ todos los autovalores de $A$ son $>0$
\subsection{6.2. Casos Especiales}
$\bullet $ $B=\{g_{1},g_{2},....,g_{r}\}$ BOG de $V$ $\implies $ \ $%
G_{B}=\left(
\begin{array}{cccc}
(g_{1},g_{1}) & 0 & \cdots & 0 \\
0 & (g_{2},g_{2}) & \cdots & 0 \\
\vdots & \vdots & \ddots & \vdots \\
0 & 0 & \cdots & (g_{r},g_{r})%
\end{array}%
\right) $ \ (Diagonal)
$\bullet $ $B=\{u_{1},u_{2},....,u_{r}\}$ BON de $V$ $\implies $ \ $G_{B}=I$
\ \ \ \ \ (pues $\left\Vert u_{i}\right\Vert =1$)
\section{7. Proyecciones Ortogonales}
Sea $V$ un $EVPI$, $S$ un subespacio de $V$ y $v\in V:$
\subsection{7.1. Definici\'{o}n}
$\widehat{v}$ es la proyecci\'{o}n de v sobre S $\iff $ \ $\left\{
\begin{array}{c}
\widehat{v}\in S\text{ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \
\ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ } \\
v-\widehat{v}\perp S\text{ \ \ }\vee \text{\ \ }(v-\widehat{v},w)=0\text{ \ }%
\forall \text{ }w\in S%
\end{array}%
\right. $
\underline{Notaci\'{o}n:}$\ \widehat{v}=\ p_{S}(v)$ \ \'{o} $\widehat{v}%
=p_{S}v$
\FRAME{ftbpF}{3.1292in}{2.1762in}{0in}{}{}{proyeccion.jpg}{\special{language
"Scientific Word";type "GRAPHIC";maintain-aspect-ratio TRUE;display
"USEDEF";valid_file "F";width 3.1292in;height 2.1762in;depth
0in;original-width 3.146in;original-height 2.1788in;cropleft "0";croptop
"1";cropright "1";cropbottom "0";filename 'proyeccion.jpg';file-properties
"XNPEU";}}
\subsection{7.2. Propiedades}
$\bullet \ $Si existe la proyecci\'{o}n de $v$ sobre $S$ $\implies p_{S}(v)$
es \'{u}nica\ \
$\bullet $ \ $p_{S}(u+v)=p_{S}(u)+p_{S}(v)$
$\bullet $ \ $p_{S}(kv)=kp_{S}(v)$
$\bullet $\ \ $p_{S}(v)=v$ \ $\iff $ $v\in S$
$\bullet $\ \ $p_{S}(v)=0_{V}$ \ $\iff $ $v\perp S$
\subsection{7.3. F\'{o}rmula de proyecci\'{o}n}
Sea $S$ un subespacio de $V$ y $B=\{g_{1},g_{2},....,g_{r}\}$ una BOG de S,
entonces:
$p_{S}(v)=\overset{r}{\underset{i=1}{\sum }}\frac{(g_{i},v)}{\left\Vert
g_{i}\right\Vert ^{2}}.g_{i}$
\underline{Caso particular:} Si $B=\{u_{1},u_{2},....,u_{r}\}$ es BON de S,
entonces:
$p_{S}(v)=\overset{r}{\underset{i=1}{\sum }}(u_{i},v).u_{i}$
\subsection{7.4. M\'{e}todo de Gram-Schmidt (Construcci\'{o}n de una BOG)}
Sea $S$ subespacio de $V$ y $B$ $=\{v_{1},v_{2},....,v_{r}\}$ base de S $%
\implies $ $\ \exists $ $B^{\prime }$ $=\{g_{1},g_{2},....,g_{r}\}$ BOG de S
donde:
$g_{1}=v_{1}$
$g_{i}=v_{i}-p_{S_{i-1}}(v_{i})$ \ donde $S_{i-1}=\{g_{1},....,g_{i-1}\}$
con $2\leq i\leq r$
\subsection{7.5. La proyecci\'{o}n como mejor aproximaci\'{o}n}
Sea $S$ subespacio de $V$ y $v\in V,$ si $\widehat{v}=p_{S}(v)$ resulta:
$d(v,\widehat{v})\leq d(v,w)$ \ $\forall $ $w\in S$ \ \ \ \ \ \ \ \ (\ $%
\left\Vert v-\widehat{v}\right\Vert \leq \left\Vert v-w\right\Vert $ )
es decir, $\widehat{v}$ es el vector de $S$ que est\'{a} "m\'{a}s cerca" de $%
v$ o "mejor aproxima" a $v$.
\subsubsection{7.5.1. Distancia de un vector a un subespacio}
$d(v,S)=\left\Vert v-\widehat{v}\right\Vert $ \
\subsection{7.6. Complemento Ortogonal}
\subsubsection{7.6.1. Definici\'{o}n}
Sea $S$ subespacio de $V$ $(EVPI)$ entonces el \textit{complemento ortogonal
de }$S$ se define como:
$S^{\perp }=\{v\in V$ / $(v,w)=0$ \ $\forall $ $w\in S\}$
$S^{\perp }$ es subespacio de $V.$
Si $S=gen\{v_{1},v_{2},....,v_{q}\}\subset V\implies S^{\perp }=\{v\in V$ / $%
(v,v_{1})=0,...,(v,v_{q})=0$ $\}$
\subsubsection{7.6.2. Propiedad}
Sea $S\subseteq V$ un subespacio de V tal que $\forall $ $v\in V$ existe $%
p_{S}(v)$
$\ \implies $ \ $S\oplus S^{\perp }=V$ \ \ \ \ \ \ ( $S\cap S^{\perp
}=\{0_{V}\}$ \ $\wedge $\ $\ S+S^{\perp }=\ V$\ )
\subsubsection{7.6.3. Corolarios}
$(i)$ \ Si $dim(S)$ es finita \ $\implies $ \ $\exists $ $p_{S}(v)$ \ $%
\forall $ $v\in V$ \ $\implies $ \ $S\oplus S^{\perp }=V$
$(ii)$ \ Si $dim(V)=n$ \ $\implies $ \ $dim(S\oplus S^{\perp
})=dim(S)+dim(S^{\perp })=n$
$(iii)$ \ Si $S\oplus S^{\perp }=V$ \ $\implies $ \ $(S^{\perp })^{\perp }=S$
$(iv)$ \ Si $S\oplus S^{\perp }=V$ \ $\implies $ \ $v=p_{S}(v)+p_{S^{\perp
}}(v)$ \ $\forall $ $v\in V$
\subsubsection{7.6.4. Casos Especiales}
$\bullet $ Si$\ S=Nul(A)=\{x\in
%TCIMACRO{\U{211d} }%
%BeginExpansion
\mathbb{R}
%EndExpansion
^{n}$ / $Ax=0\}$,
En general, para \textit{p.i. can\'{o}nico}:
$x\in Nul(A)\iff Ax=0\iff (F_{i}^{T},x)=0\iff x\perp Fil(A)\iff x\in \lbrack
Fil(A)]^{\perp }$ \ $\implies $ \ \ \fbox{$Nul(A)=[Fil(A)]^{\perp }$}
$\implies S^{\perp }=Fil(A)$
$\bullet $ Si$\ S=Nul(A^{T})=\{x\in
%TCIMACRO{\U{211d} }%
%BeginExpansion
\mathbb{R}
%EndExpansion
^{n}$ / $A^{T}x=0\}$,
$Nul(A^{T})\perp Fil(A^{T})=Col(A)\implies $\fbox{$Nul(A^{T})=[Col(A)]^{%
\perp }$} $\implies S^{\perp }=Col(A)$
\subsection{7.8. Matriz de Proyecci\'{o}n}
\underline{\textit{Atenci\'{o}n}}\textit{: A partir de ahora usamos s\'{o}lo
p.i. can\'{o}nico.}
Sea $V=K^{n}$ (p.i.c.), $S$ subespacio de $V:$
\subsubsection{7.8.1. Definici\'{o}n}
$P\in K^{n}$ es la \textit{matriz de proyecci\'{o}n sobre S} si $%
P.v=p_{S}(v) $ \ tal que $P=QQ^{H},$ con $Q=[u_{1}$ $u_{2}$ $.....$ $u_{r}]$
\ y $B=\{u_{1},u_{2},.....,u_{r}\}$ una BON de S.
\subsubsection{7.8.2. Propiedades}
$\bullet $ \ $P$ es \'{u}nica
$\bullet $ \ $Q=[u_{1}$ $u_{2}$ $.....$ $u_{r}]$ \ $\implies $ \ $%
Col(Q)=gen\{u_{1},u_{2},.....,u_{r}\}=S$
$\bullet $ \ $Q^{H}Q=I$
$\bullet $ \ $Col(P)=Col(Q)=S$
$\bullet $ \ $P^{H}=P$ (Herm\'{\i}tica) \ $\wedge $ \ $P^{2}=P$ (Idempotente)
\textbf{Obs: }$rg(P)=dim(S)=r$
\subsubsection{7.8.3. Relaci\'{o}n entre $P_{S}$ y $P_{S^{\perp }}$}
Si $P_{S}$ la matriz de proyecci\'{o}n sobre S y $P_{S^{\perp }}$ la matriz
de proyecci\'{o}n sobre $S^{\perp }$ entonces:
$v=p_{S}(v)+p_{S^{\perp }}(v)$ \ \ $\forall $ $v\in R^{n}$
$v=P_{S}.v+P_{S^{\perp }}.v$
$I.v=(P_{S}+P_{S^{\perp }}).v$ $\ \implies $ \ \ \ \fbox{$P_{S}+P_{S^{\perp
}}=I$}
\subsubsection{7.8.4. Un par de observaciones}
$\bullet $ \ $P.v\in Col(P)$ $\ \ \implies \ \ \ v-P.v\in \lbrack
Col(P)]^{\perp }$
$\bullet $ $\ P$ es inversible $\iff \det (P)\neq 0\iff $ $...\iff
\underline{P=I}$
$\bullet $ $\ $Si $P\neq I$ \ $\implies $ \ \ $rg(P)\leq (n-1)$
$\bullet $ $\ P^{T}=P\implies Nul(P^{T})=[Col(P)]^{\perp }\implies
Nul(P)=[Col(P)]^{\perp }\implies \underline{Nul(P)\perp Col(P)}$
$\implies $\fbox{$Nul(P)\oplus Col(P)=R^{n}$}
\end{document}
++++
\\
__Apunte 7:__ Desigualdad de Cauchy-Schwarz (Apunte de Mancilla)
Descargar PDF: {{:materias:61:08:7._desigualdad_de_cauchy-schwarz_apunte_de_mancilla_.pdf|:materias:61:08:7._desigualdad_de_cauchy-schwarz_apunte_de_mancilla_.pdf}}
\\
__Apunte 8:__ Descomposición QR (Apunte de Mancilla)
Descargar PDF: {{:materias:61:08:8._descomposicion_qr_apunte_de_mancilla_.pdf|:materias:61:08:8._descomposicion_qr_apunte_de_mancilla_.pdf}}
\\
__Apunte 9:__ Cuadrados Mínimos
Descargar PDF: {{:materias:61:08:9._cuadrados_minimos.pdf|:materias:61:08:9._cuadrados_minimos.pdf}}
++++Ver fuente TEX:|
\documentclass[12pt]{article}
%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
\usepackage{amsmath}
\usepackage{sw20res1}
\setcounter{MaxMatrixCols}{10}
%TCIDATA{OutputFilter=LATEX.DLL}
%TCIDATA{Version=5.50.0.2953}
%TCIDATA{}
%TCIDATA{BibliographyScheme=Manual}
%TCIDATA{Created=Friday, October 09, 2009 17:57:23}
%TCIDATA{LastRevised=Friday, October 09, 2009 20:51:20}
%TCIDATA{}
%TCIDATA{}
%TCIDATA{CSTFile=sw20res1.cst}
\input{tcilatex}
\begin{document}
\title{Cuadrados M\'{\i}nimos}
\author{by gira}
\date{09/10/2009}
\maketitle
\name{by gira}
Sean $A\in R^{mxn},$ $b\in R^{m}$ y $x\in R^{n}:$
el sistema $Ax=b$ $\ $entonces es compatible $\iff $ $b\in Col(A)$
Ahora, sea el sistema $Ax=b$ tal que $b\notin Col(A)$ (uno incompatible)
entonces queremos la soluci\'{o}n de este sistema $($un $\widehat{x})$ de
forma tal de encontrar un $\widehat{b}$ que perteneza al $\func{col}(A)$ y
sea lo m\'{a}s "parecido" a $b$ posible, o mejor dicho, de forma que el
vector $\widehat{b}$ sea el que m\'{a}s se aproxime a $b$ (y el "error" sea
el m\'{\i}nimo)$,$ es decir de forma que $\widehat{b}=p_{Col(A)}(b)$
\FRAME{itbpFU}{2.8867in}{1.599in}{0in}{\Qcb{Ejemplo en R3}}{}{c.m.jpg}{%
\special{language "Scientific Word";type "GRAPHIC";maintain-aspect-ratio
TRUE;display "USEDEF";valid_file "F";width 2.8867in;height 1.599in;depth
0in;original-width 2.8435in;original-height 1.5627in;cropleft "0";croptop
"1";cropright "1";cropbottom "0";filename 'c.m.jpg';file-properties "XNPEU";}%
}
El error $\varepsilon $ es igual a $\left\Vert b-\widehat{b}\right\Vert .$
Entonces el objetivo es encontrar la soluci\'{o}n a este sistema: $A\widehat{%
x}=\widehat{b}=p_{Col(A)}(b)$. La soluci\'{o}n $\widehat{x}$ recibe el
nombre de \textit{"soluci\'{o}n por cuadrados m\'{\i}nimos"} del sistema $%
Ax=b.$
Entonces veamos ahora como encontrar $\widehat{x}$ sin necesidad de calcular
la proyecci\'{o}n de $b$ sobre $Col(A):$
$A\widehat{x}=p_{Col(A)}(b)\iff \left\{
\begin{array}{c}
A\widehat{x}\in Col(A) \\
b-A\widehat{x}\perp Col(A)%
\end{array}%
\right. $
Recordemos que para matrices reales y con el prod.\ interno can\'{o}nico se
cumple que:
$\left[ Col(A)\right] ^{\perp }=Nul\left( A^{T}\right) $
$\implies $ $b-A\widehat{x}\in Nul\left( A^{T}\right) \implies A^{T}(b-A%
\widehat{x})=0\implies A^{T}b-A^{T}A\widehat{x}=0\iff $%
\begin{equation}
\fbox{$A^{T}A\widehat{x}=A^{T}b$}
\end{equation}
A este sistema se lo llama \textit{"Ecuaciones normales de cuadrados m\'{\i}%
nimos"}. La soluci\'{o}n de este sistema es la soluci\'{o}n por cuadrados m%
\'{\i}nimos que buscabamos.
Sin embargo todo no termina aqu\'{\i}. Para este sistema tenemos dos casos:
que sea compatible determinado \textbf{(SCD)} o compatible indeterminado
\textbf{(SCI)}, y cada caso tiene sus propiedades; veamos:
\underline{Caso 1:} Si $A^{T}A$ es inversible, entonces no est\'{a} nada mal
que cambiemos el sistema a esta forma: $\widehat{x}=\left( A^{T}A\right)
^{-1}A^{T}b,$ De esta forma podemos afirmar que el sistema es compatible
determinado y la soluci\'{o}n es \'{u}nica. La matriz $A^{\text{\#}}=\left(
A^{T}A\right) ^{-1}A^{T}$ es llamada "matriz pseudoinversa de A".
Ahora, observen lo siguiente: Si $A^{T}A$ es inversible entonces como
recordar\'{a}n $rg(A^{T}A)=n,$ pero adem\'{a}s existe una propiedad que dice
que $rg(A^{T}A)=rg(A)$ (ver ej. 21 de la gu\'{\i}a), entonces este caso podr%
\'{\i}a resumirse de la siguiente forma:
Ecs. normales son SCD $\iff \widehat{x}$ es \'{u}nico $\iff $ $A^{T}A$ es
inversible $\iff rg(A^{T}A)=rg(A)=n\iff $ Las columnas de A son LI (o $%
det(A)\neq 0$, etc$)$ $\iff $ $\widehat{x}=\left( A^{T}A\right)
^{-1}A^{T}b\iff $ $\widehat{x}=A^{\text{\#}}b$
\textbf{Propiedades de la Pseudoinversa:}
1. $A^{\text{\#}}\in R^{nxm}$
2. $A^{\text{\#}}A=I$ \ \ \ \ \ \ (pues $A^{\text{\#}}A=\left( A^{T}A\right)
^{-1}A^{T}A=I)$
3. $AA^{\text{\#}}=P_{Col(A)}(b)$ \ \ \ (pues $\widehat{x}=A^{\text{\#}%
}b\rightarrow A\widehat{x}=AA^{\text{\#}}b\rightarrow p_{Col(A)}(b)=AA^{%
\text{\#}}b\rightarrow P_{Col(A)}(b)=AA^{\text{\#}})$
\bigskip
\underline{Caso 2:} Si $A^{T}A$ no es inversible, entonces $\widehat{x}$ no
es \'{u}nico y las ecs. normales son un SCI. Adem\'{a}s las columnas de A
son LD y su determinante es 0 (pues $rg(A)=$ $rg(A^{T}A)).$ Sin embargo
podemos encontrar una expresi\'{o}n de $\widehat{x}$ de la siguiente forma:
$\widehat{x}=\widehat{x}_{p}+\widehat{x}_{h}$
La soluci\'{o}n $\widehat{x}$ la podemos expresar como la suma de una
particular ($\widehat{x}_{p})$ y una homog\'{e}nea ($\widehat{x}_{h}).$ La
homog\'{e}nea ser\'{\i}a la soluci\'{o}n de $A^{T}A\widehat{x}=0,$ y la
particular es simplemente una soluci\'{o}n de las infinitas que hay. Podemos
observar entonces que $\widehat{x}_{h}\in Nul(A^{T}A),$ pero (ver ej. 21 de
la gu\'{\i}a) $Nul(A^{T}A)=Nul(A)$, entonces $\widehat{x}_{h}\in Nul(A)!.$
\textbf{Algunas propiedades a tener en cuenta:}
1. Sea $\widehat{x}$ soluci\'{o}n por cuadrados m\'{\i}nimos del sistema $%
Ax=b$ $\implies \left\Vert A\widehat{x}\right\Vert \leq \left\Vert
b\right\Vert $
2. $\widehat{x}=0$ es soluci\'{o}n por cuadrados m\'{\i}nimos del sistema $%
Ax=b\iff b\perp Col(A)$
\end{document}
++++
\\
__Apunte 10:__ Ecuaciones Diferenciales Lineales (Apunte de Mancilla)
Descargar PDF: {{:materias:61:08:10._ecuaciones_diferenciales_lineales_apunte_de_mancilla_.pdf|:materias:61:08:10._ecuaciones_diferenciales_lineales_apunte_de_mancilla_.pdf}}
\\
__Apunte 11:__ Autovalores y Autovectores - Diagonalización
Descargar PDF: {{:materias:61:08:11._autovalores_y_autovectores_-_diagonalizacion.pdf|:materias:61:08:11._autovalores_y_autovectores_-_diagonalizacion.pdf}}
++++Ver fuente TEX:|
\documentclass[19pt]{article}
\usepackage[a4paper]{geometry}
\usepackage[spanish]{babel}
\usepackage[latin1]{inputenc}
\usepackage{amsmath}
\usepackage[hang,bf]{caption}
\usepackage{helvet}
\setcounter{MaxMatrixCols}{10}
\renewcommand\familydefault{\sfdefault}
\numberwithin{equation}{section}
\numberwithin{figure}{section}
\numberwithin{table}{section}
\setlength{\textwidth}{6.5in}
\setlength{\textheight}{9.7in}
\setlength{\oddsidemargin}{in}
\setlength{\topmargin}{-0.5in}
\input{tcilatex}
\renewcommand{\baselinestretch}{1}
\parindent=0em
\begin{document}
\setcounter{page}{1}
\begin{center}
{\LARGE Autovalores y Autovectores - Diagonalización }
\bigskip \bigskip
{\normalsize Última edición: 09/11/2009}
\bigskip
\end{center}
\section{Autovalores y Autovectores}
\bigskip
Sea $A\in K^{nxn}$ (matriz cuadrada):
\subsection{Definición}
$\lambda \in K$ es \textit{autovalor} (ava) de $A$ si existe $v\in K^{n},$
no nulo ($v\neq 0_{K^{n}}$) tal que \fbox{$A.v=\lambda v$}. $v$ se denomina
como \textit{autovector} (ave) de $A$ asociado al ava $\lambda .$
\subsection{Polinomio Característico}
$\lambda $ ava de $A\iff A.v=\lambda .v$ $\iff A.v-\lambda .v=0_{K^{n}}\iff
(A-\lambda I).v=0_{K^{n}}$ $\iff v\in Nul(A-\lambda I)\iff Nul(A-\lambda
I)\neq \left\{ 0_{K^{n}}\right\} $ (pues $v\neq 0_{K^{n}}$) $\iff \det
(A-\lambda I)=0$ (pues $rg(A-\lambda I)$ debe ser menor a $n$).%
%TCIMACRO{\TeXButton{\smallskip}{\smallskip}}%
%BeginExpansion
\smallskip%
%EndExpansion
En conclusión: \fbox{$\lambda $ ava de $A\iff \det (A-\lambda I)=0$}$,$
donde $\det (A-\lambda I)$ se denomina como el \textit{polinomio caracterí%
stico} de $A$ y se denota como $p_{A}(\lambda )$%
%TCIMACRO{\TeXButton{\smallskip}{\smallskip}}%
%BeginExpansion
\smallskip%
%EndExpansion
$p_{A}(\lambda )=\det (A-\lambda I)$ es un polinomio de grado $n$ y sus raí%
ces son los autovalores de $A$.%
%TCIMACRO{\TeXButton{\medskip}{\medskip}}%
%BeginExpansion
\medskip%
%EndExpansion
\textbf{Obs:} Algunos profesores escriben "$(\lambda I-A).v"$ en vez de "$%
(A-\lambda I).v"$, \ pero no es dificil ver que cualquiera de las dos formas
esta bien.%
%TCIMACRO{\TeXButton{\smallskip}{\smallskip}}%
%BeginExpansion
\smallskip%
%EndExpansion
\textbf{Multiplicidad Algebraica:} Se la denota como $m_{a}(\lambda )$ y se
la denomina como la multiplicidad de $\lambda $ como raíz del polinomio
característico. (Es decir, si es raíz doble, simple, triple, etc.)
\subsubsection{Propiedades:}
$(a)$ Son equivalentes:
$a_{1}.$ $\lambda $ ava de $A$
$a_{2}.$ $\det (A-\lambda I)=0$
$a_{3}.$ $Nul(A-\lambda I)\neq \left\{ 0\right\} $
$a_{4}.$ $rg(A-\lambda I)
++++
\\
__Apunte 12:__ Matrices Simétricas y Hermíticas (Apunte de Mancilla)
Descargar PDF: {{:materias:61:08:12._matrices_simetricas_y_hermiticas_apunte_de_mancilla_.pdf|:materias:61:08:12._matrices_simetricas_y_hermiticas_apunte_de_mancilla_.pdf}}
\\
__Apunte 13:__ Formas Cuadráticas (Apunte de Mancilla)
Descargar PDF: {{:materias:61:08:13._formas_cuadraticas_apunte_de_mancilla_.pdf|:materias:61:08:13._formas_cuadraticas_apunte_de_mancilla_.pdf}}
\\
__Apunte 14:__ Sistemas de Ecuaciones Diferenciales (Apunte de Mancilla)
Descargar PDF: {{:materias:61:08:14._sistemas_de_ecuaciones_diferenciales_apunte_de_mancilla_.pdf|:materias:61:08:14._sistemas_de_ecuaciones_diferenciales_apunte_de_mancilla_.pdf}}
\\
__Apunte 15:__ Descomposición en Valores Singulares (Apunte de Mancilla)
Descargar PDF: {{:materias:61:08:15._descomposicion_en_valores_singulares_apunte_de_mancilla_.pdf|:materias:61:08:15._descomposicion_en_valores_singulares_apunte_de_mancilla_.pdf}}
\\
Cuaderno de cursada Acero
http://www.mediafire.com/?4rxd9f15vb8qa55