1 Sucesiones de numeros reales
1.1 Numeros reales
En el conjunto de los numeros reales tenemos definidas dos operaciones bina-
rias, suma y producto, y una relacion de orden
(a, b) → a + b
(a, b) → ab
a ≤ b.
Ellos cumplen los siguientes axiomas:
A1 Conmutatividad de la suma. Para todo par ordenado (a, b) de numeros
reales, a + b = b + a.
A2 Asociatividad de la suma Para toda terna (a, b, c) de numeros reales,
(a + b) + c = a + (b + c).
A3 Existencia de elemento neutro, o “cero”, para la suma. Existe un
numero real, que denotamos “0”, con la condicion de ser a + 0 = a para
todo numero real a.
A4 Existencia de elemento inverso, u opuesto, para la suma. Existe, para
cualquier numero real a, un numero real, −a, que satisface a + (−a) = 0.
A5 Conmutatividad del producto. Para todo par ordenado de numeros reales
(a, b), se tiene ab = ba.
A6 Asociatividad del producto. Para toda terna de numeros reales (a, b, c),
se tiene (ab)c = a(bc).
A7 Existencia de unidad para el producto. Existe un numero real, “1”,
1 6= 0, tal que a 1 = a para todo numero real a.
A8 Existencia de elemento inverso para el producto. Para todo numero real
a, a 6= 0, existe un numero real, a−1, o 1/a, que satisface aa−1 = 1.
A9 Distributividad del producto con respecto a la suma. Para toda terna
de numeros reales (a, b, c), vale que a(b + c) = ab + ac.
A10 Transitividad del orden. Si a ≤ b y b ≤ c, entonces a ≤ c.
A11 Antisimetrıa del orden. Si a ≤ b y b ≤ a, entonces a = b.
1
1 Sucesiones de numeros reales 2
A12 Para dos numeros reales cualesquiera a, b, es a ≤ b, o b ≤ a.
A13 a ≤ b ⇒ a + c ≤ b + c para todo numero real c.
A14 0 ≤ a y 0 ≤ b implican 0 ≤ ab.
A15 Axioma de completitud. Todo conjunto acotado superiormente tiene
supremo.
De estos axiomas se deducen las siguientes propiedades:
P1 El elemento neutro para la suma es unico, pues si hubiera dos, digamos
0 y 0′, serıa 0 = 0 + 0′ = 0′.
P2 a + b = a + c ⇒ b = c. En particular, el opuesto de a, −a, es unico.
Luego −(−a) = a. Escribimos a− b en lugar de a + (−b).
P3 ab = 0 es equivalente a a = 0 o b = 0.
P4 El conjunto de los numeros reales, sin el 0, satisface los mismos axiomas
con respecto al producto (Axiomas 5, 6, 7 y 8) que el conjunto de todos los
numeros reales con respecto a la suma (Axiomas 1, 2, 3 y 4). Luego aquellos
satisfacen las mismas propiedades que estos para la suma. A saber,
el elemento neutro para el producto es unico.
Si a 6= 0 y ab = ac, entonces b = c. En particular, el inverso es unico.
Ademas (a−1)−1 = a.
Si b 6= 0, entonces ab−1(= a(1/b)) tambien se escribe a/b.
El cero no tiene inverso, ya que a0 = 0 para todo numero real a.
P5 Si a 6= 0, b 6= 0, entonces (ab)−1 = a−1b−1.
P6 Se tiene (−a)b = a(−b) = −(ab). En particular, −a = (−1)a.
P7 Cuando a ≤ b y a 6= b, se escribe a < b. Ası, a ≤ b es equivalente a
a < b o a = b.
P8 Para dos numeros reales cualesquiera a, b vale una y solo una de las
siguientes relaciones
a < b, a = b, b < a
(b < a tambien se escribe a > b).
P9 a ≤ b y b < c implican a < c.
P10 a ≤ b y c ≤ d implican a+ c ≤ b+d. Si ademas a < b o c < d, entonces
1 Sucesiones de numeros reales 3
a + c < b + d.
P11 a ≤ b es equivalente a a+c ≤ b+c. a < b es equivalente a a+c < b+c.
P12 Las relaciones a ≤ b, 0 ≤ b− a, a− b ≤ 0, −b ≤ −a, son equivalentes.
Las siguientes relaciones son tambien equivalentes: a < b, 0 < b− a, a− b <
0, −b < −a.
P13 Si a ≥ 0, b ≥ 0, entonces a+ b ≥ 0. Mas aun, es a+ b > 0 o a = b = 0.
P14 Para cualquier numero real a, se define
|a| ={
a si a ≥ 0−a si a < 0.
Se tiene | − a| = |a|, |a| = 0 si y solo si a = 0.
P15 Si α > 0, entonces la relacion |a| ≤ α es equivalente a −α ≤ a ≤ α.
|a| < α es equivalente a −α < a < α.
P16 Para a, b reales cualesquiera, se tiene
|a + b| ≤ |a|+ |b|,||a| − |b|| ≤ |a− b|.
P17 Si c ≥ 0, entonces a ≤ b ⇒ ac ≤ bc.
P18 Regla de los signos
{a ≥ 0 y b ≤ 0} ⇒ ab ≤ 0
{a ≤ 0 y b ≤ 0} ⇒ ab ≥ 0
{a > 0 y b > 0} ⇒ ab > 0
{a > 0 y b < 0} ⇒ ab < 0
{a < 0 y b < 0} ⇒ ab > 0.
P19 Para dos numeros reales cualesquiera a, b se tiene |ab| = |a||b|.P20 Si a > 0, entonces a−1 > 0. Si c > 0, entonces la relacion a ≤ b es
equivalente a ac ≤ bc, y la relacion a < b es equivalente a ac < bc. La relacion
0 < a < b es equivalente a 0 < b−1 < a−1.
P21 Para cualquier numero real a se define
sig (a) =
1 si a > 0−1 si a < 0
0 si a = 0.
1 Sucesiones de numeros reales 4
Sigue que sig (ab) = sig (a) sig (b), a = |a| sig (a).
P22 Las relaciones 0 < a1 ≤ a2, 0 < b1 ≤ b2, implican a1b1 ≤ a2b2. Si
ademas a1 < a2 o b1 < b2, entonces a1b1 < a2b2.
P23 La relacion a2 ≤ b2 es equivalente a |a| ≤ |b|. La relacion a3 ≤ b3 es
equivalente a a ≤ b.
1 Sucesiones de numeros reales 5
1.2 Sucesiones numericas
Consideremos una aplicacion
N 7→ R,
esto es, una ley de correspondencia que asigna a cada numero natural n un
numero real an. Estos numeros reales an, imagen de los numeros naturales,
quedan ordenados de acuerdo con la relacion “<” que existe en N. Debe
entenderse “ordenados” con respecto a su enumeracion, no con respecto a su
valor numerico:
a1, a2, a3, · · · .Esto se llama una sucesion de numeros reales. Tambien se la indica {an}.Ejemplos
{1/n} = 1, 1/2, 1/3, · · ·{1/2n} = 1/2, 1/4, 1/8, · · ·
{n} = 1, 2, 3, · · ·{
n + 1
n
}= 2, 3/2, 4/3, · · ·
0, 1/2, 0, −1/3, 0, 1/4, 0, −1/5, · · ·0, 1, 0, 2, 0, 3, · · ·
0, 1, 0, 11, 0, 111, · · ·0, 49, 0, 499, 0, 4999, · · ·{1} = 1, 1, 1, · · · .
Puede ocurrir que an se aproxime a un determinado numero real l a medida
que n crece. En este caso l se llama lımite de la sucesion dada, y se indica
l = limn→∞
an, o bien an → l cuando n →∞.
La definicion precisa es la siguiente:
l = limn→∞ an si y solo si para cada ε > 0, arbitrario, existe un
numero natural n0, que depende de ε, tal que para n > n0 vale
|an − l| < ε.
1 Sucesiones de numeros reales 6
Recordar que |an − l| < ε es equivalente a l − ε < an < l + ε. Conviene
considerar aquı el caso de lımite infinito. Si bien ∞ no es un numero, tambien
se simboliza limn→∞ an = ∞, o an →∞ cuando n →∞.
limn→∞ an = ∞ si y solo si dado un numero real M > 0, arbitrario,
existe n0(M) ∈ N tal que para n > n0 es |an| > M .
limn→∞ an = +∞ (respectivamente −∞) si y solo si dado un
numero real M > 0, arbitrario, existe n0(M) tal que para n ∈N, n > n0, vale an > M (respectivamente an < −M).
Dada una sucesion, puede ocurrir que tenga lımite finito (sucesion conver-
gente), o lımite infinito (sucesion divergente) o bien que no tenga lımite, ni
finito ni infinito (sucesion oscilante). Se puede probar facilmente que estos
tres casos son excluyentes entre sı.
1.3 Propiedades de los lımites finitos
Supongamos que an → l cuando n →∞.
(a) Desde un termino en adelante, es decir, para todo an con n > n0, an
se conserva mayor que cualquier numero menor que l, y menor que cualquier
numero mayor que l.
(b) Si sig (l) 6= 0 entonces a partir de un termino en adelante, an tiene el
mismo signo que l.
(c) Si dos sucesiones tienen lımites distintos, entonces los terminos de la de
mayor lımite superan a los de menor lımite desde un termino en adelante.
(d) Si an → a, bn → b, y a partir de un termino en adelante es an < bn,
entonces a ≤ b.
(e) El lımite es unico.
(f) Si an → l, bn → l, y a partir de un termino en adelante es
an ≤ cn ≤ bn,
entonces cn → l.
1 Sucesiones de numeros reales 7
1.4 Subsucesiones
Una sucesion es una aplicacion g : N → R. Supongamos que tenemos una
aplicacion h : N→ N, estrictamente creciente, es decir, h(n) < h(m) si n < m.
Luego la composicion
g ◦ h, N h→ N g→ R,
es una aplicacion de N en R. Por lo tanto es tambien una sucesion, que por
provenir de la otra de esa manera se llama subsucesion de la otra. Si, por
ejemplo, tenemos la sucesion a1, a2, · · ·, y
h(1) = 3, h(2) = 5, h(3) = 6, h(4) = 10, · · · ,entonces la subsucesion que se forma es {bn}, donde
b1 = a3, b2 = a5, b3 = a6, b4 = a10, · · · .Proposicion Si una sucesion es convergente (respectivamente, divergente),
entonces cualquier subsucesion de ella sera tambien convergente (respectiva-
mente, divergente).
Una sucesion {an} se dice creciente (respectivamente, decreciente) si
a1 ≤ a2 ≤ a3 ≤ · · ·(respectivamente, a1 ≥ a2 ≥ a3 ≥ · · ·). Si todas las desigualdades son estrictas,
entonces se llaman estrictamente crecientes o estrictamente decrecientes.
Una sucesion {an} se dice acotada superiormente (respectivamente, inferi-
ormente) si existe un numero real M > 0 tal que an < M (respectivamente,
an > −M).
Proposicion Toda sucesion creciente (respectivamente, decreciente) y acotada
superiormente (respectivamente, acotada inferiormente) tiene lımite finito.
La demostracion de esta Proposicion se basa en el Axioma 15 de los numeros
reales. En realidad, lim an resulta ser sup(an) en el caso creciente e inf(an)
en el caso decreciente. Observar que la condicion de ser creciente, o decre-
ciente, basta pedirla a partir de un termino en adelante. Lo mismo para la
acotacion superior o inferior, ya que una cantidad finita de numeros siempre
estan acotados.
Un ejemplo notable de sucesion acotada superiormente y estrictamente cre-
ciente es
{(1 + 1/n)n}.
1 Sucesiones de numeros reales 8
Una sucesion {an} puede no tener lımite pero sı pueden tenerlo subsucesiones
de ella. Si una subsucesion de {an} tiene un lımite l, entonces l se llama lımite
de oscilacion de la sucesion {an}. De esta manera, una sucesion puede tener
muchos (en realidad, infinitos) lımites de oscilacion. Por ejemplo, sea {an} la
sucesion
1, 0, 1, 0, 1, · · · .La subsucesion
a1, a3, a5, · · ·tiene lımite 1, mientras que la subsucesion
a2, a4, a6, · · ·
tiene lımite 0. Puede probarse facilmente que esta sucesion tiene solo estos dos
lımites de oscilacion.
Una sucesion tiene siempre lımites de oscilacion, con valor finito o infinito. De
entre todos los lımites de oscilacion hay uno que es el mayor de ellos, finito o
infinito. Se le da el nombre de lımite superior, y se simboliza
lim sup an o lim an.
Asimismo, siempre hay un menor lımite de oscilacion, finito o infinito, que se
llama lımite inferior de la sucesion, y se denota
lim inf an o lim an.
Valen los siguientes resultados:
(a) lim sup an = +∞ si y solo si {an} no es acotada superiormente.
(b) lim inf an = −∞ si y solo si {an} no es acotada inferiormente.
(c) La sucesion {an} tiene lımite, finito o infinito con signo determinado,
si y solo si lim inf an = lim sup an. En este caso el valor de su lımite es el
coincidente de lim inf an y lim sup an.
Un criterio general de convergencia
Comprobar si una sucesion tiene lımite por su misma definicion supone conocer
el valor del lımite. Existe un criterio que permite determinar la existencia de
lımite finito de una sucesion sin conocer su supuesto lımite. Es la llamada
1 Sucesiones de numeros reales 9
condicion de Cauchy.
Definicion Una sucesion an se dice de Cauchy si dado ε > 0, arbitrario, existe
n0(ε) ∈ N tal que si n,m ∈ N, n ≥ n0, m ≥ n0, entonces |an − am| < ε.
Proposicion Una sucesion an tiene lımite finito si y solo si es de Cauchy.
Demostracion: Supongamos que an → l, l finito. Dado ε > 0, existe n0 ∈ Ntal que |an − l| < ε/2 si n ≥ n0. Luego, si n ≥ n0, m ≥ n0, sigue que
|an − am| = |an − l + l − am| ≤ |an − l|+ |l − am| < ε/2 + ε/2 = ε.
Por lo tanto {an} es de Cauchy.
Recıprocamente, supongamos ahora que {an} es de Cauchy. La demostracion
sigue los siguientes pasos:
1ro Una sucesion de Cauchy es acotada. En efecto, un conjunto finito de
numeros reales es acotado. Luego el conjunto {a1, a2, · · · , an0} es acotado.
Para n > n0 tenemos
|an| = |an − an0 + an0| ≤ |an − an0|+ |an0| < |an0|+ ε.
Luego el conjunto {an0+1, an0+2, · · ·} es tambien acotado. Como la union de
dos conjuntos acotados es otro conjunto acotado, sigue que la sucesion {an} es
acotada.
2do Debido a los puntos (a) y (b) anteriores, toda sucesion acotada tiene
lımite superior y lımite inferior finitos.
3ro Debe ser
l = lim inf an = lim sup an = l.
En efecto, supongamos que l < l, y sea ε = l−l > 0. Como estamos suponiendo
que {an} es una sucesion de Cauchy, sigue que existe n0 ∈ N tal que
|am − an| < ε/3 si m ≥ n0, n ≥ n0.
Por otra parte, existe una subsucesion {ani} de {an} tal que ani
→ l, y existe
otra subsucesion {ami} de an tal que ami
→ l. Por lo tanto, a partir de un
cierto termino de la primera subsucesion vale
|ani− l| < ε/3.
Analogamente, a partir de cierto termino de la segunda subsucesion vale
|ami− l| < ε/3.
1 Sucesiones de numeros reales 10
Sigue que para estos terminos
ε = |l − l| = |l − ami+ ami
− ani+ ani
− l|≤ |l − ami
|+ |ami− ani
|+ |ani− l| < |ami
− ani|+ 2/3 ε.
Luego |ami− ani
| > ε/3. Pero esto esta en contradiccion con el hecho de que
a partir del termino an0 , todos los terminos de la sucesion {an} satisfacen
|an − am| < ε/3.
1.5 Calculo de lımites
A diferencia de lo que ocurre con las operaciones de suma y producto de
numeros reales, no existe un algoritmo general que permita calcular lımites de
sucesiones. El metodo consiste entonces en calcular por definicion el lımite de
determinadas sucesiones sencillas para despues reducir a estas sucesiones de
expresion mas complicada. Para realizar esto debemos saber como se comporta
el lımite cuando operamos con sucesiones.
Suma
Dadas dos sucesiones {an}, {bn}, podemos formar la sucesion suma
{an + bn} = a1 + b1, a2 + b2, · · · .
Para el lımite de la sucesion suma tenemos los siguientes casos:
{an → a, bn → b} ⇒ an + bn → a + b{an →∞, {bn} acotada } ⇒ an + bn →∞{an → +∞, bn → +∞} ⇒ an + bn → +∞{an → −∞, bn → −∞} ⇒ an + bn → −∞.
Si an → +∞, bn → −∞, entonces no puede darse una respuesta general para
lim(an + bn).
Producto
Dadas dos sucesiones {an}, {bn}, la sucesion producto es
{anbn} = a1b1, a2b2, · · · .
Obtenemos que
{an → a, bn → b} ⇒ anbn → ab{an → 0, {bn} acotada } ⇒ anbn → 0{an →∞, |bn| > K > 0} ⇒ anbn →∞.
1 Sucesiones de numeros reales 11
Si an → 0 y bn → ∞, entonces no hay respuesta general para el lımite del
producto.
Cociente
La sucesion cociente es
{an/bn} = a1/b1, a2/b2, · · · .
Sigue que{an → a, bn → b 6= 0} ⇒ an/bn → a/b{{an} acotada , bn →∞} ⇒ an/bn → 0{|an| > K > 0, bn → 0} ⇒ an/bn →∞{an →∞, {bn} acotada } ⇒ an/bn →∞.
Si an → 0 y bn → 0, o bien an → ∞, bn → ∞, entonces no hay respuesta
general para el lımite del cociente.
Logaritmos
Si α > 0, α 6= 1, b > 0, se define logα b a un numero x que satisface αx = b.
Dada la sucesion {bn}, bn > 0, queda formada la sucesion
{logα bn} = logα b1, logα b2, · · · .
Si bn → b > 0, entonces logα bn → logα b.
En efecto, suponiendo α > 1, para ε > 0 es αε > 1, α−ε < 1. Luego, como
bn/b → 1, sigue que a partir de un n en adelante es
α−ε < bn/b < αε.
Tomando logaritmo en estas dos desigualdades sigue que
−ε < logα bn − logα b < ε,
lo que prueba que logα bn → logα b.
Si bn → 0, bn > 0, y α > 1, entonces logα bn → −∞. Si, en cambio, α < 1,
entonces logα bn → +∞.
Potencia
Si {an}, an > 0, {bn}, son dos sucesiones, entonces puede construirse la
sucesion potencia
{abnn } = ab1
1 , ab22 , · · · .
1 Sucesiones de numeros reales 12
Si an → a > 0, y bn → b, entonces abnn → ab.
Ademas{an → 0, bn → b > 0} ⇒ abn
n → 0{an → 0, bn → b < 0} ⇒ abn
n → +∞{an → a > 1, bn → +∞} ⇒ abn
n → +∞{an → a > 1, bn → −∞} ⇒ abn
n → 0{an → a < 1, bn → +∞} ⇒ abn
n → 0{an → a < 1, bn → −∞} ⇒ abn
n → +∞{an → 0, bn → +∞} ⇒ abn
n → 0{an → 0, bn → −∞} ⇒ abn
n → +∞{an → +∞, bn → +∞} ⇒ abn
n → +∞{an → +∞, bn → −∞} ⇒ abn
n → 0.
En los siguientes casos no puede darse una respuesta general.
an → 0, bn → 0,
an → +∞, bn → 0,
an → 1, bn → +∞,
an → 1, bn → −∞.
2 Series numericas
El concepto de lımite de una sucesion permite definir una suma de infinitos
terminos o serie numerica
∞∑i=1
ai = a1 + a2 + · · · .
Sea
S1 = a1
S2 = a1 + a2
......
...
Sn = a1 + a2 + · · ·+ an
......
...
Entonces se define ∞∑i=1
ai = limn→∞
Sn.
De acuerdo con esta definicion, una serie puede ser convergente, divergente u
oscilante, en concordancia con el caracter de la sucesion de sumas parciales.
De las propiedades validas para sumas finitas se mantiene la propiedad dis-
tributiva:
k
∞∑i=1
ai =∞∑i=1
kai.
La propiedad asociativa se preserva para series convergentes o divergentes pero
no vale en general para series oscilantes. Por ejemplo, la serie
1− 1 + 1− 1 + · · ·
es oscilante pues sus sumas parciales son
1, 0, 1, 0, 1, · · · .
Pero si asociamos
(1− 1) + (1− 1) + · · · ,se convierte en
0 + 0 + 0 + · · · = 0,
serie convergente.
13
2 Series numericas 14
Serie geometrica
Sea a 6= 0, k 6= 1. La serie
a + ak + ak2 + ak3 + · · · = a
∞∑i=1
ki−1
se llama serie geometrica de razon k. La suma parcial enesima es
Sn = a + ak + ak2 + · · ·+ akn−1.
De aquı
kSn = ak + ak2 + · · ·+ akn = Sn+1 − a.
Por otra parte Sn+1 − Sn = akn. Luego
kSn + a− Sn = akn,
(k − 1)Sn = a(kn − 1).
Por lo tanto
Sn = akn − 1
k − 1= a
1− kn
1− k.
Vemos que, si 0 ≤ |k| < 1, Sn converge a a1−k
. Si k > 1, entonces Sn → +∞.
Si k < −1, entonces Sn → ∞. Si k = −1, entonces la serie geometrica es
oscilante. En conclusion, la serie geometrica de razon k es convergente cuando
y solo cuando −1 < k < 1.
Criterio de Cauchy para series
Dado que la suma de una serie es el lımite de la sucesion de sus sumas parciales,
el criterio de convergencia de Cauchy para sucesiones es aplicable a las series.
Una serie∑∞
i=1 ai es convergente si y solo si dado ε > 0, arbitrario,
existe n0(ε) ∈ N tal que para n0 ≤ n < m vale |∑mi=n+1 ai| < ε.
En particular, si m = n + 1, queda |an+1| < ε. Esto dice que si una serie es
convergente entonces su termino general tiende a 0. Pero !cuidado!, el hecho
recıproco no es en general cierto: hay series no convergentes cuyo termino
general sı tiende a cero. El ejemplo tıpico es la llamada serie armonica,
∞∑i=1
1/i = 1 + 1/2 + 1/3 + · · · .
2 Series numericas 15
Convergencia absoluta
Definicion Una serie∑∞
i=1 ai se dice absolutamente convergente si la serie∑∞i=1 |ai| es convergente.
Dado que |∑mi=n+1 ai| ≤
∑mi=n+1 |ai|, el criterio de convergencia de Cauchy
afirma que una serie absolutamente convergente es convergente. La implicacion
recıproca no es en general cierta: una serie puede ser convergente pero no
absolutamente convergente. Por ejemplo, probaremos mas adelante que∞∑i=1
(−1)i+11/i = 1− 1/2 + 1/3− 1/4 + 1/5− · · ·
es convergente, pero∞∑i=1
|(−1)i+11/i| = 1 + 1/2 + 1/3 + · · ·
es divergente.
2.1 Series de terminos positivos
Si una serie tiene todos sus terminos positivos (o todos positivos a partir de
un termino en adelante), entonces la sucesion de sus sumas parciales es cre-
ciente (o creciente a partir de un termino en adelante, respectivamente). Si
todas estas sumas parciales estan acotadas, entonces la serie sera convergente.
Si las sumas parciales no estan acotadas, entonces la serie sera divergente
a +∞. Por tanto, una serie de terminos positivos no puede ser oscilante
(Como∑
ai = −1∑
(−ai), todos los resultados que se obtengan para series
de terminos positivos son tambien validos para series de terminos negativos).
Sean∑
ai,∑
bi, dos series de terminos positivos,∑
bi convergente.
(i) Si a partir de un termino es ai ≤ bi, entonces∑
ai es convergente.
(ii) Si a partir de un termino es ai/bi ≤ λ, entonces∑
ai es convergente
(Criterio de comparacion de primera especie).
(iii) Si a partir de un termino es ai+1/ai ≤ bi+1/bi, entonces∑
ai es con-
vergente (Criterio de comparacion de segunda especie).
Probemos (iii). Supongamos que la desigualdad vale a partir del termino
indicado por i0. Luego
ai0+1
ai0
ai0+2
ai0+1
· · · ai0+p
ai0+p−1
≤ bi0+1
bi0
bi0+2
bi0+1
· · · bi0+p
bi0+p−1
,
2 Series numericas 16
donde p ∈ N es arbitrario. Sigue que
ai0+p
ai0
≤ bi0+p
bi0
,
es decir
ai0+p ≤ ai0
bi0
bi0+p,
o bienai0+p
bi0+p
≤ ai0
bi0
.
Comoai0
bi0es un numero fijo, sigue del criterio de primera especie que
∑ai
debe ser convergente.
Estos criterios de comparacion permiten decidir cuando una serie es con-
vergente sabiendo que otra serie de terminos mas grandes lo es. Asimismo, si
una serie de terminos positivos tiene terminos mas grandes que los de una serie
divergente, entonces aquella es tambien divergente. Las series que se usan para
comparar son las series geometrica y armonica generalizada. Esta ultima es
∞∑i=1
1/iα = 1 + 1/2α + 1/3α + · · · ,
donde α > 0.
Si α ≤ 1, entonces la serie armonica es divergente. Si α > 1, entonces es
convergente.
Aplicando la comparacion directa con una serie geometrica de razon k
menor que 1 sigue que si a partir de un cierto termino es
n√
an < k,
entonces∑∞
n=1 an es convergente (Criterio de Cauchy). Si, en cambio, para
infinitos terminos an es n√
an ≥ 1, entonces la serie es divergente pues no se
cumple la condicion necesaria de convergencia, a saber an → 0 cuando n →∞.
Si a partir de un termino an0 de la serie es
an+1
an
≤ k < 1,
entonces∑∞
n=1 an es convergente (Criterio de D’Alembert). En efecto, escribi-
endo an+1
an≤ kn+1
kn = k, y aplicando el criterio de segunda especie con la serie
geometrica∑∞
n=1 kn+1, convergente, sigue el resultado. Si, en cambio, a partir
2 Series numericas 17
de cierto termino se mantiene an+1
an≥ 1, entonces la serie es divergente pues a
partir de alguno de ellos, sus terminos son crecientes y por lo tanto no puede
cumplirse la condicion necesaria de ser an → 0 cuando n →∞.
Si a partir de cierto termino es
n
(1− an+1
an
)≥ M > 1,
entonces la serie∑
an es convergente (Criterio de Raabe). Si, en cambio, a
partir de un cierto termino es n(1− an+1
an) ≤ 1, entonces la serie es divergente.
2.2 Estudio de series en general
Las series que no mantienen su signo a partir de ningun termino no pueden
ser estudiadas por los criterios anteriores. Caso particular de estas series son
las llamadas series alternadas.
Una serie∑
an se dice alternada cuando sig (an+1) 6= sig (an) para todo
n ∈ N.
Una serie alternada es convergente si |an| ≥ |an+1| para todo n ∈ Ny ademas limn→∞ an = 0 (Criterio de Leibnitz).
Ejemplo∑∞
n=1(−1)n+11/n = 1 − 1/2 + 1/3 − · · ·. Puede probarse que esta serie
converge a ln 2.
En general, si una serie no conserva el signo de sus terminos a partir de
ningun termino, entonces se puede analizar las dos series que se forman con
sus terminos positivos y negativos, respectivamente. Si∑∞
i=1 ai es una serie en
tal condicion, llamemos pi a los terminos de la serie que son positivos, y qi a
los terminos negativos de la serie. Desde un principio supongamos que ai → 0
cuando i →∞, ya que si esto no vale la serie no puede ser convergente. Bajo
esta suposicion pueden presentarse los siguientes casos:
(a)∑
pi y∑
qi ambas convergentes. En este caso∑
ai es absolutamente
convergente, y por lo tanto tambien convergente. Ademas
∑ai =
∑pi +
∑qi,
∑|ai| =
∑pi −
∑qi.
2 Series numericas 18
(b)∑
pi convergente,∑
qi divergente. En este caso tenemos∑
ai = −∞.
(c)∑
pi divergente,∑
qi convergente. Aquı es∑
ai = +∞.
(d)∑
pi y∑
qi ambas divergentes. En este caso∑
ai se dice condicional-
mente convergente. Reordenando convenientemente sus terminos es posible
obtener una serie convergente a cualquier valor previamente estipulado, di-
vergente u oscilante. Este caso es el de las series convergentes que no son
absolutamente convergentes. Por ejemplo, la serie
1− 1/2 + 1/3− 1/4 + 1/5− · · · .
3 Funciones reales de variable real
3.1 Conjuntos de la recta
Sea A 6= ∅ un conjunto de numeros reales.
A se dice acotado superiormente si existe M ∈ IR tal que a ≤ M
para todo a ∈ A.
En este caso existe una menor cota superior, llamada extremo superior de A,
o supremo de A (sup A).
A se dice acotado inferiormente si existe K ∈ IR tal que K ≤ a
para todo a ∈ A.
La mayor de las cotas inferiores se llama extremo inferior de A o ınfimo de
A (inf A). Un conjunto es acotado cuando lo es superior e inferiormente.
En general trabajaremos con determinados conjuntos de la recta, a saber los
llamados intervalos.
Un intervalo I es un conjunto no vacıo de numeros reales con la siguiente
propiedad: cada vez que a ∈ I, b ∈ I, a < b, entonces c ∈ I si a < c < b. Los
intervalos acotados son:
(a) I = {x ∈ IR : a ≤ x ≤ b}, a ≤ b.
Intervalo acotado cerrado o intervalo compacto.
(b) I = {x ∈ IR : a < x < b}, a < b.
Intervalo acotado abierto.
(c) I = {x ∈ IR : a ≤ x < b}, a < b.
Intervalo acotado semicerrado o semiabierto (cerrado a izquierda, abierto a
derecha).
(d) I = {x ∈ IR : a < x ≤ b}, a < b.
Intervalo acotado semicerrado o semiabierto (cerrado a derecha, abierto a
izquierda).
Los intervalos no acotados son: la recta misma, y semirrectas “izquierdas” o
“derechas”, cerradas o abiertas.
Todos estos intervalos se denotan, respectivamente,
19
3 Funciones reales de variable real 20
[a, b], (a, b), [a, b), (a, b], IR o (−∞, +∞), (−∞, a], (−∞, a), [a,∞), (a,∞).
Si a ∈ IR, un entorno de a es un intervalo abierto de la forma
(a− δ, a + δ), δ > 0.
Un entorno reducido de a es de la forma (a− δ, a) ∪ (a, a + δ).
Sea A un subconjunto no vacıo de IR.
a ∈ IR se dice punto de acumulacion de A si todo entorno de a
contiene infinitos puntos de A.
Es obvio que si A es un conjunto de finitos puntos, entonces no existe ningun
punto de acumulacion de A. Por el contrario, si A es un conjunto acotado de
infinitos elementos, entonces siempre existe al menos un punto de acumulacion
de A.
Un conjunto A se dice cerrado si todo punto de acumulacion de A
pertenece al conjunto.
De aquı, todo conjunto finito es cerrado. Todo intervalo cerrado es un conjunto
cerrado.
Un punto a se dice interior a un conjunto A si existe un entorno
de a contenido en A.
A se dice abierto si todos sus puntos son interiores al conjunto.
Todo intervalo abierto es un conjunto abierto. Un conjunto es abierto si y
solo si su complementario es cerrado. IR y ∅ son los unicos subconjuntos de IR
cerrados y abiertos simultaneamente.
3.2 Funciones reales de variable real
Sean A y B dos conjuntos no vacıos cualesquiera.
Se llama funcion de A en B a un mecanismo que asigna a cada
elemento de A un elemento en B.
3 Funciones reales de variable real 21
A se llama dominio de la funcion. B se llama codominio o recorrido de la
funcion. Se escribe
f : A 7→ B, o bien Af7→ B.
Si x ∈ A, se denota f(x) al elemento en B que la funcion asigna a x.
La imagen de la funcion es el subconjunto del codominio B que
consiste de todos los elementos de la forma f(x), con x ∈ A.
Caso particular es la llamada funcion constante, que asigna a todo elemento
x ∈ A un elemento fijo b ∈ B.
Una funcion se llama inyectiva si, cada vez que x 6= y, x, y ∈ A, es
f(x) 6= f(y).
Se llama suprayectiva si su imagen coincide con su codominio.
Una funcion que al mismo tiempo es inyectiva y suprayectiva se
llama biyectiva.
Si g : B 7→ C es una funcion cuyo dominio contiene a la imagen de f , entonces
queda determinada la funcion composicion
g ◦ f : A 7→ C,
definida su ley de correspondencia por
(g ◦ f)(x) = g(f(x)).
Cuando el codominio B coincide con el dominio A queda establecida la lla-
mada funcion identidad, caso especial de funcion biyectiva, cuya ley de corres-
pondencia se define por
idA(x) = x para todo x ∈ A.
Si f : A 7→ B es una funcion biyectiva, entonces existe su funcion inversa
f−1 : B 7→ A, que satisface
f ◦ f−1 = idB, f−1 ◦ f = idA.
Hasta aquı hemos visto definiciones validas para funciones cuyo dominio y
codominio son conjuntos cualesquiera. De aquı en adelante supondremos que
3 Funciones reales de variable real 22
el codominio es IR y el dominio es generalmente un intervalo. Tales funciones
reales de variable real permiten una representacion grafica de las mismas.
Tambien es a veces posible expresar analıticamente la ley de corresponden-
cia mediante las operaciones de los numeros reales. Mas aun, de funciones
definidas en un mismo dominio pueden obtenerse otras, operando entre ellas.
Por ejemplo, la ley de correspondencia puede estar dada por un polinomio
Pn(x) = anxn + an−1xn−1 + · · ·+ a1x + a0,
donde an, an−1, · · · , a0 son numeros reales fijos y x, como es habitual, representa
un valor generico del dominio de la funcion. O tambien puede estar dada por
un cociente de polinomios
Pn(x)
Qn(x), Qn(x) 6= 0.
Funcion potencial
Es la definida por
f : [0,∞) 7→ [0,∞), f(x) = xp, p > 0,
o bien
f : (0,∞) 7→ (0,∞), f(x) = xp, p < 0.
Como es una funcion biyectiva, tiene funcion inversa, cuya expresion es x1/p.
Luego su inversa es tambien una funcion potencial.
Funcion exponencial
Es la definida por
f : IR 7→ (0,∞), f(x) = ax, a > 0, a 6= 1.
Como tambien es biyectiva, existe su funcion inversa, a saber
f : (0,∞) 7→ IR, f(x) = loga x.
3 Funciones reales de variable real 23
Funciones circulares
Consideremos un triangulo rectangulo de lados a, b, c, donde c es la hipotenusa,
que suponemos de longitud 1, y x es el angulo, en radianes, entre los lados a
y c. Se define
senx = b/c, cos x = a/c, tan x = b/a = senx/ cos x.
Definidas en principio en x ∈ [0, 2π], se las extiende a todo x ∈ IR por period-
icidad.
Tenemos que
sen (−x) = −senx, cos(−x) = cos x
para todo x ∈ IR. Ademas
sen2x + cos2 x = 1.
Otras relaciones utiles son:
sen (α + β) = sen α cos β + sen β cos α,
cos(α + β) = cos α cos β − sen α sen β.
Luego
sen 2x = 2 sen x cos x,
cos 2x = cos2 x− sen2 x = 2 cos2 x− 1.
Las funciones
sen x : [−π/2, π/2] 7→ [−1, 1],
cos x : [0, π] 7→ [−1, 1],
tan x : (−π/2, π/2) 7→ IR,
son biyectivas. Sus funciones inversas son, respectivamente
arcsen x : [−1, 1] 7→ [−π/2, π/2],
arccos x : [−1, 1] 7→ [0, π],
arctan x : IR 7→ (−π/2, π/2).
3 Funciones reales de variable real 24
Funciones hiperbolicas
Las funciones seno hiperbolico y coseno hiperbolico se definen como
shx : IR 7→ IR, shx = [ex − e−x]/2,
chx : IR 7→ [1,∞), chx = [ex + e−x]/2.
La tangente hiperbolica se define como
tghx : IR 7→ (−1, 1), tghx = shx/chx.
Tenemos que
chx + shx = ex, chx− shx = e−x, ch 2 x− sh 2 x = 1.
Como la funcion seno hiperbolico es biyectiva, existe su funcion inversa. Obteng-
amos su expresion. Llamemos y = shx. Como
ch 2 x = sh 2 x + 1 = y2 + 1,
y chx es siempre positivo, sigue que chx = +√
y2 + 1. Luego y+√
y2 + 1 = ex.
Tomando en esta igualdad logaritmo neperiano, resulta x = ln(y +√
y2 + 1).
Ası,
sh−1 x = ln(x +√
x2 + 1).
Analogamente se puede obtener la funcion inversa de ch x : [0,∞) 7→ [1,∞).
3.3 Lımite de una funcion
Sea f : A 7→ IR una funcion real de variable real y supongamos que el conjunto
A tiene un punto de acumulacion a. Vamos a definir el lımite de la funcion f
en el punto a. Se escribe
l = limx→a
f(x), o bien f(x) → l cuando x → a.
Por ser a punto de acumulacion de A siempre existen sucesiones acotadas
{xn}, xn ∈ A \ {a}, xn → a.
Definicion
l = limx→a f(x) si para toda sucesion xn → a, xn ∈ A \ {a}, vale que
f(xn) → l para n →∞.
3 Funciones reales de variable real 25
Hay que destacar que aquı l puede tomar un valor finito o infinito.
Observar que esta definicion se basa en la de lımite de sucesiones numericas y
por lo tanto todo lo que vale para estas vale tambien para el lımite funcional.
Por ejemplo, sabemos que el lımite de una suma de dos sucesiones numericas
es la suma de los lımites de cada una de ellas, cuando estos existen con valor
finito. Consideremos ahora dos funciones, f : A → IR, g : A → IR. Luego
existe la funcion suma f + g : A → IR, definida como
(f + g)(x) = f(x) + g(x).
Supongamos que f(x) → l1, g(x) → l2, cuando x → a. Entonces
(f + g)(x) → l1 + l2 cuando x → a.
En efecto, consideremos una sucesion {xn}, xn ∈ A \ {a} para todo n ∈IN, xn → a. Como f(x) → l1 cuando x → a, sigue que f(xn) → l1, y
analogamente g(xn) → l2. Por lo tanto (f + g)(xn) → l1 + l2. Como {xn} es
cualquier sucesion con los requisitos expuestos, queda probada la afirmacion
mencionada.
De la misma manera se puede probar que (fg)(x) → l1l2, si se define la
funcion producto
fg : A → IR, (fg)(x) = f(x)g(x).
En general, todos los resultados que valen para operaciones con sucesiones
valen analogamente para operaciones con funciones: suma, producto, cociente,
potencia, logaritmos. Del mismo modo siguen existiendo las mismas indeter-
minaciones, a saber:
Para la suma: ∞−∞.
Para el producto: 0∞.
Para el cociente: 0/0, ∞/∞.
Para la potencia: 00, ∞0, 1∞.
Queda claro entonces que todas las reglas que valen para operaciones con
sucesiones siguen valiendo para operaciones con funciones. Por ejemplo:
Si f(x) → 0 para x → a y g(x) se conserva acotada en un entorno
de a, entonces f(x)g(x) → 0 para x → a.
3 Funciones reales de variable real 26
Tener presente que l = lim f(x) para x → a si para toda sucesion xn → a, xn ∈A \ {a}, vale que f(xn) → l. No basta que para alguna sucesion {xn} valga lo
anterior. Consideremos el siguiente ejemplo.
f : (0,∞) 7→ [−1, 1], f(x) = sen (π/x)
La expresion π/x establece una biyeccion entre el intervalo abierto (0,1) y la
semirrecta abierta (π,∞). Quiere decir que el comportamiento de la expresion
sen (π/x) en (0,1) debe ser como el comportamiento de la expresion sen x en
(π,∞). Por ejemplo, senx oscila infinitas veces en (π,∞), toma infinitas veces
el valor 1, el 0, el −1, y en general cualquier valor comprendido entre −1 y
1. Luego tambien debe ocurrir lo mismo con sen (π/x) en el intervalo (0,1).
Allı tambien debe oscilar infinitas veces entre −1 y 1. El cero es punto de
acumulacion del intervalo (0,∞), y luego en principio podemos considerar el
lımite de sen (π/x) para x → 0. Como estamos considerando esta expresion
en (0,∞), x → 0 con valores positivos de x. Esto se indica x → 0+ (se lee x
tiende a 0 por la derecha). Pero existe el lımite?
Como lo sugiere la discusion anterior, no existe el lımite de esta funcion para
x → 0. En efecto, consideremos la sucesion {1/n}, 1/n → 0+, 1/n ∈ (0,∞)
para todo n ∈ N. Evaluando la funcion en estos valores obtenemos
sen (π/(1/n)) = sen nπ = 0
para todo n, y luego sen (nπ) → 0. Si 0 fuera el lımite de la funcion, entonces
deberıa ocurrir que f(xn) → 0 para toda sucesion xn → 0+. Sin embargo,
elijamos xn = 2/(4n + 1), que tambien tiende a 0 y pertenece al dominio de la
funcion. Ahora
sen (π/xn) = sen ([4n + 1]π/2) = 1
para todo n ∈ N, y esta sucesion tiende a 1. Esta diferencia en los lımites de
dos sucesiones distintas implica ya que no existe el lımite de esta funcion en 0.
Ası como para 0 y 1, tambien podemos probar que dado cualquier c ∈ [−1, 1]
podemos conseguir una sucesion zn, que depende de c, zn > 0, zn → 0+, tal
que
sen(π/zn) → c.
Lo que sucede con esta funcion conduce a definir el llamado lımite de os-
cilacion de una funcion en un punto a, y que es el concepto analogo al de lımite
de oscilacion de una sucesion numerica.
3 Funciones reales de variable real 27
Definicion
l se dice lımite de oscilacion de f en a si existe alguna sucesion {zn}, zn →a, zn 6= a, y zn en el dominio de la funcion para todo n, tal que f(zn) → l.
En el ejemplo anterior vemos que todo l ∈ [−1, 1] es lımite de oscilacion de la
funcion en el origen.
Cuando la funcion esta acotada en un entorno de a entonces siempre existen
el lımite superior e inferior de oscilacion, que se simbolizan
lim sup f(x), lim inf f(x), para x → a,
o bien
limf(x), limf(x), para x → a,
respectivamente.
Si f no esta acotada superiormente en ningun entorno de a, entonces
lim sup f(x) = +∞ para x → a.
Si f no esta acotada inferiormente en ningun entorno de a, entonces
lim inf f(x) = −∞ para x → a.
Ahora llamemos
h : (0,∞) 7→ (0,∞), h(x) ≡ x,
g : (0,∞) 7→ [−1, 1], g(x) = sen (π/x).
Consideremos la funcion producto
hg : (0,∞) 7→ IR, (hg)(x) = x sen (π/x).
Calculemos
lim(hg)(x) para x → 0+.
Como h(x) → 0 para x → 0 (probarlo) y g(x) esta acotada en todo su dominio
(aunque bastarıa que lo estuviera en algun entorno de 0), sigue por la regla
ya conocida que x sen (π/x) → 0 para x → 0+. En este caso las infinitas
oscilaciones de sen (π/x) en el intervalo (0,1) no afectan a la existencia del
lımite. Este hecho se observa en su grafica:
3 Funciones reales de variable real 28
0.05 0.1 0.15 0.2 0.25 0.3-0.3
-0.2
-0.1
0
0.1
0.2
0.3
x
x sen (π/x)
Hay una definicion equivalente de lımite finito de una funcion f en un punto
a, punto de acumulacion de su dominio. Es la siguiente:
Un numero l se dice lımite de la funcion f en a si dado ε > 0,
arbitrario, existe δ > 0, que depende de ε, tal que para aquellos x
que estan en el dominio de f y ademas satisfacen 0 < |x− a| < δ,
vale que |f(x)− l| < ε.
Para lımites infinitos estan las siguientes definiciones:
lim f(x) = +∞ para x → a si dado K > 0, arbitrario, existe δ > 0,
que depende de K, tal que para aquellos x que estan en el dominio
de f y ademas satisfacen 0 < |x− a| < δ, vale que f(x) > K.
lim f(x) = −∞ para x → a si dado K > 0, arbitrario, existe δ > 0,
que depende de K, tal que para aquellos x que estan en el dominio
de f y ademas satisfacen 0 < |x− a| < δ, vale que f(x) < −K.
lim f(x) = ∞ para x → a si dado K > 0, arbitrario, existe δ > 0,
que depende de K, tal que para aquellos x que estan en el dominio
de f y ademas satisfacen 0 < |x− a| < δ, vale que |f(x)| > K.
Ejemplos
1) f : (0,∞) 7→ (0,∞), f(x) = 1/x,
lim f(x) = +∞ para x → 0.
2) h : (−∞, 0) 7→ (−∞, 0), h(x) = 1/x,
lim h(x) = −∞ para x → 0.
3) g : IR \ {0} 7→ IR \ {0}, g(x) = 1/x,
lim g(x) = ∞ para x → 0.
3 Funciones reales de variable real 29
Observar que los tres lımites anteriores se obtienen inmediatamente si se
aplica la definicion por sucesiones dada en primer lugar. Por ejemplo, 1/x →+∞ para x → 0+ pues para cualquier sucesion xn → 0+ vale que 1/xn → +∞.
Las definiciones vistas hasta ahora son validas para x → a, a valor finito.
Tambien se puede definir el lımite de una funcion para
x → +∞, x → −∞, o bien x →∞,
cuando existen sucesiones {xn}, con xn en el dominio de la funcion para todo
n y tales que xn → +∞, xn → −∞, xn →∞, respectivamente. La definicion
por sucesiones es analoga al caso a finito.
f(x) → l para x → +∞ si para toda sucesion {xn}, xn pertene-
ciente al dominio de la funcion para todo n, xn → +∞, vale que
f(xn) → l.
De forma similar se definen los otros dos casos. Y tambien el caso de lımite
infinito para x →∞.
Con la otra definicion hay que distinguir los casos de lımite finito e infinito.
Para lımite finito tenemos que:
f(x) → l para x → +∞ si dado ε > 0, arbitrario, existe M > 0,
que depende de ε, tal que si x > M vale que |f(x)− l| < ε.
f(x) → l para x → −∞ si dado ε > 0, arbitrario, existe M > 0,
que depende de ε, tal que si x < −M vale que |f(x)− l| < ε.
f(x) → l para x →∞ si dado ε > 0, arbitrario, existe M > 0, que
depende de ε, tal que si |x| > M vale que |f(x)− l| < ε.
Para el caso de lımite infinito es:
f(x) → +∞ para x → +∞ si dado K > 0, arbitrario, existe
M > 0, que depende de K, tal que si x > M vale que f(x) > K.
Los otros casos se definen analogamente. Estos son f(x) → ∞ para x → ∞y ademas todos los que resultan de poner un signo + o un signo − en uno u
otro lado.
3 Funciones reales de variable real 30
La definicion por lımite de sucesiones es preferible a la otra del “ε y δ”,
sobre todo a la hora del calculo efectivo de un lımite. Sea el siguiente ejemplo:
lim f(x) para x → 2, donde
f : (0,∞) 7→ (0,∞), f(x) = x2.
Por la definicion por sucesiones debemos considerar cualquier sucesion
{xn}, 2 6= xn > 0, xn → 2,
y ver si la sucesion numerica f(xn) tiende a algun valor l que sea indepen-
diente de la sucesion ası elegida. Ahora bien, en nuestro ejemplo f(xn) = x2n.
Pero sabemos por resultados conocidos de sucesiones numericas que si xn → 2
entonces x2n → 4. Como este 4 es siempre el lımite de x2
n, con tal que xn → 2,
sigue que el lımite de esta funcion para x → 2 es 4.
Con la otra definicion debemos fijar un ε > 0, arbitrario, y en funcion de
este ε encontrar δ > 0 tal que para aquellos x que verifiquen 0 < |x − 2| < δ,
valga que
|x2 − 4| < ε.
Observar en este punto que ya de entrada esta definicion tiene un inconve-
niente. El valor del lımite, 4 en este caso, no es consecuencia de ningun
calculo, sino que su valor debe ser propuesto para despues verificar que se
trata efectivamente del lımite. Prosigamos. Tenemos que
|x2 − 4| = |x− 2||x + 2|.Andamos con suerte puesto que vemos que la expresion que debemos hacer
menor que un ε prefijado depende de |x − 2|, sobre el que tenemos libertad
para achicarlo tanto como se quiera mediante la eleccion de δ. Luego
|x2 − 4| = |x− 2||x + 2| < δ|x + 2|.Representa el factor |x + 2| un obstaculo? No, ya que tenemos libertad para
elegir δ. Luego podemos desde ya fijar δ ≤ 1, con lo cual |x + 2| < 5. Por
lo tanto |x2 − 4| < 5δ y si por otro lado δ ≤ ε/5 queda |x2 − 4| < ε, que era
lo buscado. Resumiendo, tenemos que si δ ≤ min{1, ε/5}, es decir δ ≤ 1 y
ademas δ ≤ ε/5, vale que
|x2 − 4| = |x− 2||x + 2| < δ|x + 2| < 5δ ≤ ε,
o sea
|x2 − 4| < ε.
3 Funciones reales de variable real 31
3.4 Comparacion de variables
De dos numeros reales fijos, digamos x e y, podemos decir si x > y, x = y
o x < y. Afirmaciones del tipo “x es mucho mas grande que y”, “x es muy
pequeno”, etc., no tienen en realidad ningun sentido riguroso. En cambio, si se
trata de cantidades variables las afirmaciones anteriores adquieren un sentido,
ya sean variables discretas, es decir que recorren un conjunto de numeros a
“saltos”, como por ejemplo el conjunto de numeros naturales, o bien variables
continuas, que recorren un conjunto de valores sin saltos, como por ejemplo
un intervalo que no se reduzca a un punto. Sı tiene sentido decir “1/n, para
n ∈ N, se hace arbitrariamente pequeno” porque ahora 1/n no representa a
una cantidad fija, sino a un conjunto de infinitos numeros. Como sabemos,
la afirmacion anterior se corresponde con el hecho de que 1/n → 0 cuando
n →∞.
Es muy util saber comparar variables. Consideremos un ejemplo de series.
Sabemos que la serie armonica∑
1/n es divergente a +∞. Como sera la serie
∑1/[n + 10]?
Comparemos termino a termino. Tenemos que 1/[n + 10] < 1/n para todo
n ∈ N. Luego tenemos que todas las sumas parciales de la segunda serie
son menores que las correspondientes sumas parciales de la primera. Pero
como la serie mayorante es divergente, no podemos afirmar nada sobre la
serie de terminos menores. Sabemos que el caracter de una serie depende del
comportamiento de sus “ultimos” terminos, es decir, a partir de uno cualquiera
de ellos. Luego comparemos los terminos correspondientes de ambas series para
n grande, o sea para n →∞. Tenemos que
lim1/[n + 10]
1/n= lim
n
n + 10= 1.
Como n/[n + 10] < 1, la aproximacion de esa fraccion a 1 es por la izquierda.
El valor del cociente supera a cualquier numero menor que 1 para n suficiente-
mente grande. Por ejemplo, si fijamos 1/2 < 1, tenemos que n/[n + 10] > 1/2
a partir de algun valor de n. En este caso vemos que a partir de n = 11 se
cumple esa desigualdad. Luego∑∞
n=11 1/[n + 10] esta minorada por
∞∑n=11
1
2n= 1/2
∞∑n=11
1
n= +∞,
3 Funciones reales de variable real 32
y por lo tanto la serie
∞∑n=1
1
n + 10=
10∑n=1
1
n + 10+
∞∑n=11
1
n + 10
es divergente a +∞. La causa que ha motivado que la serie de terminos
menores sea tambien divergente se expresa ası:
La cantidad variable 1/[n+10] es del mismo orden que la cantidad
variable 1/n para n →∞.
Podemos definir en general para variables que dependen de n, α(n), β(n), lo
siguiente:
α(n) y β(n) son del mismo orden para n →∞ si para todo n mayor
que un numero fijo vale que
K1 <
∣∣∣∣α(n)
β(n)
∣∣∣∣ < K2,
donde K1 y K2 son dos constantes fijas, K1 > 0.
Si en particular
limn→∞
α(n)
β(n)= η, η 6= 0, η 6= ∞,
entonces α(n) y β(n) son cantidades del mismo orden. Si η = 1, α(n) y β(n)
se dicen equivalentes. Si
limn→∞
α(n)
β(n)= 0
entonces α(n) se dice de orden inferior a β(n). Por ejemplo, ln n es de orden
inferior a np para todo p > 0 pues limn→∞ ln nnp = 0. Quiere decir que si bien
ln n →∞ para n →∞, su convergencia a ∞ es mas lenta que la de np.
Podemos extender esta definicion de orden a cantidades que dependen de
una variable continua x, para x tendiendo a un valor fijo finito o infinito.
Concretamente, a funciones f(x), g(x):
f(x) y g(x) se dicen del mismo orden para x → a, a finito, si en
algun entorno reducido de a se verifica
K1 <
∣∣∣∣f(x)
g(x)
∣∣∣∣ < K2, K1 > 0.
3 Funciones reales de variable real 33
Si limx→a
∣∣∣f(x)g(x)
∣∣∣ = b > 0, entonces f(x) y g(x) son del mismo orden para x → a.
f(x) y g(x) son del mismo orden para x → +∞ si para todo x
mayor que un valor fijo es
K1 <
∣∣∣∣f(x)
g(x)
∣∣∣∣ < K2, K1 > 0.
Como ejemplo comparemos sen x y x para x → 0. El lımite del cociente sen x/x
es en principio indeterminado, del tipo 0/0. Vamos a resolver la indetermi-
nacion probando que lim sen x/x = 1. Consideremos el cuarto de circunferencia
de radio 1, localizada en el primer cuadrante.
O P M
NQ
x
Tenemos que sen x es la longitud del segmento PQ, tan x es la longitud del
segmento MN y x es la longitud del arco QM , que es mayor que la longitud
del segmento QP . Luego sigue que
senx < x < tan x.
Por consiguiente
1 < x/senx < 1/ cos x,
1 > senx/x > cos x,
0 < 1− senx/x < 1− cos x.
3 Funciones reales de variable real 34
Si aceptamos que 1− cos x → 0 cuando x → 0+ sigue que tambien 1− senx/x
tiende a 0 y por lo tanto sen x/x → 1 cuando x → 0+.
Si no sabemos cual es el lımite de 1− cos x, ponemos 1− cos x = 2sen2 (x/2) y
usando otra vez la primera relacion de desigualdades sigue que 2sen2 (x/2) <
x2/2 y obtenemos
0 < 1− senx/x < x2/2,
y ahora esta claro que 1− senx/x queda comprendido entre dos funciones que
tienden a 0 cuando x → 0+. Dado que sen x/x es una expresion par se obtiene
que
limx→0
senx/x = 1.
De esta manera, sen x y x son cantidades equivalentes para x → 0.
4 Funciones continuas
Sea f : A 7→ R una funcion y sea c ∈ A.
f se dice continua en c si cada vez que lim xn = c, xn ∈ A, es
lim f(xn) = f(c) para n →∞.
Si limx→c+ f(x) = f(c), entonces f se dice continua por la derecha
en c.
Si limx→c− f(x) = f(c), entonces f se dice continua por la izquierda
en c.
Una funcion se dice continua en un subconjunto de su dominio si
es continua en todos los puntos de ese subconjunto.
Cuando una funcion no es continua en c, entonces se dice discontinua en c.
Los distintos casos de discontinuidad en c son los siguientes:
(a) Discontinuidad evitable Existe limx→c f(x), es finito, pero no coincide
con f(c).
Ejemplo (Todos los ejemplos son en c = 0)
f : R 7→ R, f(x) = sig2 (x).
(b) Discontinuidad de tipo infinito Existe limx→c f(x), pero con valor in-
finito, con el mismo signo.
Ejemplo
f : R 7→ R, f(x) =
{1/x2 si x 6= 00 si x = 0.
(c) Discontinuidad de salto finito Existen los dos lımites laterales, finitos,
pero son distintos.
Ejemplo
f : R 7→ R, f(x) =
{1+e1/x
1−e1/x si x 6= 0
0 si x = 0.
(d) Discontinuidad de salto infinito Existen los dos lımites laterales, uno
de ellos finito y el otro infinito, o bien los dos infinitos con distinto signo.
35
4 Funciones continuas 36
Ejemplos
f : R 7→ R, f(x) =
{e1/x si x 6= 00 si x = 0.
f : R 7→ R, f(x) =
{1/x si x 6= 00 si x = 0.
(e) Discontinuidad de segunda especie No existe al menos uno de los dos
lımites laterales.
Ejemplo
f : R 7→ R, f(x) =
{sen (1/x) si x 6= 00 si x = 0.
Si f y g son funciones definidas en A, continuas en c ∈ A, entonces
• f + g es continua en c,
• fg es continua en c,
• f/g es continua en c si g(c) 6= 0.
• La composicion f ◦ g es continua en c si f es continua en g(c) y g es
continua en c (no es necesario que f sea continua en c).
Todas estas afirmaciones son consecuencia inmediata de la definicion de con-
tinuidad y de la definicion de lımite de sucesiones.
Por ejemplo, probemos la ultima de ellas. Sea xn → c para n →∞. Como
g es continua en c sigue que g(xn) → g(c), y como f es continua en g(c) sigue
que f(g(xn)) → f(g(c)). Esto es, (f ◦ g)(xn) → (f ◦ g)(c) para n →∞.
Las siguientes funciones son continuas en todo su campo de definicion:
Polinomios, funciones racionales, potencias, exponenciales y sus inversas (fun-
ciones logarıtmicas), funciones circulares y sus inversas, cuando estas existen,
funciones hiperbolicas y sus inversas, la funcion valor absoluto f(x) = |x|. La
funcion sig (x) es continua en todo x 6= 0, donde tiene una discontinuidad de
salto finito.
Continuidad en un intervalo cerrado y acotado
Sea f : A 7→ R, donde f es continua en A, intervalo cerrado y acotado
(intervalo compacto). Veremos algunas propiedades de una tal funcion.
4 Funciones continuas 37
Definicion c ∈ A se dice un cero de f si f(c) = 0.
Teorema de Bolzano Si a, b ∈ A, a < b, y f(a)f(b) < 0, entonces existe un
cero de f entre a y b.
Demostracion: Supongamos que f(a) < 0 y f(b) > 0. El caso opuesto se
prueba analogamente. Consideremos el conjunto B = {x ∈ A : f(x) < 0}.B 6= ∅ porque a ∈ B. Sea c = sup B, es decir c es la menor de las cotas
superiores de B. Veamos que f(c) = 0. En efecto, f(c) no puede ser positivo
porque si ası fuera existirıa un entorno de c donde f es positiva en todos los
puntos de ese entorno y por lo tanto c no serıa el supremo de B. Aquı estamos
usando la continuidad de f . Analogamente se muestra que f(c) no puede ser
negativo.
El Teorema de Bolzano tiene la utilidad practica de permitir calcular (aprox-
imadamente) ceros de funciones continuas. Consideremos una funcion continua
f tal que, por ejemplo, f(a) < 0, f(b) > 0. Sea x1 el punto medio entre a y b, es
decir x1 = [a + b]/2. Si f(x1) = 0 entonces ya hemos calculado (exactamente)
un cero de f . Si, por ejemplo, f(x1) > 0, entonces consideremos el intervalo
[a, x1] y su punto medio x2 = [a + x1]/2. (Si f(x1) < 0 entonces hubieramos
considerado el intervalo [x1, b]). Como f(a) < 0 y f(x1) > 0, por el Teorema
de Bolzano debe existir un cero de f entre a y x1. Si f(x2) = 0 ya lo hemos
calculado exactamente. Si, por ejemplo, f(x2) < 0, entonces consideramos
ahora el intervalo [x2, x1], donde f tiene distinto signo en sus extremos. Se
calcula su punto medio y se continua este procedimiento de la misma forma.
La longitud del intervalo inicial es b − a, la del segundo es [b − a]/2, la del
tercero [b − a]/4, · · ·, la del enesimo intervalo es [b − a]/2n−1, expresion que
tiende a cero cuando n →∞. Como dentro de estos intervalos debe haber un
cero de f , podemos ası calcular este cero con un error pequeno.
Como consecuencia del Teorema de Bolzano sigue que si una funcion es
continua en [a, b] entonces toma cualquier valor comprendido entre f(a) y
f(b).
En efecto, supongamos que f(a) < f(b) y sea η tal que f(a) < η < f(b).
Consideremos la funcion continua f(x)−η = g(x). Luego g(a) < 0 y g(b) > 0.
Por lo tanto, por el Teorema de Bolzano sigue que existe c, a < c < b, tal que
g(c) = 0, o sea f(c) = η.
4 Funciones continuas 38
Llamemos C a la imagen de la funcion continua f : [a, b] 7→ R, es decir
C = {f(x) : x ∈ [a, b]}. Supongamos que f(a) < f(b). El resultado anterior se
expresa tambien ası: [f(a), f(b)] ⊂ C. Mas aun, podemos decir que el conjunto
imagen C es tambien un intervalo cerrado y acotado. Que es un intervalo sigue
como consecuencia del resultado anterior: Cada vez que en C hay dos puntos
distintos tambien estan en C todos los puntos intermedios.
Veamos que C es cerrado. Recordemos que un conjunto cerrado es aquel
que contiene a sus puntos de acumulacion. Sea y un punto de acumulacion de
C. Significa que existe una sucesion de puntos yn ∈ C que converge a y. Por
estar yn en C es de la forma yn = f(xn) para xn ∈ [a, b]. Veamos que la sucesion
{xn} tiene una subsucesion convergente. Si los valores numericos de xn son en
numero finito esto es evidente. Si el conjunto de valores numericos xn es infinito
entonces, como esta acotado, tiene un punto de acumulacion, digamos c. De
aquı existe una subsucesion xni, xni
→ c. Como [a, b] es cerrado, c ∈ [a, b].
Como f es continua, f(xni) → f(c), pero f(xni
) es subsucesion de f(xn) y
sabemos que toda subsucesion de una sucesion convergente es convergente al
mismo lımite. Por lo tanto f(xni) → y y de aquı y = f(c), es decir y ∈ C.
La prueba de que C es acotado se hace con argumentos similares. Supon-
gamos que C no es acotado superiormente. Luego existe una sucesion {yn},yn en C, yn → +∞. Sea xn ∈ [a, b] tal que f(xn) = yn. Como se probo
anteriormente, {xn} tiene una subsucesion convergente, xni→ c ∈ [a, b]. Pero
f(xni) = yni
→ +∞, por lo que f no serıa continua en c, contradiccion que
proviene de suponer que C no es acotado.
En ambas partes de la demostracion se ha usado el siguiente hecho:
Si {xn} es una sucesion acotada entonces tiene una subsucesion
convergente.
Este hecho es equivalente al siguiente principio:
Un conjunto acotado de infinitos puntos tiene al menos un punto
de acumulacion.
Como la imagen de una funcion continua con dominio en un intervalo cer-
rado y acotado es tambien un intervalo cerrado y acotado tenemos que habra
4 Funciones continuas 39
un valor maximo y un valor mınimo de la funcion. Los correspondientes puntos
del dominio donde se toman el valor maximo y mınimo de la funcion se lla-
man, respectivamente, maximos absolutos y mınimos absolutos de la funcion.
Hemos probado ası el llamado
Teorema de Bolzano Weierstrass Toda funcion continua con dominio en
un intervalo cerrado y acotado tiene maximo y mınimo absolutos, es decir
puntos del dominio donde se toma, respectivamente, el valor maximo y el valor
mınimo de la funcion.
Definicion Una funcion f se dice uniformemente continua en un intervalo A
si dado ε > 0, arbitrario, existe δ > 0, que depende de ε, tal que, si |x1−x2| <δ, x1, x2 ∈ A, vale que |f(x1)− f(x2)| < ε.
Si f es uniformemente continua en A entonces es continua en A, es decir
en cada punto de A. El hecho recıproco no es cierto en general:
Una funcion puede ser continua en A y no ser uniformemente continua en A.
No obstante, si A es un intervalo cerrado y acotado sı vale esta afirmacion. Es
el llamado
Teorema de Heine Cantor Si f es continua en un intervalo cerrado y aco-
tado A, entonces es uniformemente continua en A.
La demostracion de este Teorema se basa tambien en el principio de que
toda sucesion acotada tiene una subsucesion convergente. Los siguientes ejem-
plos muestran que los Teoremas de Bolzano Weierstrass y de Heine Cantor no
valen si f no es continua o si su dominio no es cerrado y acotado.
Ejemplos
1)
f : [−1, 1] 7→ R, f(x) =
{1/x2 si x 6= 00 si x = 0.
El dominio es un intervalo cerrado y acotado pero f no es continua. No valen
ninguno de los dos Teoremas.
2)
f : (0, 1] 7→ R, f(x) = 1/x.
La funcion f es continua pero su dominio es un intervalo no cerrado. No valen
ninguno de los dos Teoremas.
5 Derivada y sus aplicaciones
Sea f una funcion definida en un intervalo A y sea a un punto interior a A. Se
define la derivada de f en c, que se simboliza f ′(c), al siguiente lımite, cuando
este existe:
limh→0
f(c + h)− f(c)
h.
La expresion sobre la que se toma lımite se llama cociente incremental de f
en c y es una funcion de h. Como c es un punto interior a A, el cociente
incremental esta definido en un entorno reducido de 0, es decir es una funcion
de h definida en un entorno reducido de 0 y por lo tanto se puede en principio
tomar lımite para h → 0.
Ejemplos
1) f : A 7→ R, f funcion constante, o sea f(x) = M para todo x ∈ A.
Esf(c + h)− f(c)
h=
M −M
h= 0
y por lo tanto f ′(c) = 0.
2) f : A 7→ R, f(x) = x.
Esf(c + h)− f(c)
h=
c + h− c
h= 1
y por consiguiente f ′(c) = 1.
3) f : A 7→ R, f(x) = x2.
Esf(c + h)− f(c)
h=
(c + h)2 − c2
h=
2ch + h2
h= 2c + h.
Luego f ′(c) = limh→0(2c + h) = 2c.
4) f : A 7→ R, f(x) = ln x.
Es
f(c + h)− f(c)
h=
ln(c + h)− ln c
h= (1/h) ln
c + h
c= ln(1 + h/c)1/h.
Cuando h → 0, 1/h →∞ y 1 + h/c → 1. Luego (1 + h/c)1/h → e1/c. De aquı
sigue que ln(1 + h/c)1/h → 1/c y luego f ′(c) = 1/c.
40
5 Derivada y sus aplicaciones 41
Interpretacion geometrica de la derivada
Si f ′(c) existe entonces tambien existe la recta tangente a la grafica de la
funcion en c, y f ′(c) es la pendiente de esa recta tangente.
Si existe
limh→0+
f(c + h)− f(c)
h
entonces este lımite se llama derivada lateral por derecha en c y se denota
f ′(c+).
Analogamente se define
f ′(c−) = limh→0−
f(c + h)− f(c)
h.
Si existen ambas derivadas laterales y sus valores coinciden, entonces existe
la derivada en el punto. En este caso f se dice derivable en el punto. Puede
ocurrir que ambas derivadas laterales existan, con valores distintos. Por ejem-
plo,
f : (−1, 1) 7→ R, f(x) = |x|.Es
limh→0+
f(0 + h)− f(0)
h= lim
h→0+
|h|h
= 1,
limh→0−
f(0 + h)− f(0)
h= lim
h→0−
|h|h
= −1.
Puede darse que
limh→0+
f(c + h)− f(c)
h= lim
h→0−
f(c + h)− f(c)
h= +∞,
o bien que ambos lımites sean −∞. En este caso la funcion f no es derivable
en c aunque existe la recta tangente en c, que es una recta vertical. Por
ejemplo,
f : R 7→ R, f(x) = x1/3. Es
limh→0+
f(0 + h)− f(0)
h= lim
h→0+
h1/3
h= lim
h→0+h−2/3 = +∞
y
limh→0−
f(0 + h)− f(0)
h= lim
h→0−
h1/3
h= lim
h→0−h−2/3 = +∞.
Si ambas derivadas laterales dan ∞, con distinto signo en c, entonces c recibe
el nombre de punto cuspidal.
5 Derivada y sus aplicaciones 42
Ejemplo
f : R 7→ R, f(x) = x2/3. Es
limh→0+
f(0 + h)− f(0)
h= lim
h→0+
h2/3
h= lim
h→0+h−1/3 = +∞,
limh→0−
f(0 + h)− f(0)
h= lim
h→0−
h2/3
h= lim
h→0−h−1/3 = −∞.
Si las dos derivadas laterales existen con valor finito en c (no necesariamente
iguales) entonces la funcion es continua en c. En efecto,
limh→0+ [f(c + h)− f(c)] =
limh→0+
f(c + h)− f(c)
hh = lim
h→0+
f(c + h)− f(c)
hlim
h→0+h = 0.
Vale lo analogo para limh→0− [f(c + h)− f(c)]. Luego
limh→0
[f(c + h)− f(c)] = 0,
es decir
limh→0
f(c + h) = f(c).
Si ponemos x = c+h, esto se escribe limx→c f(x) = f(c), que es la continuidad
de f en c.
Observar que en realidad para obtener la continuidad de f en c bastarıa
con que el cociente incremental estuviera acotado en un entorno reducido de
cero.
De esta manera la derivabilidad en un punto implica la continuidad en ese
punto. El hecho recıproco no es cierto en general. Existen ejemplos de fun-
ciones continuas que no son derivables en ningun punto de su dominio.
Si f es una funcion derivable en todo punto interior a A entonces podemos
considerar la funcion derivada
f ′ : A 7→ R,
que asigna a cada x ∈ A el valor de la derivada de f en x, f ′(x).
Ejemplos
(1) f : R 7→ R, f(x) = x2. Funcion derivada: f ′(x) = 2x.
(2) f : (0,∞) 7→ R, f(x) = ln x. Funcion derivada: f ′(x) = 1/x.
5 Derivada y sus aplicaciones 43
Con el valor de la derivada de una funcion en un punto podemos construir
la recta tangente a la curva grafica de la funcion en ese punto.
Ejemplo Determinar la recta tangente a la curva grafica de la expresion f(x) =
x2 en el punto x = 1.
Tenemos que f(1) = 12 = 1, f ′(1) = 2(1) = 2. Luego la recta tangente es la
que pasa por el punto del plano (1,1) y tiene pendiente 2. La ecuacion de esta
recta es y − 1 = 2(x− 1), o bien y = 2x− 1.
La llamada recta normal es en general aquella que pasa por el punto
considerado y es perpendicular a la recta tangente. Luego su pendiente es
el opuesto del inverso de la pendiente de la recta tangente. En el ejemplo
anterior esta recta es (y − 1) = −1/2(x− 1), o bien y = −1/2x + 3/2.
0.5 1 1.5 2
0.25
0.5
0.75
1
1.25
1.5
1.75
2
Recta tangente y recta normal (en trazo discontinuo)
Sea f : A 7→ R, f derivable en todo punto interior a A. Sea a un numero
fijo y consideremos la funcion
af : A 7→ R, (af)(x) = af(x).
Derivemos por definicion esta funcion en un punto c del interior de A. Es
limh→0
af(c + h)− af(c)
h= a lim
h→0
f(c + h)− f(c)
h= af ′(c).
Sigue que (af)′(x) = af ′(x) para todo x ∈ A.
5 Derivada y sus aplicaciones 44
Sea g : A 7→ R, tambien derivable en todo punto interior a A. Calculemos
la derivada de la funcion suma
f + g : A 7→ R, (f + g)(x) = f(x) + g(x).
Es
limh→0
f(c + h) + g(c + h)− f(c)− g(c)
h=
limh→0
[f(c + h)− f(c)
h+
g(c + h)− g(c)
h
]=
limh→0
f(c + h)− f(c)
h+ lim
h→0
g(c + h)− g(c)
h=
f ′(c) + g′(c).
Luego
(f + g)′(x) = f ′(x) + g′(x)
para todo x perteneciente al interior de A. En resumen, la derivada de una
constante por una funcion es igual a la constante por la derivada de la funcion.
La derivada de una suma es la suma de las derivadas. Esta propiedad de la
derivada se expresa ası:
La aplicacion que asigna a una funcion su funcion derivada es lineal.
Mas aun, la derivada de una combinacion lineal de funciones es la combinacion
lineal de las funciones derivadas:
(a1f1 + a2f2 + · · ·+ anfn)′ = a1f′1 + a2f
′2 + · · ·+ anf ′n,
donde a1, a2, · · · , an, son constantes fijas, y f1, f2, · · · , fn, son funciones deri-
vables definidas en un mismo dominio.
Ahora vamos a calcular la derivada de una composicion de funciones,
(f ◦ g)′(x), donde g : A 7→ R, f : B 7→ R.
Suponemos que la composicion esta bien definida, esto es g(A) ⊂ B. Tenemos
que
limh→0
f(g(c + h))− f(g(c))
h= lim
h→0
[f(g(c + h))− f(g(c))
g(c + h)− g(c)
g(c + h)− g(c)
h
].
5 Derivada y sus aplicaciones 45
Como f es derivable en g(c) y ϕ(h) := g(c + h) − g(c) → 0 cuando h → 0,
sigue que
limh→0
f(g(c) + ϕ(h))− f(g(c))
ϕ(h)= f ′(g(c)).
Por otra parte
limh→0
g(c + h)− g(c)
h= g′(c).
Finalmente, como el lımite de un producto es el producto de los lımites, se
obtiene que
(f ◦ g)′(c) = f ′(g(c))g′(c).
Observar que al dividir y multiplicar por g(c+h)− g(c) en la expresion inicial
debe suponerse que ϕ(h) = g(c+h)−g(c) 6= 0 para h pequeno, h 6= 0. Empero,
el resultado final es valido tambien en el caso ϕ(h) = 0. En efecto, si hay una
sucesion hn → 0 para la cual ϕ(hn) = 0, entonces, como g es derivable en c,
debe ser g′(c) = 0.
A continuacion vamos a usar este ultimo resultado, junto con la expresion
conocida de la derivada del logaritmo neperiano, para obtener derivadas de
otras funciones, ası como la derivada del producto y cociente de dos funciones.
Comencemos por calcular la derivada del producto de dos funciones derivables,
f y g. Consideremos la composicion ln(fg)(x). De acuerdo con la regla de la
derivada de una composicion de funciones tenemos que
[ln(fg)(x)]′ =1
(fg)(x)(fg)′(x).
Por otra parte
ln(fg)(x) = ln f(x) + ln g(x)
y luego
[ln(fg)(x)]′ = [ln f(x)]′ + [ln g(x)]′ =1
f(x)f ′(x) +
1
g(x)g′(x).
Igualando ambos resultados se obtiene
(fg)′(x) = f ′(x)g(x) + f(x)g′(x).
La derivada de un cociente se trata de forma analoga. Por un lado tenemos
que
[ln(f(x)/g(x)]′ =g(x)
f(x)
(f(x)
g(x)
)′.
5 Derivada y sus aplicaciones 46
Por otro lado [ln(f(x)/g(x))]′ =
[ln f(x)− ln g(x)]′ = [ln f(x)]′ − [ln g(x)]′ =f ′(x)
f(x)− g′(x)
g(x).
Igualando ambos resultados se obtiene
(f(x)
g(x)
)′=
f ′(x)
g(x)− f(x)
g2(x)g′(x) =
f ′(x)g(x)− f(x)g′(x)
g2(x).
Derivadas de las funciones potencial y expo-
nencial
Consideremos la funcion
fp : (0,∞) 7→ (0,∞), fp(x) = xp, p ∈ R.
Tomando logaritmo neperiano queda ln fp(x) = p ln x, y derivando,
f ′p(x)/fp(x) = p/x.
Por lo tanto
f ′p(x) = pfp(x)/x = pxp−1.
Observar que para p ≥ 1 la funcion potencial se puede definir en x = 0, fp(0) =
0. Derivando directamente en el punto x = 0 se obtiene que la formula anterior
es valida tambien en este punto: f ′1(0) = 1, f ′p(0) = 0 si p > 1. Sea ahora la
funcion
f : R 7→ (0,∞), f(x) = ax, a > 0.
Tenemos que ln f(x) = x ln a, y luego f ′(x)/f(x) = ln a,
f ′(x) = ln af(x) = (ln a)ax.
En particular, si a = e queda (ex)′ = ex.
Derivada de las funciones circulares
La derivada de la funcion
f : R 7→ [−1, 1], f(x) = senx,
5 Derivada y sus aplicaciones 47
se calcula directamente por la definicion:
f ′(x) = limh→0
sen (x + h)− senh
h.
Usando que sen (x + h) = senx cos h + senh cos x, el cociente incremental se
escribe
cos xsenh
h+
senx[cos h− 1]
h.
Por otra parte cos h− 1 = −2sen 2(h/2). Al tomar lımite para h → 0 queda
limh→0
senh
h= 1,
limh→0
−2sen 2(h/2)
h= lim
h→0
−sen (h/2)
h/2sen (h/2) = 0.
Luego
(senx)′ = cos x.
La derivada de la funcion f(x) : R 7→ [−1, 1], f(x) = cos x, se obtiene
rapidamente de la anterior observando que cos x = sen (π/2− x). Luego
(cos x)′ = cos(π/2− x)(−1) = −senx.
(tan x)′ =(senx
cos x
)=
cos2 x + sen 2x
cos2 x=
1
cos2 x.
(cot x)′ =−1
sen 2x.
Derivada de una funcion inversa
Sea f : A 7→ A una funcion biyectiva derivable, con funcion inversa derivable.
Como f(f−1(x)) = x, tenemos que (f ◦ f−1)′ = 1. Aplicando la formula de la
derivada de una composicion de funciones, queda
f ′(f−1(x))(f−1(x))′ = 1,
y por lo tanto
(f−1(x))′ =1
f ′(f−1(x)).
Ejemplo Sea
f : [−π/2, π/2] 7→ [−1, 1], f(x) = senx.
Es
f−1 : [−1, 1] 7→ [−π/2, π/2], f−1(x) = arcsenx.
5 Derivada y sus aplicaciones 48
Luego
(arcsenx)′ =1
cos(arcsenx).
Sea α = arcsenx. Tenemos que cos2 α = 1 − sen 2α, con −π/2 ≤ α ≤ π/2.
Como α ≥ 0 para estos valores de α, sigue que cos α = +√
1− sen 2α, pero
senα = sen (arcsenx) = x. Luego
(arcsenx)′ =1
+√
1− x2.
Como arcsen x + arccos x = π/2, sigue que (arcsenx)′ + (arccos x)′ = 0 y
por consiguiente
(arccos x)′ =1
−√1− x2.
De una forma similar se obtiene que
(arctan x)′ =1
1 + x2,
(arccotx)′ =−1
1 + x2.
Las derivadas de las funciones hiperbolicas y sus inversas son las siguientes:
(shx)′ = chx,
(chx)′ = shx,
(tghx)′ =1
ch2 x,
(arg shx)′ =1√
x2 + 1,
(arg chx)′ =1√
x2 − 1,
(arg tghx)′ =1
1− x2.
Si la funcion derivada f ′(x) es tambien derivable, su funcion derivada (f ′(x))′ es
la llamada derivada segunda de f , que se simboliza f ′′(x). Si f ′′(x) es derivable
entonces su funcion derivada f ′′′(x) es la derivada tercera de f . De esta manera
se obtienen las derivadas sucesivas de f , mientras estas sean derivables.
5 Derivada y sus aplicaciones 49
5.1 Variacion de las funciones
Cuando una funcion es derivable, su derivadas sucesivas permiten conocer su
comportamiento, en cuanto a crecimiento, extremos, concavidad, etcetera.
Si en un punto a interior al dominio de una funcion derivable f es
f ′(a) > 0 entonces f es estrictamente creciente en a.
Si f ′(a) < 0 entonces f es estrictamente decreciente en a.
Esto sigue como consecuencia directa de la definicion de derivada y propiedades
del lımite.
Si f ′(x) > 0 (f ′(x) < 0) en todo punto x interior a un intervalo
entonces f es estrictamente creciente (estrictamente decreciente)
en ese intervalo.
Ejemplos
1)
f : (0,∞) 7→ R, f(x) = ln x.
Es
f ′(x) = 1/x para todo x ∈ (0,∞).
Luego la funcion logarıtmica es estrictamente creciente en todo su dominio.
2)
f : (0,∞) 7→ (0,∞), f(x) = 1/x.
Es
f ′(x) = −1/x2, que es negativo para todo x ∈ (0,∞).
Luego esta funcion es estrictamente decreciente en todo su dominio.
Si f esta definida en un intervalo y a es un punto interior a ese
intervalo entonces se dice que a es un mınimo relativo de f si existe
un entorno (a− δ, a + δ) contenido en el intervalo, tal que
f(x) ≥ f(a) si a− δ < x < a + δ.
El punto a es un maximo relativo de f si f(x) ≤ f(a) para x en
ese entorno.
5 Derivada y sus aplicaciones 50
Los maximos y mınimos relativos se llaman en general extremos relativos y se
dicen estrictos si las desigualdades anteriores valen estrictamente.
Si f es derivable en a y a es un extremo relativo de f entonces f ′(a) = 0, ya
que en a, f no es estrictamente creciente ni estrictamente decreciente. Esta
es una condicion necesaria pero no suficiente para la existencia de un extremo
relativo. Por ejemplo, si f(x) = x3, f ′(0) = 0, pero f es estrictamente creciente
en 0.
Si f es derivable en un entorno reducido de a,
(a− δ) ∪ (a + δ),
entonces una condicion suficiente para que a sea un mınimo relativo
estricto es que
f ′(x) < 0 si x ∈ (a− δ, a) y f ′(x) > 0 si x ∈ (a, a + δ).
Analogamente,
si f ′(x) > 0 para x ∈ (a − δ, a) y f ′(x) < 0 para x ∈ (a, a + δ)
entonces a es un maximo relativo estricto.
Ejemplos
1)
f : [−1, 1] 7→ R, f(x) = |x|.f no es derivable en 0 pero f ′(x) = 1 > 0 si x ∈ (0, 1) y f ′(x) = −1 < 0 si
x ∈ (−1, 0).
Luego 0 es mınimo relativo estricto.
2)
f : [−1, 1] 7→ R, f(x) = 1− |x|.f ′(x) = −1 < 0 si x ∈ (0, 1) y f ′(x) = 1 > 0 si x ∈ (−1, 0). Luego 0 es maximo
relativo estricto. En ninguno de los dos ejemplos la funcion es derivable en 0.
De todo esto sigue que para analizar el crecimiento y la existencia de
extremos relativos de una funcion derivable se debe estudiar el signo de su
derivada.
Ejemplo
f : R 7→ R, f(x) = 3x4 − 4x3.
5 Derivada y sus aplicaciones 51
Es f ′(x) = 12x2(x − 1), f ′(0) = 0, f ′(1) = 0. La funcion derivada se anula
solo en 0 y en 1, y por lo tanto estos puntos son los unicos candidatos a ser
extremos relativos. Vemos que f ′(x) < 0 para x ∈ (−1, 1) \ {0}, luego 0 no es
extremo relativo, sino que allı f es estrictamente decreciente. Por otra parte,
f ′(x) < 0 para x ∈ (0, 1) y f ′(x) > 0 para x ∈ (1,∞). Luego 1 es mınimo
relativo estricto. Por consiguiente esta funcion es estrictamente decreciente en
(−∞, 1) y estrictamente creciente en (1,∞), siendo por lo tanto 1 un mınimo
estricto relativo y absoluto.
Mediante la derivada segunda se estudia la concavidad de la curva grafica
de una funcion f . Observar que la existencia de f ′′(a) implica la existencia de
f ′(x) para todo x en un entorno de a. Como f ′′(x) es la derivada primera de
f ′(x), sigue que el analisis que se hizo para f y f ′ vale analogamente para f ′ y
f ′′. Ası, si f ′′(a) > 0 entonces f ′ es estrictamente creciente en a y si f ′′(a) < 0
entonces f ′ es estrictamente decreciente en a. En particular, si f ′(a) = 0 y
f ′′(a) > 0 entonces, al ser f ′(x) estrictamente creciente en a, pasa de negativa
a positiva en a y por lo tanto a es un mınimo relativo de f . Analogamente, si
f ′(a) = 0 y f ′′(a) < 0 entonces a es un maximo relativo de f .
Si f ′′(a) = 0 entonces f ′ no es estrictamente creciente ni estrictamente
decreciente en a. Quiere decir que si a es un extremo relativo de f ′ y existe
f ′′(a) entonces necesariamente debe ser f ′′(a) = 0.
Si f ′′(x) cambia de signo en un entorno de a entonces a es un extremo rela-
tivo de f ′. Los extremos relativos de f ′ son los llamados puntos de inflexion
de f . En ellos se produce por lo tanto un cambio de concavidad de f . Ası
como el cambio de signo de f ′ en a indica la presencia de un extremo relativo
de f , un cambio de signo de f ′′ en a indica que a es punto de inflexion de f ,
aunque f ′′(a) no exista.
Ejemplo
f : [−1, 1] 7→ R, f(x) = x2 sigx.
Es
f ′ : [−1, 1] 7→ R, f ′(x) = |2x|,f ′′ : [−1, 1] \ {0} 7→ R, f ′′(x) = 2 si x > 0, f ′′(x) = −2 si x < 0.
0 es punto de inflexion de f aunque f ′′ no es derivable en 0. El origen es
mınimo relativo (y absoluto) de f ′.
5 Derivada y sus aplicaciones 52
Cuando existen f ′′(a) y f ′′′(a), y f ′′(a) = 0, f ′′(a) 6= 0, entonces a es un
punto de inflexion de f . Consideremos otra vez el siguiente
Ejemplo
f : R 7→ R, f(x) = 3x4 − 4x3.
Tenemos que f ′(x) = 12x2(x− 1), f ′′(x) = 12x(3x− 2).
f ′ se anula solamente en 0 y en 1. Luego estos son los unicos puntos que pueden
ser extremos relativos de f . Vemos que en un entorno de 0, f ′(x) ≤ 0 y luego, al
no cambiar de signo f ′ en el punto 0, el origen no es extremo relativo de f sino
que la funcion es allı estrictamente decreciente. En cambio, f ′ cambia de signo
en un entorno de 1, pasando de negativa a positiva. Por lo tanto 1 es mınimo
relativo (y tambien absoluto en este caso). f es estrictamente decreciente en
(−∞, 1) y estrictamente creciente en (1,∞). f ′′ se anula en 0 y 2/3, solamente.
Vemos que f ′′(x) < 0 en (0,2/3) y f ′′(x) > 0 en (−∞, 0) ∪ (2/3,∞). Luego
tiene concavidad negativa en el primer intervalo y concavidad positiva en los
dos ultimos intervalos, siendo por lo tanto 0 y 2/3 puntos de inflexion de f .
5.2 Representacion parametrica
Sea f : [a, b] 7→ R. La grafica de f puede representarse mediante una curva en
el plano. Esta curva tambien puede representarse a traves de un “parametro”
t, que toma valores en un intervalo [ta, tb], de la forma siguiente
x = α(t)
y = β(t),
de manera que un punto cualquiera de la curva se corresponde con un unico
valor de t en [ta, tb]. El punto extremo (a, f(a)) se corresponde con ta, es decir
a = α(ta)
f(a) = β(ta)
y el otro punto extremo (b, f(b)) se corresponde con tb,
b = α(tb)
f(b) = β(tb).
De esta manera la funcion α : [ta, tb] 7→ [a, b] tiene funcion inversa
α−1 : [a, b] 7→ [ta, tb].
5 Derivada y sus aplicaciones 53
Dada una funcion en forma explıcita existe una representacion parametrica
trivial, a saber la que resulta de considerar a la misma variable independiente
x como parametro t:
x = x
y = f(x),
donde x ∈ [a, b].
Pero por supuesto existen otras representaciones parametricas no triviales.
Ejemplo
x = sen t
y = cos t,
t ∈ [−π/2, π/2].
Como x2 + y2 = 1, esta curva es una semicircunferencia superior de radio 1,
correspondiente a la grafica de la funcion
f : [−1, 1] 7→ R, f(x) = +√
1− x2.
Supongamos ahora que f es derivable. Encontraremos la expresion de f ′
en terminos de las funciones x = α(t), y = β(t). Tenemos que y = f(x) =
f(α(t)) = β(t). Luego β′(t) = f ′(α(t))α′(t) = f ′(x)α′(t). Por lo tanto
f ′(x) =β′(t)α′(t)
,
donde x y t estan relacionados mediante x = α(t). En el ejemplo anterior
f ′(x) =−sen t
cos t= − tan t,
donde x = sen t.
5.3 Teoremas del valor medio
Teorema de Rolle Sea f : [a, b] 7→ R, f continua en [a, b] y derivable en
(a, b), f(a) = f(b) = 0. Entonces existe un punto c ∈ (a, b) donde f ′(c) = 0.
Demostracion: Si f ≡ 0 entonces f ′ ≡ 0 en (a, b) y el teorema es trivial.
Por lo tanto supongamos que f no es identicamente nula en [a, b]. Como f
5 Derivada y sus aplicaciones 54
es continua, por el Teorema de Bolzano Weierstrass existen un maximo y un
mınimo absolutos de f en [a, b]. Como los valores maximo y mınimo de f no
pueden ser simultaneamente nulos, sigue que f debe tener un extremo absoluto
c en (a, b) y por lo tanto c es tambien extremo relativo. Luego f ′(c) = 0.
Teorema de Lagrange Sea f : [a, b] 7→ R continua en [a, b] y derivable en
(a, b). Entonces existe c ∈ (a, b) tal que
f(b)− f(a)
b− a= f ′(c).
Demostracion. La recta que pasa por los puntos (a, f(a)) y (b, f(b)) tiene por
ecuacion
y =f(b)− f(a)
b− a(x− a) + f(a).
Consideremos la funcion g : [a, b] 7→ R,
g(x) = f(x)− f(b)− f(a)
b− a(x− a)− f(a).
g es continua en [a, b] y derivable en [a, b]. Ademas g(a) = g(b) = 0. Luego
por el Teorema de Rolle existe c ∈ (a, b) tal que g′(c) = 0. Pero
g′(x) = f ′(x)− f(b)− f(a)
b− a.
De aquı la tesis del teorema sigue inmediatamente.
Interpretacion geometrica del Teorema de Lagrange
Una importante consecuencia del teorema de Lagrange es la siguiente:
Si f : [a, b] 7→ R tiene derivada nula en todo c ∈ (a, b) entonces f
es necesariamente una funcion constante.
5 Derivada y sus aplicaciones 55
En efecto, si en algun x ∈ (a, b) fuera f(x) 6= f(a) entonces existirıa c ∈ (a, x)
donde f ′(c) =f(x)−f(a)
x−a6= 0.
Ahora veamos una generalizacion del teorema de Lagrange. Volviendo a
la representacion parametrica, puede decirse que esta permite describir curvas
en el plano que no son necesariamente graficas de una funcion. Por ejemplo,
la circunferencia completa se describe mediante
x = sen t
y = cos t,
t ∈ [−π/2, 3π/2].
En general, unas ecuaciones
x = α(t)
y = β(t),
t ∈ [ta, tb] pueden describir, por ejemplo, una curva como esta,
donde se indica el punto inicial, que tambien es el punto final y de paso inter-
medio, y donde las puntas de flecha indican el sentido de recorrido a medida
que aumentan los valores del parametro t. En este caso, ni α(t) ni β(t) son
funciones biyectivas, aunque sı son continuas y mas aun, derivables, si la curva
es “suave”, esto es, con recta tangente en todo punto interior de ella.
Si las derivadas α′(t), β′(t) no se anulan ni se hacen infinito simultanea-
mente, entonces el teorema de Lagrange sigue valiendo en este caso. Se lo
conoce como Teorema de Cauchy. Si la curva se puede partir en una cantidad
finita de sectores, donde en cada sector sea la grafica de una funcion uniforme,
entonces la pendiente de la recta tangente a la curva en un punto t ∈ (ta, tb)
viene dada por β′(t)/α′(t). Por otra parte, los puntos extremos de la curva
5 Derivada y sus aplicaciones 56
son (α(ta), β(ta)) y (α(tb), β(tb)). Luego la pendiente de la cuerda que une esos
puntos esβ(tb)− β(ta)
α(tb)− α(ta).
Teorema de Cauchy Si α : [ta, tb] 7→ R, β : [ta, tb] 7→ R, son dos funciones
continuas, y derivables en (ta, tb), tales que sus derivadas no se anulan ni se
hacen infinito simultaneamente, entonces existe t0 ∈ (ta, tb) tal que
β(tb)− β(ta)
α(tb)− α(ta)=
β′(t0)α′(t0)
.
5.4 Lımites indeterminados
Cuando calculamos el lımite de un cociente f(x)/g(x) para x → a puede
darse que limx→a f(x) = 0 y limx→a g(x) = 0, en cuyo caso el lımite queda
indeterminado. Si f y g son derivables en a entonces tambien son continuas
en a y por lo tanto
limx→a
f(x) = f(a) = 0, limx→a
g(x) = g(a) = 0
y
f ′(a) = limx→a
f(x)− f(a)
x− a, g′(a) = lim
x→a
g(x)− g(a)
x− a.
Si ademas g′(a) 6= 0 entonces
f ′(a)
g′(a)=
limx→af(x)−f(a)
x−a
limx→ag(x)−g(a)
x−a
.
Por lo tanto el lımite ha quedado determinado.
Ejemplo
limx→0
senx
x.
Ambas funciones son derivables en 0 y ademas g′(x) ≡ 1 6= 0. Luego ese lımite
es cos 01
= 1.
Si g′(a) = 0, esta regla no puede aplicarse. No obstante limx→af(x)g(x)
puede
existir lo mismo. La siguiente regla es consecuencia del Teorema de Cauchy.
Si existe limx→af ′(x)g′(x)
entonces este lımite es igual a limx→af(x)g(x)
.
5 Derivada y sus aplicaciones 57
En efecto,
limx→a
f(x)
g(x)= lim
x→a
f(x)−f(a)x−a
g(x)−g(a)x−a
= limx→a
f ′(zx)
g′(zx).
Esta ultima igualdad es valida por el Teorema de Cauchy, pues
limx→a
f(x)−f(a)x−a
g(x)−g(a)x−a
= limx→a
f(x)− f(a)
g(x)− g(a)= lim
x→a
f ′(zx)
g′(zx),
donde zx es un punto intermedio entre a y x y por lo tanto zx → a cuando
x → a. Como estamos suponiendo que limx→af ′(x)g′(x)
existe, sigue que
limx→a
f ′(zx)
g′(zx)= lim
x→a
f ′(x)
g′(x).
Puede ocurrir que tambien este ultimo lımite quede indeterminado. En este
caso la regla puede reiterarse, suponiendo que existe limx→af ′′(x)g′′(x)
.
Ejemplo
limx→0
x− senx
x3= lim
x→0
1− cos x
3x2= lim
x→0
senx
6x=
cos 0
6=
1
6.
La aplicacion de la regla se justifica yendo “de atras hacia adelante” . Como
la derivada de la funcion y = 6x es 6 6= 0, la primera de las reglas enunciadas
dice que
limx→0
senx
6x=
1
6.
La segunda de las reglas enunciadas permite decir ahora que: Como
limx→0
senx
6x
existe, sigue que
limx→0
1− cos x
3x2= lim
x→0
senx
6x.
Como
limx→0
1− cos x
3x2
existe, sigue que
limx→0
1− cos x
3x2= lim
x→0
x− senx
x3.
Si limx→∞f(x)g(x)
queda indeterminado en la forma 00
entonces, haciendo el
cambio de variables x = 1/u, se tiene
limx→∞
f(x)
g(x)= lim
u→0
f(1/u)
g(1/u).
5 Derivada y sus aplicaciones 58
Si f(u) = f(1/u), g(u) = g(1/u), entonces
f ′(u) = f ′(1/u)(−1/u2), g′(u) = g′(u)(−1/u2),
donde f(u) → 0, g(u) → 0, cuando u → 0.
Luego, si existe limu→0f ′(u)g′(u)
, entonces este lımite es igual a limu→0f(u)g(u)
. Pero
limu→0
f ′(u)
g′(u)= lim
u→0
f ′(1/u)(−1/u2)
g′(1/u)(−1/u2)= lim
x→∞f ′(x)
g′(x).
Por otra parte
limu→0
f(u)
g(u)= lim
x→∞f(x)
g(x).
En resumen, tenemos que si limx→∞f ′(x)g′(x)
existe entonces el valor de este lımite
es limx→∞f(x)g(x)
, por lo que la regla de resolucion de la indeterminacion del lımite
puede aplicarse tambien en este caso.
Consideremos ahora la situacion en que limx→af(x)g(x)
queda indeterminado
por ser limx→a f(x) = ∞, limx→a g(x) = ∞. En este caso puede hacerse lo
siguiente. Como
limx→a
1
f(x)= 0, lim
x→a
1
g(x)= 0,
y
limx→a
f(x)
g(x)= lim
x→a
1/g(x)
1/f(x),
pasa que esta indeterminacion es del tipo 00, por lo que puede aplicarse la regla
anterior al cociente escrito de esta manera. No obstante, puede probarse que
tambien en este caso, si existe limx→af ′(x)g′(x)
, entonces el valor de este lımite es
limx→af(x)g(x)
.
Si limx→a f(x)g(x) es indeterminado (0∞), se escribe
f(x)g(x) =f(x)
1/g(x),
o bien
f(x)g(x) =g(x)
1/f(x),
para llevarlo al caso 00
o ∞∞ .
Si limx→a[f(x)− g(x)] queda indeterminado, se escribe
f(x)− g(x) =1/g(x)− 1/f(x)
1/(f(x)g(x)),
5 Derivada y sus aplicaciones 59
para llevarlo al caso 00.
Por ultimo, en la forma exponencial indeterminada se toma logaritmo nepe-
riano para llevarlo a una indeterminacion del producto o del cociente.
Ejemplos
1)
limx→0
xx.
Tomando logaritmo, queda
limx→0
x ln x = limx→0
ln x
1/x= lim
x→0
1/x
−1/x2= lim
x→0(−x) = 0.
Luego
limx→0
xx = e0 = 1.
2)
limx→∞
(1 + x)1/x.
Tenemos que
limx→∞
ln(1 + x)
x= lim
x→∞1/(1 + x)
1= 0.
Luego
limx→∞
(1 + x)1/x = e0 = 1.
5.5 Movimiento rectilıneo
La derivada nos indica la rapidez de cambio de una variable que depende de
otra. El ejemplo fısico mas tıpico de esta situacion (pero no el unico, por cierto)
es la velocidad de un movil que se desplaza sobre una lınea recta. Podemos
representar esta recta mediante un eje vertical. El movil cambia su posicion
s sobre esta recta en funcion del tiempo t. Para fijar su posicion tomamos un
punto de referencia sobre el eje vertical, de modo que ella queda determinada
por su distancia (por ejemplo, en metros) a este punto de referencia. Por otro
lado, si estamos interesados en analizar graficamente el desplazamiento del
movil en funcion del tiempo, lo razonable es medir esta variable (por ejemplo,
en segundos) sobre un eje horizontal, senalando tambien un tiempo de referen-
cia. De esta manera el desplazamiento del movil queda graficamente descrito
por la representacion cartesiana de la expresion s = s(t).
5 Derivada y sus aplicaciones 60
t
s(t)
El movil se desplaza sobre el eje vertical
La velocidad promedio del movil en un intervalo de tiempo [t1, t2] es el
cociente incremental entre el espacio recorrido en ese tiempo y ∆t = t2 − t1.
La velocidad instantanea en un determinado instante t1, v(t1), es el lımite
para t → t1 de los cocientes incrementales (velocidades promedio)
s(t)− s(t1)
t− t1,
tal como sucede en la definicion de derivada de una funcion. Por lo tanto
la velocidad instantanea es precisamente la derivada – si esta existe – de la
expresion s(t) evaluada en t = t1, s′(t1). Si la expresion s(t) es derivable en
todo su intervalo de definicion, entonces queda definida en ese mismo intervalo
la funcion velocidad instantanea, de expresion v(t).
La aceleracion promedio del movil en un intervalo de tiempo [t1, t2] es el
cociente entre el incremento de velocidad instantanea v(t2) − v(t1) y ∆t =
t2− t1. Asimismo, la aceleracion instantanea del movil en un instante t1, a(t1),
es la derivada segunda de s(t) – si esta existe – evaluada en t = t1, s′′(t1).
Ejercicio: Describir la funcion que fija la posicion de un movil en movimiento
rectilıneo si
(a) la velocidad instantanea es constante,
(b) la aceleracion instantanea es constante.
6 Integral de una funcion
La nocion de integral definida de una funcion surge como necesidad de medir
areas de figuras en el plano partiendo del area ya conocida de un rectangulo:
longitud de la base por longitud de la altura. La medida del area de una region
debe obedecer a ciertos principios intuitivos. Por ejemplo, la medida del area
de una figura como esta,
a saber la union de dos rectangulos no rampantes (con interiores disjuntos)
debe ser la suma de las areas de ambos rectangulos. En general, el area de
una union finita de rectangulos no rampantes debe ser la suma de las areas
de esos rectangulos. De esta manera ya es posible medir areas para figuras
de este tipo. Solo hay que probar que distintas descomposiciones de la region
en union de rectangulos conducen a la misma area. Empero, el poder medir
areas de estas figuras elementales no permite por sı mismo medir areas de
otras regiones intuitivamente “medibles” del plano. Un cırculo, por ejemplo.
En efecto, es visualmente evidente que un cırculo no es una union finita de
rectangulos. De hecho, serıa imposible medir exactamente el area de un cırculo
sin el conocimiento de lımite numerico: el area de un cırculo es el lımite de
una sucesion numerica de areas de regiones elementales.
Nos centraremos en el calculo del area de una region limitada por la grafica
de una funcion
f : [a, b] 7→ [0,∞).
Queremos calcular el area de la region encerrada por la grafica de f , el intervalo
[a, b] y los segmentos de extremos (a, 0), (a, f(a)) y (b, 0), (b, f(b)).
Dado que hasta ahora solo sabemos calcular areas de figuras elementales (union
finita de rectangulos no rampantes), construimos una tal figura contenida en
la region dada.
61
6 Integral de una funcion 62
0.5 1 1.5 2
0.5
1
1.5
2
Los rectangulos se corresponden con una particion del intervalo [a, b].
a = x0 < x1 < x2 < · · · < xn−1 < xn = b
La base de cada rectangulo es un intervalo [xi−1, xi]. La altura de cada
rectangulo es ci = inf fen [xi−1, xi]. De esta manera, el area de la region
elemental es s =∑n
i=1 ci[xi − xi−1]. El numero s se llama suma inferior cor-
respondiente a la particion dada. Si existe una medida del area de la region,
digamos A, sera s ≤A, donde posiblemente valga la desigualdad estricta, a
menos que la region ya sea una figura elemental. Esto es porque la figura
elemental esta contenida en la region.
Ahora construimos una figura elemental que contenga a la region. La par-
ticion de [a, b] es la misma, y por lo tanto la base de los rectangulos es la misma
que antes, pero la altura es ahora Ci = sup f(x), x ∈ [xi−1, xi]. El area de esta
figura elemental es S =∑n
i=1 Ci[xi − xi−1], y ahora A ≤ S. S se llama suma
superior correspondiente a la particion dada.
Es visualmente evidente que si la longitud de la base de cada rectangulo se
hace mas pequena, entonces tanto la figura elemental contenida en la region
como la que contiene a la region se aproximan a esta. Para todas las corre-
spondientes sumas superiores e inferiores vale la relacion
s ≤ A ≤ S,
suponiendo que existe el area de la region, A. Este hecho sugiere considerar
el supremo s0 de las sumas inferiores, ası como el ınfimo S0 de las sumas
superiores, donde tanto el ınfimo como el supremo se obtienen variando las
particiones del intervalo [a, b]. Si ocurre que s0 = S0 entonces este valor comun
es por definicion el area A de la region dada. Se escribe
A =
∫ b
a
f(x) dx,
6 Integral de una funcion 63
que se lee “integral de f diferencial x” y se dice que la funcion es integrable
(Riemann). Puede ocurrir que para alguna funcion f sea s0 < S0. En este
caso f no es integrable (R).
Si f : [a, b] 7→ R, donde f no es necesariamente no negativa, la misma
definicion de integral es valida para este caso. Solo debe tenerse en cuenta que
el area va acompanada del signo correspondiente.
Una condicion necesaria y suficiente para que una funcion sea integrable (R)
es que dado ε > 0, arbitrario, exista una particion de [a, b] tal que S − s < ε,
donde S y s son las sumas superior e inferior correspondientes a esta par-
ticion, respectivamente. Una funcion continua en [a, b] tiene esta condicion.
En efecto, como f es uniformemente continua en [a, b], puede conseguirse una
particion x0, x1, · · · , xn de [a, b] tal que para todo i, [xi − xi−1] sea suficiente-
mente pequeno, de manera que valga Ci − ci < ε/(b− a) para todo i. Luego
S − s =n∑
i=1
[Ci − ci][xi − xi−1] <ε
b− a
n∑i=1
[xi − xi−1] = ε.
Asimismo, una funcion acotada en [a, b], monotona creciente o monotona de-
creciente, es integrable (R). En este caso podemos conseguir una particion
tal que [xi − xi−1] < ε/(f(b) − f(a)) (o [xi − xi−1] < ε/(f(a) − f(b)) si f es
decreciente). Luego
S − s =n∑
i=1
[f(xi)− f(xi−1)][xi − xi−1] <
ε
f(b)− f(a)
n∑i=1
[f(xi)− f(xi−1)] =ε
f(b)− f(a)[f(b)− f(a)] = ε.
En cualquiera de estos dos casos la integral definida de una funcion f puede
obtenerse partiendo el intervalo [a, b] en n subintervalos de igual longitud y
tomando lımite para n → ∞ en las sumas superiores e inferiores, indistinta-
mente.
Ejemplo
Calculo de∫ 1
0f(x) dx, donde
f : [0, 1] 7→ R, f(x) = x.
La particion del intervalo [0, 1] en n subintervalos de igual longitud 1/n da
los puntos 0, 1/n, 2/n, · · · , n−1n
, 1. La suma superior para esta particion es
6 Integral de una funcion 64
Sn =∑n
i=1 f(xi)[xi − xi−1], donde xi = i/n. Luego
Sn =n∑
i=1
i/n 1/n = 1/n2
n∑i=1
i =
1/n2[1 + 2 + · · ·+ n] = 1/n2n(n + 1)
2=
n + 1
2n,
y
limn→∞
Sn = limn→∞
n + 1
2n= 1/2.
6.1 Propiedades de la integral definida
a) Si f(x) ≥ 0 para x ∈ [a, b] entonces∫ b
af(x) dx ≥ 0.
b) Si c es una constante fija, entonces
∫ b
a
cf(x) dx = c
∫ b
a
f(x) dx.
c) ∫ b
a
[f(x) + g(x)] dx =
∫ b
a
f(x) dx +
∫ b
a
g(x) dx
La integral definida asigna un numero real a cada funcion integrable sobre
un intervalo. Por las propiedades b) y c) se dice que esta asignacion es lin-
eal. La propiedad c) se generaliza a una suma finita de funciones integrables.
Mas precisamente, la integral definida de una combinacion lineal de funciones
c1f1(x) + c2f2(x) + · · ·+ cmfm(x) es la combinacion lineal de las integrales:
∫ b
a
[n∑
i=1
cifi(x)
]=
n∑i=1
ci
∫ b
a
fi(x) dx.
d) Si c es un punto en (a, b) entonces
∫ b
a
f(x) dx =
∫ c
a
f(x) dx +
∫ b
c
f(x) dx.
e) Si f(x) ≤ g(x) para x ∈ [a, b] entonces
∫ b
a
f(x) dx ≤∫ b
a
g(x) dx.
En particular, como |f(x)| es integrable si f(x) es integrable, y
−|f(x)| ≤ f(x) ≤ |f(x)|,
6 Integral de una funcion 65
tenemos
−∫ b
a
|f(x)| dx ≤∫ b
a
f(x) dx ≤∫ b
a
|f(x)| dx.
Es decir, ∣∣∣∣∫ b
a
f(x) dx
∣∣∣∣ ≤∫ b
a
|f(x)| dx.
Teorema del valor medio
Sea M = sup f(x), x ∈ [a, b], m = inf f(x), x ∈ [a, b]. Luego m ≤ f(x) ≤ M
para x ∈ [a, b] y por lo tanto
m(b− a) =
∫ b
a
m dx ≤∫ b
a
f(x) dx ≤∫ b
a
M dx = M(b− a).
Es decir,
m ≤∫ b
af(x) dx
b− a≤ M.
La integral definida de una funcion f partida por la longitud b−a del intervalo
de integracion es un numero µ comprendido entre el ınfimo y el supremo de
f en ese intervalo. Si f es continua en [a, b] entonces existe α ∈ [a, b] tal que
f(α) = µ. Luego en este caso
∫ b
a
f(x) dx = f(α)(b− a),
donde α ∈ [a, b].
6.2 Funcion integral
Sea f una funcion integrable (R) en el intervalo [a, b]. Entonces tambien es
integrable sobre un intervalo [a, u] para todo u ∈ (a, b]. Para cada u ∈ [a, b]
tenemos un valor de la integral definida∫ u
af(x) dx. Queda ası definida una
funcion
F (u) =
∫ u
a
f(x) dx,
que se llama funcion integral de f .
6 Integral de una funcion 66
ua b
En el caso de la funcion del dibujo de arriba vemos que la funcion integral
es creciente porque a medida que u avanza de izquierda a derecha el area va
aumentando. En el siguiente caso F (u) crece desde a hasta u, luego decrece
desde u hasta v para posteriormente volver a crecer desde v hasta b.
6 Integral de una funcion 67
a bu v a bu v
Grafico de la funcion f Grafico de la funcion integral de f
Si la funcion f esta definida a la izquierda de a tambien se puede considerar∫ u
af(x) dx para u < a si ademas f es integrable en el intervalo [u, a]. Para
estos casos, u < a, se conviene en definir∫ u
af(x) dx = − ∫ a
uf(x) dx.
Sea u ∈ (a, b). Para un pequeno incremento h, positivo o negativo, de
forma que u + h ∈ [a, b], tenemos que
F (u + h)− F (u) =
∫ u+h
a
f(x) dx−∫ u
a
f(x) dx =
∫ u+h
u
f(x) dx.
Por el Teorema del valor medio sigue que∫ u+h
uf(x) dx = µh, donde µ es un
numero intermedio entre el ınfimo y el supremo de f en el intervalo [u, u + h]
(o [u + h, u] si h es negativo). Luego [F (u + h)− F (u)] → 0 cuando h → 0, lo
cual indica que la funcion integral F (u) es continua en [a, b]. Si ademas f es
continua en u entonces el valor intermedio µ, que depende de u y h, tiende a
f(u) cuando h → 0. Luego
F ′(u) = limh→0
F (u + h)− F (u)
h= lim
h→0µ(u, h) = f(u).
Ası hemos probado que la derivada de la funcion integral en los puntos de
continuidad u del integrando f es el valor f(u). Significa que si f es continua
en [a, b] entonces F ′(u) = f(u) para todo u ∈ [a, b], es decir que la funcion
integral de una funcion continua es algo ası como su “antiderivada”: una
funcion tal que su derivada es la funcion integrando.
Volviendo al calculo de la integral definida∫ b
af(x) dx, supongamos que f
es continua en [a, b] y que ademas conocemos una funcion G tal que
G′(u) = f(u) para todo u ∈ [a, b].
Como la funcion integral F (u) tambien satisface F ′(u) = f(u) para todo u ∈[a, b] tenemos que
[F (u)−G(u)]′ = F ′(u)−G′(u) = f(u)− f(u) = 0
6 Integral de una funcion 68
para todo u ∈ [a, b]. Las unicas funciones con derivada nula en todo un
intervalo son las funciones constantes. Por lo tanto F (u) − G(u) = C, C
constante. En particular F (a)−G(a) = C, F (b)−G(b) = C. Como F (a) = 0,
sigue que C = −G(a) y por consiguiente
F (b) =
∫ b
a
f(x) dx = G(b)−G(a),
que es la llamada regla de Barrow, que por lo tanto permite calcular la integral
definida de una funcion continua si conocemos una funcion cuya derivada sea
el integrando. Esta regla tambien es valida si f es continua en [a, b] salvo en
una cantidad finita de puntos en [a, b].
Una funcion G tal que G′ = f en algun intervalo o dominio de numeros
reales se llama una primitiva de f . Se suele indicar ası:
G(x) =
∫f(x) dx.
Ejemplos
1)∫ 1
0x dx. Una primitiva de la funcion f(x) = x es G(x) = x2/2. Luego∫ 1
0x dx = x2/2|10 = 1/2.
2)∫ π
0cos x dx = senx|π0 = senπ − sen 0 = 0.
Integral definida sobre un intervalo no acotado
Si f es integrable en el intervalo [a, u] para todo u > a entonces se puede
definir ∫ ∞
a
f(x) dx = limu→∞
∫ u
a
f(x) dx.
Cuando este lımite existe, f se dice integrable en [a,∞). Analogamente para∫ a
−∞ f(x) dx o∫∞−∞ f(x) dx = lima→−∞, b→∞
∫ b
af(x) dx.
Ejemplo∫∞
11/x2 dx. Una primitiva de 1/x2 es −1/x. Luego
∫ u
1
1/x2 dx = −1/x|u1 = −1/u + 1
y
limu→∞
(1− 1/u) = 1.
6 Integral de una funcion 69
Integrando no acotado
Si f es acotada en el intervalo [u, b] para todo u > a pero |f(u)| → ∞ cuando
u → a+ entonces, si existe
limu→a+
∫ b
u
f(x) dx,
se define∫ b
af(x) dx como el valor de ese lımite.
Ejemplo
La funcion
f : (0, 1) 7→ R, f(x) = 1/√
x,
es acotada en todo intervalo [u, 1] para u > 0 y∫ 1
u
1/√
x dx = 2√
x|1u = 2− 2√
u.
Como limu→0+(2− 2√
u) = 2, se tiene por definicion∫ 1
01/√
x dx = 2.
6.3 Calculo de primitivas
Por lo que hemos visto, el calculo de una integral definida, que no sea por la
misma definicion, requiere conocer una primitiva continua de la funcion inte-
grando. Si ocurre que la funcion integrando es una derivada de una funcion
conocida entonces el calculo de la integral definida sera inmediato. Por ejem-
plo,∫ 2
11/x dx = ln x|21 = ln 2. Otras veces el integrando es suma de funciones
que son derivadas de funciones conocidas. Dado que la integral es lineal, este
caso se resuelve tambien rapidamente.
Ejemplos
1)∫
x2 − 2√
x + 3
xdx =
=
∫x dx− 2
∫1/√
x dx + 3
∫1/x dx =
= x2/2− 4√
x + 3 ln x + C.
2)∫
tan2 x dx =
6 Integral de una funcion 70
=
∫sen 2x
cos2 xdx =
∫1− cos2 x
cos2 xdx =
=
∫1
cos2 xdx−
∫dx = tan x− x + C.
Integracion por sustitucion
Este metodo se basa en efectuar un cambio de variable, x = α(t), t = α−1(x).
Tenemos∫
f(x) dx =∫
f(α(t)) dx.
Pero ahora no sirve encontrar una primitiva de f(α(t)) sino que se debe calcular
una primitiva de f(α(t))α′(t). Esto es∫
f(α(t))α′(t) dt. Por lo tanto debe
reemplazarse dx por α′(t) dt. En efecto, sea G tal que G′(t) = f(α(t))α′(t).
Luego G′(t)/α′(t) = f(α(t)). Pero por la expresion de la derivada de funcion
de funcion y de la funcion inversa, es
G′(t)/α′(t) = [G(α−1(x))]′.
Por lo tanto queda
[G(α−1(x))]′ = f(x)
y ası se ha encontrado una primitiva de f(x).
Ejemplo∫
ln x/x dx. Se efectua la sustitucion x = et, o bien t = ln x. Como
(et)′ = et, ahora se debe calcular
∫t
etet dt =
∫t dt = t2/2 + C.
Finalmente se reemplaza t por ln x : (ln x)2/2 + C.
Si para una funcion derivable g(x) se define d(g(x)) = g′(x) dx (donde
d(g(x)) se lee diferencial de g(x)), entonces en algunas integrales es facil
darse cuenta de la sustitucion que se debe hacer. Por ejemplo, en la inte-
gral∫
cos(3x) dx hacemos
∫cos(3x) dx =
=1
3
∫cos(3x) d(3x) =
1
3
∫cos t dt =
=1
3sen t + C =
1
3sen (3x) + C.
6 Integral de una funcion 71
En la integral∫
exsen ex dx, teniendo en cuenta que d(ex) = ex dx, hacemos
∫exsen ex dx =
=
∫sen ex d(ex) =
∫sen t dt = − cos t + C = − cos ex + C.
En el siguiente ejemplo, como d(1− x2) = −2x dx, tenemos que
∫x
1− x2dx =
= −1/2
∫d(1− x2)
1− x2= −1/2
∫dt
t=
= −1/2 ln t + C = −1/2 ln(1− x2) + C.
En la integral ∫x√
1 + xdx,
teniendo en cuenta que d(√
1 + x) = 12√
1+xdx, ponemos esa integral ası:
2∫
x d(√
1 + x), y poniendo x = (√
1 + x)2 − 1, queda
2
∫[(√
1 + x)2 − 1]d(√
1 + x) =
= 2
∫(t2 − 1) dt = 2/3 t3 − 2t + C =
= 2/3 (1 + x)3/2 − 2(1 + x)1/2 + C.
Integracion por partes
La regla de derivacion de un producto de funciones da
(f(x)g(x))′ = f ′(x)g(x) + f(x)g′(x).
Luego ∫(f(x)g(x))′ dx =
∫f ′(x)g(x) dx +
∫f(x)g′(x) dx.
Como∫
(f(x)g(x))′ dx = f(x)g(x),
g′(x) dx = d(g(x)),
f ′(x) dx = d(f(x)),
6 Integral de una funcion 72
la igualdad anterior se escribe∫
f(x) dg = f(x)g(x)−∫
g(x) d f.
En particular, si g(x) ≡ x, queda∫
f(x) dx = xf(x)−∫
xf ′(x) dx.
Ejemplos
1)∫
ln x dx =
= x ln x−∫
dx = x ln x− x + C.
2)∫
arctan x dx =
= x arctan x−∫
x
1 + x2dx =
= x arctan x− 1/2
∫d(1 + x2)
1 + x2=
= x arctan x− 1/2 ln(1 + x2) + C.
3)∫
x3 ln x dx =
=
∫ln x d(x4/4) = (x4/4) ln x−
∫x3/4 dx =
= (x4/4) ln x− x4/16 + C.
Integracion por expresiones racionales
En la integral ∫3x3 − 3x + 1
x2 + x− 2dx
efectuamos primero la division del cociente, de modo que quede como suma
de un polinomio mas otra expresion racional, donde ahora el numerador tiene
grado menor que el denominador. Como
3x3 − 3x + 1 = (x2 + x− 2)(3x− 3) + 6x− 5,
6 Integral de una funcion 73
sigue que∫
3x3 − 3x + 1
x2 + x− 2dx =
=
∫(3x− 3) dx +
∫6x− 5
x2 + x− 2dx =
= 3/2 x2 − 3x +
∫6x− 5
x2 + x− 2dx.
Ahora se trata de escribir este ultimo integrando como suma de fracciones
simples. Como x2 + x− 2 = (x− 1)(x + 2), se pone
6x− 5
(x− 1)(x + 2)=
=A
x− 1+
B
x + 2=
=A(x + 2) + B(x− 1)
(x− 1)(x + 2).
Luego 6x− 5 = A(x+2)+B(x− 1). Como esta igualdad debe ser valida para
todo x ∈ R, en particular lo es para x = 1. Luego
6(−2)− 5 = −17 = −3B,
6(1)− 5 = 1 = 3A,
y por lo tanto B = 17/3, A = 1/3. Luego∫
6x− 5
(x− 1)(x + 2)dx =
= 1/3
∫dx
x− 1+ 17/3
∫dx
x + 2=
= 1/3 ln |x− 1|+ 17/3 ln |x + 2|+ C.
Finalmente queda∫
3x3 − 3x + 1
(x− 1)(x + 2)dx =
= 3/2 x2 − 3x + 1/3 ln |x− 1|+ 17/3 ln |x + 2|+ C.
Si en la expresion del denominador hay ceros simples imaginarios, por ejemplo1
x(x2+1), la descomposicion se efectua de la siguiente forma.
1
x(x2 + 1)=
A
x+
Bx + C
x2 + 1
=A(x2 + 1) + Bx2 + Cx
x(x2 + 1).
6 Integral de una funcion 74
Luego 1 = A(x2 + 1) + Bx2 + Cx. Poniendo x = 0 queda A = 1. Por lo tanto
1 = (B + 1)x2 + Cx + 1.
Luego B = −1, C = 0. Ası∫
dx
x(x2 + 1)=
=
∫dx
x−
∫x
x2 + 1dx =
= ln |x| − 1/2 ln(x2 + 1) + C.
El caso en que hay ceros multiples se considera de la siguiente manera. Se
escribe
P (x)
(x− a)hq(x)=
=A0
(x− a)h+
A1
(x− a)h−1+ · · ·+ Ah−1
x− a+
p(x)
q(x),
donde los coeficientes Ai estan determinados por la formula Ai = K(i)(a)i!
, siendo
K(x) = P (x)q(x)
(K(0)(x) = K(x)). Por ejemplo, en la expresion x2
(x−1)3tenemos
P (x) = x2, q(x) = 1, K(x) = x2, K(1) = 1, K ′(1) = 2, K ′′(1)/2 = 1. Luego
x2
(x− 1)3=
1
(x− 1)3+
2
(x− 1)2+
1
x− 1,
y por consiguiente
∫x2
(x− 1)3dx =
= −1/2 (x− 1)−2 − 2(x− 1)−1 + ln |x− 1|+ C.
En las expresiones racionales en x y n
√ax+bcx+d
se hace la sustitucion que consiste
en tomar dicha raız como nueva variable.
Ejemplos
1) En ∫dx
x− 3√
x− 2
ponemos√
x− 2 = t, por lo que x = t2+2, dx = 2t dt, y la integral se convierte
en∫
2t dt
t2 − 3t + 2=
6 Integral de una funcion 75
= −2
∫dt
t− 1+ 4
∫dt
t− 2=
= −2 ln |t− 1|+ 4 ln |t− 2|+ C =
= ln
((t− 2)4
(t− 1)2
)+ C =
= ln
((√
x− 2− 2)4
(√
x− 2− 1)2
)+ C.
2) En la integral ∫ (x + 1
x
)2/3
dx
ponemos (x + 1
x
)1/3
= t,x + 1
x= t3, x + 1 = xt3,
xt3 − x = x(t3 − 1) = 1, x =1
t3 − 1, dx =
−3t2 dt
(t3 − 1)2.
Luego la integral queda
−3
∫t2
(t3 − 1)2dt,
que es una integral de funcion racional.
Si el integrando es funcion racional de x y de varias raıces de la forma
p
√ax + b
cx + d,
q
√ax + b
cx + d,
r
√ax + b
cx + d, · · · ,
entonces se hace la sustitucion l
√ax+bcx+d
= t, donde l =m.c.m. (p, q, r, · · ·).Ejemplo
En ∫6√
x3√
x +√
xdx
ponemos 6√
x = t, x = t6, dx = 6t5 dt, y la integral queda
6
∫t6
t2 + t3dt =
= 6
∫ [t3 − t2 + t− 1 +
1
1 + t
]dt =
= t4/4− t3/3 + t2/2− t + ln |1 + t|+ C =
= x2/3/4− x1/2/3 + x1/3/2− x1/6 + ln |1 + x1/6|+ C.
En ∫ √x2 + px + q dx
6 Integral de una funcion 76
se hace la sustitucion
√x2 + px + q = x + t, x2 + px + q = x2 + 2tx + t2,
de donde se puede despejar x como funcion racional de t, por lo que el inte-
grando se convierte en expresion racional de t.
Ejemplo
En∫ √
x2 + 4 dx se pone
√x2 + 4 = x + t, x2 + 4 = x2 + 2tx + t2,
x =4− t2
2t, x =
2
t− t
2, dx = −4 + t2
2t2dt.
Luego la integral queda
∫ (4− t2
2t+ t
)(−4 + t2
2t2
)dt =
= −∫
16 + 8t2 + t4
4t3dt =
= −∫ (
4
t3+
2
t+
t
4
)dt =
=2
t2− 2 ln |t| − t2
8+ C =
2
(√
x2 + 4− x)2− 2 ln |
√x2 + 4− x| − (
√x2 + 4− x)2
8+ C.
Mas conveniente que la anterior puede resultar la sustitucion
x = 2sh t, dx = 2ch t dt.
De esta manera,
∫ √x2 + 4 dx =
= 2
∫ √4ch 2t + 4 ch t dt =
= 4
∫ch 2t dt =
=
∫(e2t + e−2t + 2) dt =
= e2t/2− e−2t/2 + 2t + C.
6 Integral de una funcion 77
Para pasar a la variable x se usa que et = ch t + sh t y ch t = +√
sh 2t + 1.
Luego queda
et = +√
sh 2t + 1 + sh t =√
x2/4 + 1 + x/2,
t = ln(√
x2/4 + 1 + x/2)
.
Luego la integral resuelta queda(√
x2/4 + 1 + x/2)2
2− 1
2(√
x2/4 + 1 + x/2)2 +2 ln
(√x2/4 + 1 + x/2
)+C.
En la integral ∫ √x2 − a2 dx
se hace la sustitucion x = ach t, procediendo como en el caso anterior.
Si la integral es de la forma∫ √a2 − x2 dx,
se pone x = asen t, dx = a cos t dt, y la integral queda a2∫
cos2 t dt.
Si el integrando es de la forma√
x2 + px + q o√−x2 + px + q entonces se
completa cuadrados en el trinomio, llevandolo a alguno de los casos anteriores.
Ejemplo ∫ √−x2 + 2x + 3 dx =
∫ √4− (x− 1)2 dx.
Se hace la sustitucion
x− 1 = 2sen t, dx = 2 cos t dt.
La integral se convierte en
4
∫cos2 t dt =
= 2
∫(1 + cos(2t)) dt = 2t + sen (2t) + C =
2arcsen
(x− 1
2
)+ sen
(2arcsen
(x− 1
2
))+ C.
Teniendo en cuenta que
sen (2α) = 2senα cos α = 2sen α√
1− sen 2α,
la integral resuelta queda
2arcsen
(x− 1
2
)+ 2
(x− 1
2
) √1−
(x− 1
2
)2
+ C.
6 Integral de una funcion 78
Integrandos racionales de funciones circulares
Una integral del tipo∫
dxsen x
se resuelve con la sustitucion
t = tan(x/2), x = 2 arctan t, dx =2
1 + t2dt.
Tenemos que
senx =
= 2sen (x/2) cos(x/2) =2sen (x/2) cos(x/2)
cos2(x/2) + sen 2(x/2)=
2t
1 + t2
Por otra parte
cos x =cos2(x/2)− sen 2(x/2)
cos2(x/2) + sen 2(x/2)=
1− t2
1 + t2.
Por lo tanto una integral de este tipo se transforma en una integral con inte-
grando racional en t.
Es∫
dx
senx=
=
∫ 21+t2
2t1+t2
dt =
=
∫dt
t= ln |t|+ C =
ln | tan(x/2)|+ C.
Por otro lado,
∫dx
1 + cos x=
=
∫ 21+t2
1 + 1−t2
1+t2
dt =
∫dt = t + C =
tan(x/2) + C.
6.4 Polinomio de Taylor. Series de potencias
La funcion
f : R 7→ R, f(x) = e−x2
,
6 Integral de una funcion 79
es muy usada en teorıa de probabilidades y en estadıstica. Es una funcion
continua en todo R y mas aun, existen todas sus derivadas sucesivas. Tambien
es una funcion integrable (R) en R. Puede probarse que∫∞−∞ e−x2
dx =√
2π.
Empero, esta funcion no tiene primitiva expresable en terminos de las funciones
trascendentes estudiadas. Por lo tanto una integral definida de e−x2sobre
cualquier intervalo no tiene un calculo inmediato. Una manera de remediar esta
situacion es aproximar a la funcion por otras funciones que sı tengan integrales
de calculo inmediato. Por ejemplo, polinomios. Cuando la funcion a aproximar
tiene derivadas hasta un cierto orden, un polinomio aproximante muy util es el
llamado polinomio de Taylor. Es un polinomio que en un determinado punto
del dominio de la funcion coincide con los valores de la funcion y sus derivadas
hasta un cierto orden.
Escribamos un polinomio P (x) de grado n de la siguiente forma:
P (x) = a0 + a1(x− c) + a2(x− c)2 + · · ·+ an(x− c)n.
Vemos que P (c) = a0. Si derivamos P (x) queda
P ′(x) = a1 + 2a2(x− c) + 3a3(x− c)2 + · · ·+ nan(x− c)n−1.
Luego P ′(c) = a1. Volviendo a derivar
P ′′(x) = 2a2 + 6a3(x− c) + 12a4(x− c)2 + · · ·+ n(n− 1)(x− c)n−2.
Sigue que P ′′(c) = 2a2. Derivando sucesivamente P (x) puede probarse la
formula
P (i)(c) = i!ai,
donde P (i)(c) es la derivada de orden i de P evaluada en c, y P (0)(c) = P (c).
Ahora bien, si una funcion f tiene derivadas hasta el orden n en c, entonces
P (x) = f(c) + f ′(c)(x− c) +f ′′(c)
2!(x− c)2 + · · ·+ f (n)(c)
n!(x− c)n
es un polinomio que satisface
P (i)(c) = i!f (i)(c)
i!= f (i)(c), 0 ≤ i ≤ n.
P (x) es el polinomio de Taylor de grado n de f desarrollado en c. Es de esperar
que esta coincidencia de los valores de P y f en c produzca una aproximacion
de P a f , al menos en las cercanıas del punto c. Efectivamente ası ocurre, y
6 Integral de una funcion 80
tanto mayor es la aproximacion de P a f cuanto mas alto es el grado de P .
Consideremos, por ejemplo, la funcion
f : R 7→ R, f(x) = senx.
Para esta funcion, tenemos f(0) = 0, f ′(0) = cos 0 = 1, f ′′(0) = −sen 0 =
0, f ′′′(0) = − cos 0 = −1, f (4)(0) = sen 0 =, f (5)(0) = cos 0 = 1. Luego su
polinomio de Taylor de grado 5, desarrollado en cero, es
P (x) = x− x3/3! + x5/5!.
Como las derivadas sucesivas de la funcion
f : R 7→ R, f(x) = ex
son la misma funcion, tenemos que en este caso
P (x) = 1 + x +x2
2!+
x3
3!+ · · ·+ xn
n!.
Tanto las funciones sen x como ex tiene derivadas sucesivas de todos los ordenes.
Cabe preguntarse entonces:
Si en lugar de considerar el polinomio de Taylor de grado n consid-
eramos la suma infinita, o sea una serie, coincidira esta serie con
la funcion en todo punto?
Por ejemplo, sera
ex = 1 + x +x2
2!+
x3
3!+ · · ·+ xn
n!+ · · ·?
Sumar series ya sabemos. Hay que calcular las sumas parciales de orden n y
luego tender n →∞. Ası,
1 + x +x2
2!+
x3
3!+ · · ·+ xn
n!+ · · · = lim
(1 + x +
x2
2!+ · · ·+ xn
n!
).
La respuesta a esta pregunta es afirmativa en muchos casos, en particular para
estas dos funciones aquı consideradas.
Esta serie se llama serie de Taylor de la funcion dada, desarrollada en el
punto c. La funcion que se desarrolla debe tener necesariamente derivadas
sucesivas de todos los ordenes, pero esta condicion no es suficiente para que f
sea desarrollable en serie de Taylor. En general,
T (x) = f(c) + f ′(c)(x− c) +f ′′(c)
2!(x− c)2 + · · ·+ f (n)(c)
n!(x− c)n + · · · .
6 Integral de una funcion 81
Las funciones que admiten un desarrollo en serie de Taylor en todo
R se llaman analıticas.
Obviamente los polinomios son funciones analıticas. Tambien lo son
ex, senx, cos x, shx, chx,
y muchas otras funciones obtenidas de estas. En efecto, es
ex = 1 + x +x2
2!+
x3
3!+ · · ·+ xn
n!+ · · ·
para todo x ∈ R. Ası, por ejemplo,
e = 1 + 1 + 1/2 + 1/6 + · · ·+ 1/n! + · · · ,e2 = 1 + 2 + 4/2! + 8/3! + · · ·+ 2n/n! + · · · ,
e−1 = 1− 1 + 1/2− 1/3! + · · ·+ (−1)n/n! + · · · .
En general, una serie de la forma
∞∑i=0
aixi = a0 + a1x + a2x
2 + · · ·
se llama serie de potencias.
Las series de Taylor con desarrollo en cero son casos particulares de series de
potencias.
Aplicando el criterio de Cauchy para sumacion de series numericas de
terminos positivos se prueba que una serie de potencias es absolutamente con-
vergente para x en un intervalo (−R,R), donde
R = 1/ lim sup n√|an|.
Puede ocurrir que R = 0, en cuyo caso la serie converge solo cuando x = 0.
En el mejor de los casos R = ∞, es decir la serie converge para todo x ∈ R.
R se llama radio de convergencia de la serie. Para las series de Taylor de
funciones analıticas vale R = ∞. En cambio, para funciones no analıticas pero
con derivadas de todos los ordenes vale 0 ≤ R < ∞.
Ejemplo
La serie de potencias
1 + x + x2 + · · ·+ xn + · · ·
6 Integral de una funcion 82
tiene radio de convergencia R = 1. Luego es absolutamente convergente para
|x| < 1. Para estos x, y solo para estos x, es
1 + x + x2 + · · ·+ xn + · · · = 1/(1− x).
Para x = 1 la serie diverge a ∞. Para x = −1 la serie oscila. Para |x| > 1 es
tambien divergente u oscilante, y absolutamente divergente.
Una propiedad interesante de las series de potencias es que su con-
vergencia es uniforme en todo x perteneciente a un intervalo [−a, a]
contenido en (−R, R).
Significa que dado ε > 0, arbitrario, existe n0 ∈ N, n0 = n0(ε, a) tal que
|∑∞i=n aix
i| < ε para todo n ≥ n0.
Volviendo al punto inicial, vemos que la funcion
f : R 7→ [0,∞), f(x) = e−x2
es analıtica, puesto que ex lo es. Mas aun, para obtener su serie de Taylor
podemos reemplazar x por −x2 en la serie de ex, quedando
e−x2
= 1− x2 + x4/2− x6/3! + x8/4!− · · ·+ (−1)nx2n/n! + · · · .
Supongamos ahora que queremos calcular
∫ u
0
e−x2
dx
para algun u > 0. En el intervalo [0, u] los polinomios de Taylor de e−x2, es
decir las sumas parciales de los primeros n terminos de su serie de Taylor, se
aproximan uniformemente a e−x2y por lo tanto las integrales definidas de esos
polinomios tambien se aproximan a∫ u
0e−x2
dx. Ası,
∫ u
0
e−x2
dx ≈
≈∫ u
0
(1− x2 + x4/2− x6/3! + · · ·+ (−1)nx2n/n!)dx
=
(x− x3
3+
x5
2!5− x7
3!7+ · · ·+ (−1)n x2n+1
n!(2n + 1)
)∣∣∣∣u
0
= u− u3
3+
u5
10− u7
42+ · · ·+ (−1)n u2n+1
n!(2n + 1).
6 Integral de una funcion 83
Ası como en este ejemplo, se pueden calcular integrales definidas, aproxi-
madamente, de integrandos que carecen de primitivas expresables como fun-
ciones algebraicas–trascendentes. Aun si la serie resultante no es una serie de
potencias. Por ejemplo, la funcion de Cauchy,
f(x) = e−1/x2
si x 6= 0, f(0) = 0,
tiene derivadas sucesivas de todos los ordenes, con valor nulo en el origen.
Luego no es desarrollable en serie de Taylor, y por ende no analıtica. Sin
embargo, podemos obtener una expresion en serie – no de potencias – de esta
funcion reemplazando x por −1/x2 en la serie de ex. Sigue que
e−1/x2
= 1− 1
x2+
1
2x4− 1
3!x6+ · · ·+ (−1)n
n!x2n+ · · ·
para todo x 6= 0. La convergencia de esta serie sera uniforme en todo intervalo
cerrado que no contenga al cero. Ası, por ejemplo, si queremos hallar
∫ 2
1
e−1/x2
dx,
calculamos su valor aproximado mediante
∫ 2
1
(1− 1
x2+
1
2x4− 1
3!x6+ · · ·+ (−1)n
n!x2n
)dx =
(x +
1
x− 1
6x3+
1
3!5x5+ · · ·+ (−1)n
n!(2n− 1)x2n−1
)∣∣∣∣2
1
.
7 Aplicaciones de la integral
7.1 Areas
Por su propia definicion, una integral definida permite obtener el area de una
region expresable en terminos de funciones. Debe tenerse en cuenta que la
integral definida considera como negativa el area de aquellas regiones que se
encuentran por debajo del eje de abscisas. Ası, por ejemplo,∫ π
0cos x dx = 0.
+
−
Si se desea calcular el area total de la region de la figura, independiente-
mente de si parte de la region queda por debajo del eje de abscisas, se debe
hacer ∫ π/2
0
cos x dx +
∫ π
π/2
(− cos x) dx = 1 + 1 = 2.
Como regla general, el area de una region encerrada entre curvas, graficas de
funciones, se calcula como
∫ b
a
[f1(x)− f2(x)] dx,
donde f1(x) y f2(x) son las funciones cuyas graficas limitan a la region por
arriba y por debajo, respectivamente.
84
7 Aplicaciones de la integral 85
0.5 1 1.5 2
1
2
3
4
0.5 1 1.5 2
1
2
3
4
Ejemplo Area encerrada por y = x2, y = +√
x, entre 0 y 2. Es
f1(x) =
{+√
x para 0 ≤ x ≤ 1x2 para 1 ≤ x ≤ 2,
f2(x) =
{x2 para 0 ≤ x ≤ 1+√
x para 1 ≤ x ≤ 2.
Luego
A =
∫ 1
0
[+√
x− x2] dx +
∫ 2
1
[x2 −√x] dx =
(2
3x3/2 − x3
3
)∣∣∣∣1
0
+
(x3
3− 2
3x3/2
)∣∣∣∣2
1
=
1
3+
(8
3− 2
√8
3− 1
3+
2
3
)=
10− 2√
8
3.
7.2 Volumen y superficie de un solido de rev-
olucion
Sea f una funcion positiva sobre un intervalo [a, b]. Imaginemos que cada
punto sobre la curva, grafica de la funcion, gira rıgidamente alrededor del
eje de abscisas, es decir manteniendo su distancia a dicho eje. Se forma ası
un solido de revolucion, si pensamos en el cuerpo lleno, o una superficie de
revolucion, si se considera solo su envoltura. Para calcular el volumen de
este cuerpo partimos el intervalo [a, b] en n subintervalos iguales de longitud
(b− a)/n.
7 Aplicaciones de la integral 86
1 2 3 4 x0.5
1
1.5
2y
-2-1012
0 1 2 3 4
x
-2
-1
0
1
2
y
-2-1012
-2
-1
0
1
2
y
Superficie de revolucion engendrada por la curva de la anterior figura
El volumen aproximado de cada sector pequeno de revolucion es el producto
del area del cırculo base por la altura del sector, (b− a)/n. El area del cırculo
base es πf 2(xi), donde xi es un punto del subintervalo considerado. El volumen
aproximado de todo el cuerpo es la suma de los volumenes de estos pequenos
sectores, o sea∑
i πf 2(xi)(b− a)/n. El volumen exacto del cuerpo es
limn→∞
∑i
πf 2(xi)(b− a)/n = π
∫ b
a
f 2(x) dx.
Para calcular el area de la superficie de revolucion se procede analogamente.
En este caso se aproxima la curva grafica de la funcion por una poligonal
obtenida a traves de la particion del intervalo [a, b].
7 Aplicaciones de la integral 87
0.5 1 1.5 2
0.5
1
1.5
2
El area aproximada de la superficie de revolucion de cada pequeno sector es
2πf(xi)√
∆x2 + ∆y2.
Escribimos√
∆x2 + ∆y2 =√
1 + (∆y∆x
)2∆x.
Si suponemos que f es derivable en [a, b] sigue por el Teorema del valor medio
que
∆y/∆x = f ′(xi),
donde xi es un punto interior al intervalo que se esta considerando. El punto
xi que aparecio antes puede considerarse como este mismo punto. Luego el
area aproximada de la superficie total es
n∑i=1
2πf(xi)√
1 + (f ′(xi))2∆xi.
El area exacta es el lımite de esta expresion para n → ∞, lo que equivale a
∆xi → 0 para todo i. Pero este lımite es por definicion
2π
∫ b
a
f(x)√
1 + (f ′(x))2 dx.
Ejemplo
Volumen y area de una esfera de radio r. La esfera esta engendrada como
solido de revolucion por la semicircunferencia
y = +√
r2 − x2.
Luego su volumen es
V = π
∫ r
−r
(r2 − x2) dx = π
(r2x− x3
3
)∣∣∣∣r
−r
= π
(r3 − r3
3
)− π
(−r3 +
r3
3
)=
4
3πr3.
7 Aplicaciones de la integral 88
Para calcular el area de su superficie derivamos la expresion de arriba,
y′ = −x/√
r2 − x2 = −x/y.
Luego
A = 2π
∫ r
−r
y√
1 + (y′)2 dx = 2π
∫ r
−r
y√
1 + x2/y2 dx
= 2π
∫ r
−r
√y2 + x2 dx = 2π
∫ r
−r
r dx = 2πr
∫ r
−r
dx = 4πr2.
7.3 Longitud de curvas
Si una funcion f tiene derivada continua, salvo a lo mas en una
cantidad finita de puntos, entonces la curva dada por su grafica es
“rectificable”, es decir se puede medir su longitud.
Para calcularla se aproxima la curva por una poligonal obtenida a traves de una
particion del intervalo [a, b] en pequenos subintervalos, tal como se procedio
para obtener la superficie de un solido de revolucion. La longitud de cada
segmento es √∆x2 + ∆y2 =
√1 + (∆y/∆x)2∆x,
donde, por el Teorema del valor medio, ∆y/∆x = f ′(xi), siendo xi un punto
interior al subintervalo de la particion correspondiente. En este caso sigue que
la longitud exacta de la curva es
L = limn→∞
n∑i=1
√1 + (f ′(xi))2∆xi =
∫ b
a
√1 + (f ′(x))2 dx.
Ejemplo
Longitud de la curva catenaria y = chx, entre 0 y a.
Es
L =
∫ a
0
√1 + sh 2(x) dx =
∫ a
0
chx dx = shx|a0 = sh a.
Si la curva esta expresada en coordenadas parametricas{
x = α(t)y = β(t),
(1)
para t ∈ [ta, tb], entonces la formula para la longitud de la curva es
L =
∫ tb
ta
√(α′(t))2 + (β′(t))2 dt. (2)
7 Aplicaciones de la integral 89
7.4 Movimiento en dos dimensiones
Estamos ya en condiciones de hacer un viaje en dos dimensiones. La posicion
de un movil en su recorrido a traves de una curva en el plano queda descrita
precisamente por (1), donde el parametro t representa al tiempo. La velocidad
promedio del movil en un intervalo de tiempo [t1, t] es el cociente entre la
longitud del camino recorrido en ese tiempo y t − t1. Teniendo en cuenta la
formula (2), esto es
vp(t, t1) =
∫ t
t1
√(α′(t))2 + (β′(t))2 dt
t− t1.
La velocidad instantanea en t1 es
vi(t1) = limt→t1
vp(t, t1).
Si suponemos que las funciones derivadas α′ y β′ son ambas continuas entonces,
por el teorema del valor medio del calculo integral, sigue que
vi(t1) =√
(α′(t1))2 + (β′(t1))2.
Podemos decir que esta es una velocidad instantanea escalar que
ignora la direccion y sentido que lleva el
movil en el instante t1.
Por razones fısicas (todos hemos experimentado la fuerza o empujon que recibi-
mos cuando vamos dentro de un coche que toma una curva) es importante con-
siderar una velocidad instantanea dirigida que sı tenga en cuenta los cambios
de direccion o sentido del movil.
Esto se consigue mediante la definicion del vector velocidad. Este
vector, llamemoslo V , tiene una direccion con un sentido, y una
magnitud, que resultara precisamente ser igual a la velocidad in-
stantanea escalar.
Aquı tenemos una representacion grafica:
7 Aplicaciones de la integral 90
0.5 1 1.5 2 2.5 3x
0.5
1
1.5
2
y
V
Un vector en R2 tiene dos componentes. La definicion del vector V re-
sponde al hecho de que el movimiento sobre una curva del plano equivale a un
desplazamiento sobre el eje x y otro sobre el eje y en el plano cartesiano xy.
Como ambos desplazamientos son rectilıneos, sus razones de cambio vienen
dadas por las derivadas α′ y β′, respectivamente. De esta manera, el vector
velocidad en un instante t es
V (t) = (α′(t), β′(t)).
Si se considera en R2 el producto escalar usual, que lo convierte en el espa-
cio euclıdeo E2, entonces el modulo de V (su magnitud) es precisamente la
velocidad instantanea escalar vi.
La aceleracion tangencial escalar, a1, es la razon de cambio de la velocidad
instantanea escalar. Luego
a1(t) = v′i(t) =α′(t)α′′(t) + β′(t)β′′(t)√
(α′(t))2 + (β′(t))2.
El vector aceleracion, A(t), es
A(t) = (α′′(t), β′′(t)).
Obviamente su direccion o sentido no tienen por que ser los mismos que la
direccion o sentido del vector velocidad V . No obstante, podemos descomponer
el vector A(t) en la suma de dos vectores ortogonales, uno de ellos con la
direccion de V , llamemoslo A1(t), y el otro con una direccion perpendicular a
V , digamos A2(t).
7 Aplicaciones de la integral 91
0.5 1 1.5 2 2.5 3x
0.5
1
1.5
2
y
A1
A
A2
A1(t) es el vector “aceleracion tangencial”, mientras que A2(t) es el vector
“aceleracion centrıpeta”, de direccion ortogonal al anterior y con un sentido
hacia la parte de “adentro” de la curva trayectoria. Para obtener sus expre-
siones consideremos la base ortonormal de E2, {B1(t), B2(t)}, donde
B1(t) =1
||V (t)||V (t), B2(t) =1
||V (t)||(β′(t),−α′(t)).
Ası, B1(t) es un vector unitario con la direccion y sentido de V , y B2(t) es un
vector unitario perpendicular a V . Luego resulta que
A1(t) = (A(t) ·B1(t))B1(t) = a1(t)B1(t),
A2(t) = (A(t) ·B2(t))B2(t) = a2(t)B2(t).
Notese que a1(t) es precisamente la aceleracion tangencial escalar, cuya ex-
presion habıa sido deducida antes como razon de cambio de la velocidad in-
stantanea escalar. Por otro lado, a2(t) es la aceleracion centrıpeta escalar. Si el
movil tiene una masa m, independiente del tiempo, la segunda ley de Newton
afirma que la fuerza centrıpeta que se ejerce sobre el tiene una magnitud igual
a ma2(t). Asimismo, actua sobre el movil una fuerza tangencial de magnitud
ma1(t).
7.5 Trabajo en un desplazamiento rectilıneo
Si sobre un cuerpo se ejerce una fuerza que provoca un desplazamiento del
mismo, entonces se ha producido un trabajo. Si el desplazamiento es rectilıneo
7 Aplicaciones de la integral 92
y la magnitud de la fuerza, digamos F , es constante entonces se puede medir
esa cantidad (escalar) de trabajo mediante el producto de la magnitud de la
fuerza por la distancia recorrida:
T = F∆x,
donde se supone que el cuerpo se desplaza sobre el eje de abscisas desde x = a
hasta x = b, ∆x = b−a. Si F no es constante, sino que depende de x, entonces
el trabajo realizado desde a hasta b es el lımite de una suma de trabajos
correspondientes a pequenos subintervalos de una particion del intervalo [a, b].
Este proceso es precisamente el que se siguio para definir la integral definida
de la funcion F (x) entre a y b. Por lo tanto
T =
∫ b
a
F (x) dx. (3)
Supongase ahora que un gas ideal contenido en un cilindro ejerce una
presion p(x) que produce el desplazamiento rectilıneo de un embolo desde
x = a hasta x = b. La fuerza F (x) que actua sobre el embolo es
F (x) = p(x)S,
donde S es la superficie del embolo, que es tambien la superficie de la seccion
transversal del cilindro. Usando la formula (3) y teniendo en cuenta la susti-
tucion
v = xS,
donde v es el volumen del gas correspondiente a la posicion x del embolo, sigue
que el trabajo de expansion del gas es
T =
∫ vb
va
p(v/S) dv.
Si el gas ideal se expande a temperatura constante (expansion isotermica)
vale la ley de Boyle-Mariotte, que afirma que el producto de la presion por el
volumen es constante. Luego
T =
∫ vb
va
C/v dv = C lnvb
va
.
Si el gas se expande a presion constante, p0, (expansion isobarica) entonces
T =
∫ vb
va
p0 dv = p0(vb − va).
7 Aplicaciones de la integral 93
Por ultimo, si el gas se expande sin intercambio de calor con el exterior
(expansion adiabatica), vale la ley de Poisson, que establece que el producto
de la presion por una potencia vk, donde k es una constante mayor que 1, es
constante. De aquı
T =
∫ vb
va
C/vk dv =C
k − 1
(1
vk−1a
− 1
vk−1b
).
Como C = p(a)vavk−1a , se deduce que
T =p(a)va
k − 1
(1−
(va
vb
)k−1)
.
8 Metodos numericos en Calculo
8.1 Ecuaciones de una variable
Sea f una funcion continua definida en un intervalo [a, b]. Un cero de f es un
valor c ∈ [a, b] que satisface
f(c) = 0.
Tambien se dice que c es una raız de la ecuacion anterior. Para mucha funciones
f no existen formulas que permitan calcular raıces de esa ecuacion en forma
exacta. En estos casos deben emplearse metodos de aproximacion de los ceros.
El Teorema de Bolzano da un buen punto de partida para lograr tal finalidad.
En efecto, si
f(a)f(b) < 0,
entonces el Teorema afirma que debe de existir un cero en el intervalo (a, b).
Si ahora evaluamos la funcion en su punto medio
c1 = (a + b)/2,
entonces o bien
f(c1) = 0, o f(a)f(c1) < 0, o f(c1)f(b) < 0.
De esta manera, o ya hemos encontrado el cero (primer caso), o bien volvemos
a una situacion similar a la del comienzo, pero donde ahora la longitud del
intervalo de busqueda se ha reducido a la mitad (segundo o tercer casos). Sigue
ahora un proceso recurrente, que termina cuando la precision de la estimacion
del cero sea la deseada. Al respecto, dado que el error que se comete es la
diferencia – en valor absoluto – entre nuestra estimacion y el verdadero cero,
si la estimacion se fija en el punto medio del intervalo de busqueda, tendremos
que una cota superior del error sera la mitad de la longitud de este intervalo.
Por ejemplo, si la longitud del intervalo inicial, b − a, es igual a 1, entonces
una estimacion del cero mediante c1 darıa una cota del error igual a 1/2. Si
pasamos al intervalo siguiente tendremos una cota del error igual a 1/4. En
general, si hemos hecho i particiones del intervalo inicial, la cota del error sera
igual a 1/2i+1.
Una variacion de este metodo es el llamado de la posicion falsa o Regula
Falsi. La unica diferencia que tiene con la tecnica anterior es que estima al
94
8 Metodos numericos en Calculo 95
a b
Estimacion de un cero por el metodo de la posicion falsa
cero de f mediante el cero de la funcion lineal que pasa por los puntos (a, f(a))
y (b, f(b)). Ası, la estimacion en el primer paso es
c1 = b− f(b)(b− a)
f(b)− f(a).
Una ulterior modificacion conduce al llamado metodo de Muller. Consiste
en elegir tres puntos iniciales, a < b < c, y considerar la funcion cuadratica
P (x) = r(x− c)2 + s(x− c) + t,
que pasa por los puntos (a, f(a)), (b, f(b)) y (c, f(c)). Ahora la estimacion del
cero de f en el primer paso viene dada por el cero de la funcion cuadratica
mas cercano al punto c. Su expresion es
c1 = c− 2t
s + sig (s)√
s2 − 4rt.
En el segundo paso (y analogamente en los siguientes) se reitera el procedi-
miento anterior, ahora usando los puntos b, c y c1. Este metodo es particular-
mente eficiente en el computo de las raıces de polinomios. Es de destacar que
encuentra tanto raıces reales como complejas.
Los dos primeros metodos expuestos aquı coinciden en el hecho de que las
sucesivas estimaciones de la raız siempre convergen al cero verdadero de la
funcion. En efecto, esto esta garantizado por los distintos signos que toma
8 Metodos numericos en Calculo 96
la funcion en los extremos de cada intervalo de busqueda. No es el caso del
metodo de Mller, donde puede darse que en los tres puntos la funcion tome el
mismo signo. Esto hace que en algunos casos las sucesivas aproximaciones no
converjan a ningun punto. Por el contrario, en los casos de convergencia, esta
suele ser mas rapida que con los dos procedimientos anteriores. Este rasgo de la
tecnica de Mller se da tambien con el que es posiblemente el metodo mas clasico
en este tema, que es el conocido como metodo de Newton, o Newton-Raphson.
Ademas de que es necesario para su aplicacion la existencia y continuidad de la
derivada f ′, su convergencia depende del buen comportamiento de la derivada
segunda f ′′ en un entorno de la raız.
8.2 Interpolacion y aproximacion polinomicas
Ya hemos visto en la seccion 6.4 que si una funcion f tiene derivadas hasta
el orden n en un punto a entonces existe el polinomio de Taylor de grado n
de esa funcion, desarrollado en a, Pn. Este polinomio es precisamente aquel
cuyas derivadas coinciden con las correspondientes primeras n derivadas de f
en a. Esta coincidencia hace que el polinomio de Taylor de la funcion pueda
considerarse como una aproximacion de ella en un intervalo I, centrado en a.
Esta aproximacion es muy buena en las cercanıas del punto a, pero deja de
serlo a medida que nos alejamos de ese punto. Mas precisamente, si existe
la funcion derivada de orden n + 1 de f , entonces mediante una reiterada
aplicacion del Teorema de Cauchy, visto en la unidad 4, se prueba que
f(x)− Pn(x) =f (n+1)(c(x))(x− a)n+1
(n + 1)!,
donde c(x) esta entre a y x. Si f (n+1) es una funcion acotada en el intervalo I,
entonces la igualdad anterior permite acotar el error que se comete al aproximar
la funcion por su polinomio de Taylor.
La deficiente aproximacion de Pn fuera de las cercanıas del punto a obedece
a que su determinacion sigue de condiciones establecidas solamente en el punto
a. Si se pretende obtener una aproximacion razonablemente buena en todo el
intervalo I entonces habra que pensar en mecanismos de aproximacion que
tengan en cuenta el comportamiento de la funcion en todo I y no solamente
en el punto a. Esta idea conduce a la teorıa de aproximacion de funciones,
iniciada en la segunda mitad del siglo pasado y ampliamente desarrollada du-
rante este siglo. Se trata de definir una medida que cuantifique el grado de
8 Metodos numericos en Calculo 97
distanciamiento entre la funcion y un polinomio en el intervalo I. Dada una
tal medida, el proceso continua con la obtencion de un polinomio que real-
ice la mınima distancia a la funcion. Mas concretamente, supongamos que
ρI(f, P ) indica una medida de distanciamiento entre una funcion continua f y
un polinomio arbitrario P . Llamemos IPn al conjunto de todos los polinomios
de grado a lo sumo n. Entonces P0 ∈ IPn se llama un mejor aproximante de f
entre los polinomios de IPn, con respecto a ρI , si
ρI(f, P0) ≤ ρI(f, P ) para todo P ∈ IPn.
Las siguientes son medidas de distanciamiento muy utilizadas:
max |f(x)− P (x)|, x ∈ I, (4)∫
I
|f(x)− P (x)| dx, (5)
∫
I
|f(x)− P (x)|2 dx. (6)
La tercera de ellas tiene la ventaja de presentar calculos mas manejables para
la obtencion del mejor aproximante.
-3 -2 -1 1 2 3
-3
-2
-1
1
2
3
En el dibujo vemos la grafica de la funcion f : [−π, π] 7→ R, f(x) = senx, su
polinomio de Taylor de primer grado desarrollado en cero y el mejor aproxi-
mante entre los polinomios de IP1 con respecto a la medida de distanciamiento
(3).
Los mejores aproximantes obtenidos con las tres medidas anteriores, si
bien no son iguales, presentan la caracterıstica comun de ser interpolantes de
la funcion en al menos n + 1 puntos distintos del intervalo I. Es decir, existen
n + 1 puntos diferentes en I en los cuales el mejor aproximante coincide con
8 Metodos numericos en Calculo 98
la funcion. Los puntos de coincidencia tambien dependen de la medida ρI que
se use. Que el mejor aproximante de una funcion resulte un interpolante de
esta es algo natural. El intento de acercar un polinomio a la funcion fuerza a
aquel a coincidir con la funcion en algunos puntos. La coincidencia no puede
ser total, a menos que la funcion ya sea un polinomio en IPn.
Es conveniente tener una formula para los polinomios interpolantes de una
funcion en n + 1 puntos distintos de su dominio. En realidad existe un unico
polinomio en IPn con estas condiciones. Para fijar ideas, supongamos que
queremos encontrar el polinomio cuadratico que coincide con una funcion f en
tres puntos distintos de su dominio, x0, x1, x2. El metodo de Lagrange se basa
en la observacion de que el polinomio
f(x2)(x− x0)(x− x1)
(x2 − x0)(x2 − x1)
vale f(x2) en x = x2 y vale cero en x = x0 y x = x1. De esta manera se deduce
que el unico polinomio interpolador en IP2 viene dado por la expresion
f(x0)(x− x1)(x− x2)
(x0 − x1)(x0 − x2)+f(x1)
(x− x0)(x− x2)
(x1 − x0)(x1 − x2)+f(x2)
(x− x0)(x− x1)
(x2 − x0)(x2 − x1).
Ejercicio: Obtener la expresion general del polinomio en IPn que coincide con
f en los n + 1 puntos distintos x0, x1, · · · , xn.
El metodo de Newton consiste en escribir el polinomio interpolador de la
funcion en los puntos xi, i = 0, 1, · · · , n, en la forma (suponemos n ≥ 2)
P (x) = Pn−2(x) + c1(x− x0) · · · (x− xn−2) + c0(x− x0)(x− x1) · · · (x− xn−1).
Tanto el polinomio Pn−2 como los coeficientes c0 y c1 quedan unıvocamente
determinados por las condiciones de interpolacion. El coeficiente c0 es el cor-
respondiente al termino de mayor grado del polinomio interpolante de f en los
n + 1 puntos x0, x1, · · · , xn. Teniendo en cuenta esta definicion, valida para
todo n ≥ 0, lo renombramos
c0 = f [x0, x1, · · · , xn].
Observar que en la anterior notacion no importa el orden de los puntos que
aparecen entre corchetes. Por definicion,
c1 = f [x0, · · · , xn−1]
8 Metodos numericos en Calculo 99
y Pn−2 es el unico polinomio en IPn−2 que interpola a f en los puntos x0, · · · , xn−2.
Luego, por definicion de f [x0, · · · , xn−2, xn], es
Pn−2(xn) + f [x0, · · · , xn−2, xn](xn − x0) · · · (xn − xn−2) = f(xn),
es decir
f [x0, · · · , xn−2, xn] =f(xn)− Pn−2(xn)
(xn − x0) · · · (xn − xn−2).
Como P (xn) = f(xn), sigue que
f [x0, x1, · · · , xn] =
f(xn)− Pn−2(xn)− f [x0, · · · , xn−1](xn − x0) · · · (xn − xn−2)
(xn − x0) · · · (xn − xn−2)(xn − xn−1)=
f(xn)−Pn−2(xn)(xn−x0)···(xn−xn−2)
− f [x0, · · · , xn−1]
xn − xn−1
=
f [x0, · · · , xn−2, xn]− f [x0, · · · , xn−1]
xn − xn−1
.
Intercambiando xn−1 con x0 sigue la defincion mas conocida de la llamada
diferencia dividida de orden n:
f [x0, x1, · · · , xn] =f [x1, · · · , xn−1, xn]− f [x0, · · · , xn−1]
xn − x0
.
Por su propia definicion, resulta evidente que
f [x0] = f(x0)
y
f [x0, x1] =f(x1)− f(x0)
x1 − x0
.
De esta manera las diferencias divididas quedan definidas por recurrencia. Por
ultimo, se concluye que el polinomio interpolador de Newton tiene la forma
P (x) =
f [x0] + f [x0, x1](x− x0) + · · ·+ f [x0, x1, · · ·xn](x− x0)(x− x1) · · · (x− xn−1).
Si la funcion f tiene derivadas continuas hasta el orden n en su dominio en-
tonces una sucesiva aplicacion del Teorema del valor medio prueba que
f [x0, x1, · · · , xn] = f (n)(γn)/n!,
donde γn es un punto intermedio entre el mınimo y maximo de los puntos xi.
En este caso es interesante notar que cuando todos los puntos xi se aproximan
8 Metodos numericos en Calculo 100
a un punto a entonces el polinomio interpolante converge al Polinomio de
Taylor de grado n de la funcion, desarrollado en a. Significa que bajo estas
circunstancias la interpolacion en n + 1 puntos distintos se transforma en una
interpolacion en un unico punto, pero donde ahora la coincidencia se da en
todas las derivadas hasta el orden n.
9 Espacio vectorial sobre los reales
Sea V un conjunto no vacıo. Llamaremos A,B, V, V1, etc., a los elementos de V .
Supongamos que en V hay definida una operacion binaria entre sus elementos,
que llamaremos ‘suma’, y que simbolizamos por “+”. Ası, para cualquier par
de elementos de V , digamos A y B, A + B es otro elemento de V . Requerimos
de esta suma que tenga las siguientes propiedades:
1) A + B = B + A ∀A,B ∈ V (Propiedad conmutativa).
2) A + (B + C) = (A + B) + C ∀A, B, C ∈ V (Propiedad asociativa).
Esta propiedad permite escribir sin ambigedad A + B + C.
3) Existe en V un particular elemento, que se llama elemento neutro, o
elemento nulo, o simplemente “cero”, que denotamos O, que satisface A+O =
A ∀A ∈ V .
4) Para todo elemento A en V existe un elemento en V , llamado opuesto
de A, que se denota −A, tal que A + (−A) = O.
Ejercicios
i) El cero es unico.
ii) ∀A ∈ V , su opuesto es unico.
Cual es el opuesto de cero?
Un conjunto no vacıo V en el que exista una operacion de suma con estas
cuatro propiedades se llama grupo conmutativo o abeliano. Ahora bien, si
queremos que V sea un espacio vectorial debemos pedir la existencia de otra
operacion, llamada externa, porque opera un numero real con un elemento de
V . De esta manera, ∀a ∈ R y ∀B ∈ V , existe el producto “a izquierda”, aB,
que es otro elemento de V . Esta operacion tiene las siguientes propiedades:
5) (a + b)V = aV + bV .
6) a(B + C) = aB + aC
7) a(bC) = (ab)C
8) 1A = A ∀A ∈ V
101
9 Espacio vectorial sobre los reales 102
Ejercicios
iii) Probar que aO = O ∀a ∈ Riv) Probar que 0A = O ∀A ∈ V
Un conjunto V , con las operaciones de suma y producto por un
numero real a izquierda, que verifiquen las propiedades 1) a 8), se
llama espacio vectorial sobre R.
Un espacio vectorial debe tener por elementos a O, de acuerdo con la
propiedad 3). Pero, recıprocamente, un conjunto con un unico elemento, O,
con las operaciones O + O = O, aO = O ∀a ∈ R, es un espacio vectorial, pues
se verifican las propiedades 1) – 8). Se llama espacio vectorial nulo y es un
ejemplo trivial de espacio vectorial.
El mismo conjunto de numeros reales, R, con las operaciones habituales de
suma y producto, es un espacio vectorial.
Ejercicio: comprobar que (R, +, .) es un espacio vectorial.
Llamamos R2 al conjunto de pares ordenados de numeros reales (a, b),
donde se define
(a, b) + (c, d) = (a + c, b + d), λ(a, b) = (λa, λb)
Ejercicio: compruebe que R2 es un espacio vectorial.
Como ya se sabe, los elementos de R2 se pueden representar por puntos del
plano (indicados en el dibujo por las puntas de las flechas).
-¡¡
¡¡
¡¡µ
³³³³³³³³³³³³³³³³³³1
@@
@@
@@I A
B
A + BA−B
O
Analogamente se define el espacio Rm, para m > 2 (R1 = R).
9.1 Subespacios
Sea V un espacio vectorial no nulo. Si S ⊂ V y S es tambien un espacio
vectorial, se entiende con las mismas operaciones de V , entonces S se dice
9 Espacio vectorial sobre los reales 103
subespacio de V . S sera un subespacio de V si y solo si valen las siguientes
condiciones:
a) ∀A,B ∈ S, vale que A + B ∈ S.
b) ∀λ ∈ R y ∀A ∈ S, vale que λA ∈ S.
Esta claro que {O}, donde O es el elemento nulo de V , es siempre un subespacio
de V .
Ejemplo
Consideremos V = R2. Sea
S = {(0, a), a ∈ R}.
S es un subespacio de R2. En efecto, sean A y B dos vectores arbitrarios de
S. Luego sera
A = (0, a), B = (0, b), y A + B = (0 + 0, a + b) = (0, a + b),
y este elemento tambien esta en S. Por otra parte, si U es el subconjunto de
V = R2 de la forma
U = {(1, a), a ∈ R},entonces U no es subespacio de R2, pues, por ejemplo, (1, 1) ∈ U , (1, 2) ∈ U ,
pero (1, 1) + (1, 2) = (2, 3) /∈ U .
Ejercicio: compruebe que tampoco se cumple la condicion b).
Sea V un espacio vectorial tal que existe A ∈ V , A 6= O. Es decir, V 6= {O}.El subconjunto de V de la forma
{λA : λ ∈ R}
es un subespacio de V . En efecto, veamos que se cumplen las condiciones a) y
b). La suma de dos elementos cualesquiera de este subconjunto es λ1A+λ2A =
(λ1 + λ2)A, que vemos pertenece al conjunto.
El producto a izquierda de un elemento de este subconjunto por un numero
real es:
λ1(λ0A) = (λ1λ0)A,
que tambien pertenece al subconjunto. Luego es subespacio vectorial. Se lo
denota < A > y se dice que es el subespacio generado por el vector A.
9 Espacio vectorial sobre los reales 104
Analogamente, si A y B son dos vectores de V , A 6= O,B 6= O, el subcon-
junto de V de la forma
{λ1A + λ2B, λ1, λ2 ∈ R}
es un subespacio de V , que se denota < A,B > y se llama subespacio generado
por A y B.
En general, si tenemos una cantidad finita de vectores de un espacio V ,
digamos A1, A2, ...Am, se llama combinacion lineal de esos vectores al vector
λ1A1 + λ2A2 + ... + λmAm,
donde λ1, λ2, · · · , λm, son reales arbitrarios. Entonces el subespacio generado
por A1, A2, ..., Am es el conjunto formado por todas las combinaciones lineales
de esos vectores, y se simboliza
< A1, A2, ..., Am > .
Ejemplo
Ya vimos que S = {(0, a) : a ∈ R} es un subespacio de R2. Coincide con
el subespacio < (0, 1) >, es decir, el subespacio generado por el vector (0, 1),
ya que (0, a) = a(0, 1).
Ejercicio. Comprobar que es tambien S =< (0, a0) >, con a0 fijo, a0 6= 0.
Sean S y T dos subconjuntos de un mismo espacio V . Se define
S + T = {A + B : A ∈ S, B ∈ T }.
Si S y T son subespacios de V , entonces S + T es tambien sub-
espacio de V .
En efecto, la suma de dos vectores de S + T es
C1 + C2 = (A1 + B1) + (A2 + B2),
donde A1, A2 ∈ S, B1, B2 ∈ T . Luego
C1 + C2 = (A1 + A2) + (B1 + B2).
Como S es subespacio, A1 + A2 ∈ S. Como T es subespacio, B1 + B2 ∈ T .
Luego C1 + C2 ∈ S + T .
9 Espacio vectorial sobre los reales 105
Por otra parte, el producto por un real a izquierda de un vector de S + Tes
λC = λ(A + B),
donde A ∈ S, B ∈ T . Luego λC = λA + λB. Como S es subespacio, λA ∈ S.
Como T es subespacio, λB ∈ T , y por lo tanto λC ∈ S + T .
Como es sabido, la interseccion de dos conjuntos es el conjunto formado
por los elementos que estan simultaneamente en ambos conjuntos.
Si S y T son subespacios de un espacio V , su interseccion S ∩T es
tambien un subespacio de V .
Si S y T son dos subespacios de un espacio V y S ∩ T = {O},entonces el subespacio suma S + T se llama suma directa de S y
T y se simboliza S ⊕ T .
En este caso todo elemento de S ⊕ T se puede poner, de una unica manera,
como suma de un vector de S mas un vector de T . En efecto, si
A1 + B1 = A2 + B2, A1, A2 ∈ S, B1, B2 ∈ T ,
entonces A1 − A2 = B2 −B1 ∈ S ∩ T . Luego debe ser
A1 − A2 = B2 −B1 = O,
por lo tanto A1 = A2, B1 = B2.
Recıprocramente, si todo vector de S + T se puede poner, de una unica
forma, como suma de un vector de S mas un vector de T , entonces S + T es
suma directa, es decir, S ∩T = {O}. En efecto, si A ∈ S ∩T , A 6= O, entonces
O = O + O = A + (−A),
es decir, el vector nulo se puede escribir de dos formas distintas como suma de
un vector en S mas un vector en T .
Si un espacio V es suma directa de dos subespacios S y T , es decir,
V = S ⊕ T , entonces S y T se llaman subespacios suplementarios
de V .
9 Espacio vectorial sobre los reales 106
Ejemplo
En V = R2, sean:
S = {(a, 0) : a ∈ R},T = {(0, b) : b ∈ R}.
Es muy facil probar que R2 = S ⊕ T , y por lo tanto S y T son subespacios
suplementarios de R2 (Ejercicio).
Si U y V son dos espacios vectoriales, el producto cartesiano
U × V = {(A,B), A ∈ U , B ∈ V}
es tambien un espacio vectorial con la operacion de suma definida por
(A1, B1) + (A2, B2) = (A1 + A2, B1 + B2),
y el producto a izquierda definido por
λ(A,B) = (λA, λB).
De esta manera, R2 = R× R, y si se define analogamente el espacio producto
cartesiano de n espacios vectoriales, n ∈ N, se obtiene que
Rn = R× R× · · · × R,
donde R figura n veces en la parte derecha de esta igualdad.
Sea S un subespacio de un espacio V y sea A0 un vector en V . El conjunto
A0 + S = {A0 + A,A ∈ S}
se llama variedad lineal. Es decir, una variedad lineal es el trasladado de un
subespacio.
Ejercicio: Probar que una variedad lineal A0 + S es un subespacio si y solo si
A0 ∈ S.
Ejemplo
En R2, el conjunto {(1, b), b ∈ R} es una variedad lineal porque se puede
poner, por ejemplo, como (1, 0) + S, donde S es el subespacio (0, b), b ∈ R.
La variedad lineal A0 + S se dice dirigida por S o que tiene la
direccion de S.
9 Espacio vectorial sobre los reales 107
9.2 Aplicaciones lineales
Sean U y V dos espacios vectoriales sobre R. Una aplicacion
ϕ : U 7→ V
se dice lineal si
a) ϕ(A1 + A2) = ϕ(A1) + ϕ(A2) ∀A1, A2 ∈ U ,
b) ϕ(λA) = λϕ(A) ∀λ ∈ R, ∀A ∈ U .
Cuando V = U , la aplicacion lineal recibe el nombre de endomor-
fismo.
Cuando V = R, la aplicacion lineal se llama forma lineal.
Ejemplos
1) Sea λ0 un numero real fijo. Entonces ϕ : U 7→ U , dado por ϕ(A) = λ0A,
es una aplicacion lineal, que recibe el nombre de homotecia de razon λ0.
Ejercicio: Probar que en efecto es lineal.
El caso λ0 = 1 corresponde a la aplicacion identidad. El caso λ0 = 0 corres-
ponde a la aplicacion nula.
2) Sea V = S ⊕ T . Entonces todo A ∈ V se escribe de una unica forma
como suma de un vector en S mas un vector en T : A = B +C, B ∈ S, C ∈ T .
Quiere decir que cada vector en V determina un unico vector en S y un unico
vector en T . Esto determina a su vez dos aplicaciones ϕ1 y ϕ2,
ϕ1 : V 7→ S,
ϕ2 : V 7→ T ,
de manera que A = ϕ1(A) + ϕ2(A).
ϕ1 y ϕ2 resultan aplicaciones lineales. Probemos, por ejemplo, que ϕ1 es lineal.
Tenemos que
A1 = ϕ1(A1) + ϕ2(A1),
A2 = ϕ1(A2) + ϕ2(A2).
Luego A1+A2 = ϕ1(A1)+ϕ1(A2)+ϕ2(A1)+ϕ2(A2). Como ϕ1(A1)+ϕ1(A2) ∈ S, ϕ2(A1) + ϕ2(A2) ∈ T , y la forma de poner cualquier elemento de V como
suma de uno de S mas uno de T es unica, sigue que
ϕ1(A1 + A2) = ϕ1(A1) + ϕ1(A2) y ϕ2(A1 + A2) = ϕ2(A1) + ϕ2(A2).
9 Espacio vectorial sobre los reales 108
Por otra parte, si A = ϕ1(A) + ϕ2(A) entonces, ∀λ ∈ R,
λA = λϕ1(A) + λϕ2(A).
Como S y T son subespacios, λϕ1(A) ∈ S, λϕ2(A) ∈ T , y por lo tanto
ϕ1(λA) = λϕ1(A) , ϕ2(λA) = λϕ2(A).
Estas aplicaciones lineales se llaman proyecciones, de V sobre S , ϕ1, de Vsobre T , ϕ2. Mas precisamente, ϕ1 se llama proyeccion de V sobre S paralela-
mente a T , ϕ2 se llama proyeccion de V sobre T paralelamente a S.
Sean U y V dos espacios vectoriales sobre R y sea
ϕ : U 7→ V
una aplicacion lineal. U y V se llaman dominio y codominio de la aplicacion,
respectivamente.
La imagen de la aplicacion, que se nota Imϕ, es el subconjunto del
codominio V , definido por
Imϕ = {V ∈ V : existe U ∈ U , ϕ(U) = V }.
Probemos que Imϕ es un subespacio de V . Sean V1, V2 ∈ Imϕ. Luego
existen U1 , U2 ∈ U tal que ϕ(U1) = V1 , ϕ(U2) = V2. Por lo tanto, como ϕ es
lineal,
ϕ(U1 + U2) = ϕ(U1) + ϕ(U2) = V1 + V2.
Luego V1 + V2 ∈ Imϕ.
Ahora sea V ∈ Imϕ. Luego existe U ∈ U tal que ϕ(U) = V . Por lo tanto
ϕ(λU) = λϕ(U) = λV , por lo que λV ∈ Imϕ para todo λ ∈ R.
Puede ocurrir que Imϕ coincide con V . En este caso todo vector en Vproviene de algun vector de U mediante ϕ. Cuando esto sucede se dice que ϕ
es suprayectiva.
Ejemplo: las proyecciones son suprayectivas (Ejercicio).
Ahora definiremos un particular subespacio del dominio de ϕ. Sea
Nϕ = {U ∈ U : ϕ(U) = O}.
9 Espacio vectorial sobre los reales 109
Este subconjunto de U se llama nucleo de ϕ. Observar que el vector O que
aparece en su definicion es el cero de V . Probemos que es un subespacio. Sean
U1, U2 ∈ Nϕ. Luego
ϕ(U1 + U2) = ϕ(U1) + ϕ(U2) = O + O = O.
Por consiguiente U1 + U2 ∈ Nϕ.
Sea U ∈ Nϕ. Luego ϕ(λU) = λϕ(U) = λO = O para todo λ ∈ R. Luego
λU ∈ Nϕ.
Si Nϕ = U entonces ϕ(U) = O ∀U ∈ U y por lo tanto ϕ es la aplicacion nula.
Si en cambio Nϕ = {O} (este es el cero de U) entonces el unico vector de Uque se aplica mediante ϕ al cero de V es el cero de U . En este caso la aplicacion
ϕ se llama inyectiva. La inyectividad de ϕ es equivalente al siguiente hecho:
Dos vectores distintos de U se aplican a dos vectores distintos de V . En efecto,
sea Nϕ = {O}, y sean U1, U2 ∈ U , U1 6= U2. Luego debe ser ϕ(U1) 6= ϕ(U2),
porque si fuera ϕ(U1) = ϕ(U2) seguirıa que
ϕ(U1)− ϕ(U2) = O,
es decir (por la linealidad de ϕ) ϕ(U1 − U2) = O, es decir (como Nϕ = {O}),U1 − U2 = O, o sea U1 = U2, contradiccion. Recıprocamente, si dos vectores
distintos y arbitrarios de U se aplican mediante ϕ a dos vectores distintos de V ,
entonces debe ser Nϕ = {O}. En efecto si fuera Nϕ 6= {O} entonces existirıa
A ∈ U , A 6= O, ϕ(A) = O, o sea que dos vectores distintos de U se aplican al
mismo vector de V .
Si ϕ : U 7→ V es una aplicacion lineal inyectiva y suprayectiva al mismo
tiempo (o sea, biyectiva), entonces ϕ se llama isomorfismo y los espacios U y Vse dicen isomorfos. Supongamos ahora que tenemos tres espacios vectoriales
U , V , W . Si ϕ : U 7→ V es lineal y ψ : V 7→ W es lineal, entonces queda
determinada la aplicacion composicion ψ ◦ ϕ : U 7→ W , definida como
(ψ ◦ ϕ)(U) = ψ(ϕ(U)) ∀U ∈ U .
Esta composicion de aplicaciones lineales resulta tambien lineal (Ejercicio).
Si ϕ y ψ son inyectivas entonces ψ◦ϕ es inyectiva. Si ϕ y ψ son suprayectivas
entonces ψ ◦ ϕ es suprayectiva. Luego si ϕ y ψ son biyectivas (isomorfismos),
9 Espacio vectorial sobre los reales 110
ψ ◦ ϕ es tambien biyectiva (isomorfismo). Si ϕ : U 7→ V es isomorfismo,
entonces existe la llamada aplicacion inversa, que se denota ϕ−1,
ϕ−1 : V 7→ U ,
que es tambien un isomorfismo, y que satisface
ϕ ◦ ϕ−1 = idV ,
ϕ−1 ◦ ϕ = idU ,
donde idV : V 7→ V , idV(V ) = V ∀ V ∈ V , y analogamente para idU .
Consideremos ahora el conjunto de todas las aplicaciones lineales ϕ : U 7→V , donde U y V son dos espacios vectoriales fijos. Este conjunto no es vacıo,
ya que la aplicacion nula, esto es la que aplica todo vector de U al cero de V ,
es lineal. Si ϕ1 y ϕ2 son dos aplicaciones lineales de U a V , podemos definir
una aplicacion suma ϕ1 + ϕ2 : U 7→ V , de la siguiente manera
(ϕ1 + ϕ2)(U) = ϕ1(U) + ϕ2(U) ∀U ∈ U.
Asimismo, podemos definir el producto a izquierda de una aplicacion ϕ de Ua V por un numero real λ,
λϕ : U 7→ V , (λϕ)(U) = λϕ(U) ∀ U ∈ U .
Observar que estas operaciones son posibles porque se esta operando en rea-
lidad con vectores del espacio V . Por este motivo, estas operaciones cumplen
con las propiedades 1) a 8) de un espacio vectorial, y por ende convierten al
conjunto de todas las aplicaciones lineales de U a V en un espacio vectorial,
llamado Hom(U ,V). Este espacio tiene por elementos o vectores a aplicaciones
lineales entre dos espacios vectoriales fijos.
Como ejemplo, supongamos que U = R. Consideremos entonces el conjunto
de todas las aplicaciones lineales ϕ : R 7→ V . Si V = {O}, la unica aplicacion
que se puede definir es la aplicacion nula y por lo tanto
Hom(R, {O}) es isomorfo a {O}.
Supongamos que V 6= {O}. O sea que en V hay vectores no nulos. Obviamente
los vectores de R son numeros reales y por tanto los denotamos con letras
minusculas.
9 Espacio vectorial sobre los reales 111
Tenemos que ϕ(1) = A para algun A ∈ V . Como λ = λ1 ∀ λ ∈ R y ϕ es lineal
sigue que
ϕ(λ) = ϕ(λ1) = λϕ(1) = λA.
Significa que cualquier aplicacion lineal entre R y V queda determinada por
su valor en 1, ϕ(1). A su vez ϕ(1) puede ser cualquier vector de V . Por lo
tanto hay una correspondencia (biunıvoca) entre Hom(R,V) y V . Mas aun,
esta correspondencia es lineal y por consiguiente Hom(R,V) es isomorfo a V(Ejercicio). (Se puede usar ∼= como sımbolo de isomorfismo).
Sea V un espacio vectorial, V 6= {O}. Sea A ∈ V , A 6= O. El sub-
espacio generado por A, < A >= {λA, λ ∈ R}, se llama una recta vectorial,
dirigida por A. El trasladado de una recta vectorial, es decir una variedad
lineal B0+ < A >, se llama recta afın, o simplemente recta. Si H es un
subespacio suplementario de una recta vectorial < A >, entonces H se llama
hiperplano vectorial. Por tanto H satisface V =< A > ⊕H. El trasladado de
un hiperplano vectorial se llama hiperplano afın.
Sea ϕ : V 7→ R una forma lineal no nula. Luego existe A ∈ V , a = ϕ(A) 6= 0.
Sea B un vector arbitrario en V , ϕ(B) = b ∈ R, y consideremos el vector
B − (b/a)A ∈ V . Tenemos que
ϕ(B − (b/a)A) = ϕ(B)− (b/a)ϕ(A) = b− (b/a)a = 0.
Por lo tanto B − (b/a)A ∈ Nϕ. Como B es un vector arbitrario de V y
B = (b/a)A + (B − (b/a)A hemos probado que
V =< A > +Nϕ.
Ahora bien, sea V ∈< A > ∩Nϕ. Como V ∈< A > es V = cA. Como
V ∈ Nϕ es ϕ(cA) = 0. Pero 0 = ϕ(cA) = cϕ(A) = ca. Luego c = 0 y V = O.
Hemos probado que
V =< A > ⊕Nϕ,
es decir que el nucleo de una forma lineal ϕ no nula es un hiperplano vectorial
en V .
Recıprocramente, probaremos en lo que sigue que todo hiperplano vectorial
en un espacio V es el nucleo de alguna forma lineal ϕ : V 7→ R.
Sea H un hiperplano vectorial en V . Luego, por definicion de hiperplano
vectorial, V =< A > ⊕H, donde A ∈ V , A 6= O.
9 Espacio vectorial sobre los reales 112
Tenemos que para B ∈ V , B = ϕ1(B) + ϕ2(B), donde
ϕ1 : V 7→< A >, ϕ2 : V 7→ H
son las proyecciones inducidas por la suma directa dada.
Tenemos que ϕ1 es lineal y ϕ1(B) = λBA, λB ∈ R. Consideremos la forma
ϕ : V 7→ R, definida por ϕ(B) = λB. ϕ resulta lineal. En efecto, evaluemos
ϕ(B1 + B2). Para esto debemos calcular a su vez
ϕ1(B1 + B2) = ϕ1(B1) + ϕ1(B2) = λB1A + λB2A = (λB1 + λB2)A.
Luego
ϕ(B1 + B2) = λB1 + λB2 = ϕ(B1) + ϕ(B2).
Por otra parte ϕ1(λB) = λϕ1(B) = λλBA. Luego
ϕ(λB) = λλB = λϕ(B),
y ϕ resulta una forma lineal.
Veamos ahora que Nϕ = H. Sea V ∈ Nϕ. Ademas
V = ϕ1(V ) + ϕ2(V ), ϕ1(V ) ∈< A >, ϕ2(V ) ∈ H.
Como ϕ(V ) = 0 sigue que ϕ1(V ) = ϕ(V )A = O. Luego
V = O + ϕ2(V ) = ϕ2(V ) ∈ H.
Ası, hemos probado que Nϕ ⊂ H. Sea ahora V ∈ H. Luego ϕ1(V ) = O pues
V = O + V . Por consiguiente ϕ1(V ) = 0A y ϕ(V ) = 0. Sigue que H ⊂ Nϕ y
por lo tanto Nϕ = H.
9.3 Independencia lineal. Representacion de
espacios vectoriales
Sea V un espacio vectorial, V 6= {O}. Sea A ∈ V , A 6= O. Si λ ∈ R, λ 6= 0,
entonces λA 6= O. En efecto, si fuera λA = O seguirıa que
λ−1(λA) = (λ−1λ)A = 1A = A = λ−1O = O,
que es una contradiccion, ya que A 6= O.
Se deduce que, si λ1 6= λ2, entonces λ1A 6= λ2A. En efecto, si λ1A = λ2A
9 Espacio vectorial sobre los reales 113
entonces O = λ2A − λ1A = (λ2 − λ1)A y por lo tanto serıa λ2 − λ1 = 0, es
decir λ1 = λ2.
Por otro lado, 0A = O. Luego el unico real λ que da por resultado λA = O es
λ = 0. Esta es una propiedad que no posee el vector nulo. En efecto, λO = O
para todo λ ∈ R.
Como ya sabemos, el conjunto de vectores {λA : λ ∈ R}, que lo hemos
denotado por < A >, es un subespacio vectorial de V , llamado recta vectorial.
Ahora este nombre queda justificado. Existe una correspondencia biunıvoca
entre < A > y R, pues todo vector de < A > es de la forma λA para un unico
λ ∈ R, y recıprocamente, todo numero real λ determina el vector λA ∈< A >.
R 7→< A >
λ 7→ λA.
Mas aun, esta correspondencia es lineal, pues si λ1 7→ λ1A, λ2 7→ λ2A, entonces
(λ1 + λ2) 7→ (λ1 + λ2)A = λ1A + λ2A,
y
λλ1 7→ (λλ1)A = λ(λ1A).
Luego < A >∼= R.
Sea B ∈ V . Sabemos que 0A + 0B = O + O = O. Es decir, si en una
combinacion lineal de dos vectores de V los numeros reales que multiplican a
izquierda son ambos nulos, el resultado es el vector nulo de V . Pero podemos
preguntarnos: si alguno de esos dos reales no es nulo, puede ser O el resultado
de esa combinacion lineal ? La respuesta depende de donde elegimos el vector
B. Si B ∈< A > la respuesta es afirmativa. En efecto, si B = O ∈< A >
entonces 0A + 1O = O + O = O, y 1 6= 0. Si B = λA, con λ 6= 0, entonces
(−λ)A + 1B = O.
Si en cambio, B /∈< A >, la respuesta es no. En efecto, supongamos
λ1A + λ2B = O.
Si λ2 = 0, queda λ1A = O y luego λ1 = 0 (estamos suponiendo A 6= O). Si
λ2 6= 0 queda
O = λ−12 O = λ−1
2 λ1A + λ−12 λ2B = λ−1
2 λ1A + B,
y por consiguiente B = −λ−12 λ1A, es decir B ∈< A >.
En este punto conviene introducir las siguientes definiciones.
9 Espacio vectorial sobre los reales 114
Un vector A se dice linealmente dependiente si λA = O para algun
real λ 6= 0. Se dice tambien que el sistema {A} es ligado. Si A
no es linealmente dependiente entonces se dice que es linealmente
independiente, o tambien que el sistema {A} es libre.
Dos vectores A,B se dicen linealmente dependientes (l.d.) si λ1A+
λ2B = O, no cumpliendose λ1 = λ2 = 0. Tambien se dice que el
sistema {A, B} es ligado. Se dicen linealmente independientes (l.i.)
cuando no son linealmente dependientes. En este caso tambien se
dice que el sistema {A,B} es libre.
De la discusion anterior se deduce que para un sistema de un vector {A},este es ligado si y solo si A = O.
Las tres afirmaciones siguientes son equivalentes:
(i) {A,B} es ligado
(ii) A ∈< B > o {B} es ligado (B = O).
(iii) B ∈< A > o {A} es ligado (A = O).
Vimos que si {A} es libre entonces < A >∼= R. Si B /∈< A > entonces,
por las equivalencias anteriores, {A,B} debe ser un sistema libre y < A, B >
debe ser un subespacio “mas grande” que < A >. Es decir,
< A >⊂< A,B >,
siendo esta una contencion estricta.
Veremos que < A, B >∼= R2. En efecto, vamos a mostrar una aplicacion ϕ,
ϕ :< A, B > 7→ R2,
que resultara lineal y biyectiva.
Sea λ1A + λ2B ∈< A, B >. Definimos
ϕ(λ1A + λ2B) = (λ1, λ2) ∈ R2.
Veamos que ϕ es lineal. Sean
Cλ = λ1A + λ2B, Cµ = µ1A + µ2B,
9 Espacio vectorial sobre los reales 115
dos vectores en < A, B >. Es
Cλ + Cµ = λ1A + λ2B + µ1A + µ2B = (λ1 + µ1)A + (λ2 + µ2)B.
Luego, por la definicion de ϕ, es
ϕ(Cλ + Cµ) = (λ1 + µ1, λ2 + µ2) = (λ1, λ2) + (µ1, µ2) = ϕ(Cλ) + ϕ(Cµ).
Falta ver que ϕ(aCλ) = aϕ(Cλ) para todo a ∈ R. Tenemos que
aCλ = a(λ1A + λ2B) = aλ1A + aλ2B.
Por definicion de ϕ es ϕ(aCλ) = (aλ1, aλ2) = a(λ1, λ2) = aϕ(Cλ). Luego
ϕ es lineal, y es claramente suprayectiva. Veamos que tambien es inyectiva.
Como es lineal, basta ver que Nϕ = {O}. Esto tambien es evidente, ya que
si ϕ(λ1A + λ2B) = (λ1, λ2) = (0, 0), entonces λ1 = 0, λ2 = 0 y por lo tanto
0A + 0B = O. Luego ϕ es un isomorfismo.
Tenemos entonces que si {A} es libre,
< A >∼= R.
Si {A,B} es libre,
< A, B >∼= R2.
El vector A, que genera a < A >, y forma un sistema libre, se
llama una base de A.
Hay que destacar que cualquier vector no nulo de < A > es tambien una base
de < A >. Por ejemplo, 2A 6= O y < 2A >=< A >. En efecto, el conjunto
{λ(2A) : λ ∈ R} es igual al conjunto {λA : λ ∈ R}, dado que λ(2A) = (2λ)A,
y cuando λ recorre todo R, 2λ tambien recorre todo R. Significa que hay
infinitas bases de < A >, tantas como vectores no nulos.
Si B ∈< A >, {A,B} ya no es base de < A > porque si bien A y B tambien
generan a < A >, ahora el sistema {A,B} no es libre.
Si {A,B} es un sistema libre entonces {A,B} es base de < A, B >. Todo
par de vectores l.i. de < A, B > sera tambien base de ese subespacio. Una
base de < A, B > no puede estar constituida por solo un vector porque en este
caso A y B serıan multiplos de ese vector y por lo tanto no serıan l.i.
9 Espacio vectorial sobre los reales 116
Pero una base tampoco puede estar formada por mas de dos vectores. En
efecto, probaremos a continuacion que tres vectores en < A,B > son necesaria-
mente l.d.
Supongamos que C1, C2, C3 son tres vectores l.i. de < A,B >. Entonces
C2, C3 deben ser l.i. (Ejercicio). Si A ∈< C2, C3 > y B ∈< C2, C3 > sigue que
< A, B >⊂< C2, C3 > pero como < C2, C3 >⊂< A,B > se obtiene que
< C2, C3 >=< A, B > .
Luego C1 ∈< C2, C3 > y {C1, C2, C3} serıa ligado, contrariamente a lo que
estamos suponiendo. Supongamos entonces que, por ejemplo, A /∈< C2, C3 >.
Se deduce que
{A,C2, C3}es un sistema libre. Ahora se repite el razonamiento con otros vectores. Si
B ∈< A,C3 >, como A ∈< A,C3 >, seguirıa que < A, B >⊂< A, C3 > y
por lo tanto < A, B >=< A, C3 >. De aquı se deduce que C2 ∈< A,C3 > y
{A,C2, C3} no serıa un sistema libre. Entonces B /∈< A, C3 >, es decir
{A,B,C3}
es un sistema libre. Pero esto es una contradiccion, pues C3 ∈< A, B >. La
contradiccion proviene de suponer que {C1, C2, C3} es libre.
En conclusion,
toda base de < A,B > estara formada por dos vectores l.i.
Mas generalmente, se dice que B1, B2, · · · , Bn, n ∈ N, son linealmente de-
pendientes (l.d.), o bien que el sistema {B1, B2, · · · , Bn} es ligado, si vale que
λ1B1 + λ2B2 + · · ·+ λnBn = O
para reales λ1, λ2, · · · , λn, no todos nulos.
Si
B1, B2, · · · , Bn
no son l.d., entonces se dice que son linealmente independientes (l.i.), o bien
que el sistema {B1, B2, · · · , Bn} es libre.
9 Espacio vectorial sobre los reales 117
Si un espacio vectorial V es generado por un sistema libre, es decir
V =< B1, B2, · · · , Bn >,
entonces este sistema se llama una base de V .
Cualquier otra base de V estara formada por n vectores l.i. de V .
Este numero natural n, que depende por tanto de V , y no de la base
que se considere, se llama la dimension del espacio V (n = dimV).
Ası, una recta vectorial, es decir un espacio generado por un vector l.i. B1 (o
sea B1 6= O) tiene dimension 1. Resulta < B1 >∼= R. Un espacio generado
por un sistema libre {B1, B2} tiene dimension 2 y resulta < B1, B2 >∼= R2.
En general, un espacio generado por un sistema libre {B1, B2, · · · , Bn}, n ∈ N,
tiene dimension n y resulta
< B1, B2, · · · , Bn >∼= Rn.
Sea V un espacio vectorial de dimension n, es decir, generado por una base
formada por n vectores. Entonces en V no puede haber mas de n vectores l.i.
Por otra parte, n vectores l.i. de V forman una base del espacio. Si S es un
subespacio de V de dimension r, entonces r ≤ n.
Si {S1, · · · , Sr} es una base de S entonces se pueden encontrar en
V n− r vectores l.i.,
Cr+1, · · · , Cn,
de modo que {S1, · · · , Sr, Cr+1, · · · , Cn} sea base de V .
Este resultado se conoce como extension de base:
Toda base de un subespacio de V puede extenderse a una base de
V .
Los vectores l.i. que se agregan a la base de S son a su vez base de un
subespacio U , suplementario de S, es decir
V = S ⊕ U .
9 Espacio vectorial sobre los reales 118
Recıprocamente, si V = S ⊕ T entonces
dimV = dimS + dim T .
Ahora sean V y W dos espacios vectoriales de dimension n y m, respecti-
vamente. Sea ϕ : V 7→ W una aplicacion lineal. Como ya se sabe, Nϕ es un
subespacio de V , e Imϕ es un subespacio de W . Probemos que
dimV = dim Nϕ + dim Imϕ.
En efecto, sea {V1, · · · , Vr} una base de Nϕ. Si r = n entonces ϕ es la aplicacion
nula y dim Imϕ = 0, por lo que la formula es valida. Si r < n entonces
podemos extender {V1, · · · , Vr} a una base de V agregando n − r vectores
Vr+1, · · · , Vn linealmente independientes. Veamos que
{ϕ(Vr+1), · · · , ϕ(Vn)}
es una base de Imϕ. Probemos primero que este sistema es libre. Supongamos
λr+1ϕ(Vr+1) + · · ·+ λnϕ(Vn) = O.
Como ϕ es lineal la igualdad anterior se escribe
ϕ(λr+1Vr+1 + · · ·+ λnVn) = O.
Luego λr+1Vr+1 + · · ·+ λnVn ∈ Nϕ. De aquı sigue que
λr+1Vr+1 + · · ·+ λnVn = λ1V1 + · · ·+ λrVr,
es decir
λ1V1 + · · ·+ λrVr − λr+1Vr+1 − · · · − λnVn = O.
Pero {V1, · · · , Vn} es una base de V y por lo tanto es un sistema libre, por lo
que
λ1 = · · · = λr = λr+1 = · · · = λn = 0.
Veamos ahora que
< ϕ(Vr+1), · · · , ϕ(Vn) >= Imϕ.
Sea W ∈ Imϕ. Luego W = ϕ(A), A ∈ V . Pero
A = a1V1 + · · ·+ arVr + ar+1Vr+1 + · · ·+ anVn,
9 Espacio vectorial sobre los reales 119
y
ϕ(A) = ar+1ϕ(Vr+1) + · · ·+ anϕ(Vn),
pues V1, · · · , Vr ∈ Nϕ y por lo tanto ϕ(V1) = · · · = ϕ(Vr) = O. De aquı
W ∈< ϕ(Vr+1), · · · , ϕ(Vn) >,
como se deseaba probar.
En particular, si ϕ es inyectiva entonces Nϕ = {O} y
{ϕ(V1), · · · , ϕ(Vn)}
resulta una base de Imϕ.
10 Sistemas de ecuaciones lineales
Recordemos que un espacio vectorial de dimension n sobre el cuerpo R de
los numeros reales es isomorfo a Rn. El isomorfismo procede de la siguiente
manera: Fijada una base en el espacio vectorial, a un vector se le asigna la
n-upla formada por sus componentes con respecto a la base fijada. Conveni-
mos en escribir esta n-upla en disposicion de columna y la llamaremos vector
columna de Rn. Tener presente entonces que las componentes dependen tanto
del elemento del espacio vectorial como de la base fijada.
Sean V y W dos espacios vectoriales de dimension n y m, respectivamente,
y sea ϕ una aplicacion lineal entre V y W . Sean {V1, · · · , Vn} y {W1, · · · ,Wm}bases de V y W , respectivamente. Fijadas estas bases quedan establecidas,
por lo dicho anteriormente, los isomorfismos entre V y Rn, y entre W y Rm.
Es decir, un elemento de V se corresponde con un vector columna de Rn y un
elemento de W se corresponde con un vector columna de Rm. A continuacion
obtendremos el mecanismo que permite expresar las componentes de ϕ (X) en
terminos de las componentes de X para un elemento arbitrario X en V .
Tenemos que
ϕ (V1) = a11W1 + a21W2 + · · ·+ am1Wm
ϕ (V2) = a12W1 + a22W2 + · · ·+ am2Wm...
...ϕ (Vn) = a1nW1 + a2nW2 + · · ·+ amnWm
Si X = x1V1 + x2V2 + · · ·+ xnVn entonces
ϕ (X) = x1ϕ (V1) + x2ϕ (V2) + · · ·+ xnϕ (Vn) =
(a11x1 + a12x2 + · · ·+ a1nxn)W1+(a21x1 + a22x2 + · · ·+ a2nxn)W2+
...(am1x1 + am2x2 + · · ·+ amnxn)Wm.
Vemos que el vector columna asociado a ϕ (X) es una combinacion lineal de los
vectores columna asociados a ϕ (V1), ϕ (V2), · · · , ϕ (Vn), donde por coeficientes
figuran las componentes de X:
x1
a11
a21...
am1
+ x2
a12
a22...
am2
+ · · ·+ xn
a1n
a2n...
amn
.
120
10 Sistemas de ecuaciones lineales 121
Tambien podemos escribir esta expresion en notacion matricial:
a11 a12 · · · a1n
a21 a22 · · · a2n...
......
...am1 am2 · · · amn
x1
x2...
xn
.
Observar que la determinacion de la matriz A de arriba, de orden mxn, es
inmediata: Se trata de la matriz que tiene por columna j a las componentes
de ϕ (Vj), j = 1, 2, · · · , n.
Se puede afirmar entonces que una aplicacion lineal ϕ entre espa-
cios vectoriales de dimension n y m tiene asociada una matriz de
orden mxn, la cual permite obtener mediante la operacion anterior
las componentes de cualquier elemento que este en la imagen de
ϕ , Imϕ .
Otra vez debe tenerse presente que esta matriz depende no solo de ϕ sino
tambien de las bases consideradas en el dominio y codominio de la aplicacion.
Fijadas estas bases, existira por lo tanto una correspondencia entre
el espacio vectorial Hom(V ,W) de todas las aplicaciones lineales
entre V y W y el espacio Mmn de todas las matrices de orden mxn.
Esta correspondencia es claramente biyectiva. Por consiguiente Mmn se con-
vierte en un espacio vectorial isomorfo a Hom(V ,W) si en el se define una
suma y un producto a izquierda por un escalar real de tal forma que la suma
de matrices sea aquella matriz que se corresponde por la biyeccion anterior
a la suma de las aplicaciones lineales que tienen por asociadas a las matrices
sumandos, y analogo procedimiento para el producto por escalar. La suma ası
definida resulta la suma usual de matrices – sumar coeficiente a coeficiente – y
analogamente para el producto por escalar, esto es multiplicar cada coeficiente
de la matriz por el escalar considerado.
Supongamos ahora que tenemos otra aplicacion lineal, llamemosla ψ, entre
el espacio W de antes y otro espacio U de dimension s. Fijada una base en U ,
la aplicacion ψ tiene asociada una matriz de orden sxm, llamemosla B. Por
otra parte, la aplicacion composicion ψ ◦ϕ tiene asociada tambien una matriz
de orden sxn. Por lo dicho anteriormente, su columna j esta formada por las
10 Sistemas de ecuaciones lineales 122
componentes del vector
ψ ◦ ϕ (Vj) = ψ(ϕ (Vj))
y las componentes de este vector se obtienen a su vez multiplicando la matriz
B por el vector columna de componentes de ϕ (Vj), que es precisamente la
columna j de la matriz A. En consecuencia, las columnas de la matriz asociada
a la composicion ψ ◦ϕ se obtiene multiplicando la matriz B por las correspon-
dientes columnas de la matriz A, lo que define a la matriz producto BA.
Por lo tanto esta matriz producto es la asociada a la composicion
ψ ◦ ϕ .
10.1 Rango de una matriz
El isomorfismo entre Hom(V ,W) y Mmn hace que propiedades de una apli-
cacion lineal ϕ se reflejen en correspondientes propiedades de su matriz asocia-
da A. Por ejemplo, consideremos el subespacio de W , Im(ϕ ). Este subespacio
esta generado por el sistema {ϕ (V1), · · · , ϕ (Vn)}. Su dimension, digamos r, es
el numero que se corresponde con la mayor cantidad posible de vectores lineal-
mente independientes de este sistema. Es decir, en el hay r vectores l.i. y no
mas. Por otra parte, observar que las componentes de los vectores de este sis-
tema son precisamente las columnas de la matriz A. Luego, por el isomorfismo
existente entre W y Rm sigue que la matriz A tendra tambien r columnas
linealmente independientes de Rm y no mas. Sus columnas linealmente in-
dependientes seran precisamente aquellas que se corresponden con vectores
linealmente independientes del sistema anterior.
Este numero r, que si se habla de ϕ es dim(Imϕ ), es lo que se
llama rango de A si se habla de la matriz A, asociada a ϕ .
Es un resultado conocido en teorıa de matrices que el rango de una matriz
es tambien la cantidad maximal de filas linealmente independientes, interpre-
tando las filas de una matriz de orden mxn como vectores de Rn. A con-
tinuacion vamos a mostrar este resultado haciendo uso de la interpretacion
de las matrices como asociadas a aplicaciones lineales. Digo “mostrar” y no
10 Sistemas de ecuaciones lineales 123
“probar” porque para facilitar su comprension voy a considerar una matriz de
orden 4x4 con valores numericos concretos, digamos la matriz
A =
2 1 1 25 2 3 41 1 2 01 6 0 7
.
Por la teorıa anterior, a esta matriz la podemos interpretar como asociada a
una aplicacion lineal ϕ entre un espacio vectorial V de dimension 4 y un espacio
vectorialW , tambien de dimension 4, y supuesto que se han fijado bases en V y
enW . Como antes, llamamos a estas bases {V1, V2, V3, V4} y {W1,W2,W3,W4},respectivamente. La matriz A tiene sus tres primeras columnas linealmente in-
dependientes en R4, pero no sus 4 columnas l.i., ya que es facilmante verificable
que su cuarta columna es la suma de las dos primeras menos la tercera. Que
sus tres primeras columnas son vectores l.i. de R4 no es tan rapidamente ve-
rificable; para averiguarlo pueden aplicarse varios metodos que mas adelante
veremos, ya que en este momento no es lo que nos preocupa. Por consiguiente
el rango de A es tres. Bajo esta hipotesis, debemos probar que la matriz A
tiene tres filas l.i. y no mas. Recordemos que las columnas de A, vectores
columna de R4, son, de izquierda a derecha, las componentes de los vectores
de Wϕ (V1), ϕ (V2), ϕ (V3) y ϕ (V4),
respectivamente. Sabemos por otra parte que la correspondencia entre el vec-
tor columna de componentes de un vector de W y este vector es precisamente
lo que establece el isomorfismo entre R4 y W . Por lo tanto, como los isomor-
fismos preservan la independencia lineal, sigue que los vectores ϕ (V1), ϕ (V2) y
ϕ (V3) deben ser vectores l.i. en W puesto que se corresponden mediante este
isomorfismo con las tres primeras columnas de A, que son vectores columna
de R4 linealmente independientes. Por lo tanto podemos encontrar un cuarto
vector en W , digamos W , tal que
{ϕ (V1), ϕ (V2), ϕ (V3),W}
es una base de W . Consideremos ahora un automorfismo ψ : W 7→ W tal que
ψ(ϕ (V1)) = W1, ψ(ϕ (V2)) = W2, ψ(ϕ (V3)) = W3, ψ(W ) = W4.
La aplicacion ψ es en efecto un automorfismo pues lleva una base de W ,
{ϕ (V1), ϕ (V2), ϕ (V3),W}, en otra base deW , a saber la originalmente conside-
rada. Sea B la matriz asociada a ψ con respecto a esta ultima base actuando
10 Sistemas de ecuaciones lineales 124
tanto en su dominio como en su codominio. Luego la aplicacion composicion
ψ ◦ ϕ : V 7→ W
tiene por matriz asociada a BA, con respecto a las bases de V y W original-
mente consideradas. Pero cuales son las columnas de esta matriz producto?
Ya sabemos calcularlas: son las componentes de los vectores
ψ ◦ ϕ (Vj), j = 1, 2, 3, 4,
con respecto a la base {W1,W2,W3,W4} de W . Ahora bien,
ψ ◦ ϕ (V1) = W1 = 1W1 + 0W2 + 0W3 + 0W4,
ψ ◦ ϕ (V2) = W2 = 0W1 + 1W2 + 0W3 + 0W4,
ψ ◦ ϕ (V3) = W3 = 0W1 + 0W2 + 1W3 + 0W4
y ϕ (V4) tiene con respecto a ϕ (V1), ϕ (V2) y ϕ (V3) la misma relacion que sus
correspondientes componentes (Por que?), por lo cual
ϕ (V4) = ϕ (V1) + ϕ (V2)− ϕ (V3)
y
ψ ◦ ϕ (V4) = ψ ◦ ϕ (V1) + ψ ◦ ϕ (V2)− ψ ◦ ϕ (V3) = W1 + W2 −W3 + 0W4.
Por consiguiente
BA =
1 0 0 10 1 0 10 0 1 −10 0 0 0
.
Las tres primeras filas de esta matriz , consideradas como vectores de R4, son
l.i. En efecto, si
a(1, 0, 0, 1) + b(0, 1, 0, 1) + c(0, 0, 1,−1) = (a, b, c, a + b− c) = 0,
entonces a = b = c = 0. Llegado a este punto el lector puede vislumbrar lo que
ocurre en el caso general: Por la forma en que se ha construido la aplicacion ψ,
en la matriz BA aparecen r columnas que resultan ser los primeros r vectores
de la base canonica de Rm y en este caso una generalizacion inmediata del
calculo anterior prueba que en BA existen r filas l.i. Ahora bien, si la matriz
BA tiene r filas l.i. entonces la matriz A debe tener al menos tambien r filas
10 Sistemas de ecuaciones lineales 125
l.i. Por lo siguiente: Las filas de BA son combinaciones lineales de las filas
de A; luego el subespacio de Rn generado por las filas de BA esta contenido
en el subespacio generado por las filas de A y por lo tanto su dimension debe
ser menor o igual a la de este. En conclusion, una matriz debe tener al menos
tantas filas l.i. como columnas l.i. Pero ahora se aplica el mismo argumento a
la llamada matriz transpuesta. Si en general A es una matriz de orden mxn
entonces su transpuesta, A?, es una matriz de orden nxm que tiene por filas las
columnas de A (y por tanto tiene por columnas las filas de A). Por ejemplo,
para la matriz A que estamos considerando es
A? =
2 5 1 11 2 1 61 3 2 02 4 0 7
.
Aplicando la conclusion anterior tanto a la matriz A como a su transpuesta
A? sigue que una matriz cualquiera debe tener la misma cantidad maximal de
filas y columnas linealmente independientes.
10 Sistemas de ecuaciones lineales 126
10.2 Matrices cuadradas
Supongamos ahora que ϕ es un endomorfismo en un espacio V de dimension
n, ϕ : V 7→ V . Para hablar de matriz asociada deben fijarse tambien ahora
dos bases de V , una actuando en el dominio de ϕ y otra en el codominio
de ϕ . Estas bases pueden ser distintas o iguales. En cualquier caso la matriz
asociada resultara de orden nxn. Si ϕ es automorfismo entonces el rango de su
matriz asociada sera n (y solo en el caso de automorfismo sera n). En este caso
se dice que la matriz es no singular. Por ejemplo, consideremos la aplicacion
identidad, idV , idV(A) = A para todo vector A en V , que es obviamente un
automorfismo. Calculemos su matriz asociada supuesto que hemos fijado la
misma base, digamos {V1, · · · , Vn}, en el dominio y codominio de idV . Para
i = 1, 2, · · · , n es idV(Vi) = Vi. Las componentes de los vectores de la base
con respecto a la misma base son claramente los vectores de la base canonica
de Rn. Luego la matriz asociada a idV resulta en este caso la llamada matriz
identidad:
I =
1 0 · · · 00 1 · · · 0...
......
...0 0 · · · 1
.
Tener presente que la matriz identidad esta asociada a la aplicacion identidad
siempre y cuando fijemos la misma base en el dominio y codominio de la
aplicacion. Es decir, si fijamos bases distintas en el dominio y codominio de la
aplicacion identidad entonces su matriz asociada no sera la matriz identidad
aunque por cierto sera una matriz no singular. Para una matriz no singular
A de orden nxn existe otra matriz de orden nxn, llamada inversa de A, y que
se denota A−1, tal que AA−1 = A−1A = I. La matriz A esta asociada a un
automorfismo ϕ . La existencia de la matriz inversa proviene a su vez de la
existencia del automorfismo inverso ϕ −1. Es precisamente su matriz asociada.
Esta claro que la matriz inversa es tambien no singular y (A−1)−1 = A.
10 Sistemas de ecuaciones lineales 127
10.3 Estudio matricial de sistemas
El siguiente es un sistema de m ecuaciones con n incognitas:
a11x1 + a12x2 + · · ·+ a1nxn = c1
a21x1 + a22x2 + · · ·+ a2nxn = c2...
......
am1x1 + am2x2 + · · ·+ amnxn = cm
Los coeficientes aij y los terminos independientes ci son datos, mientras que
las variables xj son las incognitas, i = 1, 2, · · · , n, j = 1, 2, · · · ,m. Resolver
este sistema significa encontrar valores numericos que reemplazados en el lugar
de las incognitas xj verifiquen las m ecuaciones del sistema. Observar que este
sistema se puede escribir en notacion matricial: AX = C, donde A es la matriz
de coeficientes, de orden mxn, tal que en su fila i y columna j encontramos
el coeficiente aij, X es el vector columna de incognitas xj y C es el vector
columna de terminos independientes ci. X es un vector columna de Rn y AX
es un vector columna de Rm. La aplicacion
ϕ : Rn 7→ Rm, ϕ (X) = AX,
es lineal. En efecto,
ϕ (X1 + X2) = A(X1 + X2) =
AX1 + AX2 = ϕ (X1) + ϕ (X2)
y
ϕ (cX) = A(cX) = c(AX) = cϕ (X).
Si fijamos las correspondientes bases canonicas en Rn y Rm, entonces la ma-
triz asociada a esta aplicacion lineal es precisamente A. Sus columnas son n
vectores de Rm. Denotemos a estos vectores
A1, A2, · · · , An.
Recordemos que
ϕ (X) = AX = x1A1 + x2A2 + · · ·+ xnAn,
es decir la aplicacion ϕ resulta ser tambien una combinacion lineal de las
columnas de A. Nuestros datos son estos n vectores columna y el vector C.
10 Sistemas de ecuaciones lineales 128
Por lo tanto este sistema tendra alguna solucion si y solo si el vector C es
combinacion lineal de los vectores A1, · · · , An, o dicho de otra manera, si
C ∈ Imϕ =< A1, · · · , An > .
Una base de este subespacio de Rm esta formado por un conjunto maximal
de vectores columna l.i. de A. La cantidad, digamos r, de vectores que la
componen es tanto la dimension de Imϕ como el rango de la matriz A. Por
lo tanto
C ∈ Imϕ
si y solo si el rango de la llamada matriz ampliada, esto es la matriz cuyas
columnas son {A1, A2, · · · , An, C}, es tambien r.
Ahora bien, en el caso de existencia de soluciones, puede darse que esta sea
unica o no. Analicemos mas en detalle esta situacion. Supongamos que X0 es
una solucion del sistema, es decir
ϕ (X0) = C.
Nϕ es un subespacio del dominio de ϕ , Rn. Si S es un vector arbitrario de
Nϕ , es
ϕ (S) = AS = O.
Luego
ϕ (X0 + S) = ϕ (X0) + ϕ (S) = C + O = C
y por lo tanto X0 + S es otra solucion del sistema.
Recıprocamente, si X1 es una solucion del sistema entonces
X1 −X0 ∈ Nϕ
pues
ϕ (X1 −X0) = ϕ (X1)− ϕ (X0) = C − C = O.
Por consiguiente
X1 = X0 + (X1 −X0).
Ası hemos probado que
toda solucion del sistema es suma de una solucion fija y de un vector
arbitrario de Nϕ .
10 Sistemas de ecuaciones lineales 129
Significa que el conjunto de todas las soluciones del sistema es una variedad
lineal de Rn, esto es la suma de un vector fijo de Rn y un subespacio de Rn,
Nϕ . De esta manera, si
Nϕ = {O}entonces habra una unica solucion del sistema. Si, en cambio,
dim Nϕ > 0,
habra infinitas soluciones. Ahora bien, como
n = dim Nϕ + dim Imϕ = dim Nϕ + r,
sigue que
dim Nϕ = 0 si y solo si r = n.
La discusion anterior nos permite enunciar el llamado
Teorema de Roche Frobenius Un sistema de ecuaciones lineales tiene al-
guna solucion si y solo si el rango de la matriz de coeficientes del sistema
es igual al rango de la matriz ampliada. La solucion sera unica si este valor
comun del rango es igual al numero de incognitas. Si en cambio el valor del
rango es estrictamente menor que el numero de incognitas entonces habra in-
finitas soluciones.
Observar que este teorema es puramente teorico, permite determinar si un
sistema tiene solucion o no, si esta es unica o no, pero en el caso de existencia de
soluciones no da ningun metodo para calcularlas. A continuacion estudiaremos
un metodo para obtener las soluciones.
10.4 Metodo de Gauss para matrices no singu-
lares
Supondremos primero que la matriz A es de orden nxn y no singular. En este
caso sabemos que A tiene una matriz inversa A−1. Este sistema debe tener
solucion porque el rango de A es n y el rango de la matriz ampliada es tambien
n porque en Rn no puede haber mas de n vectores l.i.; ademas la solucion es
unica porque n es el numero de incognitas. La solucion X satisface
AX = C.
10 Sistemas de ecuaciones lineales 130
Luego
A−1(AX) = (A−1A)X = IX = X = A−1C.
Por lo tanto la solucion es el producto a izquierda de la matriz inversa de A por
el vector columna de terminos independientes. Vemos que la aplicacion directa
de este metodo implica calcular una matriz inversa de otra. No obstante,
veremos en lo que sigue un procedimiento de obtencion de la solucion que
esta sugerido por el calculo anterior pero que no necesita de la determinacion
explıcita de la matriz inversa de A.
La matriz inversa A−1 es la unica matriz tal que A−1A = I. Ahora bien,
sabemos que multiplicar a izquierda una matriz da por resultado otra matriz
cuyas filas son combinaciones lineales de las filas de aquella. Por ejemplo, en
el producto
9 0 2 81 4 5 00 1 6 04 7 0 1
1 0 2 51 1 0 30 0 1 30 1 2 1
la primera fila de la matriz resultado es la siguiente combinacion lineal:
9(1, 0, 2, 5) + 0(1, 1, 0, 3) + 2(0, 0, 1, 3) + 8(0, 1, 2, 1) = (9, 8, 36, 59).
La segunda fila de la matriz resultado es
1(1, 0, 2, 5) + 4(1, 1, 0, 3) + 5(0, 0, 1, 3) + 0(0, 1, 2, 1) = (5, 4, 7, 32).
La tercera fila de la matriz resultado es
0(1, 0, 2, 5) + 1(1, 1, 0, 3) + 6(0, 0, 1, 3) + 0(0, 1, 2, 1) = (1, 1, 6, 21).
Por ultimo, la cuarta fila de la matriz resultado es
4(1, 0, 2, 5) + 7(1, 1, 0, 3) + 0(0, 0, 1, 3) + 1(0, 1, 2, 1) = (11, 8, 10, 42).
Esta forma de operar es ası en cualquier producto que se pueda efectuar, sean
las matrices cuadradas o no.
En nuestro caso particular la fila i de la matriz resultado I es la combinacion
lineal de todas las filas de A, actuando por coeficientes los correspondientes
elementos de la fila i de la matriz A−1. Significa que la matriz A es transfor-
mada en la matriz identidad I efectuando combinaciones lineales de sus filas.
Sabiendo esto, intentamos ahora transformar una matriz no singular A en la
10 Sistemas de ecuaciones lineales 131
matriz identidad en sucesivas etapas y recurriendo solo a efectuar combina-
ciones lineales de sus filas. Es decir, colocar “unos” en la diagonal principal
y “ceros” fuera de esta diagonal mediante apropiadas combinaciones lineales
de sus filas. Estas consisten en lo siguiente: para colocar un 1 en un lugar de
la diagonal principal necesitaremos multiplicar la fila correspondiente por un
numero distinto de 0; para colocar un cero en un lugar fuera de la diagonal
principal necesitaremos hacer una combinacion lineal de dos filas; si eventual-
mente aparece un 0 en un lugar de la diagonal principal entonces necesitaremos
intercambiar dos filas. Cualquiera de estas tres acciones corresponde a efec-
tuar una combinacion lineal de todas las filas de A o, equivalentemente, a
multiplicar A por su izquierda por una matriz, en este caso no singular. Por
ejemplo, sea
A =
2 1 3 02 1 0 10 0 4 00 5 0 2
.
Necesitamos colocar un 1 en el lugar del coeficiente a11 = 2. Para esto multi-
plicamos la primera fila de A por 1/2. Pero observar que esta transformacion
de A significa multiplicar a izquierda por la matriz M1 =
1/2 0 0 00 1 0 00 0 1 00 0 0 1
.
Ası,
M1A =
1 1/2 3/2 02 1 0 10 0 4 00 5 0 2
.
Ahora debemos colocar un 0 en el lugar a21(= 2) de esta matriz. Para ello
reemplazamos su segunda fila por la siguiente combinacion lineal de sus dos
primeras filas:
−2(1, 1/2, 3/2, 0) + 1(2, 1, 0, 1).
Esto significa a su vez multiplicarla a izquierda por la matriz
M2 =
1 0 0 0−2 1 0 0
0 0 1 00 0 0 1
.
10 Sistemas de ecuaciones lineales 132
Ası,
M2M1A =
1 1/2 3/2 00 0 −3 10 0 4 00 5 0 2
.
Dado que ya hay ceros en los lugares a31 y a41 de esta matriz pasamos a
operar en su segunda columna. Lo primero que hay que hacer es colocar un
1 en el lugar a22 para despues colocar ceros en los lugares que le siguen por
debajo. Pero en este ejemplo a22 = 0 por lo que es imposible transformarlo en
1 multiplicando la fila por cualquier valor. En este caso (y solo en este caso)
debe intercambiarse la fila por otra fila que le siga por debajo y que tenga un
elemento no nulo en el lugar correspondiente, en este ejemplo la cuarta fila.
Siempre se encontrara una fila por debajo con estas condiciones pues si ası no
fuera las dos primeras columnas de esta matriz serıan l.d., lo que es imposible
pues la matriz de partida A es no singular y las transformaciones que estamos
efectuando sobre ella no alteran este caracter. En efecto, las matrices Mi que
multiplican a izquierda la matriz A son no singulares y producto de matrices
no singulares da por resultado una matriz no singular. Volviendo a nuestro
ejemplo debemos intercambiar entonces la segunda y cuarta filas de la matriz
M2M1A. Esta operacion equivale a multiplicar a izquierda esta matriz por la
matriz M3 =
1 0 0 00 0 0 10 0 1 00 1 0 0
. Ası,
M3M2M1A =
1 1/2 3/2 00 5 0 20 0 4 00 0 −3 1
.
Ahora sı multiplicamos la segunda fila de esta ultima matriz por 1/5, lo que
equivale a multiplicar a izquierda por la matriz M4 =
1 0 0 00 1/5 0 00 0 1 00 0 0 1
. Ası,
M4M3M2M1A =
1 1/2 3/2 00 1 0 2/50 0 4 00 0 −3 1
.
Pasando a la tercera columna (ya que hay ceros en los lugares a32 y a42)
debemos colocar un 1 en el lugar a33(= 4), lo que se logra multiplicando la
10 Sistemas de ecuaciones lineales 133
tercera fila por 1/4. Esto equivale a su vez a multiplicar a izquierda esta ultima
matriz por la matriz M5 (Cual es M5?) De esta manera
M5M4M3M2M1A =
1 1/2 3/2 00 1 0 2/50 0 1 00 0 −3 1
.
Para colocar un 0 en el lugar a43(= −3) reemplazamos la cuarta fila por la
siguiente combinacion lineal de la tercera y cuarta filas:
3(0, 0, 1, 0) + 1(0, 0,−3, 1) = (0, 0, 0, 1).
Esto equivale a multiplicar a izquierda por la matriz M6 =
1 0 0 00 1 0 00 0 1 00 0 3 1
.
Ası,
M6M5M4M3M2M1A =
1 1/2 3/2 00 1 0 2/50 0 1 00 0 0 1
.
Esta ultima matriz es un ejemplo de matriz triangular superior pues consta
de ceros debajo de la diagonal principal. Ahora debemos colocar ceros sobre
la diagonal principal empezando por la cuarta columna. Para colocar un 0 en
el lugar a24(= 2/5) reemplazamos la segunda fila por la siguiente combinacion
lineal de la segunda y cuarta filas:
1(0, 1, 0, 2/5) + (−2/5)(0, 0, 0, 1) = (0, 1, 0, 0).
Esto significa multiplicar a izquierda por la matriz
M7 =
1 0 0 00 1 0 −2/50 0 1 00 0 0 1
.
Para colocar un 0 en el lugar a13(= 3/2) de esta ultima matriz reemplazamos
su primera fila por la siguiente combinacion lineal de su primera y tercera filas:
1(1, 1/2, 3/2, 0) + (−3/2)(0, 0, 1, 0) = (1, 1/2, 0, 0),
lo que equivale a multiplicar a izquierda por la matriz
M8 =
1 0 −3/2 00 1 0 00 0 1 00 0 0 1
.
10 Sistemas de ecuaciones lineales 134
Para finalizar este proceso resta poner un 0 en el lugar a12 de esta ultima
matriz. Para ello reemplazamos su primera fila por la siguiente combinacion
lineal de su primera y segunda filas:
1(1, 1/2, 0, 0) + (−1/2)(0, 1, 0, 0) = (1, 0, 0, 0).
Esta operacion equivale a multiplicar a izquierda por la matriz
M9 =
1 1/2 0 00 1 0 00 0 1 00 0 0 1
.
De esta forma, tenemos que
M9M8M7M6M5M4M3M2M1A = I,
por lo cual M9M8M7M6M5M4M3M2M1 = A−1 y por lo tanto
X = M9M8M7M6M5M4M3M2M1C.
Por consiguiente la solucion X se obtiene efectuando sobre el vector columna
C el mismo procedimiento aplicado a la matriz A, esto es las mismas com-
binaciones lineales de filas ejercidas por la multiplicacion a izquierda de las
matrices M1,M2, · · · , M9. De aquı, si las mismas combinaciones lineales se
aplican a la matriz ampliada, es decir la matriz A con el agregado del vector
columna C por ultima columna, entonces una vez que A se transforme median-
te estas combinaciones lineales en la matriz identidad, en la ultima columna
de la matriz ampliada transformada tendremos la solucion del sistema.
Por ejemplo, supongamos que C =
1234
. Luego la matriz ampliada es
2 1 3 0 12 1 0 1 20 0 4 0 30 5 0 2 4
.
Para resolver este sistema de cuatro ecuaciones con cuatro incognitas reali-
zamos en esta matriz ampliada las mismas combinaciones lineales de filas que
hicimos antes en la matriz A y que transforman a esta en la matriz identidad.
10 Sistemas de ecuaciones lineales 135
Las sucesivas etapas son: Colocacion de un 1 en el lugar a11. Se obtiene la
matriz
1 1/2 3/2 0 1/22 1 0 1 20 0 4 0 30 5 0 2 4
.
Colocacion de un 0 en los lugares por debajo del 1 colocado en la diagonal.
Se opera con la primera fila y la fila al cual pertenece el coeficiente que ha de
transformarse en 0. Se obtiene la matriz
1 1/2 3/2 0 1/20 0 −3 1 10 0 4 0 30 5 0 2 4
.
Colocacion de un 1 en el lugar a22. Como aquı a22 = 0 debemos antes inter-
cambiar la segunda fila con la cuarta fila. Se obtiene
1 1/2 3/2 0 1/20 1 0 2/5 4/50 0 4 0 30 0 −3 1 1
.
Colocacion de ceros en los lugares a32 y a42. Se opera en cada caso con la
segunda fila y la fila a la que pertenece el elemento que hay que transformar
en 0. En este ejemplo nada debe hacerse al respecto dado que ya hay ceros en
esos lugares. Se pasa ahora a colocar un 1 en el lugar a33. Se obtiene
1 1/2 3/2 0 1/20 1 0 2/5 4/50 0 1 0 3/40 0 −3 1 1
.
Colocacion de un 0 en el lugar a43. Se opera con la cuarta y tercera filas. Se
obtiene
1 1/2 3/2 0 1/20 1 0 2/5 4/50 0 1 0 3/40 0 0 1 13/4
.
Colocacion de un 0 en el lugar a24. Se opera con la segunda y cuarta filas. Se
obtiene
1 1/2 3/2 0 1/20 1 0 0 −1/20 0 1 0 3/40 0 0 1 13/4
.
10 Sistemas de ecuaciones lineales 136
Colocacion de un 0 en el lugar a13. Se opera con la primera y tercera filas. Se
obtiene
1 1/2 0 0 −5/80 1 0 0 −1/20 0 1 0 3/40 0 0 1 13/4
.
Por ultimo, colocacion de un 0 en el lugar a12. Se opera con la primera y
segunda filas. Se obtiene
1 0 0 0 −3/80 1 0 0 −1/20 0 1 0 3/40 0 0 1 13/4
.
La solucion del sistema es x1 = −3/8, x2 = −1/2, x3 = 3/4, x4 = 13/4.
10.5 Metodo general de Gauss
Supongamos que ahora debemos resolver un sistema donde m ≤ n, es decir
donde puede haber mas incognitas que ecuaciones. Si las m filas de la matriz
de coeficientes A son linealmente independientes entonces podemos decir que
el sistema tiene solucion. En efecto, el rango de A es en este caso m y por
lo tanto en A debe haber tambien m columnas l.i. Por otro lado, la matriz
ampliada tambien debe tener rango m y no mas porque es una matriz de m
filas, y observar que en general el rango de una matriz ampliada no puede ser
menor que el rango de la matriz original ya que la cantidad de columnas l.i
de esta lo son tambien de la matriz ampliada. Por lo tanto, el teorema de
Roche Frobenius nos permite decir en general que si un sistema lineal de m
ecuaciones con n incognitas es tal que las m filas de la matriz de coeficientes
son l.i. entonces el sistema tiene solucion. Si n = m la solucion es unica
y estamos en el caso considerado anteriormente. Si n > m entonces habra
infinitas soluciones que, como ya sabemos, seran de la forma X0 +S, donde X0
es una solucion particular del sistema y S es un elemento arbitrario en Nϕ ,
es decir que S satisface AS = O. Como
m = rango de A = dim Imϕ
y
n = dim Nϕ + dim Imϕ
10 Sistemas de ecuaciones lineales 137
sigue que
dim Nϕ = n−m.
Luego una base de Nϕ consiste en n−m vectores l.i. de ese subespacio y por
lo tanto cualquier solucion del sistema se escribe como una solucion particular
X0 mas una combinacion lineal, con escalares reales arbitrarios, de n − m
soluciones l.i. del llamado sistema homogeneo asociado
AX = O.
Consideremos por ejemplo el siguiente sistema:
(1 3 −5 12 5 −2 4
)
x1
x2
x3
x4
=
(46
). (7)
En este ejemplo las dos filas de la matriz de coeficientes son l.i. pues una fila
no es multiplo de la otra. Luego hay solucion, y como hay cuatro incognitas
sigue que el conjunto de soluciones constituye una variedad lineal de dimension
2 = 4− 2 incognitas, a saber el conjunto de R4 de la forma
X0 + aS1 + bS2,
donde X0 es una solucion arbitraria del sistema (7), a y b son reales arbitrarios
y S1 y S2 son dos soluciones l.i. del sistema homogeneo
(1 3 −5 12 5 −2 4
)
x1
x2
x3
x4
=
(00
). (8)
Determinemos una solucion arbitraria del sistema (7). Como la matriz de
coeficientes tiene dos ( y no mas ) columnas l.i. habra 2 = 4 − 2 incognitas
a las que podremos asignarle valores arbitrarios y resolver despues en las dos
incognitas restantes. En este caso las dos primeras columnas de la matriz de
coeficientes son l.i. por lo cual podemos asignar un valor arbitrario a cada una
de las incognitas x3 y x4. Es obvio que lo mas practico es asignarle a ambas
valor nulo para luego resolver
(1 32 5
)(x1
x2
)=
(46
).
10 Sistemas de ecuaciones lineales 138
Este es un sistema “cuadrado” que se resuelve por la forma ya conocida, esto
es operando como ya se sabe sobre la matriz ampliada(
1 3 42 5 6
). (9)
Determinamos ahora dos soluciones l.i. del sistema homogeneo (8). Aquı
tambien debemos asignarle valores a x3 y x4 pero ahora no podemos asignarles
valores nulos a ambos pues en este caso obtendrıamos tambien la solucion nula
para x1 y x2, y la solucion nula no es l.i. Procederemos ası: para obtener la
primera solucion le damos a x3 el valor −1 y a x4 el valor nulo para luego
resolver el sistema (1 32 5
)(x1
x2
)=
( −5−2
),
que se resuelve operando sobre la matriz ampliada(
1 3 −52 5 −2
). (10)
Para obtener la segunda solucion le damos a x3 el valor nulo y a x4 el valor−1
para luego resolver el sistema(
1 32 5
)(x1
x2
)=
(14
),
que se resuelve operando sobre la matriz ampliada(
1 3 12 5 4
). (11)
Estas dos soluciones del sistema homogeneo (8) son efectivamente l.i. porque
son de la forma
(a1, b1,−1, 0) y (a2, b2, 0,−1)
y ya sus dos ultimas componentes lo son.
Ahora bien, las tres matrices (9), (10) y (11) sobre las que tenemos que
operar tiene en comun la matriz cuadrada de coeficientes
(1 32 5
)que es
la que determina las operaciones a realizar, por lo que claramente conviene
operar conjuntamente sobre la siguiente matriz ampliada del sistema (7):(
1 3 −5 1 42 5 −2 4 6
).
Como ya sabemos, las sucesivas transformaciones son las siguientes:(
1 3 −5 1 40 −1 8 2 −2
)→
(1 3 −5 1 40 1 −8 −2 2
)→
10 Sistemas de ecuaciones lineales 139
(1 0 19 7 −20 1 −8 −2 2
).
Luego cualquier solucion del sistema (7) es
(−2, 2, 0, 0) + a(19,−8,−1, 0) + b(7,−2, 0,−1),
con a y b numeros reales arbitrarios.
Una observacion a tener en cuenta es la siguiente: aquellas incognitas en
las que se resuelva el sistema deben corresponderse a columnas l.i. de la matriz
de coeficientes. En el ejemplo anterior se resolvio el sistema en las incognitas
x1 y x2 y eso fue correcto porque las dos primeras columnas de la matriz de
coeficientes eran l.i. Pero no es necesario darse cuenta de esta situacion antes
de comenzar el procedimiento. El proceso mismo detecta las columnas l.i. Por
ejemplo, consideremos el sistema de tres ecuaciones con seis incognitas que da
lugar a la siguiente matriz ampliada:
1 0 1 2 −1 3 02 −1 1 4 0 3 −20 −2 −2 0 5 0 1
.
Comenzamos a transformarla de la manera ya conocida:
1 0 1 2 −1 3 00 −1 −1 0 2 −3 −20 −2 −2 0 5 0 1
→
1 0 1 2 −1 3 00 −1 −1 0 2 −3 −20 −2 −2 0 5 0 1
→
1 0 1 2 −1 3 00 1 1 0 −2 3 20 −2 −2 0 5 0 1
→
1 0 1 2 −1 3 00 1 1 0 −2 3 20 0 0 0 1 6 5
.
En esta etapa es imposible colocar un 1 en el lugar a33. Lo que ocurre es
que las tres primeras columnas de la matriz de coeficientes son l.d. Entonces
hay que intercambiar la tercera columna con la quinta columna o la sexta
columna (no con la cuarta pues seguirıa habiendo un 0 en el lugar a33 ni
con la septima, que es la de terminos independientes). Pero cuidado! A la
hora de considerar las incognitas habra que tener presente su correspondiente
intercambio. Intercambiamos tercera con quinta columnas y continuamos el
proceso ya explicado:
1 0 −1 2 1 3 00 1 −2 0 1 3 20 0 1 0 0 6 5
→
1 0 −1 2 1 3 00 1 0 0 1 15 120 0 1 0 0 6 5
→
10 Sistemas de ecuaciones lineales 140
1 0 0 2 1 9 50 1 0 0 1 15 120 0 1 0 0 6 5
.
El sistema se ha resuelto en las incognitas x1, x2 y x5. Las soluciones son por
lo tanto de la forma
(5, 12, 0, 0, 5, 0) + a(2, 0, 0,−1, 0, 0) + b(1, 1,−1, 0, 0, 0) + c(9, 15, 0, 0, 6,−1).
Consideremos ahora el caso mas general, esto es un sistema de m ecuaciones
con n incognitas AX = C del cual no sabemos previamente si tiene o no
soluciones. Sin preocuparnos por esta cuestion aplicamos el procedimiento
conocido de resolucion que consiste primero en transformar la matriz amplia-
da de forma que en su diagonal principal aparezcan “unos” y que en los lugares
por debajo de la diagonal principal aparezcan ceros (triangularizar la matriz).
Esto va a ser posible mientras haya filas l.i. Si todas las filas de A son l.i. este
proceso se continuara hasta la ultima fila, habra soluciones y estas se obtendran
como se explico anteriormente. Si no todas las filas de A son l.i. entonces
aparecera en alguna etapa una fila de ceros en la matriz transformada de A.
Si el ultimo coeficiente de esta fila en la transformada de la matriz ampliada,
es decir el correspondiente al vector columna de terminos independientes, no
es cero entonces el sistema no tiene soluciones y por lo tanto el proceso se
termina. Si en cambio este coeficiente es cero el procedimiento se continua
previa eliminacion de esta fila completa de ceros. Si en ningun momento del
procedimiento se presenta la situacion de bloqueo anterior y por lo tanto se
logra triangularizar a la matriz A, entonces el sistema tiene solucion, una o
infinitas, y estas se obtienen de la manera ya sabida.
Ejemplos
Se parte como siempre de la matriz ampliada del sistema.
1 3 −1 1 12 1 3 5 21 −1 3 2 34 1 7 −3 7
→
1 3 −1 1 10 −5 5 3 00 −4 4 1 20 −11 11 −7 3
→
1 3 −1 1 10 1 −1 −3/5 00 0 0 −7/5 20 0 0 −68/5 3
.
En este punto ya podrıamos advertir que el sistema es incompatible. Recorde-
mos que la transformacion de estas matrices ampliadas equivale a multiplicar a
10 Sistemas de ecuaciones lineales 141
izquierda por matrices no singulares, en este caso de orden 4x4. Esto conduce
siempre a obtener matrices transformadas que se corresponden con sistemas
equivalentes al inicial, es decir sistemas que tiene solucion si y solo si lo tiene
aquel, y en este caso con las mismas soluciones. En este ejemplo el sistema
inicial es equivalente al siguiente:
1x1+ 3x2+ (−1)x3+ 1x4 = 10x1+ 1x2+ (−1)x3+ (−3/5)x4 = 00x1+ 0x2+ 0x3+ (−7/5)x4 = 20x1+ 0x2+ 0x3+ (−68/5)x4 = 3
De la tercera ecuacion se obtiene
x4 = −10/7
y de la cuarta ecuacion se obtiene
x4 = −15/68 6= −10/7,
por lo que estas dos ecuaciones son incompatibles. Pero supongamos que no
advertimos esta incompatibilidad y continuamos el proceso. Este se continua
intercambiando tercera y cuarta columnas (hay ceros en los lugares a33 y a43)
y transformando en 1 el coeficiente a33 = −7/5. Queda
1 3 1 −1 10 1 −3/5 −1 00 0 1 0 −10/70 0 −68/5 0 3
→
1 3 1 −1 10 1 −3/5 −1 00 0 1 0 −10/70 0 0 0 −115/7
.
La ultima fila muestra la incompatibilidad del sistema. Ocurre que la cuarta
fila de la matriz de coeficientes es combinacion lineal de sus tres primeras filas
l.i. Luego su rango es tres mientras que el rango de la matriz ampliada es
cuatro, sus cuatro filas por un lado, y sus columnas primera, segunda, tercera
y quinta por otro lado, son l.i.
Apliquemos ahora el procedimiento al siguiente sistema de 5 ecuaciones con
6 incognitas:
1 3 4 1 1 0 22 1 3 5 2 3 −43 4 7 6 3 3 −21 −1 0 2 3 −1 −54 1 5 −3 7 −10 1
→
10 Sistemas de ecuaciones lineales 142
1 3 4 1 1 0 20 −5 −5 3 0 3 −80 −5 −5 3 0 3 −80 −4 −4 1 2 −1 −70 −11 −11 −7 3 −10 −7
→
1 3 4 1 1 0 20 1 1 −3/5 0 −3/5 8/50 0 0 0 0 0 00 0 0 −7/5 2 −17/5 −3/50 0 0 −68/5 3 −83/5 53/5
.
La tercera fila se elimina. Ha dado una fila de ceros porque la tercera fila de la
matriz ampliada es combinacion lineal de sus dos primeras filas. A continuacion
se hace necesario intercambiar tercera con (por ejemplo) cuarta columnas para
evitar el cero en el lugar a33. Esto ha sucedido porque la tercera columna de
la matriz de coeficientes es combinacion lineal de sus dos primeras columnas.
Por lo tanto el sistema inicial es equivalente al siguiente:
A1
x1
x2
x3
x4
x5
x6
=
28/5−3/553/5
,
donde
A1 =
1 3 1 4 1 00 1 −3/5 1 0 −3/50 0 −7/5 0 2 −17/50 0 −68/5 0 3 −83/5
.
El proceso continua de la siguiente manera:
1 3 1 4 1 0 20 1 −3/5 1 0 −3/5 8/50 0 1 0 −10/7 17/7 3/70 0 −68/5 0 3 −83/5 53/5
→
1 3 1 4 1 0 20 1 −3/5 1 0 −3/5 8/50 0 1 0 −10/7 17/7 3/70 0 0 0 −115/7 115/7 115/7
.
Se debe intercambiar ahora cuarta con quinta columnas. Esto ya era previ-
sible, dado que la cuarta columna de esta ultima matriz, es decir la tercera
de la matriz de coeficientes inicial, es combinacion lineal de las dos primeras
10 Sistemas de ecuaciones lineales 143
columnas. Se hubiera evitado este segundo intercambio si en el primero se
afectaban las columnas tercera y quinta en vez de tercera y cuarta. Se muestra
entonces en esta etapa que el sistema inicial es equivalente al siguiente:
A2
x1
x2
x4
x5
x3
x6
=
28/53/7
115/7
,
donde
A2 =
1 3 1 1 4 00 1 −3/5 0 1 −3/50 0 1 −10/7 0 17/70 0 0 −115/7 0 115/7
.
Se obtiene ahora la matriz ampliada triangularizada
1 3 1 1 4 0 20 1 −3/5 0 1 −3/5 8/50 0 1 −10/7 0 17/7 3/70 0 0 1 0 −1 −1
.
En este punto ya podemos decir que el sistema tiene soluciones. Tanto la matriz
de coeficientes como la matriz ampliada iniciales tienen rango cuatro. Sus filas
primera, segunda, cuarta y quinta son l.i., ası como sus columnas primera,
segunda, cuarta y quinta (la coincidencia es casualidad, podrıa darse en otro
caso que otras cuatro columnas fueran l.i.). Dado que hay seis incognitas,
las soluciones constituyen una variedad lineal de dimension dos. Como ya se
sabe, se resuelve entonces en las incognitas x1, x2, x4 y x5, transformando la
submatriz cuadrada principal en matriz identidad:
1 3 1 0 4 1 30 1 −3/5 0 1 −3/5 8/50 0 1 0 0 1 −10 0 0 1 0 −1 −1
→
1 3 0 0 4 0 40 1 0 0 1 0 10 0 1 0 0 1 −10 0 0 1 0 −1 −1
→
1 0 0 0 1 0 10 1 0 0 1 0 10 0 1 0 0 1 −10 0 0 1 0 −1 −1
.
Las soluciones son de la forma
(1, 1, 0,−1,−1, 0) + a(1, 1,−1, 0, 0, 0) + b(0, 0, 0, 1,−1,−1).
11 Producto escalar
Sea V un espacio vectorial distinto del espacio nulo. Un producto escalar es
una operacion entre vectores de V dada por la evaluacion de una forma bilineal
ϕ , simetrica y definida positiva. Esto es
A ·B = ϕ (A,B),
donde ϕ : V × V 7→ R, tiene las siguientes propiedades:
• ϕ (a1A1 + a2A2, B) = a1ϕ (A1, B) + a2 ϕ (A2, B).
• ϕ (A, b1B1 + b2B2) = b1ϕ (A,B1) + b2 ϕ (A,B2).
• ϕ (A,B) = ϕ (B,A).
• ϕ (C,C) > 0,
cualesquiera sean tanto los vectores A,A1, A2, B, B1, B2 en V como los escalares
reales a1, a2, b1, b2 y para todo vector C no nulo.
Un espacio vectorial V donde hay definido un producto escalar se
llama espacio euclıdeo.
La longitud o norma de un vector se define como
‖A‖ = (A · A)1/2.
La norma de un vector tiene las siguientes propiedades
• ‖A‖ ≥ 0 y ‖A‖ = 0 si y solo si A = 0.
• ‖aA‖ = |a|‖A‖.
• |A ·B| ≤ ‖A‖‖B‖ (Desigualdad de Cauchy-Schwarz).
• ‖A + B‖ ≤ ‖A‖+ ‖B‖ (Desigualdad de Minkowsky).
En la desigualdad de Cauchy-Schwarz se da la igualdad si y solo si A y B son
linealmente dependientes. En la desigualdad de Minkowsky se da la igualdad
si y solo si A = cB con c ≥ 0.
144
11 Producto escalar 145
Dos vectores A y B de un espacio euclıdeo se dicen ortogonales o
perpendiculares si A ·B = 0.
Observar que
‖A + B‖2 = (A + B) · (A + B) = A · A + 2A ·B + B ·B.
Una consecuencia inmediata de esta igualdad es el llamado
Teorema de Pitagoras Si A y B son ortogonales entonces
‖A + B‖2 = ‖A‖2 + ‖B‖2.
Si S es un conjunto de vectores de V entonces se define S⊥ (se
lee S ortogonal) al conjunto de todos los vectores de V que son
ortogonales a cada elemento de S.
Es facil probar que S⊥ es siempre un subespacio de V , es decir toda combi-
nacion lineal de dos vectores de S⊥ esta tambien en S⊥. Dos subconjuntos de
V se dicen ortogonales si cada elemento de uno de ellos es ortogonal a cada
elemento del otro.
Proposicion Si V = U ⊕ W, y U , W son subespacios ortogonales entonces
U = W⊥ y W = U⊥.
Demostracion: Sea A un vector en U . Como A es ortogonal a todo vector de
W , sigue que A esta en W⊥ y luego U ⊆ W⊥. Sea ahora B un vector en W⊥.
Como V es suma directa de U y W , B se puede escribir como
B = B1 + B2, B1 ∈ U , B2 ∈ W .
Luego
0 = B ·B2 = (B1 + B2) ·B2 = B1 ·B2 + B2 ·B2 = 0 + B2 ·B2,
y por lo tanto B2 = O y B = B1, por lo cual B esta en U y W⊥ ⊆ U . De esta
manera U = W⊥. La otra igualdad se prueba en forma analoga.
Si V = U ⊕U⊥ entonces todo vector de V se escribe de manera unica como
suma de dos vectores ortogonales,
A = A1 + A2, A1 ⊥ A2.
11 Producto escalar 146
En este caso A1 y A2 se llaman proyecciones ortogonales de A sobre
U y U⊥, respectivamente.
Si U es una recta vectorial entonces U⊥ es un espacio suplementario de U , es
decir
V = U ⊕ U⊥.
En efecto, si U =< A > y C es un vector en V entonces
A2 = C − [C · A/A · A]A
es un vector ortogonal a A, como se verifica facilmente haciendo su producto
escalar, y
C = [C · A/A · A]A + A2,
por lo que C se escribe como la suma de un vector en U =< A > y otro en
U⊥. Si A tiene norma 1, es decir A ·A = 1, entonces la proyeccion de C sobre
< A > es [C ·A]A. Significa que en este caso la longitud del vector proyectado
es precisamente el producto escalar C · A.
En Rn se puede definir el siguiente producto escalar, que llamaremos pro-
ducto escalar canonico y que convierte a Rn en el espacio euclıdeo En. Si
A = (a1, a2, · · · , an), B = (b1, b2, · · · , bn), definimos
A ·B = a1b1 + a2b2 + · · ·+ anbn.
Se prueba facilmente que esta operacion es efectivamente un producto escalar.
En este caso la norma de un vector A es
‖A‖ = (a21 + a2
2 + · · ·+ a2n)1/2.
El concepto de vectores ortogonales es el ya conocido de la geometrıa euclideana
del plano, es decir vectores que forman entre ellos un angulo de 90 grados. Si
C yA son vectores de norma 1 entonces la proyeccion de C sobre A es el
coseno del angulo comprendido. Luego si ahora C y A son vectores no nulos
cualesquiera, C/‖C‖ y A/‖A‖ son vectores de norma 1 y por lo tanto
[C/‖C‖] · [A/‖A‖] = cos α,
donde α es el angulo comprendido entre ellos y de aquı
C · A = ‖C‖‖A‖ cos α.
11 Producto escalar 147
Pero importa aclarar que estos conceptos y formulas son validos para este
producto escalar en particular, no para cualquier otro producto escalar.
En un espacio vectorial de dimension n pueden definirse infinitos productos
escalares. No obstante, veremos que estos infinitos espacios euclıdeos resul-
tantes son isomorfos al espacio En.
Dos espacios euclıdeos V y U se dicen isomorfos si existe entre ellos
una aplicacion lineal biyectiva ϕ que respeta el producto escalar,
es decir, si A y B son dos vectores cualesquiera de V entonces
A ·B = ϕ (A) · ϕ (B).
De paso, veremos la expresion general que tiene todo producto escalar en un
espacio euclıdeo V de dimension n.
Sea {B1, B2, · · · , Bn} una base de V tal que Bi ·Bj = aij. Sean A y B dos
vectores arbitrarios de V ,
A = a1B1 + a2B2 + · · ·+ anBn,
C = c1B1 + c2B2 + · · ·+ cnBn.
Entonces
A · C =
a1c1(B1 ·B1) + a1c2(b1 ·B2) + · · ·+ a1cn(B1 ·Bn)+a2c1(B2 ·B1) + a2c2(B2 ·B2) + · · ·+ a2cn(B2 ·Bn)+
...anc1(Bn ·B1) + anc2(Bn ·B2) + · · ·+ ancn(Bn ·Bn) =
∑i,j
aijaicj,
que en notacion matricial se puede escribir
(a1, a2, · · · , an)M
c1
c2...cn
,
o bien
(a1, a2, · · · , an)M(c1, c2, · · · , cn)?,
donde M es la matriz de coeficientes aij = Bi ·Bj. Significa que una vez cono-
cido el producto escalar entre los elementos de una base queda determinado el
11 Producto escalar 148
producto escalar entre vectores cualesquiera del espacio mediante la expresion
anterior. La matriz M asociada al producto escalar depende tanto de este
producto escalar como de la base que se ha elegido para expresar los vectores
del espacio por sus componentes. Esta matriz debe reunir ciertas condiciones;
es obviamente una matriz cuadrada y simetrica dado que
aij = Bi ·Bj = Bj ·Bi = aji para 1 ≤ i, j ≤ n.
Ademas debe satisfacer que si A es un vector de componentes
(a1, a2, · · · , an), A 6= O,
entonces
‖A‖2 = A · A = (a1, a2, · · · , an)M(a1, a2, · · · , an)? > 0.
Una matriz que satisface estas propiedades se llama definida positiva. Una
condicion necesaria y suficiente para que una matriz simetrica M , de coefi-
cientes aij, sea definida positiva es que
a11 > 0,
∣∣∣∣a11 a12
a12 a22
∣∣∣∣ > 0,
∣∣∣∣∣∣
a11 a12 a13
a12 a22 a23
a13 a23 a33
∣∣∣∣∣∣> 0, · · · , |M | > 0.
Es decir, los determinantes de todos los menores principales de M deben ser
positivos.
Toda matriz simetrica definida positiva define un producto escalar
en el espacio vectorial Rn.
Ahora bien, en todo espacio euclıdeo existen bases ortogonales y ortonormales.
Este resultado es consecuencia de que una recta vectorial tiene un subespacio
ortogonal que es suplementario de el. Ası, en un espacio euclıdeo de dimension
1 toda base es obviamente ortogonal. En un espacio euclıdeo V de dimension
2 se elige un vector no nulo. El subespacio ortogonal de la recta que genera
es un subespacio de dimension 1 y luego un vector no nulo aquı con el vector
anterior forman una base ortogonal de V . Por lo tanto todo espacio euclıdeo de
dimension 2 tiene una base ortogonal. En un espacio euclıdeo V de dimension 3
el subespacio ortogonal a una recta tiene dimension 2; luego una base ortogonal
aquı junto con un vector base de la recta vectorial forman una base ortogonal de
V . Y ası siguiendo. O sea que mediante un procedimiento inductivo se prueba
11 Producto escalar 149
que en todo espacio euclıdeo de dimension finita hay bases ortogonales. Por
consiguiente hay tambien bases ortonormales, que se consiguen multiplicando
los vectores ortogonales por el escalar inverso de su norma.
Si en un espacio euclıdeo V se elige una base ortogonal para expresar los
vectores mediante sus componentes entonces es claro que la matriz M asociada
al producto escalar resulta una matriz diagonal, es decir si M tiene coeficientes
aij, es aij = 0 si i 6= j. Si la base elegida es ortonormal entonces la matriz
asociada resulta la matriz identidad I. Luego en este caso el producto escalar
toma la forma
(a1, a2, · · · , an)I(c1, c2, · · · , cn)? =
a1c1 + a2c2 + · · ·+ ancn,
que es el producto escalar que define el espacio En.
Luego todo espacio euclıdeo V de dimension n es isomorfo a En.
Basta expresar los vectores de V mediante componentes referidas a una base
ortonormal. Cabe aclarar que cuando se cambia de base el producto escalar no
cambia. Solo se modifica su expresion de calculo pero no el resultado de este
calculo. Supongamos que {V1, V2, · · · , Vn} es una base de V , no necesariamente
ortogonal, y que M es la matriz asociada al producto escalar definido en V con
respecto a esta base. Luego si A y C son dos vectores de V de componentes
(a1, a2, · · · , an) y (c1, c2, · · · , cn), respectivamente, tenemos que
A · C = (a1, a2, · · · , an)M(c1, c2, · · · , cn)?.
Supongamos ahora que {B1, B2, · · · , Bn} es una base ortogonal de V . Existe
una matriz no singular P tal que si (x1, x2, · · · , xn) son las componentes de un
vector arbitrario X de V respecto a la base {V1, V2, · · · , Vn} y (x′1, x′2, · · · , x′n)
son las componentes del mismo vector con respecto a la base {B1, B2, · · · , Bn}entonces
(x1, x2, · · · , xn) = (x′1, x′2, · · · , x′n)P.
En particular, el vector de componentes de B2 es (0, 1, 0, · · · , 0) y en general
el vector de componentes de Bi sera la n-upla compuesta por ceros, salvo un
1 en su lugar i. Pero multiplicar estas n-uplas (filas) a izquierda de P da por
resultado la primera fila de P , la segunda fila de P, · · · , la i-esima fila de P ,
11 Producto escalar 150
respectivamente. Significa que las filas de la matriz P son las componentes de
la base ortogonal referidas a la base dada inicialmente {V1, V2, · · · , Vn}.Por otra parte,
A · C = (a′1, a′2, · · · , a′n)PMP ?(c′1, c
′2, · · · , c′n)?.
Esta ultima es la expresion del mismo producto escalar cuando las componentes
de los vectores se refieren a la base ortogonal {B1, B2, · · · , Bn} y por lo tanto
su matriz asociada es ahora
D = PMP ?,
que por lo tanto debe ser necesariamente diagonal. Si dij es el coeficiente que
esta en la fila i y columna j de D entonces
dij = Bi ·Bj.
Este producto escalar es 0 si i 6= j y es igual a‖Bi‖2 si i = j. Por lo tanto, la
matriz P es precisamente aquella que se necesita para transformar la matriz
M en matriz diagonal. Como M es simetrica ocurrira que la multiplicacion de
P por su izquierda la transformara en triangular superior y la multiplicacion
de P ? por la derecha de PM transformara a esta en diagonal. En resumen, la
obtencion de P provee de un metodo para encontrar componentes de una base
ortogonal.
Ejemplo
Supongamos que en R3 tenemos definido el producto escalar dado por la
matriz
M =
2 1 −11 1 −1
−1 −1 2
cuando se refieren los vectores a la base canonica de R3. Los vectores de esta
base no son ortogonales para este producto escalar. Encontraremos una base
ortogonal. La matriz P se obtiene de forma que su producto a izquierda de M
triangularice a esta. La siguiente matriz coloca ceros en los lugares a21 y a31
de M :
1 0 0−1 2 0
1 0 2
.
La matriz producto queda
2 1 −10 1 −10 −1 3
. Ahora hay que colocar un cero
en el lugar a32 de esta matriz. Para eso se la debe multiplicar a izquierda por
11 Producto escalar 151
la matriz
1 0 00 1 00 1 1
.
Luego la matriz P es
1 0 00 1 00 1 1
1 0 0−1 2 0
1 0 2
=
1 0 0−1 2 0
0 2 2
.
Las tres filas de esta matriz son las componentes de los vectores ortogonales
para el producto escalar considerado. Como la base de referencia es la canonica,
los vectores de R3 de la base ortogonal hallada coinciden con sus vectores
componentes.
12 Determinantes
Sea V un espacio vectorial no nulo. Como ya se ha visto en la unidad de
producto escalar, una forma bilineal es una aplicacion
ψ : V × V 7→ R,
lineal en cada componente. Supongamos ahora que V tiene dimension dos.
La forma bilineal ψ se llama alternada si ψ(A,B) = −ψ(B,A) para
todo par de vectores en V .
Puede probarse facilmente que esta condicion es equivalente a
ψ(A,A) = 0 para todo A ∈ V .
De ahora en adelante ψ denotara una forma bilineal alternada. Observar que
esta queda determinada por el valor ψ(V1, V2), donde {V1, V2} es alguna base
de V . En efecto, si
A = λ1V1 + λ2V2, B = µ1V1 + µ2V2,
entonces
ψ(A,B) = ψ(λ1V1 + λ2V2, µ1V1 + µ2V2) = (λ1µ2 − λ2µ1)ψ(V1, V2). (12)
Llamemos ψ0 a la forma bilineal alternada que satisface
ψ0(V1, V2) = 1.
Entonces queda claro que toda otra ψ sera multiplo de aquella. Por ejemplo,
si ψ(V1, V2) = a, entonces ψ = aψ0. Ya que tanto la suma usual de formas
bilineales alternadas como el producto a izquierda por un escalar de una tal
forma tambien lo son (ejercicio), la conclusion anterior afirma que con estas
operaciones el conjunto de todas las formas bilineales alternadas es un espacio
vectorial de dimension 1.
Consideremos ahora un endomorfismo
ϕ : V 7→ V .
Es facil verificar que si ψ es no nula, entonces
(A,B) 7→ ψ(ϕ (A), ϕ (B))
152
12 Determinantes 153
es una forma bilineal alternada. Luego, por el resultado anterior, esta expresion
debe ser multiplo de ψ(A,B):
ψ(ϕ (A), ϕ (B)) = dψ(A, B). (13)
Este numero d no depende de la forma bilineal ψ que se considere, dado que
toda otra forma bilineal alternada es multiplo de ψ y por lo tanto la ecuacion
(13) queda inalterada si se reemplaza ψ por cualquier otra forma bilineal al-
ternada. Este hecho es importante. El numero d depende exclusivamente de
la aplicacion lineal ϕ . Se lo llama determinante de ϕ . En vista de que un
endomorfismo tiene, fijada una base del espacio V , una matriz asociada, cabe
preguntarse por la relacion entre esta matriz y el determinante del endomor-
fismo.
Sea entonces
M =
(a11 a12
a21 a22
)
la matriz asociada a ϕ con respecto a una base {B1, B2}. Recordemos que de
acuerdo con la interpretacion de M , se tiene
ϕ (B1) = a11B1 + a21B2,
ϕ (B2) = a12B1 + a22B2.
Sea ψ una forma no nula. Por (13) sigue que
(a11a22 − a21a12)ψ(B1, B2) = ψ(ϕ (B1), ϕ (B2)) = dψ(B1, B2).
Luego
d = (a11a22 − a21a12) =
∣∣∣∣a11 a12
a21 a22
∣∣∣∣ . (14)
El numero d tambien se llama determinante de la matriz M , y se suele sim-
bolizar por det (M) o bien por |M |. Notar que, en virtud de (12),
ψ0(A,B) =
∣∣∣∣λ1 µ1
λ2 µ2
∣∣∣∣ = λ1µ2 − λ2µ1,
donde ψ0 es la forma definida arriba y (λ1, λ2), (µ1, µ2) son las componentes
de A y B con respecto a la base {V1, V2}, respectivamente.
Enunciaremos y probaremos a continuacion propiedades del determinante.
(a) Si ϕ es la aplicacion identidad entonces su matriz asociada es la matriz
identidad. Sigue inmediatamente de (13) o de (14) que su determinante es 1.
12 Determinantes 154
(b) Si ϕ 1 y ϕ 2 son dos endomorfismos de V en V , entonces la composicion
ϕ 2 ◦ ϕ 1 es otro endomorfismo. Por (13) su determinante satisface
ψ(ϕ 2(ϕ 1(A)), ϕ 2(ϕ 1(B))) = det (ϕ 2 ◦ ϕ 1)ψ(A,B),
donde elegimos como ψ cualquier forma no nula. Por la definicion del deter-
minante de ϕ 2, sigue que
ψ(ϕ 2(ϕ 1(A)), ϕ 2(ϕ 1(B))) = det (ϕ 2)ψ(ϕ 1(A), ϕ 1(B)).
A su vez, por la definicion del determinante de ϕ 1, se obtiene
ψ(ϕ 1(A), ϕ 1(B)) = det (ϕ 1)ψ(A,B).
Se concluye que
det (ϕ 2 ◦ ϕ 1) = det (ϕ 2) det (ϕ 1).
(c) Si ϕ es un endomorfismo biyectivo, es decir un automorfismo, entonces
existe la aplicacion inversa ϕ −1, que compuesta con ϕ da por resultado la
aplicacion identidad. Usando (a) y (b) sigue que
1 = det (ϕ ◦ ϕ −1) = det (ϕ ) det (ϕ −1).
(d) Sigue inmediatamente de (c) que una matriz no singular, o sea una
matriz asociada a un automorfismo, tiene un determinante no nulo. Recıpro-
camente, si una matriz es singular, es decir, asociada a un endomorfismo no
biyectivo, entonces tiene un determinante nulo. En efecto, si ϕ : V 7→ V es no
biyectivo y {B1, B2} es una base de V , entonces ϕ (B1) y ϕ (B2) son linealmente
dependientes. La demostracion se completa resolviendo el siguiente ejercicio:
Si A y B son linealmente dependientes, entonces ψ(A,B) = 0.
(e) Si M1 es la matriz que se obtiene de M intercambiando dos colum-
nas de ella, entonces det (M1) = − det (M). Esto es evidente a partir de la
ecuacion (14). Bajo el marco de endomorfismos, supongamos que M1 y M
estan asociadas a ϕ 1 y ϕ , respectivamente. Luego det (M1) = det (ϕ 1) y
det (M) = det (ϕ ), y ademas
ψ(ϕ 1(B1), ϕ 1(B2)) = det (ϕ 1)ψ(B1, B2), (15)
ψ(ϕ (B1), ϕ (B2)) = det (ϕ )ψ(B1, B2), (16)
12 Determinantes 155
donde ψ es una forma no nula y {B1, B2} es la base de V que se uso para
determinar M . Por la construccion de M1, se tiene que
ϕ 1(B1) = ϕ (B2),
ϕ 1(B2) = ϕ (B1).
Luego ψ(ϕ 1(B1), ϕ 1(B2)) = ψ(ϕ (B2), ϕ (B1)) = −ψ(B1, B2). Usando (15) y
(16) se deduce que det (ϕ 1) = − det (ϕ ).
(f) De (14) se sigue que si M? es la matriz traspuesta de M , entonces
det (M?) = det (M).
(g) Usando (e) y (f) se prueba que el intercambio de dos filas en una matriz
modifica los valores de los correspondientes determinantes en un cambio de
signo solamente.
(h) De (13) o de (14) se deduce que el determinante de una matriz con dos
columnas – o filas – iguales es cero. Se prueba tambien facilmente que∣∣∣∣
a11 + b11 a12
a21 + b21 a22
∣∣∣∣ =
∣∣∣∣a11 a12
a21 a22
∣∣∣∣ +
∣∣∣∣b11 a12
b21 a22
∣∣∣∣ ,
∣∣∣∣a11 a12 + b12
a21 a22 + b22
∣∣∣∣ =
∣∣∣∣a11 a12
a21 a22
∣∣∣∣ +
∣∣∣∣a11 b12
a21 b22
∣∣∣∣ .
Se concluye que∣∣∣∣
a11 + µa12 a12
a21 + µa22 a22
∣∣∣∣ =
∣∣∣∣a11 a12
a21 a22
∣∣∣∣ ,
∣∣∣∣a11 a12 + µa11
a21 a22 + µa21
∣∣∣∣ =
∣∣∣∣a11 a12
a21 a22
∣∣∣∣ ,
cualquiera sea el real µ. En vista de (f), lo analogo para filas es tambien valido.
A continuacion veremos la aplicacion de los determinantes en la resolucion
de un sistema compatible determinado de ecuaciones lineales,
M
(x1
x2
)=
(b1
b2
).
Sabemos que en el contexto de espacio vectorial esto significa resolver en X =
x1V1 + x2V2 la ecuacion
ϕ (X) = B,
donde B = b1V1 + b2V2 es un vector conocido en V , {V1, V2} es una base de V ,
y ϕ : V 7→ V es un automorfismo, tambien conocido, que tiene a
M =
(m11 m12
m21 m22
)
12 Determinantes 156
por matriz asociada con respecto a la base dada. Luego la ecuacion anterior
se escribe
ϕ (x1V1 + x2V2) = x1ϕ (V1) + x2ϕ (V2) = B.
Sea ψ0 la forma que satisface ψ0(V1, V2) = 1. De aquı
ψ0(x1ϕ (V1) + x2ϕ (V2), ϕ (V2)) = x1ψ0(ϕ (V1), ϕ (V2)) =
x1 det (M) = ψ0(B, ϕ (V2)),
y
ψ0(x1ϕ (V1) + x2ϕ (V2), ϕ (V1)) = x2ψ0(ϕ (V2), ϕ (V1)) =
−x2 det (M) = ψ0(B, ϕ (V1)).
Como M es una matriz no singular, su determinante es no nulo, por lo que es
posible despejar las incognitas x1 y x2 de las ecuaciones de arriba:
x1 = ψ0(B, ϕ (V2))/ det (M),
x2 = ψ0(ϕ (V1), B)/ det (M).
Finalmente, debido a (12), se tiene que
ψ0(B, ϕ (V2)) =
∣∣∣∣b1 m12
b2 m22
∣∣∣∣ , ψ0(ϕ (V1), B) =
∣∣∣∣m11 b1
m21 b2
∣∣∣∣ .
Estas son las llamadas formulas de Cramer.
Si ahora V es un espacio vectorial de dimension tres, se define una forma
trilineal alternada a una aplicacion
ρ : V × V × V 7→ R,
lineal en cada componente y tal que
ρ(A,B,C) = 0
cada vez que entre A,B y C hay al menos dos vectores iguales. El valor
absoluto |ρ(A,B, C)| es independiente de la posicion que ocupen los vectores
A,B y C en el argumento de ρ. En cambio, si |ρ(A,B,C)| > 0, su signo
depende de esta posicion. De hecho, su signo sera el mismo que el de ρ(A,B, C)
si y solo si la nueva reordenacion equivale a una cantidad par (dos en este caso)
de intercambios simples. Por ejemplo,
sig ρ(C, A, B) = sig ρ(A,B, C),
12 Determinantes 157
ya que para llegar a la reordenacion (C, A, B) a partir de (A,B,C) hace falta
intercambiar A con C y despues A con B, o bien intercambiar B con C y
despues hacerlo entre A y C. Por otra parte, se tiene por ejemplo que
sig ρ(B, A,C) 6= sig ρ(A,B,C),
ya que una reordenacion se obtiene de otra mediante un unico intercambio
simple.
Sea ahora {V1, V2, V3} una base de V . Sea
A = a1V1 + a2V2 + a3V3,
B = b1V1 + b2V2 + b3V3,
C = c1V1 + c2V2 + c3V3.
Luego ρ(A,B, C) =
a1b2c3ρ(V1, V2, V3) + a1b3c2ρ(V1, V3, V2) + a2b1c3ρ(V2, V1, V3) +
a2b3c1ρ(V2, V3, V1) + a3b1c2ρ(V3, V1, V2) + a3b2c1ρ(V3, V2, V1).
Ahora bien, por ser ρ alternada se tiene
ρ(V1, V2, V3) = ρ(V2, V3, V1) = ρ(V3, V2, V1) =
− ρ(V1, V3, V2) = −ρ(V2, V1, V3) = −ρ(V3, V1, V2).
Luego
ρ(A,B, C) = (a1b2c3 + a2b3c1 + a3b2c1 − a1b3c2 − a2b1c3 − a3b1c2)ρ(V1, V2, V3).
Esta ultima es la formula analoga a (12) para el caso de dimension tres. Ası
como en el caso de dimension dos, ella sugiere que la expresion encerrada entre
parentesis sera el valor del determinante de la matriz
a1 b1 c1
a2 b2 c2
a3 b3 c3
.
En general, la definicion de determinante de una matriz de orden n, con
n > 3, es similar a la vista aquı. En este caso debe considerarse una forma
multilineal – o n-lineal – alternada. Se deduce que el valor del determinante de
una matriz se obtiene mediante una suma (de n! sumandos) de productos de
n factores. Estos factores se eligen de cada una de las n columnas, de manera
12 Determinantes 158
que no aparezcan dos elementos de una misma fila. Si la reordenacion de los
elementos del factor con respecto a la posicion original 1, 2, · · · , n supone una
cantidad par de intercambios simples, entonces el signo de este factor coincide
con el signo del factor correspondiente a la posicion original. De lo contrario,
tiene un signo opuesto al de aquel.
Es claro que todas las propiedades (a) - (g) vistas para el caso de dimension
dos, ası como las expresiones analogas de las formulas de Cramer, siguen va-
liendo en el caso general. Mas aun, sus demostraciones son las mismas que
las aquı expuestas. En la demostracion de (f) se usa la expresion concreta del
calculo del determinante de una matriz. Pero vale destacar que puede probarse
tambien recurriendo a la interpretacion de determinante de un endomorfismo.
Si se procede de esta manera es necesario entonces caracterizar al endomor-
fismo que tiene por matriz asociada a la traspuesta de otra. A su vez esto
requiere de la herramienta de un producto escalar. En la unidad siguiente
de diagonalizacion de matrices se presentara una situacion similar cuando se
intente caracterizar a los endomorfismos que tienen por matriz asociada a una
matriz simetrica.
En cuanto al calculo efectivo de un determinante puede decirse que el
metodo mas practico consiste en triangular superiormente a la matriz median-
te combinaciones lineales de filas que no afecten al valor del determinante. Si
es necesario hacer intercambio de columnas o de filas debe tenerse presente que
el determinante cambia de signo. Por otra parte, el determinante de una ma-
triz triangular es el producto de los elementos de la diagonal principal. Como
ejemplo calcularemos el siguiente determinante:
d =
∣∣∣∣∣∣∣∣
4 6 1 −12 1 0 1/23 0 0 11 −1 1 1
∣∣∣∣∣∣∣∣.
Para transformar la matriz en triangular superior conviene primero intercam-
biar la primera con la tercera columna ya que de esta manera conseguimos dos
ceros en la primera columna. El proceso se detalla a continuacion.
d =
−
∣∣∣∣∣∣∣∣
1 6 4 −10 1 2 1/20 0 3 11 −1 1 1
∣∣∣∣∣∣∣∣= −
∣∣∣∣∣∣∣∣
1 6 4 −10 1 2 1/20 0 3 10 −7 −3 2
∣∣∣∣∣∣∣∣=
12 Determinantes 159
−
∣∣∣∣∣∣∣∣
1 6 4 −10 1 2 1/20 0 3 10 0 11 11/2
∣∣∣∣∣∣∣∣= −
∣∣∣∣∣∣∣∣
1 6 4 −10 1 2 1/20 0 3 10 0 0 11/6
∣∣∣∣∣∣∣∣= −11/2.
13 Diagonalizacion de matrices
Sea M una matriz cuadrada de orden n, n > 1. Sabemos que esta matriz
representa a un endomorfismo
ϕ : V 7→ V ,
donde V es un espacio vectorial de dimension n, siempre que hayamos fijado
dos bases en V , una de ellas actuando en V como dominio de ϕ , y otra actuando
en V como codominio de ϕ . Es claro que estas dos bases pueden ser la misma
para ambas interpretaciones del espacio V . Por ejemplo, si suponemos que
estas dos bases son iguales a la base {B1, B2, · · · , Bn} de V , entonces M es la
matriz asociada al endomorfismo ϕ que actua de la siguiente manera:
y1
y2...
yn
= M
x1
x2...
xn
, (17)
de tal forma que y1B1 + y2B2 + · · ·+ ynBn es el vector imagen de
x1B1 + x2B2 + · · ·+ xnBn
mediante este endomorfismo.
Ahora bien, veamos que ocurre si M es una matriz diagonal. Para fijar
ideas, supongamos n = 3, pero teniendo siempre presente que los argumentos
empleados en lo que sigue son validos para cualquier entero n > 1. Sea entonces
M =
λ1 0 00 λ2 00 0 λ3
.
Luego, por (17), y teniendo en cuenta que las componentes de los vectores de
la base B1, B2, B3 son (1,0,0),(0,1,0) y (0,0,1), respectivamente, sigue que
ϕ (B1) = λ1B1, ϕ (B2) = λ2B2, ϕ (B3) = λ3B3.
Si M no es diagonal, esta claro que lo anterior no va a valer para los vectores
de esta base. Pero podemos preguntarnos si no habra otra base, digamos
{V1, V2, V3}, para la cual existan reales λ1, λ2, λ3 cumpliendo
ϕ (V1) = λ1V1, ϕ (V2) = λ2V2, ϕ (V3) = λ3V3. (18)
160
13 Diagonalizacion de matrices 161
Esta pregunta tiene una respuesta relativamente facil, al menos teoricamente.
Esta claro que la respuesta es afirmativa si y solo si la matriz asociada a ϕ
con respecto a esta nueva base es diagonal. Esta ultima matriz es de la forma
P−1MP,
donde P es la matriz, no singular, del cambio de base, esto es, la matriz que
transforma las componentes de un vector de V con respecto a la nueva base
{V1, V2, V3} a las componentes de ese mismo vector con respecto a la base
original {B1, B2, B3}.
La matriz P es precisamente aquella que tiene por columnas, en el
orden correspondiente, a las componentes de los vectores V1, V2, V3
con respecto a la base {B1, B2, B3}.
Si existe P tal que P−1MP es una matriz diagonal, entonces la matriz M
se dice diagonalizable. Como todas las bases de V estan en correspondencia
biunıvoca con todas las matrices no singulares, tenemos el siguiente resultado:
Una matriz cuadrada M , asociada a un endomorfismo ϕ : V 7→ V,
es diagonalizable si y solo si existe una base de V, {V1, V2, V3}, que
satisface (18).
Un vector A 6= O en V que satisface
ϕ (A) = λA (19)
para algun real λ se llama un autovector de ϕ (o tambien autovector de la
matriz M), mientras que el numero real λ se llama autovalor de ϕ (o autovalor
de M). De esta manera el resultado anterior, ahora en general, puede decirse
tambien ası.
Una matriz cuadrada M , de orden n, es diagonalizable si y solo si
tiene n autovectores linealmente independientes.
Observar que las definiciones de autovector y autovalor se refieren en principio
a un endomorfismo ϕ : V 7→ V . En otras palabras, son definiciones indepen-
dientes de cualquier base que elijamos para describir explıcitamente la accion
de ϕ . Dado que todas las matrices de la forma P−1MP , con P no singular,
13 Diagonalizacion de matrices 162
estan asociadas al mismo endomorfismo, ocurrira que todas ellas tendran (de
existir) los mismos autovectores y autovalores. Este hecho tambien permite
plantear la cuestion que conduce a la obtencion de autovectores y autovalores
de una matriz M asociada a un endomorfismo ϕ . Esta claro que el planteo
inicial es la ecuacion (19). Si A = a1B1 + a2B2 + a3B3 (suponemos otra vez
n = 3) entonces (19) es equivalente a
M
a1
a2
a3
=
λa1
λa2
λa3
=
λ 0 00 λ 00 0 λ
a1
a2
a3
.
Si
M =
m11 m12 m13
m21 m22 m23
m31 m32 m33
,
entonces esas dos ecuaciones son equivalentes a
m11 − λ m12 m13
m21 m22 − λ m23
m31 m32 m33 − λ
a1
a2
a3
=
000
. (20)
Este sistema lineal de ecuaciones tiene soluciones a1, a2, a3, no todas nulas, si y
solo si el determinante de la matriz de coeficientes es nulo. Este determinante
resulta un polinomio en λ (aquı de grado 3, en general de grado n). Se llama
polinomio caracterıstico de la matriz M . Todo radica entonces en que este poli-
nomio tenga raıces reales. Una raız real λ1 de este polinomio sera un autovalor
de M . El paso siguiente consiste en obtener los autovectores correspondientes
a este autovalor λ1. Es decir, obtener las soluciones de (20) reemplazando λ
por λ1 en su matriz de coeficientes. Estas soluciones autovectores forman un
subespacio de V , de dimension 1 o mas, llamado autoespacio de ϕ , o de M .
De este modo se obtienen todos los autovalores y autovectores de M .
Si de allı se encuentran tres (en general n) autovectores linealmente
independientes, entonces M es diagonalizable y la matriz P que la
diagonaliza tiene precisamente por columnas a las componentes de
estos autovectores linealmente independientes.
Por el contrario, si no hay tres (en general n) autovectores linealmente indepen-
dientes, entonces M no es diagonalizable.
Ejemplos
13 Diagonalizacion de matrices 163
1) Hallar los autovalores y autovectores de la matriz
M =
2 1 00 1 −10 2 4
.
Tenemos que ∣∣∣∣∣∣
2− λ 1 00 1− λ −10 2 4− λ
∣∣∣∣∣∣= (λ− 2)2(λ− 3).
Por consiguiente M tiene 2 autovalores, a saber 2 y 3. El autovalor 2 produce
los autovectores cuyas componentes son solucion de
0 1 00 −1 −10 2 2
a1
a2
a3
=
000
.
La matriz de coeficientes de este sistema tiene rango 2, y por lo tanto hay
solo una solucion linealmente independiente, por ejemplo (1,0,0). Es decir, el
vector B1, o cualquier multiplo no nulo de el, es un autovector de M .
El autovalor 3 produce los autovectores cuyas componentes son solucion de
−1 1 0
0 −2 −10 2 1
a1
a2
a3
=
000
.
Tambien esta matriz de coeficientes tiene rango 2. Una solucion linealmente
independiente del sistema es (1,1,-2). Luego
B + B2 − 2B3,
o cualquier multiplo no nulo de el, es otro autovector linealmente indepen-
diente con el anterior. En conclusion, en este ejemplo solo podemos encontrar
dos autovectores linealmente independientes, y por lo tanto la matriz M no es
diagonalizable.
2) Hallar los autovalores y autovectores de la matriz
M =
1 1 20 5 −10 0 7
.
Sabiendo que el determinante de una matriz triangular, como es la anterior,
es el producto de los elementos de su diagonal principal, es muy facil obtener
sus autovalores. Estos son 1,5 y 7. Procediendo como en 1) resultan los
13 Diagonalizacion de matrices 164
autovectores linealmente independientes cuyas componentes son (1,0,0),(1,4,0)
y (1,-2,4). Luego esta matriz M es diagonalizable, y por lo tanto
P−1MP =
1 0 00 5 00 0 7
,
donde
P =
1 1 10 4 −20 0 4
.
El ejemplo 2) anterior muestra un hecho que tiene validez general.
Si una matriz cuadrada tiene r autovalores distintos, entonces sus
r autovectores correspondientes son linealmente independientes.
En particular, si una matriz de orden n tiene n autovalores distin-
tos, entonces es una matriz diagonalizable.
La demostracion de esa afirmacion se apoya en la siguiente
Proposicion Si
A1, A2, · · · , Ar, r ≥ 2,
es un conjunto de autovectores linealmente independientes correspondientes a
autovalores distintos entre sı, entonces toda combinacion lineal de ellos, que
no se reduzca a un multiplo de uno de ellos, no puede ser autovector.
Demostracion: Sea
B = a1A1 + a2A2 + · · ·+ arAr,
donde al menos dos coeficientes son no nulos. Si B fuera autovector tendrıamos
λa1A1 + · · ·+ λarAr = λB = ϕ (B) =
a1ϕ (A1) + · · ·+ arϕ (Ar) = a1λ1A1 + · · ·+ arλrAr.
Como los vectores A1, · · · , Ar son linealmente independientes y al menos hay
dos coeficientes ai no nulos, la igualdad entre el primer termino y el ultimo
termino de las ecuaciones anteriores implicarıa que λ debe ser igual a dos reales
distintos λi, lo que es contradictorio.
Corolario 1 Si
A1, · · · , Ar
13 Diagonalizacion de matrices 165
son autovectores correspondientes a r autovalores distintos entre sı, entonces
ellos son linealmente independientes.
Demostracion: Si r = 1, la afirmacion es obvia. Si r > 1, entonces el numero
de vectores linealmente independientes entre A1, · · · , Ar debe ser al menos dos,
porque si hubiera solo uno con esta condicion, los demas serıan multiplos de
el y por lo tanto tendrıan los mismos autovalores. Pero entonces todos deben
ser l.i., ya que si ası no sucediera habrıa uno de ellos combinacion lineal de al
menos otros dos, lo que contradice la Proposicion anterior.
Corolario 2 Si una matriz de orden n tiene n autovalores distintos entre sı,
entonces existe una unica base constituida por autovectores, salvo multiplicidad
en cada uno de ellos, y por lo tanto es diagonalizable.
Demostracion: Aplicando el Corolario 1 sigue que debe haber una base de
autovectores y por lo tanto la matriz es diagonalizable. Todo autovector debe
ser necesariamente un multiplo de algun vector de esta base, ya que si fuera
combinacion lineal de al menos dos de ellos se contradirıa el Corolario 1.
Notar que la afirmacion recıproca del Corolario 1 no es cierta en general.
Por ejemplo, dos autovectores pueden ser linealmente independientes y tener
autovalores iguales.
13.1 Matrices simetricas
Recordemos que M es una matriz simetrica si
M = M?,
donde M? es la matriz transpuesta de M , esto es la matriz que se obtiene de
M intercambiando sus filas por columnas. En este caso se tiene un resultado
importante:
Toda matriz simetrica es diagonalizable.
Recurriremos a la teorıa general de espacios vectoriales para probar esta aseve-
racion. Como de costumbre, interpretamos a una matriz cuadrada M de orden
n como asociada a un endomorfismo ϕ : V 7→ V , supuesto que hemos fijado
una base {B1, B2, · · · , Bn} de V . Pero ahora hay que “traducir” el hecho de ser
13 Diagonalizacion de matrices 166
M simetrica a una propiedad de su endomorfismo asociado ϕ . Esta idea debe
quedar clara. Obviamente no todas las matrices cuadradas son simetricas. Por
lo tanto aquellas que sı lo son deben estar asociadas a determinados endomor-
fismos. Es decir, endomorfismos que posean alguna propiedad adicional, de tal
forma que estos, y solo estos, tengan matrices asociadas simetricas. Ahora bien,
no es posible determinar una tal propiedad solamente a partir de los conceptos
derivados exclusivamente de la estructura de espacio vectorial: subespacios,
independencia lineal, base, dimension. Concretamente, para determinar esa
propiedad necesitamos el concepto de producto escalar. Supongamos entonces
que en V tenemos definido un producto escalar A ·B.
Decimos que un endomorfismo ϕ : V 7→ V es simetrico (respecto
al producto escalar) si
ϕ (A) ·B = A · ϕ (B) (21)
para cualquier par de vectores A,B en V .
Veamos que la matriz asociada, con respecto a una base ortonormal de V , a
un endomorfismo simetrico es una matriz simetrica. Para ello recordemos que,
fijada esta base ortonormal de V , la accion de un producto escalar esta dada
por
A ·B = (a1, a2, · · · , an)
b1
b2...bn
= a1b1 + a2b2 + · · ·+ anbn,
donde (a1, a2, · · · , an) y (b1, b2, · · · , bn) son las componentes de A y B con res-
pecto a la base ortonormal dada, respectivamente. Si (21) es verdadero en-
tonces
(a1, a2, · · · , an)M?
b1
b2...bn
= (a1, a2, · · · , an)M
b1
b2...bn
,
ya que (a1, a2, · · · , an)M? son las componentes de ϕ (A), escritas como vector
fila, y M
b1
b2...bn
son las componentes del vector ϕ (B), escritas como vector
13 Diagonalizacion de matrices 167
columna. Como la igualdad anterior es valida para vectores A y B cualesquiera,
sigue que debe ser M = M?, es decir M es una matriz simetrica.
Teniendo ya caracterizada la propiedad de los endomorfismos que tienen por
matrices asociadas a matrices simetricas, debemos probar ahora, de acuerdo
con la seccion anterior, que tales endomorfismos poseen n autovectores lineal-
mente independientes. En realidad probaremos aun algo mas, a saber que ellos
poseen n autovectores ortogonales (recordemos que la condicion de ortogona-
lidad implica independencia lineal).
Teorema Todo endomorfismo simetrico posee n autovectores ortogonales.
Demostracion: Se divide en dos partes. En la primera parte se prueba que
existe un autovector de ϕ . En la segunda parte se procede por induccion para
llegar al resultado final. Supongamos entonces que ϕ : V 7→ V satisface
ϕ (A) ·B = A · ϕ (B)
para todo par de vectores A,B en V .
Primera parte
Consideremos el conjunto S = {A ∈ V : A · A = 1}. Para cada A ∈ Sconsideremos el numero A·ϕ (A). En terminos de las componentes con respecto
a una base ortonormal, este producto escalar se escribe
(a1, a2, · · · , an)M
a1
a2...
an
.
Esta operacion representa una funcion continua de Rn en R. El conjunto de
todas las componentes correspondientes a vectores de S es compacto y por lo
tanto la funcion anterior alcanza allı un mınimo. Es decir, existe A1 ∈ S tal
que
A1 · ϕ (A1) ≤ A · ϕ (A)
para todo A ∈ S. Ahora probaremos que A1 es un autovector de ϕ . Como A1
esta en S, vale que A1 6= O. Llamemos U al subespacio ortogonal a A1. Es
decir, todo vector en U es ortogonal a A1. Sea B un vector arbitrario en U ∩S.
Para todo numero real δ consideremos el vector A1 + δB y sea ρ = ‖A1 + δB‖.Por el Teorema de Pitagoras, ρ2 = 1 + δ2. Ademas, 1
ρ(A1 + δB) ∈ S, por lo
13 Diagonalizacion de matrices 168
que la funcion de δ
1
ρ(A1 + δB) · 1
ρ(ϕ (A1) + δϕ (B)) = (22)
1
1 + δ2(A1 · ϕ (A1) + 2δϕ (A1) ·B + δ2B · ϕ (B)) (23)
toma un mınimo absoluto, y tambien relativo, en δ = 0. Como esta funcion es
derivable para todo valor de δ, sigue que su derivada evaluada en δ = 0 debe
ser nula, por lo cual ϕ (A1) ·B = 0. Como B es un vector arbitrario en U ∩S,
se concluye que ϕ (A1) es ortogonal a U . Pero esto significa precisamente que
ϕ (A1) esta en el subespacio generado por A1, es decir ϕ (A1) = λA1 para algun
real λ, o sea que A1 es efectivamente un autovector de ϕ . Observar que la
hipotesis de que ϕ es simetrica se ha usado en el desarrollo de (22), por lo cual
se obtiene el termino 2δϕ (A1) ·B en (23).
Segunda parte
Con la notacion de la primera parte de la demostracion, U es el subespacio,
de dimension n − 1, ortogonal al autovector A1. Si B ∈ U entonces ϕ (B)
tambien esta en U . En efecto,
ϕ (B) · A1 = B · ϕ (A1) = 0,
ya que ϕ (A1) es un multiplo de A1 y B es ortogonal a todo multiplo de A1.
Quiere decir que ϕ , restringido al subespacio U , es tambien un endomorfismo y
ademas es obviamente simetrico. Este hecho permite aplicar un argumento in-
ductivo. Por la primera parte del resultado existe en U un autovector, digamos
A2, para la restriccion de ϕ a U . Por estar en U , A2 es ortogonal a A1. Ahora
se considera el subespacio de U ortogonal a A2 y se vuelve a aplicar el mismo
razonamiento. La tecnica de la demostracion por induccion permite probar
que cuando este procedimiento llega a su termino, entonces puede exhibirse
una base ortogonal de V consistente de n autovectores del endomorfismo ϕ .
Esto concluye la demostracion.
Este resultado asegura que el polinomio caracterıstico de una matriz si-
metrica tiene n raıces reales, contando la multiplicidad de las mismas (puede
haber raıces dobles, triples, etc.) Si las n raıces resultan todas distintas entre
sı, entonces por el Teorema y el Corolario 2 sigue que existe una unica base
de V formada por autovectores ortogonales, salvo multiplicidad. Significa que
13 Diagonalizacion de matrices 169
en este caso el metodo de calculo de la seccion anterior conduce necesaria-
mente a obtener autovectores ortogonales. En el caso general puede afirmarse
que autovectores correspondientes a autovalores distintos son ortogonales pero
de hecho habra, en el caso de raıces multiples, autovectores no ortogonales
correspondientes al mismo autovalor.
Ejercicio. Probar por calculo directo que una matriz simetrica no diagonal de
orden 2 tiene autovalores distintos.
Ejemplo Encontrar los autovalores y autovectores de la matriz
M =
3 1 11 3 11 1 3
y diagonalizarla.
El polinomio caracterıstico de M es (2− λ)2(5− λ). Luego hay dos auto-
valores distintos, 2 y 5. El autovalor 2 produce un autoespacio de dimension
2 y el autovalor 5 produce un autoespacio de dimension 1. Cualquier autovec-
tor del primero de ellos sera ortogonal a un autovector del otro autoespacio.
Pero, obviamente, dentro del autoespacio de dimension 2 pueden encontrarse
autovectores no ortogonales entre sı. El autoespacio de dimension 2 esta for-
mado por los autovectores cuyas componentes son las soluciones del sistema
1 1 11 1 11 1 1
a1
a2
a3
=
000
.
Por ejemplo, dos componentes correspondientes a autovectores ortonormales
pueden ser (1/√
2,−1/√
2, 0) y (1/√
6, 1/√
6,−2/√
6).
El autoespacio correspondiente al autovalor 5 esta formado por los autovec-
tores cuyas componentes son soluciones del sistema
−2 1 1
1 −2 11 1 −2
a1
a2
a3
=
000
.
La componente correspondiente al unico autovector ortonormal en este autoes-
pacio es (1/√
3, 1/√
3, 1/√
3).
13 Diagonalizacion de matrices 170
Luego P−1MP =
2 0 00 2 00 0 5
, donde
P =
1/√
2 1/√
6 1/√
3
−1/√
2 1/√
6 1/√
3
0 −2/√
6 1/√
3
.
En este caso no hay una unica base de autovectores. Podemos elegir, por ejem-
plo, como autovectores correspondientes al autovalor 2 a aquellos que tienen
por componentes (1,−1, 0) y (0, 1,−1), y como autovector correspondiente
al autovalor 5, a aquel que tiene por componente a (1, 1, 1). Para la matriz
Q =
1 0 1−1 1 1
0 −1 1
tambien vale que
Q−1MQ =
2 0 00 2 00 0 5
.
14 Metodos numericos en Algebra
Todo sistema matematico que implique operaciones entre numeros reales se
enfrenta con la cuestion de la cantidad de cifras significativas exactas que
habran de usarse en los numeros involucrados en esas operaciones. Si un
numero real se escribe en la forma a1a2 · · · ar10s, donde ai son dıgitos, es decir
numeros enteros entre 0 y 9, a1 6= 0, y s es un entero, entonces este numero
tiene r cifras significativas. Esto supone que un numero usado en el calculo
puede no ser exactamente igual al que debe intervenir, y esto hace a su vez que
se produzcan errores en las operaciones. En la primera parte de esta unidad
veremos algunas formas de uso del metodo de Gauss para la resolucion de un
sistema compatible determinado que minimiza el error de redondeo producido
por esa situacion. Consideremos el siguiente
Ejemplo En la resolucion del sistema
0, 003000x1 + 59, 14x2 = 59, 17
5, 291x1 − 6, 130x2 = 46, 78
se consideran todos los valores numericos con cuatro cifras significativas exac-
tas, tanto los valores iniciales como los resultados parciales. Si ası se procede,
se obtiene
x1 = −10, 00, x2 = 1, 001.
Sin embargo la solucion exacta es
x1 = 10, x2 = 1.
El tremendo error obedece a lo relativamente pequeno del valor 0,003. En
estos casos es recomendable llevar el elemento con mayor valor absoluto de
la primera columna a la primera posicion de la diagonal principal mediante
un intercambio de filas. Si ası se hace, entonces debe resolverse el sistema
equivalente (5, 291 −6, 130 46, 78
0, 003000 59, 14 59, 17
).
Trabajando tambien ahora con cuatro cifras significativas exactas, la solucion
resulta ser la correcta. Para sistemas de orden superior el proceso se aplica
cada vez que se reinician los calculos en cada columna. Una variante del
procedimiento anterior es la siguiente.
171
14 Metodos numericos en Algebra 172
Sean aij, 1 ≤ i ≤ n, 1 ≤ j ≤ n + 1, los coeficientes de la matriz ampliada
del sistema. Para cada i se define mi = max |aij|, 1 ≤ j ≤ n + 1, y se lleva
a la primera posicion de la diagonal principal, mediante intercambio de filas,
a aquel coeficiente de la primera columna que produce el mayor valor entre
las expresiones |ak1|/mk, 1 ≤ k ≤ n. Analogamente al caso anterior, este
metodo se aplica sucesivamente en cada submatriz principal hasta llegar a la
matriz transformada triangular superior. Por ultimo, otro procedimiento
alternativo consiste en realizar apropiados intercambios de filas y columnas
de manera que los elementos de la diagonal principal queden ordenados, en
su valor absoluto, de mayor a menor. Es decir, la matriz de coeficientes ası
reordenada satisface |a11| ≥ |a22| ≥ · · · ≥ |ann|. Con este proceder no debe
perderse de vista que el intercambio de columnas supone un correspondiente
intercambio de incognitas a tener en cuenta una vez resuelto el sistema.
Metodos iterativos
El metodo de Gauss es directo, en el sentido de que la solucion se calcula
exactamente mediante un algoritmo finito. Si hay error en la solucion, esto
es debido exclusivamente a que en los calculos intermedios hay recortes en las
cifras significativas exactas. Por el contrario, existen metodos, llamados itera-
tivos, que parten de una solucion aproximada para posteriormente calcular
una sucesion de soluciones que se espera converja a la solucion exacta. De
entre estos metodos veremos dos, a saber los que se conocen bajo el nombre de
Jacobi y de Gauss-Seidel. La matriz de coeficientes debe estar condicionada
de forma que todos los elementos de su diagonal principal sean no nulos. Si de
entrada no se da esta condicion entonces, mediante un apropiado intercambio
de filas, es siempre posible conseguirla.
Sea el sistema de orden n,
A
x1
x2...
xn
=
b1
b2...bn
,
donde A es una matriz no singular de orden n, con coeficientes aij, y donde
suponemos que su solucion es no nula. Bajo la suposicion de que aii 6= 0 para
todo 1 ≤ i ≤ n, queda claro que podemos despejar la incognita xi de la i-esima
14 Metodos numericos en Algebra 173
ecuacion, resultando el sistema equivalente
X = TX + C, (24)
donde T es una matriz de orden n que depende solo de A, con ceros en su
diagonal principal, X es la matriz columna de incognitas y C es una matriz
columna que depende de B y de los elementos de la diagonal principal de A.
Se fija un valor inicial X0 y usando (1) se obtiene la secuencia
X1 = TX0 + C, X2 = TX1 + C, · · · , Xk = TXk−1 + C, · · · .
Se espera que la sucesion X0, X1, · · · , Xk, · · · converja a la solucion exacta. Este
hecho no siempre se da, si bien pueden darse condiciones suficientes sobre la
matriz A para que ello ocurra. Otra cuestion que se presenta con este metodo
es determinar para que valor de k puede asegurarse que Xk es una solucion
aceptable del sistema. Un criterio para determinar este valor de k obedece
a una situacion general para toda sucesion. Es de esperar que si Xk−1 y Xk
difieren poco, entonces tambien disten poco del lımite de la sucesion. Luego un
criterio razonable es parar la iteracion cuando ρ(Xk−Xk−1)/ρ(Xk) sea menor
que una cantidad pequena prefijada, donde ρ(X) se define como la mayor de
las coordenadas de X, consideradas en valor absoluto. A mayor exigencia de
exactitud, tanto mas pequena sera esta cantidad prefijada. Un valor razonable
puede ser 10−3 o 10−4. Este es el metodo de Jacobi.
En cuanto al metodo de Gauss-Seidel, debe decirse que es una modificacion
no demasiado sustancial del metodo anterior, si bien da en general mejores
resultados que aquel. Consiste en lo siguiente. Cuando se usa la ecuacion (1)
para obtener X1 a partir de X0 vamos calculando en un orden sus coordenadas.
Calculada mediante (1) la primera coordenada de X1, usamos este valor, en
lugar de la primera coordenada de X0, para obtener las siguientes coordenadas
de X1. Hallada de esta manera la segunda coordenada de X1, usamos tambien
este valor, en vez de la segunda coordenada de X0, para obtener las siguientes
coordenadas de X1. Y ası siguiendo. Significa que tambien se usa la ecuacion
(1) pero con un vector X0 que se va modificando a partir del calculo de la
segunda coordenada. Este proceso de realimentacion concluye en la obtencion
de un vector X ′1, que es en general distinto que el hallado con el metodo de
Jacobi. Para obtener los siguientes vectores de la sucesion se procede de la
misma manera. El criterio de parada de la iteracion es tambien el mismo que
para el metodo de Jacobi.
14 Metodos numericos en Algebra 174
Ejemplo Consideremos el sistema
10 −1 2 0−1 11 −1 3
2 −1 10 −10 3 −1 8
x1
x2
x3
x4
=
625
−1115
.
Despues de despejar xi de la i-esima ecuacion se obtiene
x1
x2
x3
x4
=
0 1/10 −1/5 01/11 0 1/11 −3/11−1/3 1/10 0 1/10
0 −3/8 1/8 0
x1
x2
x3
x4
+
3/525/11
−11/1015/8
.
Comenzando con el vector inicial X0 =
0000
, por el metodo de Gauss-Seidel
se obtiene
X1 =
0, 62, 3272
−0, 98730, 8789
, X2 =
1, 0302, 037
−1, 0140, 9844
, X3 =
1, 00652, 0036
−1, 00250, 9983
,
X4 =
1, 00092, 0003
−1, 00030, 9999
, X5 =
1, 00012, 0000
−1, 00001, 0000
.
Se tiene que ρ(X5 − X4)/ρ(X5) = 0, 0008/2 = 4.10−4. La solucion exacta es
x1 = 1, x2 = 2, x3 = −1, x4 = 1.
Calculo de autovalores y autovectores
En muchas aplicaciones, sobre todo en la Fısica, surge la necesidad de calcular
los autovalores y autovectores de una matriz cuadrada de orden n. Un auto-
valor es la raız de un polinomio de grado n, el llamado polinomio caracterıstico
de la matriz. Es bien sabido que para n > 4 no hay formulas generales para
el computo de tales raıces, lo que lleva a recurrir a tecnicas de calculo aprox-
imado. En estos casos es sumamente util tener una idea de la localizacion de
las raıces. El siguiente teorema da una respuesta a esta cuestion.
Teorema del cırculo de Gerschgorin Sea A = {aij} una matriz cuadrada
de orden n. Entonces sus autovalores reales, cuando existen, se encuentran en
la union de n intervalos de la forma |x− aii| ≤∑
j 6=i |aij|, i = 1, · · · , n.
14 Metodos numericos en Algebra 175
Con esta informacion es posible ahora aplicar metodos iterativos del calculo
de las raıces del polinomio caracterıstico de A, tal como se vio en la unidad
7. Posteriormente se hallan los autovectores resolviendo el correspondiente
sistema lineal homogeneo por alguno de los metodos disponibles.
15 Funciones de varias variables
En esta unidad trabajaremos con funciones definidas en conjuntos de
R2 := {(x, y) : x ∈ R, y ∈ R},
teniendo en cuenta que muchos de sus conceptos y resultados pueden exten-
derse a funciones definidas en conjuntos de Rn, n > 2. Los conjuntos que
usaremos como dominio de funciones seran generalmente conjuntos convexos.
Un conjunto A en R2 se dice convexo si cada vez que (a, b) ∈A, (c, d) ∈ A, entonces todos los puntos del segmento que une esos
dos puntos estan tambien en A, esto es
λ(a, b) + (1− λ)(c, d) ∈ A
para todo λ, 0 ≤ λ ≤ 1.
Observar que una definicion analoga es valida en Rn, n ≥ 1. En realidad, la
definicion es pertinente en todo espacio vectorial. Ocurre que en R los unicos
conjuntos convexos son los intervalos. La extension del concepto de intervalo a
R2 (y mas generalmente a Rn) serıa el de producto cartesiano de intervalos, es
decir rectangulos. Los rectangulos son conjuntos convexos pero ahora no son
los unicos convexos de R2. Un cırculo, por ejemplo, es un conjunto convexo.
Esta “mayor cantidad” de conjuntos convexos obedece a la mayor dimension
de R2 sobre R. De alguna manera este hecho introduce una complicacion en
el analisis de las funciones de dos o mas variables.
Diremos que una sucesion {(xn, yn)} de puntos en R2 converge o
tiende a un punto (a, b) si la sucesion xn tiende a a y la sucesion
yn tiende a b.
Esto significa que dado ε > 0, arbitrario, vale que
|xn − a| < ε, |yn − b| < ε
para valores grandes de n. Este hecho sugiere definir como entorno de un
punto (a, b) al conjunto de puntos (x, y) que satisfacen las dos desigualdades
anteriores. Una vez definido el concepto de entorno, las definiciones de punto
176
15 Funciones de varias variables 177
de acumulacion de un conjunto, punto interior a un conjunto, conjunto ce-
rrado y conjunto abierto son las mismas que en el caso de subconjuntos de
R. Por este motivo, las definiciones de lımite funcional y continuidad para
funciones de dos o mas variables no tienen ninguna diferencia con respecto a
las correspondientes definiciones para funciones de una variable real.
Si A ⊂ R2, (a, b) es un punto de acumulacion de A y f : A 7→ R,
entonces
lim f(x, y) = l para (x, y) → (a, b)
si cada vez que la sucesion (xn, yn) → (a, b), (xn, yn) ∈ A, vale que
f(xn, yn) → l.
Ejemplos
1) Sea
f : R2 7→ R, f(x, y) =x2
1 + x2 + y2.
Luego lim f(x, y) = 0 para (x, y) → (0, 0) dado que f(xn, yn) → 0 si (xn, yn) →(0, 0).
2) Sea A = R2 \ {(0, 0)} y sea
f : A 7→ R, f(x, y) =x2
x2 + y2.
Si (xn, yn) → (0, 0) con xn = 0, yn 6= 0, entonces claramente f(xn, yn) → 0. Si
en cambio (xn, yn) → (0, 0) con xn = yn 6= 0, entonces f(xn, yn) → 1/2. Luego
el lımite de esta funcion no existe para (x, y) → (0, 0).
Si (a, b) ∈ A, entonces f se dice continua en (a, b) si lim f(x, y) =
f(a, b) para (x, y) → (a, b).
La funcion de 1) del Ejemplo de arriba es continua en (0, 0) ası como en todo
su dominio. La funcion de 2) es continua en todo punto de su dominio. (Notar
que el origen no pertenece al dominio de la funcion.)
Una sucesion {(xn, yn)} se dice acotada si las dos sucesiones, {xn}e {yn}, son acotadas.
15 Funciones de varias variables 178
Un conjunto A en R2 es acotado si toda sucesion que podamos formar con
puntos en el es acotada. Esto es equivalente a que A este contenido en un
rectangulo. Un conjunto cerrado y acotado se llama compacto. Se mantiene el
principio de Bolzano-Weierstrass:
Todo conjunto acotado de infinitos puntos tiene al menos un punto
de acumulacion.
Podemos dar la siguiente version del Teorema de Bolzano:
Si A es un conjunto convexo y f : A 7→ R es continua, entonces si
f toma distinto signo en dos puntos de A, vale que existe un punto
– en el interior del segmento que une aquellos puntos – donde f se
anula.
Por otra parte, el Teorema de Bolzano Weierstrass se mantiene sin alteraciones:
Si A es compacto y f : A 7→ R es continua, entonces f alcanza en
A un valor maximo y un valor mınimo absolutos.
Lo analogo vale para el Teorema de Heine Cantor:
Si A es compacto y f : A 7→ R es continua, entonces es uniforme-
mente continua, es decir, dado ε > 0, arbitrario, existe δ > 0 tal
que si (a, b) y (c, d) estan en A, |a − c| < δ, |b − d| < δ, entonces
|f(a, b)− f(c, d)| < ε.
Como en el caso de funciones de una variable real, estos dos teoremas son
consecuencia del principio de Bolzano-Weierstrass.
15.1 Derivacion
Vimos en funciones de una variable real que la derivada en un punto representa
de algun modo el grado de cambio de la variable dependiente a medida que la
variable independiente se acerca a ese punto.
En el presente caso tenemos que las dos variables independientes pueden
acercarse a un punto (a, b) de R2 por muchos “caminos”, entre los cuales
15 Funciones de varias variables 179
podemos considerar segmentos, es decir aproximarse al punto a traves de una
linea recta. En particular, podemos acercarnos a (a, b) a traves de puntos de
la forma
(x, b),
con x → a, o bien con puntos de la forma
(a, y),
con y → b. Si ahora tenemos una funcion u = f(x, y) tal que (a, b) esta en
su dominio, entonces en el primer caso podemos hablar de una derivada de la
funcion (de una variable x) f(x, b) en el punto a y en el segundo caso de una
derivada de la funcion (de una variable y) f(a, y) en el punto b.
Si estas derivadas existen, se llaman derivadas parciales de f en
(a, b), con respecto a x y con respecto a y, respectivamente.
Por consiguiente, sus definiciones son
fx(a, b) = limh→0
f(a + h, b)− f(a, b)
h, fy(a, b) = lim
h→0
f(a, b + h)− f(a, b)
h,
respectivamente. Si las derivadas parciales existen en todo el dominio de una
funcion entonces existen las funciones derivadas parciales, como ası tambien
pueden existir las sucesivas funciones derivadas de orden superior.
Ejemplo
f : R2 7→ R, f(x, y) = xsen y + y cos x.
Es
ux = fx(x, y) = sen y − ysenx, uy = fy(x, y) = x cos y + cos x,
uxx = fxx(x, y) = −y cos x, uyy = fyy(x, y) = −xsen y,
uxy = fxy(x, y) = uyx = fyx(x, y) = cos y − senx.
El hecho de que
fxy = fyx
no es casualidad. Puede probarse que la existencia y continuidad de una de
las derivadas “mixtas” en un punto implica la existencia e igualdad de la otra
derivada mixta en ese punto. Bajo esta hipotesis, en las derivadas sucesivas
solo importa la cantidad de veces que se deriva con respecto a x y a y, sin
interesar el orden en que se deriva.
15 Funciones de varias variables 180
En el caso de funciones de una variable real la existencia de derivada en un
punto implica la continuidad en ese punto. En general esto no es ası en el caso
de funciones de dos o mas variables. Empero, si las dos derivadas parciales son
acotadas en un conjunto abierto A, entonces la funcion es continua en todo
punto de A.
15.2 Diferenciabilidad
La existencia de derivada de una funcion de una variable real en un punto a
de su dominio implica que
f(a + x)− f(a)
x= f ′(a) + ε(x),
con ε(x) → 0 cuando x → 0. Esto puede escribirse
f(a + x) = f(a) + xf ′(a) + xε(x),
donde y = f(a)+xf ′(a) es precisamente la recta tangente a la curva grafica de
f en el punto a. Significa que para valores pequenos de x, o en otros terminos,
para valores de la variable independiente proximos al punto a, la funcion puede
representarse aproximadamente como una funcion lineal, siendo su diferencia
el termino xε, infinitesimo de orden superior a x. Este mismo concepto puede
aplicarse a funciones de dos o mas variables independientes. Si u = f(x, y) es
una funcion para la que existen sus dos derivadas parciales en un punto (a, b)
de su dominio, escribimos
f(a + x, b + y) = f(a, b) + xfx(a, b) + yfy(a, b) + ερ, (25)
donde ahora ρ es la distancia del punto (a + x, b + y) al punto (a, b), es decir
ρ =√
x2 + y2.
Si ocurre que ε → 0 cuando ρ → 0, entonces decimos que la funcion f es
diferenciable en el punto (a, b). Significa que la funcion f puede aproximarse
por la funcion lineal
u = f(a, b) + xfx(a, b) + yfy(a, b)
en un entorno del punto (a, b). Esta funcion lineal tiene por representacion
grafica al llamado plano tangente a la superficie grafica de la funcion en el
15 Funciones de varias variables 181
punto (a, b). A diferencia de lo que pasa con funciones de una sola variable
independiente, la mera existencia de las dos derivadas parciales no garantiza
la diferenciabilidad de la funcion de dos variables independientes.
Pero la existencia y continuidad de esas dos derivadas parciales en el punto
sı implica que la funcion sea diferenciable en ese punto.
De valer esta condicion, se dice que la funcion es continuamente diferencia-
ble en el punto en cuestion.
Observar que la diferenciabilidad en (a, b) implica la existencia de un grado
de cambio de la funcion f en (a, b) si nos acercamos al punto a traves del
segmento
(a + ρ cos α, b + ρsenα),
para cualquier valor fijo de α en [0, 2π). En efecto, por la ecuacion (25) sigue
que
f(a + ρ cos α, b + ρsenα)− f(a, b)
ρ= fx(a, b) cos α + fy(a, b)senα + ε.
Si ε → 0 cuando ρ → 0 sigue que el anterior cociente incremental en la direccion
de α tiende a
fx(a, b) cos α + fy(a, b)senα
cuando ρ → 0. El lımite de este cociente incremental, para ρ → 0, es lo que se
llama la derivada direccional de la funcion f en la direccion de α. La existencia
de la derivada direccional en un punto para toda direccion no implica que la
funcion sea diferenciable en ese punto. Mas aun, ni siquiera tienen que existir
necesariamente las derivadas parciales.
Ejemplo La funcion f : R2 7→ R, f(x, y) =√
x2 + y2, tiene derivadas di-
reccionales en el origen para toda direccion α, aquellas son iguales a 1, pero
no es diferenciable en el origen ni existen sus dos derivadas parciales, ya que
f(x, 0) = |x|, f(0, y) = |y|. La representacion grafica de esta funcion es un
cono con vertice en el origen.
15.3 Funciones compuestas
En muchas aplicaciones se da el caso de que en la funcion u = f(x, y) las
variables x e y dependen a su vez de otra u otras variables independientes.
15 Funciones de varias variables 182
Supongamos por ejemplo que es
x = x(t) e y = y(t).
De esta manera queda determinada una funcion compuesta
F (t) = f(x(t), y(t))
de una variable real t. Propiedades de continuidad y diferenciabilidad se trans-
miten a traves de estas funciones. Si f, x e y son continuas en sus corres-
pondientes dominios entonces F resulta tambien continua en su dominio. Lo
analogo ocurre con la diferenciabilidad. Es muy conveniente conocer la ex-
presion de la derivada de F (t) en terminos de las derivadas de f, x e y. Tenemos
que
F ′(t) = fx(x(t), y(t))x′(t) + fy(x(t), y(t))y′(t).
Si es x = x(w, z), y = y(w, z), entonces queda determinada la funcion com-
puesta
G(w, z) = f(x(w, z), y(w, z)).
En caso de existencia, sus derivadas parciales vienen dadas por
Gw(w, z) = fx(x(w, z), y(w, z))xw(w, z) + fy(x(w, z), y(w, z))yw(w, z),
Gz(w, z) = fx(x(w, z), y(w, z))xz(w, z) + fy(x(w, z), y(w, z))yz(w, z).
De manera analoga se procede en caso de otras funciones compuestas. Estas
formulas se conocen con el nombre de Regla de la cadena. Como ejemplo de
aplicacion deduciremos el Teorema del valor medio.
Supongamos que la funcion f(x, y) es diferenciable en un entorno del punto
(x0, y0). Consideremos un punto de la forma (x0 + h, y0 + k) con valores fijos
de h y k, y suficientemente pequenos para que este punto este en el entorno
en cuestion. Llamemos t a una variable que recorre el intervalo [0, 1]. Luego
el punto
(x0 + th, y0 + tk)
esta en el entorno dado para todo valor de t en ese intervalo. Si ahora conside-
ramos la funcion
F : [0, 1] 7→ R, F (t) = f(x0 + th, y0 + tk),
15 Funciones de varias variables 183
sigue de la discusion anterior que F es derivable en [0, 1] y por lo tanto, usando
el Teorema del valor medio del calculo diferencial en una variable, se tiene que
F (1)− F (0) = F ′(t0),
donde t0 es un numero en el intervalo (0, 1). Por consiguiente, teniendo en
cuenta las funciones
x(t) = x0 + th, y(t) = y0 + tk
y usando la regla de la cadena, se obtiene que
f(x0 + h, y0 + k)− f(x0, y0) = hfx(x0 + t0h, y0 + t0k) + kfy(x0 + t0h, y0 + t0k).
Sera de utilidad mas adelante (concretamente en el estudio de extremos
relativos) conocer la expresion de F ′′(t), y particularmente F ′′(0). Observar
que tanto F ′(0) como F ′′(0) son derivadas laterales por derecha, dado que F (t)
y F ′(t) estan definidas para 0 ≤ t ≤ 1. Supongamos que f tiene derivadas
segundas continuas en el entorno dado del punto (x0, y0). Tenemos que
F ′(t) = hfx(x, y) + kfy(x, y), (26)
donde
x = x0 + th, y = y0 + tk.
Luego, usando otra vez la regla de la cadena (recordar que las derivadas mixtas
son iguales), sigue que
F ′′(t) = h2fxx(x, y) + 2hkfxy(x, y) + k2fyy(x, y).
De aquı,
F ′′(0) = h2fxx(x0, y0) + 2hkfxy(x0, y0) + k2fyy(x0, y0).
15.4 Extremos relativos. Multiplicadores de La-
grange
Se dice que una funcion f : A 7→ R tiene un mınimo relativo en
un punto (x0, y0) interior a su dominio si f(x, y) ≥ f(x0, y0) para
todos los puntos (x, y) en un entorno de (x0, y0).
15 Funciones de varias variables 184
El mınimo se dice estricto si la desigualdad anterior es estricta. Analogamente
se define un maximo relativo. Como ocurre en el estudio de funciones de
una variable real, el analisis de las derivadas de la funcion en un entorno
del punto permite obtener los extremos (maximos o mınimos) relativos de la
funcion. Suponemos que f tiene derivadas segundas continuas en su dominio.
Dado que la existencia de un extremo relativo de la funcion f(x, y) en (x0, y0)
implica la existencia de un extremo relativo de la funcion de una variable
f(x, y0) (respectivamente, f(x0, y)) en el punto x0 (respectivamente, y0), pasa
que debe ser
fx(x0, y0) = fy(x0, y0) = 0. (27)
Estas son condiciones necesarias para la existencia de extremos relativos pero
no suficientes. Significa que los extremos relativos de la funcion se seleccionaran
entre aquellos puntos (x0, y0) que satisfacen (27). El criterio de seleccion se
discute a continuacion. Sean h y k dos valores para los que ocurre que (x +
h, y + k) esta en el entorno de arriba, siendo ademas h2 + k2 = ρ, donde ρ
es un numero positivo fijo. Llamemos S al conjunto – compacto – de todos
estos puntos (h, k). Consideremos otra vez la funcion compuesta de la seccion
anterior
F (t) = f(x, y),
donde
x = x0 + th, y = y0 + tk, 0 ≤ t ≤ 1.
(Notar que F depende tambien de h y k). De (26) y (27) sigue que
F ′(0) = 0 para todo (h, k) ∈ S.
Si F ′′(0) ≥ µ > 0 para todo (h, k) en S, entonces, en vista de que la expresion
F ′′(t) = h2fxx(x, y) + 2hkfxy(x, y) + k2fyy(x, y)
es continua como funcion de x e y, y S es acotado, sigue que
F ′′(t) ≥ µ/2
para todo (h, k) en S y para todo t en un intervalo [0, t0], t0 > 0. Por el
teorema del valor medio en una variable, se tiene que F ′(t) ≥ tµ/2 para t en
ese intervalo, y una nueva aplicacion del teorema del valor medio prueba que
F (t)− F (0) ≥ t2µ/2, y por lo tanto
F (t) > F (0)
15 Funciones de varias variables 185
para 0 < t ≤ t0 y todo (h, k) ∈ S. Volviendo a la definicion de la funcion
compuesta F (t), se obtiene que esta ultima desigualdad afirma que el punto
(x0, y0) es un mınimo relativo estricto. Por otra parte, debido a la continuidad
de F ′′(0) como funcion de h y k y a la compacidad del conjunto S, la condicion
F ′′(0) ≥ µ > 0 para todo (h, k) en S es consecuencia de la condicion F ′′(0) > 0
para todo (h, k) 6= (0, 0). A su vez, esta ultima propiedad afirma que la forma
cuadratica ( en h y k) F ′′(0) es definida positiva. Por ultimo, esta condicion
es equivalente a
fxx > 0, fxxfyy − f 2xy > 0. (28)
En conclusion, se ha probado que si vale (27), entonces (28) implica que el
punto (x0, y0) es un mınimo relativo estricto de f . Analogamente, se demuestra
que si (27) se verifica, entonces la condicion
fxx < 0, fxxfyy − f 2xy > 0
asegura que el punto (x0, y0) es un maximo relativo estricto de f .
Extremos ligados
En ocasiones se presenta la cuestion de tener que hallar un extremo de la
funcion u = f(x, y) sujeta a condiciones adicionales sobre las variables x e y.
Concretamente, condiciones del tipo
ϕ (x, y) = 0. (29)
Por ejemplo, de todos los puntos del plano que satisfacen la ecuacion
xy2 + x2y = 1,
queremos encontrar aquellos que estan a mınima distancia del origen. En este
caso, se debe minimizar la expresion√
x2 + y2, o bien (lo que es equivalente)
minimizar x2 + y2, con la restriccion adicional de ser
ϕ (x, y) = xy2 + x2y − 1 = 0.
En general, este clase de problema puede resolverse con el metodo llamado
multiplicadores de Lagrange. Consiste en encontrar a su vez los extremos de
la funcion de x e y
f(x, y) + λϕ (x, y),
15 Funciones de varias variables 186
donde λ es un parametro, en principio desconocido. Las soluciones de las
ecuaciones (en x, y y λ)
fx(x, y) + λϕ x(x, y) = 0, fy(x, y) + λϕ y(x, y) = 0,
junto con la ecuacion (29), proporcionan las soluciones buscadas.
Consideremos el ejemplo anterior. Las ecuaciones que deben resolverse son
2x + λy2 + 2λxy = 0 (30)
2y + λx2 + 2λxy = 0 (31)
x2y + xy2 − 1 = 0. (32)
Multiplicando la primera de ellas por x, la segunda por y, y sumando, queda
2(x2 + y2) + 3λ = 0,
por lo que λ = −23(x2 +y2). Usando esta ultima expresion y substrayendo (31)
de (30) sigue que
(x− y)
[2 +
2
3(x2 + y2)(x + y)
]= 0.
Esta ultima ecuacion implica que, o bien
x = y,
o
2 +2
3(x2 + y2)(x + y) = 0.
En el primer caso sigue de (32) que
x = y = 3√
1/2.
Estos valores de x e y son en efecto soluciones de (30),(31) y (32). La ındole
geometrica del problema indica entonces que el punto
(3√
1/2, 3√
1/2)
es el mas cercano al origen entre todos los puntos del primer cuadrante, x >
0, y > 0, que satisfacen (32).
Supongamos ahora que
2
3(x2 + y2)(x + y) = −2.
15 Funciones de varias variables 187
Teniendo en cuenta que (32) es equivalente a
xy(x + y) = 1, (33)
se obtiene de estas dos ecuaciones que 23(x2+y2) = −2xy. Escribiendo x2+y2 =
(x + y)2 − 2xy, sigue que
(x + y)2 = −xy. (34)
Llamando u = x + y, v = xy, y observando que (33) y (34) son ecuaciones en
u y v, se obtiene
x + y = xy = −1.
Este sistema de dos ecuaciones, simetrico en x e y, da las dos soluciones
x =−1−√5
2, y =
√5− 1
2,
x =
√5− 1
2, y =
−1−√5
2.
Ambas son soluciones de (30),(31) y (32), por lo que ellas representan a los
puntos del segundo y cuarto cuadrantes, respectivamente, mas proximos al
origen entre todos aquellos que satisfacen (32).
15.5 Ajuste lineal. Metodo de mınimos cuadra-
dos
En las ciencias experimentales es algo usual el estudio de relaciones entre va-
riables. En algunos casos es posible encontrar en teorıa una ley matematica
que determina con precision el comportamiento de esa relacion. Por ejemplo,
la segunda ley de Newton establece que la fuerza que se ejerce sobre un cuerpo
es la derivada del producto de su masa y velocidad. En otras ocasiones puede
determinarse una relacion empırica a traves de la observacion experimental.
Un ejemplo de esto se ve en la unidad 18.
Consideremos el siguiente ejemplo fısico-deportivo. Se deja caer una pelota
de baloncesto desde una determinada altura (x) y se mide la altura de su primer
bote (y). Obviamente existe una relacion (creciente) entre x e y. Para tener
una idea de esta relacion se obtienen 9 pares de datos correspondientes (xi, yi).
Estos son (en cms): (90,63), (100,73), (100,70), (110,79), (110,80), (120,88),
(130,96), (140,105), (150,116). Con estos datos se observa el siguiente grafico:
15 Funciones de varias variables 188
100 110 120 130 140 150
80
90
100
110
La representacion de los puntos en el plano permite suponer una relacion lineal
entre las variables x e y. Ahora surge la cuestion de hallar una funcion lineal
y = a + bx
que ajuste convenientemente a los datos experimentales. En otras palabras,
obtener valores de a y b de tal forma que la recta y = a + bx pase “cerca” de
los puntos experimentales. Una manera de hacer esto es minimizar
F (a, b) =n∑
i=1
(yi − a− bxi)2,
donde n es el numero de pares de datos experimentales. En nuestro caso n = 9.
Esto significa encontrar un mınimo relativo, que tambien sera absoluto, de la
funcion F (a, b). Luego las dos derivadas parciales de esta funcion de a y b
deben anularse. Estas dos condiciones son:
n∑i=1
(yi − a− bxi) = 0
n∑i=1
(yi − a− bxi)xi = 0,
que equivalen a un sistema lineal de dos ecuaciones con dos incognitas, a y b.
Sus soluciones son:
a =
∑ni=1 yi
∑ni=1 x2
i −∑n
i=1 xiyi
∑ni=1 xi
n∑n
i=1 x2i − (
∑ni=1 xi)2
b =n
∑ni=1 xiyi −
∑ni=1 xi
∑ni=1 yi
n∑n
i=1 x2i − (
∑ni=1 xi)2
.
En nuestro ejemplo, a = −15, 3125 cms., b = 0, 864583.
15 Funciones de varias variables 189
100 110 120 130 140 150
80
90
100
110
15.6 Integracion
Sea f : A 7→ R una funcion continua, f(x, y) ≥ 0, y donde A es un rectangulo
compacto, esto es el producto cartesiano de dos intervalos compactos, [a, b] y
[c, d]. En este caso puede definirse la integral doble de f sobre A de una forma
analoga al caso de funciones de una variable. Sendas particiones de los interva-
los [a, b] y [c, d] produciran una particion del rectangulo A en rectangulos mas
pequenos, digamos Ai. Sabiendo que el area de un rectangulo es el producto
de las longitudes de sus lados, y simbolizando por m(Ai) a esta area, sigue que
podemos definir las sumas superiores e inferiores, a saber
S(f) =∑
i
Cim(Ai), s(f) =∑
i
cim(Ai),
donde Ci es el maximo de f en Ai y ci es el mınimo de f en Ai. Ambas
sumas dependen obviamente de la particion dada. Ademas, s ≤ S. Cuando
la particion se va construyendo de forma tal que el maximo de las areas de Ai
tiende a cero, entonces ocurre que ambas sumas convergen a un valor numerico
comun, digamos V , y se escribe
V =
∫ ∫
A
f(x, y) dxdy.
Este numero V se corresponde con el volumen del cuerpo que se forma bajo la
superficie grafica de la funcion f y sobre el rectangulo A. Si la funcion toma
valores negativos en una parte de A, el calculo de la integral doble considera
ese signo en la parte correspondiente. Tal como pasa en la integral de una
funcion de una variable, no es necesario, sino solo suficiente, que la funcion
f sea continua para la existencia de la integral. En cuanto a su calculo efec-
tivo, ocurre afortunadamente que se puede reducir a su vez al calculo de dos
integrales sucesivas o iteradas. Esto se realiza de la siguiente manera. Se in-
tegra primero la funcion f(x, y), considerandola como funcion de la variable
15 Funciones de varias variables 190
y solamente, en el intervalo [c, d] (en otras palabras, la variable x se supone
constante por el momento). El resultado de esta operacion sera una funcion
de la variable x solamente. Ası, podemos escribir
g(x) =
∫ d
c
f(x, y) dy.
Luego se integra la funcion g(x) en el intervalo [a, b], con lo cual resulta
V =
∫ b
a
g(x) dx.
Debe destacarse que el otro orden en la iteracion de la integracion produce el
mismo resultado, es decir
V =
∫ d
c
[∫ b
a
f(x, y) dx
]dy.
Ejemplo
Calculo de
V =
∫ 1
0
∫ 1
0
xexy dxdy.
Integramos primero con respecto a la variable y:
∫ 1
0
xexy dy = exy∣∣y=1y=0 = ex − 1.
Luego
V =
∫ 1
0
ex − 1 dx = (ex − x)∣∣10 = e− 2.
Como se dijo al principio de esta unidad, los conjuntos “interesantes” de
R2 no se limitan a rectangulos. La teorıa de integracion en dos o mas variables
serıa por cierto muy pobre si el calculo de integrales se redujera a operar
solo sobre rectangulos. De hecho, la teorıa existente permite integrar sobre
conjuntos (del plano, por ejemplo) a los que se les puede asignar un area.
Los conjuntos convexos, y tambien otros no convexos, se incluyen en esta
clase. Supongamos ahora que D es un conjunto convexo y compacto del plano,
y consideremos el rectangulo mas pequeno que lo contiene, digamos [a, b] ×[c, d]. Si hacemos como antes una particion de este rectangulo en pequenos
rectangulos Ai, veremos que algunos de estos Ai quedan incluıdos en D, otros
quedan completamente fuera de D y otros quedan en parte dentro y en parte
fuera de D. Estos ultimos son precisamente aquellos que contienen puntos de la
15 Funciones de varias variables 191
frontera de D. Si nos detenemos a observar esta ultima clase de rectangulos de
la particion, veremos que a medida que el maximo de la areas de los pequenos
rectangulos tiende a cero, ocurre que el area total de ellos tambien tiende a
cero, es decir, su contribucion en las sumas que conducen a la definicion de
la integral se vuelve despreciable. Este es justamente el hecho que permite
construir la integral de una funcion sobre un conjunto de este tipo. Ahora su
calculo efectivo supone cierta complicacion. Empero, puede probarse que la
tecnica de integracion iterada es similar al caso del rectangulo. Si integramos
primero con respecto a la variable y, entonces para cada valor de x en el
intervalo [a, b], aquella recorre los valores de un intervalo
[y1(x), y2(x)],
que ahora depende obviamente de x. De todas maneras, esta primera inte-
gracion con respecto a y resulta en una funcion de x, funcion que debe inte-
grarse ahora en el intervalo [a, b]. El procedimiento es similar si se opta por el
otro orden de integracion.
Ejemplo
Calculo de
V =
∫ ∫
D
x3exy dxdy,
donde D es el conjunto convexo encerrado por el eje y, la recta y = 1 y el arco
de parabola y = x2.
Para cada x en el intervalo [0, 1] debemos integrar esa funcion con respecto
a y entre y1 = x2 e y2 = 1. Con respecto a la variable y, una primitiva de
x3exy es x2exy. Luego
∫ 1
x2
x3exy dy = x2ex − x2ex3
.
Ahora debemos integrar esta ultima funcion con respecto a x en el intervalo
[0, 1]. Una primitiva de x2ex es x2ex − 2xex + 2ex (integracion por partes) y
una primitiva de x2ex3es ex3
/3. Luego V = 2e−53
.
16 Ecuaciones diferenciales
Una ecuacion diferencial es una ecuacion donde intervienen las derivadas de
una funcion, de una o varias variables. Su estudio corresponde a una de las
ramas de las matematicas que mas aplicaciones ofrece a las otras ciencias en
general. El problema es encontrar una funcion de la cual sabemos ciertas
relaciones de sus derivadas. Por ejemplo, se quiere encontrar una funcion
x = x(t) que satisface
x′(t) + P (t)x = Q(t),
donde P (t) y Q(t) son funciones conocidas. O bien una ecuacion del tipo
x′′(t) + m2x = A senωt,
donde m,A y ω son constantes numericas.
Caıda de cuerpos
Por cierto que la Fısica nos provee de numerosos ejemplos de ecuaciones dife-
renciales. Uno de los mas simples es la que describe el movimiento de un
cuerpo en caıda libre:
x′′(t) = g,
donde x(t) es la funcion que da la altura del cuerpo en el instante t y g es
la aceleracion de la gravedad, por lo que su valor debe considerarse negativo.
Integrando en ambos lados de la ecuacion anterior obtenemos
v(t) = x′(t) = gt + v0,
donde v(t) es la velocidad del cuerpo en el instante t, y por lo tanto v0 es la
velocidad en el instante inicial t = 0. Una segunda integracion de esta ecuacion
nos da finalmente la funcion que rige la posicion del cuerpo en cada instante t:
x = gt2/2 + v0t + x0,
donde x0 es la altura inicial del cuerpo.
Si ahora suponemos que el aire ejerce una fuerza de resistencia propor-
cional a la velocidad x′(t) del cuerpo (tambien con valor negativo), entonces
la ecuacion tiene la forma
mx′′(t) = mg − cx′(t),
192
16 Ecuaciones diferenciales 193
donde se ha usado la segunda ley de Newton, la cual afirma que la fuerza que
actua sobre el cuerpo es el producto de su masa m por su aceleracion. Ya que
x′(t) = v(t), la ecuacion anterior puede escribirse
mv′(t) = mg − cv(t),
o bienv′(t)
−g + cv(t)/m= −1.
Integrando en ambos lados de esta ultima ecuacion, donde el lado izquierdo se
integra por el metodo de sustitucion, queda
m
cln(−g + cv(t)/m) = −t + c1.
Despejando, se obtiene
v(t) =m
c(g + Ke−ct/m).
Una segunda integracion determinara la posicion x(t) del cuerpo.
Desintegracion radiactiva
La ley de desintegracion del radio afirma que la velocidad de desin-
tegracion es en cada instante proporcional a la cantidad de radio.
Luego esta ley produce la siguiente ecuacion:
−R′(t) = kR(t),
donde R(t) es la cantidad de radio en el instante t y k es la constante de
proporcionalidad. Integrando la ecuacion
−R′(t)/R(t) = k,
donde el lado de la izquierda se integra por el metodo de sustitucion, se obtiene
− ln R(t) = kt− ln R0,
donde R0 es la cantidad de radio en el instante t = 0. Luego
R(t) = R0e−kt.
Es de destacar que esta ley de decrecimiento exponencial rige en muchos
fenomenos fısicos, como por ejemplo en el proceso de enfriamiento de un
cuerpo, donde el ritmo de disminucion de la cantidad de calor del cuerpo
es proporcional a la diferencia de temperatura entre dicho cuerpo y el medio
que lo rodea.
16 Ecuaciones diferenciales 194
Movimiento de un pendulo
Un pendulo simple es un punto material de masa m suspendido de un hilo de
longitud l. Suponemos que el pendulo se mueve siempre dentro de un plano
fijo.
•
@@
@@
@@
@@
@@@•
?
@@R¡¡ª
mgmgsen φ
φ
La posicion del pendulo en un instante t viene dada por la funcion
φ(t), que es el angulo que forma el hilo con la vertical.
El valor φ = 0 corresponde a la posicion de equilibrio (posicion vertical) y
suponemos que los valores positivos de φ se obtienen cuando el pendulo se des-
plaza en sentido contrario a las agujas del reloj. El peso del punto material,
mg, es la fuerza que produce el movimiento del pendulo. Esta fuerza se de-
scompone en dos componentes, una en la direccion del hilo y otra en direccion
perpendicular a la anterior, con un sentido dirigido siempre hacia la posicion
de equilibrio. Es esta segunda componente la que determina en realidad el
movimiento. Su expresion en valor absoluto es
|mgsenφ|.
Por otra parte, la funcion derivada φ′(t) es la velocidad angular, y se sabe que
la velocidad tangencial del punto sera
lφ′(t).
Si soltamos el pendulo en un instante t = 0 en un valor φ0 > 0, este iniciara
su desplazamiento hacia la posicion de equilibrio. La velocidad tangencial sera
negativa porque el angulo φ disminuira su valor, pero en valor absoluto aquella
16 Ecuaciones diferenciales 195
ira aumentando hasta pasar por la posicion de equilibrio. Luego la aceleracion
tangencial sera tambien opuesta a la componente del peso que produce el
movimiento. Por lo tanto, usando la segunda ley de Newton, se obtiene la
ecuacion diferencial que describe el movimiento del pendulo simple. Esta es
mlφ′′(t) = −mgsenφ,
o bien
φ′′(t) = −g
lsenφ.
Sirva como comentario que las soluciones de esta sencilla ecuacion diferencial
no pueden encontrarse entre aquellas que son combinacion finita de funciones
elementales. La generalidad de este hecho dio lugar a un avance espectacu-
lar en el estudio de las funciones de variable real, concretamente al desarro-
llo de funciones mediante series, principalmente series de potencias y series
trigonometricas.
Una simplificacion de la ecuacion anterior permite encontrar una solucion
rapida. Es consecuencia de considerar un movimiento del pendulo para pequeos
valores del angulo φ. En este caso puede aproximarse sen φ por φ, resultando
la ecuacion
φ′′(t) = −g
lφ(t).
Mas adelante veremos que ella es resoluble mediante funciones trigonometricas,
lograndose una descripcion de las pequeas oscilaciones del pendulo muy cercana
a la realidad experimental.
16.1 Ecuaciones de primer orden
Son aquellas en las que interviene la derivada primera de una
funcion pero no derivadas de orden superior.
Un caso sencillo es el llamado de variables separables. Es una ecuacion de la
forma
y′ = g(x)h(y).
Se resuelve encontrando por un lado una primitiva de 1/h(y), digamos H(y),
considerando a y como variable independiente por el momento, y por otro lado
16 Ecuaciones diferenciales 196
una primitiva de g(x), digamos G(x). Como la derivada de la funcion H(y(x)),
con respecto a x, es precisamente y′/h(y), sigue la ecuacion
H(y(x)) = G(x) + C,
que en muchos casos permite despejar y en funcion de x.
Ejemplo
La ecuacion
y′ = 3x2y2
se resuelve integrando 1/y2 con respecto a y y por otro lado integrando
3x2,
lo que da −1/y = x3 + C. Luego
y = −1/(x3 + C).
Funcion homogenea
Una funcion f(x, y) se dice homogenea de grado cero si
f(αx, αy) = f(x, y)
para todo α 6= 0 y todo (x, y) en su dominio.
Dandole a α el valor 1/x, con x 6= 0, sigue que
f(x, y) = f(1, y/x).
Consideremos una ecuacion y′ = f(x, y), donde f(x, y) es una funcion ho-
mogenea de grado cero. Luego, para x 6= 0,
y′ = f(1, y/x). (35)
Si llamamos z(x) al cociente y(x)/x, se obtiene que
x 7→ z(x)
es una funcion derivable. Como xz(x) = y(x), su derivada satisface
z(x) + xz′(x) = y′(x).
16 Ecuaciones diferenciales 197
Luego (35) se escribe
z(x) + xz′(x) = f(1, z),
o bienz′
f(1, z)− z=
1
x,
que resulta ser una ecuacion de variables separables. Una vez resuelta, se
calcula y mediante
y = xz(x).
Ejemplo
Resolver
y′ =x2 − 2y2
xy.
La funcion del lado derecho es homogenea de grado cero. Es
f(1, z) = (1− 2z2)/z = 1/z − 2z.
Ası,
f(1, z)− z = 1/z − 3z = (1− 3z2)/z.
Luego debemos resolver la siguiente ecuacion de variables separables:
zz′
1− 3z2=
1
x.
Integrando ambos lados de esta ecuacion, se obtiene
−1
6ln(1− 3z2) = ln(1− 3z2)−1/6 = ln(Cx).
Como el logaritmo es una funcion inyectiva, sigue que en la ecuacion anterior
sus argumentos deben ser iguales. Operando se obtiene z =(
1−[Cx]−6
3
)1/2
. Por
ultimo la solucion es
y = x
(1− [Cx]−6
3
)1/2
.
Ecuaciones exactas
Supongamos que una funcion y = y(x) satisface la ecuacion
F (x, y(x)) = C,
16 Ecuaciones diferenciales 198
donde F (x, y) es una funcion de dos variables independientes y C es una cons-
tante. En este caso se dice que la funcion y = y(x) viene dada en forma
implıcita por la relacion
F (x, y) = C,
supuesto que hay un unico valor de y satisfaciendo esa relacion para cada valor
de x. Cabe destacar aquı que la existencia de esta funcion y = y(x) puede
asegurarse solo localmente bajo las siguientes condiciones. Estas son:
• Que exista un punto (x0, y0) tal que F (x0, y0) = C.
• Tener F (x, y) derivadas parciales de primer orden continuas en un en-
torno del punto (x0, y0).
• Ser Fy(x0, y0) 6= 0.
Si estas condiciones se cumplen, entonces puede garantizarse que
existe un entorno de x0 y un entorno de y0 (de ahı la existencia
local de y = y(x)) tal que para todo x en el primer entorno existe
un unico valor y en el segundo entorno que satisface F (x, y) = C.
Este resultado se conoce con el nombre de Teorema de la funcion implıcita.
Suponiendo entonces la existencia, al menos localmente, de la funcion y =
y(x), y dado que la funcion
F (x, y(x))
es constante, se tiene que su derivada sera nula para todo valor de x en el
entorno de existencia de y = y(x). Usando la regla de la cadena, sigue que
esta derivada es
Fx(x, y) + y′Fy(x, y).
Si ahora consideramos una ecuacion diferencial del tipo
g(x, y) + y′h(x, y) = 0, (36)
podemos preguntarnos si existira una funcion F (x, y) tal que
Fx = g(x, y) y Fy(x, y) = h(x, y) (37)
para todo par (x, y) en su dominio.
16 Ecuaciones diferenciales 199
Si ası ocurre, esta ecuacion diferencial se llama exacta.
En este caso, la discusion anterior muestra que su solucion sera cualquier
funcion y = y(x) dada por la forma implıcita F (x, y) = C. La cuestion
consiste entonces en determinar cuando una ecuacion diferencial del tipo (36)
es exacta. Una condicion necesaria es que
gy(x, y) = hx(x, y). (38)
En efecto, esto es consecuencia de la igualdad de las derivadas cruzadas, Fxy =
Fyx (estamos considerando la validez de las hipotesis suficientes sobre F para
que se de esta igualdad). Afortunadamente (38) es tambien suficiente para que
(36) sea una ecuacion diferencial exacta. Como veremos, una demostracion
de este hecho construye de paso una funcion F (x, y) que lleva a la solucion
buscada. Para ello, primero encontramos, mediante integracion, una funcion
G(x, y) tal que
Gx(x, y) = g(x, y).
Luego esta misma igualdad la cumple toda funcion
G(x, y) + β(y),
donde β(y) es cualquier funcion derivable. Como nuestro objetivo es hallar
una funcion que satisfaga (37), y la funcion anterior ya satisface, por su misma
construccion, la primera de esas condiciones, probamos con la segunda de ellas,
a saber
Gy(x, y) + β′(y) = h(x, y).
Esta igualdad permite de paso calcular la funcion incognita β(y) mediante
integracion de la funcion
h(x, y)−Gy(x, y).
Pero entonces es requisito ineludible que esta ultima funcion sea en realidad
solo funcion de y. Y ası sucede, dado que su derivada parcial con respecto a x
es
hx(x, y)−Gyx(x, y) = hx(x, y)− gy(x, y),
que es una funcion identicamente nula, precisamente por (37). Por consiguien-
te, una solucion de (36) viene dada en forma implıcita por
G(x, y) + β(y) = C.
16 Ecuaciones diferenciales 200
Ejemplo
La ecuacion diferencial
ey + (xey + 2y)y′ = 0
es exacta, como se puede verificar facilmente. Para obtener una solucion de
ella, encontramos primero una funcion G(x, y) cuya derivada con respecto a x
sea ey. Esto da, por ejemplo,
G(x, y) = xey.
Ahora hallamos la funcion β(y) calculando una primitiva de
xey + 2y −Gy(x, y) = xey + 2y − xey = 2y.
Esto da β(y) = y2. Luego la solucion de esta ecuacion diferencial exacta viene
dada en forma implıcita por
xey + y2 = C.
Ecuaciones lineales
Una ecuacion lineal de primer orden puede escribirse en la forma
y′ + A(x)y = B(x). (39)
Sea P (x) una funcion cuya derivada es A(x). Multiplicando ambos lados de
(39) por eP (x), queda
y′eP (x) + A(x)yeP (x) = B(x)eP (x).
Notar ahora que el lado izquierdo de la ecuacion anterior es (yeP (x))′, por lo
que (39) se escribe
(yeP (x))′ = B(x)eP (x).
De aquı sigue inmediatamente que una solucion de (39) viene dada por
y = e−P (x)
(∫B(x)eP (x) dx + C
),
donde C es una constante arbitraria.
Ejemplo
16 Ecuaciones diferenciales 201
Para resolver la ecuacion
y′ +y
x= 3x,
comenzamos por encontrar una primitiva de 1/x, por ejemplo ln x. Como
e− ln x = 1/x, eln x = x,
la solucion general es
y =1
x
(∫3x2 dx + C
)= x2 +
C
x.
Ecuaciones reducibles en el orden
La ecuacion general de segundo orden
G(y′′, y′, y, x) = 0
puede ser resuelta mediante la integracion de dos ecuaciones de primer orden
en los siguientes casos particulares.
Si en la ecuacion no figura la variable y entonces, mediante la sustitucion
z = y′, se la lleva a la ecuacion de primer orden
G(z′, z, x),
que una vez resuelta en z permite el calculo de la solucion final, a saber y =∫z(x) dx.
Si en la ecuacion no aparece la variable x, entonces hay que hacer la suposicion
de que la derivada y′(x) puede expresarse en terminos de la funcion y(x), es
decir
y′ = p(y).
Esto es posible si existe, al menos localmente, la funcion inversa de y = y(x).
Por lo tanto se tiene que
y′′ =dy′
dx=
dp
dy
dy
dx= p′p.
La ecuacion original se transforma entonces en la ecuacion de primer orden
G(pp′, p, y) = 0.
Si de aquı puede obtenerse la expresion de p(y), entonces y(x) es la solucion
de la ecuacion y′ = p.
16 Ecuaciones diferenciales 202
16.2 Ecuaciones lineales de segundo orden
Una ecuacion lineal de segundo orden tiene la forma
y′′ + A(x)y′ + B(x)y = R(x). (40)
Como ya se ha dicho anteriormente, esta ecuacion diferencial no tiene en gene-
ral una solucion dada por una combinacion finita de funciones elementales.
Cabe preguntarse entonces si tiene alguna solucion. Esta cuestion tiene su
respuesta en el siguiente
Teorema Si A,B y R son funciones continuas en un intervalo compacto I,
entonces para cada x0 ∈ I y para numeros reales arbitrarios y0, y′0 existe una
unica funcion solucion de (40), con dominio en el intervalo I, satisfaciendo
y(x0) = y0, y′(x0) = y′0.
Este es solo un teorema de existencia, es decir no da ningun metodo cons-
tructivo de las soluciones. Cuando R(x) ≡ 0 entonces la ecuacion se llama
homogenea. Puede probarse que la solucion general de la ecuacion homogenea
esta dada por una combinacion lineal de dos soluciones linealmente indepen-
dientes, digamos
a1y1(x) + a2y2(x),
donde a1 y a2 son constantes arbitrarias. Esto es consecuencia de la lineali-
dad de la derivacion. Observar que la funcion identicamente nula es siempre
solucion de la ecuacion homogenea. Por otro lado, la solucion general de la
ecuacion (40) es la suma de una solucion particular de esta mas la solucion
general de la ecuacion homogenea.
Cuando se conoce una solucion de la ecuacion homogenea es posible deter-
minar otra solucion. En efecto, supongamos que y1(x) satisface
y′′1 + A(x)y′1 + B(x)y1 = 0. (41)
Ponemos y2(x) = y1(x)u(x), donde u(x) habra de hallarse de modo que y2(x)
verifique (41). Por lo tanto, reemplazando y1 por y2 en (41) y usando que y1
es una solucion, se llega au′′
u′= −2
y′1y1
− A.
Integrando ambos lados de esta ecuacion, se obtiene
ln u′ = −2 ln y1 −∫
Adx,
16 Ecuaciones diferenciales 203
es decir
u′ =1
y21
e−R
A dx.
Finalmente,
u =
∫1
y21
e−R
A dx dx.
Ası, y2 = uy1, y puede probarse sin dificultad que y1 y la funcion y2 ası obtenida
son linealmente independientes.
Ejemplo
No es difıcil notar que y1 = x es una solucion de la ecuacion
y′′ +1
xy′ − 1
x2y = 0.
Luego otra solucion linealmente independiente con aquella es xu donde
u =
∫1
x2e−
R(1/x) dx dx =
∫1
x2e− ln x dx =
∫x−3 dx = x−2/2.
Por consiguiente, y2 = x−1/2 y la solucion general viene dada por
a1x + a2x−1.
La ecuacion homogenea con coeficientes cons-
tantes
Para la ecuacion
y′′ + ay′ + by = 0, (42)
donde a y b son constantes, existe un metodo general de resolucion. Este se
basa en probar una solucion de la forma y = emx. Reemplazando y por esta
funcion en (42) se obtiene
(m2 + am + b)emx = 0.
Como emx nunca se anula, se concluye que la expresion de arriba encerrada
entre parentesis debe anularse. Sabemos que existen dos valores, digamos m1
y m2, reales o complejos, que anulan esa expresion. Hay tres posibles casos:
Raıces reales distintas
En este caso em1x y em2x son dos soluciones linealmente independientes de
(42).
16 Ecuaciones diferenciales 204
Raıces complejas distintas
Aquı m1 = r + is, m2 = r − is, donde i es el numero imaginario. Dos
soluciones linealmente independientes son
erx cos sx y erxsen sx.
Raıces reales iguales
Como ahora hay solo un valor numerico m1 que anula la expresion cuadra-
tica m2 + am + b, tenemos en principio solo una solucion de (42). Empero,
recurriendo al metodo de obtencion de una solucion conociendose otra, es posi-
ble deducir que en este caso
em1x y xem1x
son soluciones linealmente independientes de (42).
Ejemplos
1) La ecuacion
y′′ + y′ − 6y = 0
conduce a resolver
m2 + m− 6 = 0.
Las soluciones de esta ecuacion cuadratica son 2 y -3. Luego la solucion general
de la ecuacion diferencial es
a1e2x + a2e
−3x.
2) La ecuacion
y′′ + 2y′ + y = 0
produce una ecuacion cuadratica asociada con una raız doble, a saber -1. Luego
su solucion general es
a1e−x + a2xe−x.
3) La ecuacion
y′′ + 9y = 0
produce la ecuacion cuadratica m2 + 9 = 0, cuyas soluciones son los numeros
complejos conjugados ±3i. La solucion general de la ecuacion diferencial es
a1 cos 3x + a2sen 3x.
17 Estadıstica y Probabilidad
La estadıstica, como rama de las matematicas, es una disciplina que en sus
aspectos aplicados intenta obtener conclusiones sobre determinadas caracte-
rısticas de una poblacion de individuos, real o virtual, a traves de una obser-
vacion directa de una parte de esa poblacion (muestra). En el siguiente ejemplo
practico, si bien muy simple, estan encerradas las ideas fundamentales de una
aplicacion estadıstica. Se trata en este caso de la estimacion de un parametro
poblacional. Supongamos que deseamos determinar el numero n de peces que
habitan en un lago. Para ello se capturan 1.000 peces, se los marca con un
punto rojo y se los devuelve con vida al lago. Al cabo de un tiempo se hace una
segunda captura de 1.000 peces y se observa que entre ellos hay exactamente
100 peces marcados. Con estos datos, como puede estimarse el numero total
de peces en el lago?
Ha de suponerse que la poblacion total se mantiene constante entre ambas
capturas. Tambien que la segunda captura de 1.000 peces representa una
muestra aleatoria de la poblacion. Que significa esto?
Pues que la probabilidad de pescar un determinado grupo de 1.000
peces es la misma para todos los posibles grupos de 1.000 peces
que se pueden formar con todos los peces del lago.
La palabra probabilidad esta usada aquı, en principio, en un sentido coloquial,
tal como se la usa en conversaciones sobre cualquier tema: la probabilidad de
que una persona gane las elecciones, de que el equipo A gane el partido de
futbol al equipo B, de que manana llueva, etc. En afirmaciones de este tipo el
termino probabilidad no tiene mas sentido que expresar la opinion subjetiva del
que las formula. No obstante, en ellas es posible darle un sentido matematico
objetivo. De hecho, el concepto de probabilidad es una entidad matematica
definida actualmente con todo rigor. Es precisamente en este concepto en el
que se apoya la estadıstica para justificar sus metodos.
Podemos decir que la probabilidad es un numero real asociado a un suceso
aleatorio, esto es, un suceso que puede darse o no ante la realizacion de un
determinado experimento. Este numero esta comprendido entre 0 y 1. El
suceso imposible tiene probabilidad 0. El suceso cierto tiene probabilidad 1.
Son estos dos sucesos especiales. En general, un suceso que a veces se da
205
17 Estadıstica y Probabilidad 206
y otras veces no se da cuando se realiza el experimento tendra un valor de
probabilidad comprendido estrictamente entre 0 y 1. Llegado a este punto, es
posible intuir el significado objetivo de probabilidad. Mas aun, comprender la
relacion entre un experimento concreto y un modelo matematico probabilıstico
que lo interprete adecuadamente.
El ejemplo de los peces en el lago responde al esquema, muy usado en
aplicaciones, de una urna que contiene n bolillas. El experimento consiste en
extraer al azar r bolillas, r < n, sin reposicion. Esto ultimo quiere decir que si
ellas se extraen de una por vez, las bolillas que se van sacando no se reponen en
la urna. El numero de posibles resultados de este experimento se corresponde
con el numero total de grupos diferentes de r bolillas que pueden formarse con
las n bolillas de la urna, donde dos grupos son diferentes si al menos hay una
bolilla en uno de ellos que no esta en el otro. Este numero es precisamente el
combinatorio (nr
)=
n!
r!(n− r)!.
Luego este experimento tiene
(nr
)resultados distintos. Como todas las bo-
lillas en la urna tienen igualdad de oportunidades de ser extraıdas, es razonable
suponer que los resultados son equiprobables. Este hecho, y en vista de los
axiomas que la definen, hace que la probabilidad de extraer un grupo de r
bolillas de un conjunto de n bolillas sea
1(nr
) , (43)
ya que la suma de las probabilidades de todos los resultados posibles debe ser
1.
Ahora bien, si en la urna tenemos n1 bolillas rojas (total de peces marcados
en el lago) y n − n1 bolillas blancas (total de peces sin marcar) podemos
preguntarnos por la probabilidad pn(k) de que en la muestra extraıda de r
bolillas haya exactamente k bolillas rojas y r − k bolillas blancas. Usando
otra vez que la probabilidad de extraer un grupo de r bolillas esta dado por
(43), resulta que pn(k) se obtiene sumando la expresion de (43) tantas veces
como grupos distintos de r bolillas puedan formarse con k bolillas rojas y
r−k bolillas blancas. Este ultimo numero es el producto de los combinatorios
17 Estadıstica y Probabilidad 207
(n1
k
)y
(n− n1
r − k
). Luego
pn(k) =
(n1
k
) (n− n1
r − k
)
(nr
) .
Esta claro que k puede tomar valores enteros, desde 0 hasta el mınimo entre
r y n1. Son valores de lo que se llama una variable aleatoria. En este caso,
una variable aleatoria discreta. Los valores de la variable, junto con sus co-
rrespondientes probabilidades, forma la llamada distribucion en probabilidad
de la variable. A la del presente ejemplo se le da el nombre de distribucion
hipergeometrica.
Volvamos ahora a la cuestion inicial, una vez que hemos comprobado que el
modelo de la distribucion hipergeometrica es el adecuado para el experimento
de la captura de peces de un lago. En nuestro caso, n es el numero total de
peces en el lago. Es un valor desconocido pero fijo, no variable. Es lo que se
llama un parametro poblacional. El experimento de la captura y recaptura
de peces ha sido disenado para estimar su valor. Ademas tenemos que n1 =
1.000, r = 1.000, k = 100. Por lo tanto, la probabilidad de pescar 100 peces
marcados en una captura de 1.000 peces es
pn(100) =
(1.000100
)(900900
)
(n
1.000
) .
Un metodo de estimacion de n, llamado de maxima verosimilitud, consiste en
determinar aquel valor de n que produce la maxima probabilidad pn(100). En
otras palabras, encontrar el maximo de la funcion
pn(100) : IN 7→ R.
En nuestro caso es evidente que n debe ser al menos 1.900, a saber los 1.000
peces marcados mas los 900 sin marcar que aparecieron en la segunda cap-
tura. Pero p1.900(100) es una probabilidad extremadamente baja. Haciendo
los calculos pertinentes se obtiene que el estimador de maxima verosimilitud
es n = 10.000. Es esta una estimacion puntual. Por cierto que no hay por
que esperar que en el lago haya exactamente 10.000 peces. En un numero de
esta magnitud es mas razonable permitir ciertos margenes. Suena mas realista
17 Estadıstica y Probabilidad 208
afirmar, por ejemplo, algo como “se espera que en el lago habiten entre 8.000
y 12.000 peces”. A fin de hallar estos lımites, se razona de la siguiente manera.
De haber en el lago un numero bajo de peces se tendrıa que la proporcion de
peces marcados serıa grande, por lo que la probabilidad de pescar 100 peces
marcados, o menos, en una captura de 1.000 peces, serıa muy pequena. Por
ejemplo, si n = 2.000, entonces el porcentaje de peces marcados es del 50%.
Es de esperar entonces que en la segunda captura se mantenga aproximada-
mente este porcentaje. Concretamente, puede calcularse que si ya n = 8.500,
entonces la probabilidad de extraer menos de 100 peces marcados es 0,04. La
probabilidad de este mismo suceso serıa inferior para valores mas bajos de n.
Analogamente, de haber en el lago un numero significativamente superior
a 10.000, ocurrirıa que la proporcion de peces marcados serıa baja, por lo
que serıa improbable pescar 100 o mas peces marcados. Por ejemplo, si ya
n = 12.000, la probabilidad de este suceso es 0,03, y es aun inferior para
valores mas grandes de n. Por consiguiente, una estimacion (por intervalo)
aceptable de n esta entre 8.500 y 12.000.
17.1 Variables aleatorias continuas
La distribucion en probabilidad de una variable aleatoria discreta esta total-
mente caracterizada por los valores que toma la variable junto con sus cor-
respondientes probabilidades. Por otra parte, una variable continua tiene la
propiedad de poder tomar cualquier valor comprendido entre dos valores dis-
tintos. En este caso no tiene significacion dar probabilidades de valores indi-
viduales de la variable. De hecho, estas probabilidades seran siempre 0. Sı
tiene significacion hablar de la probabilidad de que los valores de la variable
recorran, por ejemplo, un intervalo [a, b], a < b. Si llamamos X a la variable
aleatoria, esto se expresa
P (a < X < b).
Por lo tanto, una variable continua debe ser caracterizada de tal manera que
podamos determinar, al menos teoricamente, esas probabilidades. Esto se
consigue dando una funcion f : R 7→ R, llamada funcion de densidad de X,
sujeta a las siguientes condiciones:
1) f ≥ 0,
2)∫∞−∞ f(x) dx = 1.
17 Estadıstica y Probabilidad 209
Toda funcion que verifique 1) y 2) puede ser considerada como funcion de
densidad de una variable aleatoria X, y su relacion con ella es precisamente
que
P (a < X < b) =
∫ b
a
f(x) dx
para cualquier a < b. De esta manera la variable continua queda proba-
bilısticamente caracterizada.
La esperanza matematica o media de una variable aleatoria continua es un
numero cuya expresion es
E(X) =
∫ ∞
−∞xf(x) dx.
Puede considerarse como un valor representativo de la variable en lo que hace
a su posicion. El grado de disperson de los valores de la variable alrededor de
su media esta dado por la varianza
V (X) =
∫ ∞
−∞(x− E(X))2f(x) dx,
o bien, si deseamos trabajar con las mismas unidades que las de la variable,
por el desvıo estandar
D(X) =√
V (X).
Un ejemplo importante de variable aleatoria continua, llamemosla G, es la
llamada normal o de Gauss. Su funcion de densidad es
1√2πσ
e−(x−µ)2
2σ2 ,
donde µ = E(G), σ = D(G). La llamada variable normal estandar es aquella
para la cual µ = 0, σ = 1. En el siguiente dibujo observamos las funciones de
densidad de una variable normal estandar y de una variable normal de media
0 y varianza 0,25 (en azul). La menor dispersion de esta ultima alrededor de
su media, o en otras palabras, la mayor concentracion de sus valores alrededor
de su media, provoca la mayor agudeza de la curva.
17 Estadıstica y Probabilidad 210
-3 -2 -1 1 2 3
0.2
0.4
0.6
0.8
17.2 Estimacion de la media poblacional
Cantidades de naturaleza tan dispar, como por ejemplo, el peso de glucosa en
100 ml de plasma sanguıneo de adultos sanos o el tiempo de vida de ciertas
lamparas, pueden tener, desde el punto de vista de su distribucion poblacional,
un comportamiento afın. Ambas cantidades varıan de individuo a individuo.
Por eso mismo decimos que son variables. En otras palabras, no es posible pre-
decir un valor numerico exacto para un determinado individuo. No obstante,
si analizamos estos valores para un gran numero de individuos observaremos
que su distribucion obedece a una cierta ley. Ası, puede hablarse de un peso
medio, o un tiempo medio de vida, entendiendo con esto que los valores indi-
viduales oscilaran, por arriba y por debajo, alrededor de esa cifra. Una vision
aproximada de la distribucion de una variable X puede obtenerse mediante una
muestra aleatoria de n datos, digamos x1, · · · , xn. Esto se consigue particio-
nando un intervalo que contenga a aquellos en subintervalos de igual longitud,
intervalos de clase, y luego contando el numero de datos, la frecuencia, que han
caıdo en cada subintervalo. Esta informacion suele representarse en un grafico
bidimensional, donde la frecuencia se indica en el eje vertical y los intervalos
de clase en el eje horizontal. Se construye ası un diagrama de barras, donde la
base de cada barra se corresponde con un intervalo de clase y la altura de la
barra mide el valor de frecuencia respectivo. De esta manera, es de esperar que
el diagrama de barras muestre un dibujo que se aproxima a la curva grafica de
la funcion de densidad de X.
Supongamos ahora que la variable X tiene una distribucion normal, con
media µ y desvıo σ. Una estimacion puntual de µ se hace a traves del promedio
17 Estadıstica y Probabilidad 211
de n observaciones de la variable, a saber
x =
∑ni=1 xi
n.
El promedio puede considerarse como una observacion de la variable
X =
∑ni=1 Xi
n,
donde X1, · · · , Xn son variables independientes con la misma distribucion que
X, y (x1, · · · , xn) es una observacion de la variable n-dimensional
(X1, · · · , Xn).
Sin rigor, puede afirmarse que las variables son independientes cuando el valor
que toma una cualquiera de ellas no influye en los valores que toman las otras.
Bajo estas hipotesis puede probarse sin dificultad que la variable
X − µ
σ/√
n
tiene una distribucion normal estandar. Por lo tanto, al tener una distribucion
conocida, es posible determinar un numero a de tal forma que, por ejemplo,
P
(−a <
X − µ
σ/√
n< a
)= 0, 90.
Operando en estas dos desigualdades se obtiene que hay una probabilidad
de 0,90 (nivel de confianza) de que la media µ verifique la siguiente doble
desigualdad:
X − aσ/√
n < µ < X + aσ/√
n.
Si el desvıo σ es conocido, entonces reemplazando X por una observacion x se
determina un intervalo de estimacion para la media. Notar que el calculo del
intervalo viene acompanado por una afirmacion probabilıstica que da garantıas
sobre la confiabilidad del resultado. Notar tambien que el valor de a aumenta
a medida que el nivel de confianza crece hacia 1.
Si σ no es conocido entonces se lo estima mediante la variable
S =
√∑ni=1
(Xi −X
)2
n− 1.
En este caso la variable continua
X − µ
S/√
n
17 Estadıstica y Probabilidad 212
tiene una distribucion conocida con el nombre de t de Student, con n−1 grados
de libertad. Luego tambien es posible aquı hallar un intervalo de estimacion
para la media. Su expresion es
x− bs/√
n < µ < x + bs/√
n,
donde x y s son las observaciones muestrales de X y S, respectivamente, y b
es obtenido, como en el caso anterior, a partir del nivel de confianza utilizado.
La distribucion t de Student
Se define la variable χ2n, con n grados de libertad, como la suma de los cuadra-
dos de n variables normales independientes, todas ellas con media 0 y varianza
1. La variable t de Student se define como el cociente
Z√χ2
n/n,
donde Z es una variable normal estandar, independiente de χ2n.
Vamos a probar ahora que si
X1, X2, · · · , Xn
son n variables normales independientes, todas ellas con media µ y varianza
σ2, entonces la variable√
n(X − µ)
S=
√n(X − µ)√Pn
i=1(Xi−X)2
n−1
tiene una distribucion t de Student con n − 1 grados de libertad. Para ello
vamos a demostrar a su vez que esta ultima expresion responde a la definicion
anterior. Observaremos que hay aquı una interesante aplicacion de la teorıa
de diagonalizacion de matrices. Notar que
n∑i=1
(Xi −X)2
es una forma cuadratica, que se puede escribir matricialmente como
(X1, X2, · · · , Xn)M
X1
X2...
Xn
,
17 Estadıstica y Probabilidad 213
donde M es una matriz simetrica. Sus coeficientes de la diagonal principal
son todos iguales a 1− 1n, y todos los restantes coeficientes son iguales a − 1
n.
Como M es simetrica, existe una matriz ortonormal P (es decir, su transpuesta
coincide con su inversa) tal que
P−1MP
es una matriz diagonal D. Mas aun, los coeficientes de la diagonal principal
de D, digamos dii, son los autovalores de M , y las columnas de P (o las filas
de P−1) son sus correspondientes autovectores. Luego, si se efectua el cambio
lineal de variables
Y1
Y2...
Yn
= P−1
X1
X2...
Xn
,
se tendra que la forma cuadratica se escribira en terminos de las nuevas varia-
bles como
d11Y21 + d22Y
22 + · · ·+ dnnY
2n .
En vista de la forma de M , se observa inmediatamente que el vector que tiene
todas sus componentes iguales a 1√n
es un autovector de esta matriz, correspon-
diente a un autovalor nulo. Analogamente, tambien se observa facilmente que
los n−1 vectores que se obtienen colocando 1 y −1 en forma consecutiva, y 0 en
los restantes lugares, son autovectores pertenecientes al autoespacio ortogonal
al primer autovector, todos ellos correspondientes a un autovalor igual a 1.
Notar que los vectores de este autoespacio son aquellos cuyas componentes
suman 0. Sabemos ademas que podemos encontrar en este autoespacio n− 1
autovectores ortonormales. Es decir, si sus componentes son
(pi1, pi2, · · · , pin), 2 ≤ i ≤ n,
se tiene que
pi1 + pi2 + · · ·+ pin = 0,
p2i1 + p2
i2 + · · ·+ p2in = 1.
Como estas componentes son precisamente las filas de la matriz P−1, sigue que
Y1 =√
n X,
y
Yi = pi1X1 + pi2X2 + · · ·+ pinXn
17 Estadıstica y Probabilidad 214
para i ≥ 2. Por lo tanto, por propiedades de la media y varianza, se deduce
que
E(Y1) =√
nE(X) =√
nµ, V ar(Y1) = nV ar(X) = σ2,
y para i ≥ 2,
E(Yi) = 0, V ar(Yi) = σ2.
Por otro lado, por propiedades de la variable normal, todas las variables Yi
resultan normalmente distribuidas. Ademas, como P es una matriz ortonor-
mal, la independencia de las variables Xi se transmite a las variables Yi. En
las nuevas variables, la forma cuadratica se escribe
n∑i=2
Y 2i .
Se concluye que la variable
√n(X − µ)√Pn
i=1(Xi−X)2
n−1
=(Y1 −
√nµ)/σ√Pn
i=2(Yi/σ)2
n−1
tiene, por su misma definicion, una distribucion t de Student con n− 1 grados
de libertad.
18 Aplicaciones a la Quımica
18.1 Cinetica quımica
La razon de cambio de una reaccion quımica depende de la cantidad de ma-
teria de los reactivos que se combinan a una determinada temperatura. El
mecanismo que regula este proceso se conoce como ley de razon de cambio
experimental. El conocimiento de esta ley empırica (debe ser determinada ex-
perimentalmente) es a menudo el primer paso para comprender la sucesion
de eventos moleculares que los reactivos llevan a cabo para formar productos.
Concretamente, esto se logra estudiando la correspondencia entre la razon
de cambio de la cantidad de materia de los reactivos que toman parte en la
reaccion por unidad de tiempo y la cantidad de materia del producto que se
forma en ella. Por ejemplo, si los reactivos A y B se combinan para formar los
productos C y D, esto se simboliza
a A + b B −→ c C + d D,
donde a, b, c y d son los coeficientes estequiometricos de las correspondientes
sustancias.
La cantidad de materia o de partıculas de cada sustancia, su concentracion,
se da en moles por litro. La concentracion de una sustancia, por ejemplo, A,
se denota por [A].
Durante el proceso de la reaccion quımica las concentraciones van cam-
biando con el tiempo t. Ellas son, por tanto, funciones de t. En la reaccion
de arriba, por ejemplo, [A] y [B] disminuyen con t (funciones decrecientes)
mientras que [C] y [D] aumentan con t (funciones crecientes).
Ahora bien, interesa analizar la rapidez o razon de cambio de la modifi-
cacion de la concentracion de las sustancias que intervienen en la reaccion.
Esta informacion se obtiene precisamente por las respectivas derivadas,
[A]′, [B]′, [C]′, [D]′,
que son tambien funciones del tiempo t. Por lo dicho arriba, sera
[A]′ < 0, [B]′ < 0, [C]′ > 0, [D]′ > 0.
215
18 Aplicaciones a la Quımica 216
En cuanto a su magnitud, ellas son proporcionales a sus coeficientes este-
quiometricos. Por todo ello, se tiene la siguiente relacion:
R = −1
a[A]′ = −1
b[B]′ =
1
c[C]′ =
1
d[D]′.
Este numero R, comun a todas las sustancias, puede definirse como la razon
de cambio de la reaccion quımica, por ser precisamente independiente de las
sustancias que intervienen en ella.
Por cierto que R depende del tiempo t, por lo que es importante intentar
hallar una relacion explıcita para R(t). Es natural que R dependa de la concen-
tracion de los reactivos como ası tambien de la concentracion de los productos
que se forman en la reaccion. Tambien depende de la temperatura. Pero si
esta se mantiene constante durante el proceso, puede eliminarse como variable
independiente. Para hacer una simplificacion adicional, puede suponerse que
muy al comienzo de la reaccion la razon de cambio inicial, digamos R0, solo
depende de la concentracion de los reactivos. Pero de que forma depende?
Por una logica que se sustenta en la ley de accion de masas, puede deducirse
que R0 depende del producto de las concentraciones. Despues de introducir
parametros de ajuste en forma de exponentes para las concentraciones, se ob-
tiene (por ejemplo, para la reaccion de arriba) la siguiente expresion:
R0(t) = k[A]m[B]n,
donde k,m y n son constantes. Observar entonces que R depende del tiempo t a
traves de las concentraciones de los reactivos A y B. Supuesta la validez de esta
ley, surge ahora la cuestion de calcular el valor de las constantes k, m y n para
cada caso particular. Esto puede hacerse con el siguiente metodo. Se realizan
experimentos con apropiados valores de concentracion inicial de los reactivos
y se mide en cada uno de ellos el valor de R0. Por ejemplo, consideremos la
siguiente reaccion entre H2 y Br2, llevada a cabo a una temperatura constante
de 25 grados centıgrados.
H2 + Br2 −→ 2 HBr2.
Los datos de 5 experimentos se dan a continuacion. La concentracion inicial
del reactivo se indica con el subındice 0.
18 Aplicaciones a la Quımica 217
Experimento [H2]0 [Br2]0 R0
1 0,10 0,10 2,000 x 10−5
2 0,10 0,20 2,828 x 10−5
3 0,20 0,10 4,000 x 10−5
4 0,10 0,30 3,464 x 10−5
5 0,30 0,10 6,000 x 10−5
Notar que en los experimentos 1 y 2 las concentraciones de [H2]0 son iguales
pero no ası las de [Br2]0, mientras que en experimentos 2 y 3 son iguales las
concentraciones de [Br2]0 pero no las de [H2]0. Como veremos, este hecho
permite calcular las constantes k,m y n usando estos tres experimentos. Dado
que
R0 = k([H2]0)m([Br2]0)
n,
dividiendo la ecuacion anterior con los datos del experimento 2 entre la misma
ecuacion con los correspondientes datos del experimento 1, sigue que
1, 414 = 2n,
por lo que
n = 1/2.
Procediendo analogamente con los datos de experimentos 1 y 3, se deduce que
2 = 2m,
y de esta manera
m = 1.
Observar que tambien otros pares de experimentos podrıan haber sido usa-
dos, obteniendose los mismos valores de ambas constantes. Utilizando ahora
cualquier experimento se halla el valor de k. Este es 6,324 x 10−4.
La concentracion como funcion del tiempo
La ley de razon de cambio experimental permite expresar la razon de cambio de
la concentracion de una sustancia que toma parte en una reaccion quımica en
funcion de las concentraciones de los reactivos. Se supone siempre que esta ley
es valida en el comienzo del proceso. Conociendo esta informacion, es posible
tambien encontrar la ley explıcita que relaciona la concentracion del reactivo
con el tiempo. En efecto, su solucion se obtiene resolviendo una ecuacion
diferencial. Lo haremos a continuacion en casos muy simples. Consideremos
la siguiente reaccion:
18 Aplicaciones a la Quımica 218
A −→ C
En esta situacion tenemos que
R0 = −[A]′,
ya que el coeficiente estequiometrico de A es 1. Supondremos tres casos para
la ley de razon de cambio experimental.
Caso I.
−[A]′ = k[A].
La solucion general de esta ecuacion es
[A] = Ce−kt,
donde C es una constante positiva. Su valor debe ser igual a la concentracion
de A en t = 0. Por lo tanto queda
[A] = [A0]e−kt. (44)
Es usual en las ciencias experimentales tener una representacion visual de sus
resultados. En el presente caso, se trata de una funcion exponencial. Dado
que la representacion mas simple es la de una lınea recta, es un hecho comun
transformar las variables involucradas de forma que la relacion resultante sea
lineal. En este caso esto se logra tomando logaritmos neperianos en (44):
ln[A] = ln[A]0 − kt.
La importancia de este proceder radica en lo siguiente. Si se realiza un ex-
perimento que permita obtener valores correspondientes de [A], digamos [A]i,
para distintos instantes de tiempo ti, entonces la representacion cartesiana de
los datos
(ti, ln[A]i)
debe reflejar esa relacion lineal. El ajuste de una recta a esos datos permitira
hallar una estimacion de su ordenada al origen, ln[A]0, y de su pendiente, −k.
Asimismo, notar que (44) es tambien equivalente a
ln[A]0[A]
= kt.
Caso II
−[A]′ = k[A]0 = k.
18 Aplicaciones a la Quımica 219
La solucion particular es
[A] = [A]0 − kt.
Aquı la relacion funcional es directamente lineal.
Caso III
−[A]′ = k[A]n,
donde n > 1. En este caso la solucion particular, siempre bajo la condicion
inicial de que la concentracion de A en t = 0 sea [A]0, satisface
1
[A]n−1=
1
[A]n−10
+ (n− 1)kt.
Escrita de esta manera, vemos que 1[A]
depende linealmente del tiempo. La
dependencia directa de [A] en funcion del tiempo da, como ya sabemos, una
curva decreciente. Como
[A]′′ = −nk[A]n−1[A]′,
y [A]′ es negativo, se deduce que la concavidad de esa curva es siempre hacia
arriba.
Consideremos ahora dos reactivos, A y B, que reaccionan de la manera
siguente:
A + B −→ C
Como los coeficientes estequiometricos de A y B son ambos iguales a la unidad,
sigue que
R0 = −[A]′ = −[B]′. (45)
Supongamos que el proceso se lleva a cabo bajo la ley de razon de cambio
experimental dada por
R0 = k[A][B].
Observar que la segunda igualdad en (45) implica que las funciones [A] y [B]
difieren en una constante. Luego, como para todo t es
[B]− [A] = [B]0 − [A]0,
sigue que
[B] = [A] + [B]0 − [A]0.
18 Aplicaciones a la Quımica 220
Por consiguiente, la ecuacion diferencial que se debe resolver es
−[A]′ = k[A]([A] + [B]0 − [A]0).
Esta ecuacion de variables separables, facil de resolver, conduce a la relacion
1
[B]0 − [A]0ln
[A]
[A] + [B]0 − [A]0= −kt + M,
donde la constante M se determina dandole a t el valor 0. Queda
M =1
[B]0 − [A]0ln
[A]0[B]0
.
Reemplazando este valor de M en la ecuacion anterior, sigue que
1
[A]0 − [B]0ln
([A][B]0[B][A]0
)= kt,
que a su vez permite despejar la concentracion [A] en funcion de la variable
independiente t.
Mecanismos de dos pasos consecutivos
Una reaccion (irreversibe) del tipo
Xk1−→ Y
k2−→ Z,
donde k1 y k2 son constantes de razon de cambio, conduce a resolver el siguiente
sistema:
[X]′(t) = −k1[X](t)
[Y ]′(t) = k1[X](t)− k2[Y ](t)
[Z]′(t) = k2[Y ](t),
con las condiciones iniciales [X](0) = [X]0, [Y ](0) = 0, [Z](0) = 0. Este sistema
puede ser resuelto separadamente, obteniendose [X](t) de la primera ecuacion,
luego hallando [Y ](t) de la segunda ecuacion, y finalmente resolviendo [Z](t)
de la tercera. Sus soluciones son
[X](t) = [X]0e−k1t
[Y ](t) =[X]0k1(e
−k2t − e−k1t
k1 − k2
)
[Z](t) = [X]0
(1− k1e
−k2t − k2e−k1t
k1 − k2
).
18 Aplicaciones a la Quımica 221
Sigue un grafico con la representacion de las tres funciones, en negro, azul y
rojo, respectivamente.
2 4 6 8
0.5
1
1.5
2
Por el contrario, existen situaciones en las que el sistema se presenta de tal
forma que no es posible resolver las ecuaciones separadamente. Por ejemplo,
en reacciones reversibles, A B. Mas precisamente, podemos encontrarnos en
general con el siguiente sistema:
[X]′(t)[Y ]′(t)[Z]′(t)
= M
[X](t)[Y ](t)[Z](t)
,
donde M es una matriz de coeficientes constantes.
Si M es diagonalizable entonces existe una matriz P de manera que
P−1MP = D,
donde D es una matriz diagonal, digamos
D =
d1 0 00 d2 00 0 d3
.
Si ahora se efectua la transformacion lineal de variables
[X][Y ][Z]
= P
[U ][V ][W ]
,
y teniendo en cuenta que las derivadas se transforman de la misma manera, el
sistema anterior se escribe en las nuevas variables como
P
[U ]′(t)[V ]′(t)[W ]′(t)
= MP
[U ](t)[V ](t)[W ](t)
,
18 Aplicaciones a la Quımica 222
es decir,
[U ]′(t) = d1[U ](t)
[V ]′(t) = d2[V (t)]
[W ]′(t) = d3[W ](t).
Tenemos aquı tres ecuaciones independientes, de resolucion inmediata. Por
ultimo, se expresan las soluciones en terminos de las variables originales.
18.2 Una aplicacion en Farmacologıa
La accion de un farmaco sobre un organismo vivo es consecuencia de com-
plicados procesos fısico-quımicos que se producen a un nivel celular. Puede
afirmarse en general que en toda ciencia experimental el estudio de sus proce-
sos especıficos exige un intenso trabajo de laboratorio que debe estar apoyado
por el conocimiento de leyes (matematicas) que los explican y regulan. Recı-
procamente, todo modelo matematico que quiera ser util y aplicable tiene que
ser confirmado por los datos experimentales.
Como ejemplo de lo dicho se vera a continuacion un analisis de la interaccion
de dos drogas sobre un receptor. La droga A causa un efecto, medido en latidos
por minuto, sobre un receptor beta de tejido muscular de corazon. La droga P
bloquea parcialmente la accion de A, en el sentido de que si se suministra la
droga A en presencia de una dosis de P, entonces se necesita una mayor dosis
de A para obtener el mismo efecto de antes.
Es claro que existe una relacion funcional entre el efecto (variable depen-
diente E) y la concentracion de A (variable independiente), E = f([A]). Como
se vera despues, es muy conveniente disponer de una expresion concreta para
la funcion f . Este tipo de relaciones suelen ser obtenidas experimentalmente.
En nuestro caso la expresion
E =M [A]
[A] + N+ O (46)
ofrece una buena aproximacion con la realidad experimental. Los siguientes
son datos experimentales reales, con una representacion de los mismos:
[A]× 10−9 0,02 0,2 0,6 2 6 10 20 40 60 100E 138 141 163 198 222 228 237 240 244 246
18 Aplicaciones a la Quımica 223
E
0 20 40 60 80 100
140
160
180
200
220
240
[A]× 10−9
El siguiente grafico muestra los mismos datos, ajustados ademas por el
metodo de mınimos cuadrados mediante una curva dada por la expresion de
(46).
E
0 20 40 60 80 100
140
160
180
200
220
240
[A]× 10−9
La funcion ajustada resulta ser
E =112, 5[A]
[A] + 1, 65 x 10−9+ 133, 7.
En virtud de la disposicion de los valores de [A], es usual representar esos datos
en funcion de log([A]). En nuestro ejemplo ellos son
-10,699 -9,699 -9,222 -8,699 -8,222 -8 -7,699 -7,398 -7,222 -7
18 Aplicaciones a la Quımica 224
Notese ahora como ellos se distribuyen en forma homogenea. Su representacion
grafica es la siguiente:
E
-10 -9 -8 -7
140
160
180
200
220
240
log[A]
La expresion de la funcion ajustada es ahora
E =M10x
10x + N+ O, (47)
donde x = log([A]). Presenta un cambio de concavidad, de positiva a negativa,
cosa que no ocurre con la funcion de (46), que mantiene siempre su concavidad
negativa. Estos hechos se corroboran matematicamente hallando las respecti-
vas derivadas segundas en las funciones de (46) y (47). Se encontrara que el
punto de inflexion se da precisamente en x = N .
Como se afirma al comienzo de esta seccion, si ahora se administra la droga
A en presencia de una dosis del antagonista parcial P, entonces se necesitara
mas dosis de A para obtener el mismo efecto que en ausencia de P. Aquı
tenemos una imagen de este hecho:
E
-10 -9 -8 -7
140
160
180
200
220
240
log [A]
Los puntos en color rojo corresponden al efecto de A en presencia de una
dosis fija de P. En este momento conviene introducir la siguiente notacion.
18 Aplicaciones a la Quımica 225
Llamaremos [A]2 (respectivamente, [A]3) a las concentraciones de A actuando
en ausencia (respectivamente, en presencia) del antagonista. Analogamente,
denotemos con E2 y E3 a los correspondientes efectos. De la observacion del
grafico se deduce una explicacion de por que el calificativo de “parcial” para el
antagonista P. Es un hecho experimental que la presencia en el receptor de un
antagonista puro hubiera producido un desplazamiento paralelo de los puntos
azules con respecto a la curva concentracion-efecto de A en ausencia de P. En
particular, para todo valor de [A]3 serıa
E3 < E2.
Por otra parte, se observa del grafico que para valores bajos de [A]3 la presen-
cia del antagonista parcial produce un mayor estımulo, mientras que sı hay un
bloqueo del efecto para concentraciones [A]3 mas altas.
Analisis de [A]2 en funcion de [A]3
Una vez administrado, P ocupa quımicamente un sitio en el receptor beta. La
fraccion de sitio que ocupa viene dada por
yp =[P ]
[P ] + KP
,
donde KP es la constante de equilibrio de disociacion de P. Es de relevancia en
farmacologıa estimar el valor de esta constante. Para ello se parte de un modelo
matematico conocido que relaciona linealmente concentraciones equiefectivas
de [A]2 y [A]3. Mas precisamente, si [A]2 y [A]3 producen el mismo efecto sobre
un receptor dado, entonces
[A]2 = a + (1− yP )[A]3, (48)
donde a es una constante que depende de A y P.
Hay que destacar que esta relacion rige para concentraciones [A]3
cuyos respectivos efectos E3 estan por debajo de E2.
El siguiente paso consiste en confirmar experimentalmente la ecuacion (48).
Para ello se deben calcular concentraciones equiefectivas. Parece razonable
18 Aplicaciones a la Quımica 226
hacerlo del siguiente modo. Se consideran concentraciones [A]3 que verifiquen
la condicion anterior, ası como sus correspondientes efectos E3. Haciendo
ahora uso de la ecuacion (46), que establece una ley para la curva concen-
tracion-efecto de A actuando en ausencia de P, se determina el valor de [A]2
que produce ese mismo efecto. Llamemos U a este valor interpolado de [A]2.
El cambio de nombre esta justificado. En efecto, mientras que [A]2 es una
variable independiente, U es una variable que depende de [A]3. En otras pa-
labras, [A]2 es un dato bajo control del experimentador. En cambio, U es
una respuesta sujeta a la aleatoriedad, tanto de la variable E3 como de los
parametros ajustados M, N y O. De (46) sigue que
U =(E −O)N
M + O − E.
Utilizando siete datos de [A]3 del ejemplo anterior se obtiene la siguiente tabla
de pares correspondientes de datos [A]3, U :
[A]3 x 10−9 2 6 10 20 40 60 100U x 10−9 1,383 1,653 2,368 3,778 6,711 9,808 20,987
A continuacion se presenta un esquema grafico del procedimiento utilizado:
E
18 Aplicaciones a la Quımica 227
0 20 40 60 80 100
140
160
180
200
220
240
[A]× 10−9
La representacion de los datos obtenidos, indicados en la tabla anterior, es la
siguiente,
18 Aplicaciones a la Quımica 228
U × 10−9
20 40 60 80 100
5
10
15
20
[Z]× 10−9
donde se ha renombrado Z a la variable independiente [A]3. Tal como lo
preve el modelo matematico dado por ecuacion (48), se observa una relacion
lineal entre las variables. El ajuste de una lınea recta a esos datos, es decir,
determinar con ellos una pendiente y una ordenada al origen, permitira a su
vez calcular el coeficiente KP , ya que la pendiente de esa funcion lineal es
1− [P ]
[P ] + KP
,
y la concentracion [P ] es un dato conocido.
El ajuste lineal se efectua, como es usual, por el metodo de mınimos cuadra-
dos. Si denotamos por Zi, 1 ≤ i ≤ n, a los n valores experimentales de [A]3, y
por Ui a los correspondientes valores interpolados de [A]2, entonces, como ya
se ha visto en la seccion 15.5 , el metodo de mınimos cuadrados consiste en
minimizarn∑
i=1
(Ui − a− bZi)2 (49)
en los parametros a y b. Recordar: Z es una variable independiente, controlada
por el experimentador, pero U es una variable aleatoria, cuya expresion teorica
viene dada por
U =(E3 −O)N
M + O − E3
. (50)
Todos los parametros del lado derecho de la ecuacion anterior estan sujetos a
variacion. La variable aleatoria E3 es directamente la respuesta a la accion de
una droga. Por otra parte, los parametros M, N y O han sido calculados ha
partir de datos experimentales, y por lo tanto tambien variables. No obstante,
18 Aplicaciones a la Quımica 229
para simplificar los argumentos teoricos que siguen a continuacion podemos
suponer que estos ultimos son valores medios fijos.
En otras palabras, los interpretamos como constantes numericas
que reemplazadas en la ecuacion (46) dan la respuesta teorica me-
dia a la accion de A sobre un receptor beta sin la presencia del
antagonista parcial P.
Notar que la forma de calcular el valor interpolado Ui hace que no todos ellos
tengan la misma confiabilidad. En efecto, la menor pendiente de la curva
dosis-respuesta para valores grandes de [A]2 implica que una mınima variacion
en E3 ya produce una alteracion relativamente grande en el correspondiente
Ui. Por el contrario, la mayor pendiente de esa curva para valores bajos de
[A]2 supone una menor sensibilidad del resultado frente a perturbaciones en
la variable E3. En conclusion, tanto mayor es el error en Ui cuanto mas alto
es su valor. Ahora bien, como se mide este error? En teorıa estadıstica se lo
mide por la varianza de Ui. Como Ui depende de la variable E3 mediante la
ecuacion (50), la varianza de Ui puede escribirse en terminos de la varianza de
E3. Para deducir esta relacion hay que sumar a la simplificacion de arriba la
de reemplazar la expresion de (50) por la funcion lineal suministrada por su
polinomio de Taylor de primer grado, desarrollado en el valor medio de E3.
Para cada i este valor medio es de la forma
M0Zi
Zi + N0
+ O0.
Bajo estas condiciones puede deducirse que la varianza de Ui es un numero
proporcional a
(Zi + N0)4.
Recordar que N0 es el punto de inflexion de la curva dosis-respuesta de A en
presencia de P.
La formula (49) no es en este caso la mas apropiada para efectuar el ajuste
por mınimos cuadrados, ya que la expresion de (49) asigna a cada dato Ui
la misma significacion. Lo razonable es que los datos mas confiables tengan
mayor peso que aquellos mas sujetos a error. Esto se logra introduciendo un
factor de peso en cada sumando de (49) que asigne una mayor intervencion a los
18 Aplicaciones a la Quımica 230
datos menos erroneos. Este factor es precisamente una cantidad proporcional
al inverso de la varianza de Ui. En conclusion, ahora se debe minimizar
n∑i=1
1
(Zi + N0)4(Ui − a− bZi)
2
en los parametros a y b. En nuestro ejemplo, el empleo de esta tecnica produce
las siguientes estimaciones:
b=0,14 KP = 17 x 10−8.
U × 10−9
20 40 60 80 100
5
10
15
20
[Z]× 10−9
El hecho de que la varianza de la variable Ui sea proporcional a
1
(Zi + N0)4
puede ser confrontado mediante una simulacion de los experimentos. Mas
precisamente, para cada valor de concentracion Zi pueden generarse distintos
valores de correspondientes efectos mediante la expresion
M0Zi
Zi + N0
+ O0 + εij,
donde εi puede considerarse como una variable aleatoria normalmente dis-
tribuida, con media 0 y varianza 1. Mediante programas apropiados pueden
generarse, para cada i, un determinado numero, digamos ni, de observaciones
εij obedeciendo esa distribucion normal. De esta manera se tiene en cuenta
la variacion que existe en experimentos reales en los efectos de individuos
18 Aplicaciones a la Quımica 231
diferentes. Si para cada uno de estos efectos simulados se determina el valor
interpolado Uij, entonces se estara en condiciones de estimar la varianza de Ui
mediante la formula de la varianza muestral, a saber
s2i =
∑ni
j=1(Uij − Ui)2
ni − 1.
Si la expresion propuesta para la varianza de Ui es correcta, entonces es de
esperar que s2i sea aproximadamente igual a
C
(Zi + N0)4,
donde C es una constante fija que no depende de i. En este caso, log s2i sera
aproximadamente igual a
log C − 4 log(Zi + N0),
por lo cual una representacion en el plano cartesiano de los puntos
(log(Zi + N0), log s2i )
deberıa mostrar una disposicion lineal de los mismos.