Unidad 4:
Ajuste de curvas e interpolación
Interpolación cuadrática:
Cuando se tiene más de dos puntos:
Caso 3: tenemos los datos (x0, y0), (x1, y1), (x2, y2). Para este caso, el polinomio de interpolación va a ser un polinomio de grado 2, el polinomio de interpolación será como sigue.
El término cuadrático viene dado por
4.2 Polinomios de interpolación:
Diferencias divididas de Newton y de Lagrange.
·
Saber si tiene solución o no.
Teorema 1. Supongamos conocido el valor de una función
f(x) en un conjunto de puntos distintos dos a dos x0, x1,. . ., xn. Entonces,
existe un único polinomio P(x) 2 <n[x] (esto es, polinomios de grado menor o
igual que n) que interpola a la función en esos puntos, es decir, P (xi) = f
(xi) con i = 0,. . ., n.
La
prueba más directa (con el coste de unos leves conocimientos de álgebra)
consiste en plantear el sistema lineal de ecuaciones (ahora las incógnitas son
los coeficientes del polinomio P buscado) y darse cuenta de que es un sistema
compatible determinado al tener matriz de coeficientes de tipo Van der Monde
(con los xi distintos dos a dos) y por tanto invertible.
Otra
forma inmediata de ver la unicidad de solución al problema consiste en imaginar
la existencia de dos polinomios P y Q de grado n satisfaciendo la tesis del
teorema.
En
análisis numérico, el polinomio de Lagrange, llamado así en honor a
Joseph-Louis de Lagrange, es el polinomio que interpola un conjunto de puntos
dado en la forma de Lagrange. Dado que existe un único polinomio interpolador
para un determinado conjunto de puntos, resulta algo confuso llamar a este
polinomio el polinomio interpolador de Lagrange. Un nombre más conciso es
interpolación polinómica en la forma de Lagrange.

De bases polinómicas de Lagrange:
La resolución de un problema de interpolación lleva a un problema de álgebra lineal en el cual se debe resolver un sistema de ecuaciones. Usando una base monómica estándar para nuestro polinomio interpolador, llegamos a la matriz de Vandermonde. Eligiendo una base distinta, la base de Lagrange, llegamos a la forma más simple de matriz identidad = δi, j, que puede resolverse inmediatamente.
Entre
las desventajas de su uso tenemos que si se aumenta en número de puntos a
interpolar (o nodos) con la intención de mejorar la aproximación a una función,
también lo hace el grado del polinomio interpolador así obtenido, por norma
general. De este modo, aumenta la dificultad en el cálculo, haciéndolo poco
operativo manualmente a partir del grado 4, dado que no existen métodos
directos de resolución de ecuaciones de grado 4, salvo que se puedan tratar
como ecuaciones bicuadradas, situación extremadamente rara.
La
tecnología actual permite manejar polinomios de grados superiores sin grandes
problemas, a costa de un elevado consumo de tiempo de computación. Pero, a
medida que crece el grado, mayores son las oscilaciones entre puntos
consecutivos o nodos. Se podría decir que a partir del grado 6 las oscilaciones
son tal que el método deja de ser válido, aunque no para todos los casos.
Sin
embargo, pocos estudios requieren la interpolación de tan sólo 6 puntos. Se
suelen contar por decenas e incluso centenas. En estos casos, el grado de este
polinomio sería tan alto que sería inoperable. Por lo tanto, en estos casos, se
recurre a otra técnica de interpolación, como por ejemplo a la Interpolación
polinómica de Hermite o a los splines cúbicos
Otra
gran desventaja, respecto a otros métodos de interpolación, es la necesidad de
recalcular todo el polinomio si se varía el número de nodos.
Polinomios de interpolación con diferencias divididas
de Newton.
Cualquier
polinomio de <n[x] se puede expresar en forma única como una combinación
lineal de los monomios {1, x, x2,. . ., xn}, pues son evidentemente sistema
generador y además linealmente independientes (luego forman una base del
espacio vectorial), la más simple de hecho, la base canoníca.
Esta
base, que es adecuada para algunas manipulaciones inmediatas de polinomios como
nombrábamos en la sección anterior (derivación e integración por ejemplo), no
es, sin embargo, la más adecuada para construir en principio el polinomio
interpolador.
Vimos
que resultaba útil incluir los propios nodos del problema en los polinomios a
construir, de modo que en este parágrafo adoptamos una solución intermedia.
4.3 Regresión por mínimos cuadrados:
Lineal y Cuadrática.
En
el marco del análisis estadístico multidimensional interesa, en gran medida,
descubrir la interdependencia o la relación existente entre dos o más de las
características analizadas.
La
dependencia entre dos (o más) variables puede ser tal que se base en una
relación funcional (matemática) exacta, como la existente entre la velocidad y
la distancia recorrida por un móvil; o puede ser estadística. La dependencia
estadística es un tipo de relación entre variables tal que conocidos los
valores de la (las) variable (variables) independiente(s) no puede determinarse
con exactitud el valor de la variable dependiente, aunque si se puede llegar a
determinar un cierto comportamiento (global) de la misma. (Ej. La relación
existente entre el peso y la estatura de los individuos de una población es una
relación estadística). Pues bien, el análisis de la dependencia estadística
admite dos planteamientos (aunque íntimamente relacionados):
· El
estudio del grado de dependencia existente entre las variables que queda
recogido en la teoría de la correlación.
· La determinación de la estructura de dependencia que mejor exprese la relación, lo que es analizado a través de la regresión.
Mínimos cuadrados es una técnica de análisis
numérico encuadrada dentro de la optimización matemática, en la que, dados un
conjunto de pares ordenados: (variable independiente, variable dependiente) y
una familia de funciones, se intenta encontrar la función, dentro de dicha
familia, que mejor se aproxime a los datos (un "mejor ajuste"), de
acuerdo con el criterio de mínimo error cuadrático.
En
su forma más simple, intenta minimizar la suma de cuadrados de las diferencias
ordenadas (llamadas residuos) entre los puntos generados por la función y los
correspondientes en los datos. Específicamente, se llama mínimos cuadrados
promedio cuando el número de datos medidos es 1 y se usa el método de descenso
por gradiente para minimizar el residuo cuadrado. Se puede demostrar que LMS
minimiza el residuo cuadrado esperado, con el mínimo de operaciones (por
iteración), pero requiere un gran número de iteraciones para converger.
Desde
un punto de vista estadístico, un requisito implícito para que funcione el
método de mínimos cuadrados es que los errores de cada medida estén
distribuidos de forma aleatoria. El teorema de Gauss-Márkov prueba que los
estimadores mínimos cuadráticos carecen de sesgo y que el muestreo de datos no
tiene que ajustarse, por ejemplo, a una distribución normal. También es
importante que los datos recogidos estén bien escogidos, para que permitan
visibilidad en las variables que han de ser resueltas (para dar más peso a un
dato en particular, véase mínimos cuadrados ponderados).
La
técnica de mínimos cuadrados se usa comúnmente en el ajuste de curvas. Muchos
otros problemas de optimización pueden expresarse también en forma de mínimos
cuadrados, minimizando la energía o maximizando la entropía.
La
aproximación mínimo cuadrática consiste en minimizar el error cuadrático
mencionado más arriba, y tiene solución general cuando se trata de un problema
de aproximación lineal (lineal en sus coeficientes) cualesquiera que sean las
funciones base: antes mencionadas. Por lineal se entiende que la aproximación
buscada se expresa como una combinación lineal de dichas funciones base. Para
hallar esta expresión se puede seguir un camino analítico, expuesto abajo,
mediante el cálculo multivariable, consistente en optimizar los coeficientes; o
bien, alternativamente, seguir un camino geométrico con el uso del álgebra
lineal, como se explica más abajo, en la llamada deducción geométrica. Para los
Modelos estáticos uniecuacionales, el método de mínimos cuadrados no ha sido
superado, a pesar de diversos intentos para ello, desde principios del Siglo
XIX. Se puede demostrar que, en su género, es el que proporciona la mejor
aproximación.
4.4 Aplicaciones.
Se
puede utilizar en el cálculo de estructuras, instalaciones eléctricas,
hidráulicas y sanitarias, en cálculos de carreteras, topografía y hasta en
diseño de las estructuras, no en todos los casos pero principalmente cuando hay
mala toma de datos o haya datos faltantes.
En
el subcampo matemático del análisis numérico, un spline es una curva
diferenciable definida en porciones mediante polinomios.
En
los problemas de interpolación, se utiliza a menudo la interpolación mediante
splines porque da lugar a resultados similares requiriendo solamente el uso de
polinomios de bajo grado, evitando así las oscilaciones, indeseables en la
mayoría de las aplicaciones, encontradas al interpolar mediante polinomios de
grado elevado.
Para
el ajuste de curvas, los splines se utilizan para aproximar formas complicadas.
La simplicidad de la representación y la facilidad de cómputo de los splines
los hacen populares para la representación de curvas en informática,
particularmente en el terreno de los gráficos por ordenado. Tenemos los
siguientes 3:
Unidad 5: Derivacion e integracion numerica
5.1 Derivacion numerica
Consideremos una función f(x) de la
cual se conoce un conjunto discreto de valores (x0, f0), (x1, f1),...,(xn,
fn). El problema que vamos a abordar es el de calcular la derivada de la
función en un punto x que en principio no tiene porqué coincidir con alguno de
los que figuran en los datos de que disponemos. La forma más sencilla de
resolver el problema de la diferenciación numérica consiste en estimar la
derivada utilizando fórmulas obtenidas mediante la aproximación de Taylor,
que se denominan fórmulas de diferencias finitas.
La derivación numérica es
una técnica de análisis numérico para calcular una
aproximación a la derivada de una función en un punto utilizando los valores
y propiedades de la misma.
Por definición la derivada de una
función f(x) es:
Las aproximaciones numéricas que
podamos hacer (para h > 0) serán:
Diferencias hacia adelante:
Diferencias hacia atrás:
La aproximación de la derivada por
este método entrega resultados aceptables con un determinado error. Para
minimizar los errores se estima que el promedio de ambas entrega la mejor
aproximación numérica al problema dado:
Diferencias centrales:
5.2 Integracion numerica: Metodo del trapecio, Metodos de Simpson 1/3 y 3/8
"La integracion numerica es
una herraminta esencial que se usa en la ciencia y en la ingenieria para
obtener valores aporximados de integrales para obtener valores aproximados
de integrañes definidas que no pueden calcularse analiticamente".
Método del
trapecio:
La regla del trapecio es
un método de integración numérica, es decir, un método para calcular
aproximadamente el valor de la integral definida. La regla se basa en aproximar
el valor de la integral de f(x) por el de la función lineal que pasa
a través de los puntos (a, f(a)) y (b, f(b)). La integral de ésta
es igual al área del trapecio bajo la gráfica de la función lineal. Se
sigue que:
Ejemplo metodo del trapecio:
Métodos de Simpson 1/3 y 3/8
La regla de Simpson tiene mayor aproximación que regla de los trapecios. En la regla de los trapecios los puntos sucesivos de la grafica y = f(x) se unen mediante líneas que forman los trapecios, en la regla de Simpson los puntos se unen mediante segmentos de parábolas.
En análisis numérico,
la regla o método de Simpson (nombrada así en honor
deThomas Simpson) y a veces llamada regla de Kepler es un método
de integración numéricaque se utiliza para obtener la aproximación de
la integral:
Estos resultados confirman
claramente la convergencia de la regla de Simpson en este ejemplo particular.
Podemos ver que cada ves que se duplica la n, lo cual equivale a dividir la h
entre dos, el error disminuye por un factor de 16 aproximadamente
5.3 Integracion con intervalos desiguales
Cuando la longitud de los
subintervalos no es igual, se usa una combinación de la regla Trapezoidal
y las reglas de Simpson, procurando seguir el siguiente orden jerárquico:
1 .- Simpson 3/8
Esta se aplica, si contamos
con 4 puntos igualmente espaciados.
2 .- Simpson
1/3
Esta se aplica si falla (1) y contamos con
3 puntos igualmente espaciados.
3 .- Regla
Trapezoidal
Solo
se aplica si no se cumple (1) y (2)
REGLA DE SIMPSON DE TRES OCTAVOS
Este caso corresponde a n = 3 , es decir,
donde f3(x) es un polinomio de interpolación para los
siguientes datos:
Y donde a = x0, b = x3 y x1, x2 son los puntos que dividen en tres partes
iguales al intervalo [a,b].
Igual que en el caso anterior, se
usa el polinomio de interpolación de
Lagrange, y usando el método de integración por partes se llega a la siguiente
fórmula:
donde h = (b-1)/3. Debido al
factor 8/3 h es que se le dió el nombre de Regla de Simpson de 3/8. En la práctica,
se sustituye el valor de h para obtener:
REGLA DE SIMPSON
DE UN TERCIO
Suponemos que tenemos los
datos:
donde Xm es el punto medio entre a y b
.
En este caso se tiene que:
donde f2(x) es el polinomio de interpolación para los
datos en la tabla anterior. Usaremos el polinomio de Lagrange.
Así, tenemos que:
Simplificando términos:
Vemos que cada uno de los términos
anteriores, es esencialmente de la misma forma, es decir, una constante
por 

Así, calculamos la siguiente
integral por partes:
Sea:
|
por lo tanto,
Usamos esta fórmula para calcular
la integral de cada uno de los tres términos de f2(x).
|
Debido al factor 1/3 h se le conoce como la regla de Simpson de un
tercio.
En la práctica, sustituímos el
valor de h = (b- a) / 2 para obtener nuestra fórmula final:
REGLA DEL TRAPECIO
Corresponde al caso donde n = 1 , es
decir :
donde f1(x) es un polinomio de interpolación (obviamente de grado 1) para los datos:
Del capítulo anterior, sabemos que
este polinomio de interpolación es:
Integrando este polinomio, tenemos
que:
|
|
Por lo tanto, tenemos que:
Que es la conocida Regla del
Trapecio. Este nombre se debe a la interpretación geométrica que le podemos dar
a la fórmula. El polinomio de interpolación para una tabla que contiene dos
datos, es una línea recta. La integral, corresponde al área bajo la línea recta
en el intervalo
, que es precisamente
el área del trapecio que se forma.

5.4 Aplicaciones
- Calculo de volúmenes.
- Los máximos y los mínimos que son la tecnica mas exacta para poder implementar al momento de construir sin desperdiciar mas menos cantidad del materia.
- Para la física se implemente para el movimiento rectilíneo uniformemente acelerado.
- Para calcular la razón de cambio de una empresa.
- Construir una presa mediante el calculo dea areas comprendidas entre 2 puntos.
- Calculo de volúmenes de revolucion.
- Para la física se implemente de ley para poder obtener las formulas necesarias para trabajar ya sea en un plano de 2 o 3 dimensiones.
- Para la dinámica y estática de partículas.
Unidad 6: Ecuaciones diferenciales ordinarias
6.1 Fundamentos de ecuaciones
diferenciales.
El objeto de este subtema es hacer una breve introducción al estudio de ecuaciones diferenciales, que constituye una de las ramas más importantes para el Cálculo, por sus innumerables aplicaciones en todas las ciencias. Definición 1 Se llama ecuación diferencial a aquella ecuación que contiene derivadas. Si la ecuación sólo tiene una sola variable independiente recibe el nombre de ecuaciones diferenciales ordinarias (EDO).Si la ecuación contiene más de una variable independiente, apareciendo así sus derivadas parciales, recibe el nombre de ecuaciones diferenciales en derivadas parciales. Definición 2 Se llama orden de una ecuación diferencial al orden de la mayor derivada que aparezca en ella. Definición 3 Se llama grado de una ecuación diferencial al grado de la derivada de mayor orden que aparezca en ella. Definición 4 Se llama solución general de una ecuación diferencial a toda relación entre las variables, libres de derivadas, que satisface dicha ecuación diferencial. Por lo común, la solución general de una ecuación diferencial de orden n tiene n constantes. Integrar o resolver una ecuación diferencial es hallar su solución general. Definición 5 Se llama solución particular de una ecuación diferencial a aquella solución que se obtiene a partir de la solución general, dando valores a las constantes. |
6.2 Métodos de un paso: Método de
Euler, Método de Euler mejorado y Método de Runge-Kutta.
Método de Euler
Este método se aplica para encontrar la solución a ecuaciones diferenciales ordinarias (EDO), esto es, cuando la función involucra solo una variable independiente.
El método se basa de forma general en la pendiente
estimada de la función para extrapolar desde un valor anterior a un nuevo
valor:
Nuevo valor = valor anterior + pendiente x tamaño de
paso.
O bien,
De esta manera, la formula (1), se aplica paso a paso
para encontrar un valor en el futuro y así trazar la trayectoria de la
solución. La figura 1, muestra el procedimiento aplicado con la ecuación
(1).
El método de Euler utiliza la pendiente al inicio del
intervalo como una aproximación de la pendiente promedio sobre todo el
intervalo. La primera derivada proporciona una estimación directa de la
pendiente en xi.
f(xi,yi), es la ecuación diferencial evaluada
en xi y yi. Sustituyendo esta estimación de la pendiente en
la ecuación (1), se tiene:
La ecuación (2), se le conoce como el método de Euler.
En esta formula se predice un nuevo valor de y por medio de la pendiente
que es igual a la primera derivada en el valor original de x, este nuevo
valor habrá de extrapolarse en forma lineal sobre el tamaño de paso h.
Método de Euler mejorado
Este método se basa en la misma idea del método
anterior, pero hace un refinamiento en la aproximación, tomando un promedio
entre ciertas pendientes.
La fórmula es la siguiente:
donde,
Para entender esta fórmula, analicemos el primer paso
de la aproximación, con base en la siguiente gráfica:
En la gráfica, vemos que la pendiente promedio corresponde a la pendiente de la recta
bisectriz de la recta tangente a la curva en el punto de la condición inicial y
la “recta tangente” a la curva en el punto (x1, y1), donde y1 es la
aproximación obtenida con la primera fórmula de Euler. Finalmente, esta recta
bisectriz se traslada paralelamente hasta el punto de la condición
inicial, y se considera el valor de esta recta en el punto x =
x1 como la aproximación de Euler mejorada.
Método de Runge-Kutta
En la sección anterior se estableció que el método de
Euler para resolver la ecuación diferencial de primer orden
Y' = f(X, Y)
|
(7)
|
con la condición inicial
Y(X0) = Y0
|
(8)
|
consiste en aplicar repetidamente la fórmula de
recurrencia
Yn+1 = Yn + h f(Xn, Yn)
donde n = 1, 2, 3, ...
|
(9)
|
para determinar la solución de la ecuación diferencial
en
X = X1, X2, X3,...
Sustituyendo la función f(X, Y) dada en (7),
en (9), se tiene que
Yn+1 = Yn + h Y'n
|
(10)
|
expresión que indica que el método de Euler consiste gráficamente, en ir de un valor Yn conocido de la solución de la ecuación diferencial (7) en un punto, al siguiente por medio de la tangente T1 a la curva integral Y = Y(X) en el mismo punto de la solución conocida, como se muestra en la siguiente figura.
De este planteamiento
gráfico puede verse que una mejor aproximación a la solución de la ecuación
diferencial se obtendría si en vez de ir por la tangente T1 para
determinar la solución en el siguiente Punto Pivote, se utiliza una
secante con pendiente igual al promedio de pendientes de la curva integral en
los puntos coordenados (Xn, Yn), (Xn+1, Yn+1) en
donde Xn+1 y Yn+1 pueden estimarse con el procedimiento
normal de Euler, como se muestra en la siguiente gráfica:
Con lo anterior se obtendría un método mejorado de
Euler con error del orden de h3 definido por la expresión
en donde f(Xn+1, Yn+1) es el valor de la
función f(X, Y) para:
X = Xn+1
Y = Yn + h f(Xn, Yn)
Observando las expresiones para resolver la ecuación diferencial, puede decirse que ambas consisten en aplicar la fórmula de recurrencia
(12)
en el método de Euler y
(14)
|
en lo que
Y' = f(X, Y)
|
en el método de Euler Mejorado. Como se ve,
estos métodos tienen los siguientes puntos en común:
Son métodos de un paso; para determinar Yn+1 se
necesita conocer únicamente los valores de Xn y Yn del
punto anterior.
No requieren evaluar ninguna derivada, sino únicamente
valores de la función f(X, Y).
Estas características dan origen a una gran variedad
de métodos conocidos como de Runge-Kutta. La diferencia entre ellos
consiste en la forma como se define la función
La ventaja de los métodos de Runge-Kutta con
respecto al uso de la serie de Taylor, que es también un método de un paso,
está expresado en el punto (2) anterior; es decir, los métodos de Runge-Kutta
requieren sólo de la función f(X, Y) y de ninguna derivada, mientras que
la serie de Taylor sí requiere de la evaluación de derivadas. Esto hace que, en
la práctica, la aplicación de los métodos de Runge-Kutta sean más simples que
el uso de la serie de Taylor.
Un método de Runge-Kutta para resolver ecuaciones
diferenciales ordinarias de primer orden con error del orden de h5, de uso
tan frecuente que en la literatura sobre métodos numéricos se le llama
simplemente el Método de Runge-Kutta, se dará a conocer sin demostrar y
consiste en aplicar la ecuación de recurrencia (12) en donde la función
está dada por la expresión:

(16)
en el cual
(17)
La ecuación (16) se obtiene haciendo un promedio de
las cuatro pendientes, k1, k2, k3 y k4 a la curva integral,
en forma semejante a como se procedió con las pendientes de las tangentes T1 y T2 que
dieron lugar a (11).
6.3 Métodos de pasos múltiples
Los métodos de un paso descritos en las secciones
anteriores utilizan información en un solo punto xi para predecir un valor
de la variable dependiente yi+1 en un punto futuro xi+1. Procedimientos
alternativos, llamados métodos multipaso, se basan en el conocimiento de que
una vez empezado el cálculo, se tiene información valiosa de los puntos
anteriores y está a nuestra disposición.
La curvatura de las líneas que conectan esos valores
previos proporciona información con respecto a la trayectoria de la solución.
Los métodos multipaso que exploraremos aprovechan esta información para
resolver las EDO.
Antes de describir las versiones de orden superior,
presentaremos un método simple de segundo orden que sirve para demostrar las
características generales de los procedimientos multipaso.
6.4 Aplicaciones a la ingeniería.
Método de Euler
Ejercicio 1. Use el método de Euler para integrar
numéricamente la siguiente ecuación diferencial:
Desde x = 0 hasta x = 4, con un tamaño de paso h =
0.5. Con la condición inicial de que cuando x = 0 entonces y = 1. Obtenga
la solución exacta integrando analíticamente y compare los resultados con
los obtenidos por el método de Euler. Tabular los resultados de Euler, la
solución real y el error relativo porcentual.
Ejemplo:
Aplicando la ecuación (2), para encontrar la primera
aproximación:
x1= 0
y1= 1
y2 = y1 + f (x1, y1 )h
La pendiente es:
f(0,1)= -2(0)3 +12(0)2 -20(0)+8.5 = 8.5
Sustituyendo en la formula de Euler
y2 = 1 + 8.5(0.5) = 5.25
Método de Euler mejorado
Aplicar el método de Euler mejorado, para
aproximar y(0.5) si:
y' = 2xy
y(0) = 1
Solución
Vemos que este es el mismo ejemplo 1 del método anterior. Así que definimos h = 0.1 y encontraremos la aproximación después de cinco iteraciones. A diferencia del método de Euler 1, en cada iteración requerimos de dos cálculos en vez de uno solo: el deyn* primero y posteriormente el de yn.
Vemos que este es el mismo ejemplo 1 del método anterior. Así que definimos h = 0.1 y encontraremos la aproximación después de cinco iteraciones. A diferencia del método de Euler 1, en cada iteración requerimos de dos cálculos en vez de uno solo: el deyn* primero y posteriormente el de yn.
Para aclarar el método veamos con detalle las primeras
dos iteraciones. Primero que nada, aclaramos que tenemos los siguientes datos
iniciales:
En nuestra primera iteración tenemos:
Nótese que el valor de y1* coincide con
el y1 (Euler 1), y es el único valor que va a coincidir, pues para
calcular y2* se usará y1 y no y1*.
Esto lo veremos claramente en la siguiente iteración:
Nótese que ya no coinciden los valores
de y2 (Euler 1) y el de y2*. El proceso debe seguirse
hasta la quinta iteración. Resumimos los resultados en la siguiente
tabla:
n
|
xn
|
yn
|
0
|
0
|
1
|
1
|
0.1
|
1.01
|
2
|
0.2
|
1.040704
|
3
|
0.3
|
1.093988
|
4
|
0.4
|
1.173192
|
5
|
0.5
|
1.28336
|
Concluímos entonces que la aproximación obtenida con
el método de Euler mejorado es:
y(0.5) = 1.28336
Con fines de comparación,
calculamos el error relativo verdadero:
Vemos que efectivamente se ha obtenido una mejor
aproximación con este método, reduciendo el error relativo verdadero de un 5.4%
hasta un 0.05%. En nuestro tercer método veremos cómo se reduce aún más este
error prácticamente a un 0%!