viernes, 22 de mayo de 2015

Investigacion metodos numericos Unidad 4, 5 y 6

Unidad 4: Ajuste de curvas e interpolación
El ajuste de curvas consiste en encontrar una curva que contenga una serie de puntos y que posiblemente cumpla una serie de restricciones adicionales. Esta sección es una introducción tanto a la interpolación (cuando se espera un ajuste exacto a determinadas restricciones) y al ajuste de curvas/análisis de regresión (cuando se permite una aproximación).

4.1 Interpolación: Lineal y cuadrática.


La interpolación lineal es un caso particular de la Interpolación general de Newton. Con el polinomio de interpolación de Newton se logra aproximar un valor de la función f(x) en un valor desconocido de x. El caso particular, para que una interpolación sea lineal es en el que se utiliza un polinomio de interpolación de grado 1, y se denota de la siguiente manera:



En general la interpolación consiste en hallar un dato dentro de un intervalo en el que conocemos los valores en los extremos. Se presenta cuando nos dan una función de la cuál sólo conocemos una serie de puntos de la misma:


 


Y si se pide hallar el valor de un punto x (intermedio de x0 y xn) de esta función. Se le llama polinomio interpolador a estos puntos, los valores obtenidos son sólo estimaciones aproximadas.
La interpolación se llama lineal cuando sólo se toman dos puntos y cuadrática cuando se tomen tres.

Interpolación lineal:

Sean dos puntos (x0, y0), (x1, y1), la interpolación lineal consiste en hallar una estimación del valor y, para un valor x, tal que x0<x< x1. Teniendo en cuanta que la ecuación de la recta que pasa por esos dos puntos, obtenemos: 

 


Un polinomio de interpolación es una función polinomial que además de interpolar los datos, es el de menor grado posible.
Caso 1: En este caso tenemos que f (x) = y0 (polinomio constante) es el polinomio de menor grado tal que f (x0) = y0, por lo tanto, es el polinomio de interpolación: (x0, y0)

Caso 2: Tenemos los datos: (x0, y0), (x1, y1) en este caso el polinomio de interpolación es la función lineal que une a los dos puntos dados. Por lo tanto tenemos que:

Es el polinomio de interpolación.

 






Interpolación cuadrática:
Cuando se tiene  más de dos puntos:

 Caso 3: tenemos los datos (x0, y0), (x1, y1), (x2, y2). Para este caso, el polinomio de interpolación va a ser un polinomio de grado 2, el polinomio de interpolación será como sigue. 



 


El término cuadrático viene dado por


4.2 Polinomios de interpolación: Diferencias divididas de Newton y de Lagrange.

El problema de la interpolación tiene propiamente tres cuestiones:
 ·         Saber si tiene solución o no.
·         En caso de tenerla, ¿dicha solución es ´única o existen varias?
·         Y finalmente métodos de cálculo lo más eficientes posibles.

 A este respecto en interpolación polinómica tenemos el siguiente resultado:

Teorema 1. Supongamos conocido el valor de una función f(x) en un conjunto de puntos distintos dos a dos x0, x1,. . ., xn. Entonces, existe un único polinomio P(x) 2 <n[x] (esto es, polinomios de grado menor o igual que n) que interpola a la función en esos puntos, es decir, P (xi) = f (xi) con i = 0,. . ., n.
 La prueba más directa (con el coste de unos leves conocimientos de álgebra) consiste en plantear el sistema lineal de ecuaciones (ahora las incógnitas son los coeficientes del polinomio P buscado) y darse cuenta de que es un sistema compatible determinado al tener matriz de coeficientes de tipo Van der Monde (con los xi distintos dos a dos) y por tanto invertible.
Otra forma inmediata de ver la unicidad de solución al problema consiste en imaginar la existencia de dos polinomios P y Q de grado n satisfaciendo la tesis del teorema.

Interpolación de Lagrange
 En análisis numérico, el polinomio de Lagrange, llamado así en honor a Joseph-Louis de Lagrange, es el polinomio que interpola un conjunto de puntos dado en la forma de Lagrange. Dado que existe un único polinomio interpolador para un determinado conjunto de puntos, resulta algo confuso llamar a este polinomio el polinomio interpolador de Lagrange. Un nombre más conciso es interpolación polinómica en la forma de Lagrange.

Dado un conjunto de k + 1 puntos:


Donde todos los xj se asumen distintos, el polinomio interpolador en la forma de Lagrange es la combinación lineal:






De bases polinómicas de Lagrange:



 

La resolución de un problema de interpolación lleva a un problema de álgebra lineal en el cual se debe resolver un sistema de ecuaciones. Usando una base monómica estándar para nuestro polinomio interpolador, llegamos a la matriz de Vandermonde. Eligiendo una base distinta, la base de Lagrange, llegamos a la forma más simple de matriz identidad = δi, j, que puede resolverse inmediatamente.
Entre las desventajas de su uso tenemos que si se aumenta en número de puntos a interpolar (o nodos) con la intención de mejorar la aproximación a una función, también lo hace el grado del polinomio interpolador así obtenido, por norma general. De este modo, aumenta la dificultad en el cálculo, haciéndolo poco operativo manualmente a partir del grado 4, dado que no existen métodos directos de resolución de ecuaciones de grado 4, salvo que se puedan tratar como ecuaciones bicuadradas, situación extremadamente rara.
La tecnología actual permite manejar polinomios de grados superiores sin grandes problemas, a costa de un elevado consumo de tiempo de computación. Pero, a medida que crece el grado, mayores son las oscilaciones entre puntos consecutivos o nodos. Se podría decir que a partir del grado 6 las oscilaciones son tal que el método deja de ser válido, aunque no para todos los casos.
Sin embargo, pocos estudios requieren la interpolación de tan sólo 6 puntos. Se suelen contar por decenas e incluso centenas. En estos casos, el grado de este polinomio sería tan alto que sería inoperable. Por lo tanto, en estos casos, se recurre a otra técnica de interpolación, como por ejemplo a la Interpolación polinómica de Hermite o a los splines cúbicos
Otra gran desventaja, respecto a otros métodos de interpolación, es la necesidad de recalcular todo el polinomio si se varía el número de nodos.

 

Polinomios de interpolación con diferencias divididas de Newton.
Cualquier polinomio de <n[x] se puede expresar en forma única como una combinación lineal de los monomios {1, x, x2,. . ., xn}, pues son evidentemente sistema generador y además linealmente independientes (luego forman una base del espacio vectorial), la más simple de hecho, la base canoníca.
Esta base, que es adecuada para algunas manipulaciones inmediatas de polinomios como nombrábamos en la sección anterior (derivación e integración por ejemplo), no es, sin embargo, la más adecuada para construir en principio el polinomio interpolador.
Vimos que resultaba útil incluir los propios nodos del problema en los polinomios a construir, de modo que en este parágrafo adoptamos una solución intermedia.

4.3 Regresión por mínimos cuadrados: Lineal y Cuadrática.

En el marco del análisis estadístico multidimensional interesa, en gran medida, descubrir la interdependencia o la relación existente entre dos o más de las características analizadas.
La dependencia entre dos (o más) variables puede ser tal que se base en una relación funcional (matemática) exacta, como la existente entre la velocidad y la distancia recorrida por un móvil; o puede ser estadística. La dependencia estadística es un tipo de relación entre variables tal que conocidos los valores de la (las) variable (variables) independiente(s) no puede determinarse con exactitud el valor de la variable dependiente, aunque si se puede llegar a determinar un cierto comportamiento (global) de la misma. (Ej. La relación existente entre el peso y la estatura de los individuos de una población es una relación estadística). Pues bien, el análisis de la dependencia estadística admite dos planteamientos (aunque íntimamente relacionados):
·         El estudio del grado de dependencia existente entre las variables que queda recogido en la teoría de la correlación.


·         La determinación de la estructura de dependencia que mejor exprese la relación, lo que es analizado a través de la regresión.

Mínimos cuadrados es una técnica de análisis numérico encuadrada dentro de la optimización matemática, en la que, dados un conjunto de pares ordenados: (variable independiente, variable dependiente) y una familia de funciones, se intenta encontrar la función, dentro de dicha familia, que mejor se aproxime a los datos (un "mejor ajuste"), de acuerdo con el criterio de mínimo error cuadrático.

En su forma más simple, intenta minimizar la suma de cuadrados de las diferencias ordenadas (llamadas residuos) entre los puntos generados por la función y los correspondientes en los datos. Específicamente, se llama mínimos cuadrados promedio cuando el número de datos medidos es 1 y se usa el método de descenso por gradiente para minimizar el residuo cuadrado. Se puede demostrar que LMS minimiza el residuo cuadrado esperado, con el mínimo de operaciones (por iteración), pero requiere un gran número de iteraciones para converger.

Desde un punto de vista estadístico, un requisito implícito para que funcione el método de mínimos cuadrados es que los errores de cada medida estén distribuidos de forma aleatoria. El teorema de Gauss-Márkov prueba que los estimadores mínimos cuadráticos carecen de sesgo y que el muestreo de datos no tiene que ajustarse, por ejemplo, a una distribución normal. También es importante que los datos recogidos estén bien escogidos, para que permitan visibilidad en las variables que han de ser resueltas (para dar más peso a un dato en particular, véase mínimos cuadrados ponderados).

La técnica de mínimos cuadrados se usa comúnmente en el ajuste de curvas. Muchos otros problemas de optimización pueden expresarse también en forma de mínimos cuadrados, minimizando la energía o maximizando la entropía.

La aproximación mínimo cuadrática consiste en minimizar el error cuadrático mencionado más arriba, y tiene solución general cuando se trata de un problema de aproximación lineal (lineal en sus coeficientes) cualesquiera que sean las funciones base: antes mencionadas. Por lineal se entiende que la aproximación buscada se expresa como una combinación lineal de dichas funciones base. Para hallar esta expresión se puede seguir un camino analítico, expuesto abajo, mediante el cálculo multivariable, consistente en optimizar los coeficientes; o bien, alternativamente, seguir un camino geométrico con el uso del álgebra lineal, como se explica más abajo, en la llamada deducción geométrica. Para los Modelos estáticos uniecuacionales, el método de mínimos cuadrados no ha sido superado, a pesar de diversos intentos para ello, desde principios del Siglo XIX. Se puede demostrar que, en su género, es el que proporciona la mejor aproximación.

4.4 Aplicaciones.

Se puede utilizar en el cálculo de estructuras, instalaciones eléctricas, hidráulicas y sanitarias, en cálculos de carreteras, topografía y hasta en diseño de las estructuras, no en todos los casos pero principalmente cuando hay mala toma de datos o haya datos faltantes.
En el subcampo matemático del análisis numérico, un spline es una curva diferenciable definida en porciones mediante polinomios.
En los problemas de interpolación, se utiliza a menudo la interpolación mediante splines porque da lugar a resultados similares requiriendo solamente el uso de polinomios de bajo grado, evitando así las oscilaciones, indeseables en la mayoría de las aplicaciones, encontradas al interpolar mediante polinomios de grado elevado.
Para el ajuste de curvas, los splines se utilizan para aproximar formas complicadas. La simplicidad de la representación y la facilidad de cómputo de los splines los hacen populares para la representación de curvas en informática, particularmente en el terreno de los gráficos por ordenado. Tenemos los siguientes 3:
·         Interpolación Segmentaria Lineal
·         Interpolación Segmentaria Cuadrática
·         Interpolación Segmentaria Cúbica

Unidad 5: Derivacion e integracion numerica

5.1 Derivacion numerica

Consideremos una función f(x) de la cual se conoce un conjunto discreto de valores (x0, f0), (x1, f1),...,(xn, fn). El problema que vamos a abordar es el de calcular la derivada de la función en un punto x que en principio no tiene porqué coincidir con alguno de los que figuran en los datos de que disponemos. La forma más sencilla de resolver el problema de la diferenciación numérica consiste en estimar la derivada utilizando fórmulas obtenidas mediante la aproximación de Taylor, que se denominan fórmulas de diferencias finitas.

La derivación numérica es una técnica de análisis numérico para calcular una aproximación a la derivada de una función en un punto utilizando los valores y propiedades de la misma.
   
Por definición la derivada de una función f(x) es:





Las aproximaciones numéricas que podamos hacer (para h > 0) serán:

Diferencias hacia adelante:



Diferencias hacia atrás:


La aproximación de la derivada por este método entrega resultados aceptables con un determinado error. Para minimizar los errores se estima que el promedio de ambas entrega la mejor aproximación numérica al problema dado:
Diferencias centrales:








5.2 Integracion numerica: Metodo del trapecio, Metodos de Simpson 1/3 y 3/8

"La integracion numerica es una herraminta esencial que se usa en la ciencia y en la ingenieria para obtener valores aporximados de integrales para obtener valores aproximados de integrañes definidas que no pueden calcularse analiticamente".

        Método del trapecio:

 La regla del trapecio es un método de integración numérica, es decir, un método para calcular aproximadamente el valor de la integral definida. La regla se basa en aproximar el valor de la integral de f(x) por el de la función lineal que pasa a través de los puntos (a, f(a)) y (b, f(b)). La integral de ésta es igual al área del trapecio bajo la gráfica de la función lineal. Se sigue que:








Ejemplo metodo del trapecio:


Métodos de Simpson 1/3 y 3/8

La regla de Simpson tiene mayor aproximación que regla de los trapecios. En la regla de los trapecios los puntos sucesivos de la grafica y = f(x) se unen mediante líneas que forman los trapecios, en la regla de Simpson los puntos se unen mediante segmentos de parábolas.            
En análisis numérico, la regla o método de Simpson (nombrada así en honor deThomas Simpson) y a veces llamada regla de Kepler es un método de integración numéricaque se utiliza para obtener la aproximación de la integral: 






Estos resultados confirman claramente la convergencia de la regla de Simpson en este ejemplo particular. Podemos ver que cada ves que se duplica la n, lo cual equivale a dividir la h entre dos, el error disminuye por un factor de 16 aproximadamente

5.3 Integracion con intervalos desiguales

Cuando la longitud de los subintervalos no es igual,  se usa una combinación de la regla Trapezoidal y las reglas de Simpson, procurando seguir el siguiente orden jerárquico: 

1 .- Simpson 3/8         
Esta se aplica, si contamos con  4  puntos igualmente espaciados. 

2 .-  Simpson  1/3  
        Esta   se    aplica   si  falla  (1)  y   contamos  con 3  puntos   igualmente espaciados.

3 .-  Regla Trapezoidal      
        Solo se aplica  si no se cumple (1)  y (2)


REGLA  DE  SIMPSON DE TRES OCTAVOS 

Este caso corresponde a   n = 3 , es decir, 
  

donde  f3(x) es un polinomio de interpolación para los siguientes datos: 


Y donde  a = x0,   b = x3  y  x1, x2  son los puntos que dividen en tres partes iguales al intervalo  [a,b].
Igual que en el caso anterior, se usa  el polinomio de interpolación de Lagrange, y usando el método de integración por partes se llega a la siguiente fórmula: 

  
donde  h = (b-1)/3. Debido al factor  8/3 h es que se le dió el nombre  de Regla de Simpson de 3/8. En la práctica, se sustituye el valor de h para obtener: 

  



























REGLA  DE  SIMPSON  DE  UN  TERCIO

Suponemos que tenemos los datos: 





donde    Xm  es el punto medio entre  a  y  b
.
En este caso se tiene que:

  





donde   f2(x) es el polinomio de interpolación para los datos en la tabla anterior. Usaremos el polinomio de Lagrange. 

Así, tenemos que:

  



Si denotamos   entonces: 

  
Simplificando términos: 

  
Vemos que cada uno de los términos anteriores, es esencialmente de la misma forma, es decir, una constante por  

Así, calculamos la siguiente integral por partes: 


Sea:



por lo tanto, 
  
                                                      
Usamos esta fórmula para calcular la integral de cada uno de los tres términos de  f2(x).








Debido al factor  1/3 h se le conoce como la regla de Simpson de un tercio.
En la práctica, sustituímos el valor de  h = (b- a) / 2 para obtener nuestra fórmula final: 


  



   
REGLA DEL TRAPECIO 

Corresponde al caso donde  n = 1 ,  es decir  :  




  
donde  f1(x) es un polinomio  de interpolación  (obviamente de grado 1) para los datos:  




Del capítulo anterior, sabemos que este polinomio de interpolación es:

  
Integrando este polinomio, tenemos que:










Por lo tanto, tenemos que: 

  
Que es la conocida Regla del Trapecio. Este nombre se debe a la interpretación geométrica que le podemos dar a la fórmula. El polinomio de interpolación para una tabla que contiene dos datos, es una línea recta. La integral, corresponde al área bajo la línea recta en el intervalo  trapec26, que es precisamente el área del trapecio que se forma.




5.4 Aplicaciones
  •       Calculo de volúmenes.
  •       Los máximos y los mínimos que son la tecnica mas exacta para poder implementar al momento de construir sin desperdiciar mas menos cantidad del materia.
  •          Para la física se implemente para el movimiento rectilíneo uniformemente acelerado.
  •          Para calcular la razón de cambio de una empresa.
  •          Construir una presa mediante el calculo dea areas comprendidas entre 2 puntos.
  •          Calculo de volúmenes de revolucion.
  •          Para la física se implemente de ley para poder obtener las formulas necesarias para trabajar ya sea en un plano de 2 o 3 dimensiones.
  •          Para la dinámica y estática de partículas.



    Unidad 6: Ecuaciones diferenciales ordinarias
6.1 Fundamentos de ecuaciones diferenciales.

El objeto de este subtema es hacer una breve introducción al estudio de ecuaciones diferenciales, que constituye una de las ramas más importantes para el Cálculo, por sus innumerables aplicaciones en todas las ciencias.

Definición 1 Se llama ecuación diferencial a aquella ecuación que contiene derivadas. Si la ecuación sólo tiene una sola variable independiente recibe el nombre de ecuaciones diferenciales ordinarias (EDO).Si la ecuación contiene más de una variable independiente, apareciendo así sus derivadas parciales, recibe el nombre de ecuaciones diferenciales en derivadas parciales.


Definición 2 Se llama orden de una ecuación diferencial al orden de la mayor derivada que aparezca en ella.


Definición 3 Se llama grado de una ecuación diferencial al grado de la derivada de mayor orden que aparezca en ella.


Definición 4 Se llama solución general de una ecuación diferencial a toda relación entre las variables, libres de derivadas, que satisface dicha ecuación diferencial. Por lo común, la solución general de una ecuación diferencial de orden n tiene n constantes. Integrar o resolver una ecuación diferencial es hallar su solución general.


Definición 5 Se llama solución particular de una ecuación diferencial a aquella solución que se obtiene a partir de la solución general, dando valores a las constantes.

6.2 Métodos de un paso: Método de Euler, Método de Euler mejorado y Método de Runge-Kutta.

Método de Euler


Este método se aplica para encontrar la solución a ecuaciones diferenciales ordinarias (EDO), esto es, cuando la función involucra solo una variable independiente.


El método se basa de forma general en la pendiente estimada de la función para extrapolar desde un valor anterior a un nuevo valor:
Nuevo valor = valor anterior + pendiente x tamaño de paso.
O bien,

De esta manera, la formula (1), se aplica paso a paso para encontrar un valor en el futuro y así trazar la trayectoria de la solución. La figura 1, muestra el procedimiento aplicado con la ecuación (1).

 





El método de Euler utiliza la pendiente al inicio del intervalo como una aproximación de la pendiente promedio sobre todo el intervalo. La primera derivada proporciona una estimación directa de la pendiente en xi.

 
f(xi,yi), es la ecuación diferencial evaluada en xi y yi. Sustituyendo esta estimación de la pendiente en la ecuación (1), se tiene:

 



La ecuación (2), se le conoce como el método de Euler. En esta formula se predice un nuevo valor de y por medio de la pendiente que es igual a la primera derivada en el valor original de x, este nuevo valor habrá de extrapolarse en forma lineal sobre el tamaño de paso h.
Método de Euler mejorado
Este método se basa en la misma idea del método anterior, pero hace un refinamiento en la aproximación, tomando un promedio entre ciertas pendientes. 
La fórmula es la siguiente:


 
 



donde,



Para entender esta fórmula, analicemos el primer paso de la aproximación, con base en la siguiente gráfica: 

 
 




En la gráfica, vemos que la pendiente promedio  corresponde a la pendiente de  la recta bisectriz de la recta tangente a la curva en el punto de la condición inicial y la “recta tangente” a la curva en el punto (x1, y1), donde y1 es la aproximación obtenida con la primera fórmula de Euler. Finalmente, esta recta bisectriz se traslada paralelamente  hasta el punto de la condición inicial, y se considera el valor de esta recta en  el punto x = x1 como la aproximación de Euler mejorada. 
Método de Runge-Kutta
En la sección anterior se estableció que el método de Euler para resolver la ecuación diferencial de primer orden 

Y' = f(X, Y)

(7)
con la condición inicial
Y(X0) = Y0

(8)
consiste en aplicar repetidamente la fórmula de recurrencia

Yn+1 = Yn + h f(Xn, Yn) donde n = 1, 2, 3, ...

(9)
para determinar la solución de la ecuación diferencial en
X = X1, X2, X3,...
Sustituyendo la función f(X, Y) dada en (7), en (9), se tiene que

Yn+1 = Yn + h Y'n

(10)

expresión que indica que el método de Euler consiste gráficamente, en ir de un valor Yn conocido de la solución de la ecuación diferencial (7) en un punto, al siguiente por medio de la tangente T1 a la curva integral Y = Y(X) en el mismo punto de la solución conocida, como se muestra en la siguiente figura. 


De este planteamiento gráfico puede verse que una mejor aproximación a la solución de la ecuación diferencial se obtendría si en vez de ir por la tangente T1 para determinar la solución en el siguiente Punto Pivote, se utiliza una secante con pendiente igual al promedio de pendientes de la curva integral en los puntos coordenados (Xn, Yn), (Xn+1, Yn+1) en donde Xn+1 y Yn+1 pueden estimarse con el procedimiento normal de Euler, como se muestra en la siguiente gráfica:



Con lo anterior se obtendría un método mejorado de Euler con error del orden de h3 definido por la expresión 

 



en donde f(Xn+1, Yn+1) es el valor de la función f(X, Y) para:
X = Xn+1
Y = Yn + h f(Xn, Yn)


Observando las expresiones para resolver la ecuación diferencial, puede decirse que ambas consisten en aplicar la fórmula de recurrencia


                                                                       (12)

en donde

(13)
 en el método de Euler y

(14)
en lo que
Y' = f(X, Y)


en el método de Euler Mejorado. Como se ve, estos métodos tienen los siguientes puntos en común:
Son métodos de un paso; para determinar Yn+1 se necesita conocer únicamente los valores de Xn y Yn del punto anterior.
No requieren evaluar ninguna derivada, sino únicamente valores de la función f(X, Y).
Estas características dan origen a una gran variedad de métodos conocidos como de Runge-Kutta. La diferencia entre ellos consiste en la forma como se define la función 

  que aparece en la expresión (12).


La ventaja de los métodos de Runge-Kutta con respecto al uso de la serie de Taylor, que es también un método de un paso, está expresado en el punto (2) anterior; es decir, los métodos de Runge-Kutta requieren sólo de la función f(X, Y) y de ninguna derivada, mientras que la serie de Taylor sí requiere de la evaluación de derivadas. Esto hace que, en la práctica, la aplicación de los métodos de Runge-Kutta sean más simples que el uso de la serie de Taylor.
Un método de Runge-Kutta para resolver ecuaciones diferenciales ordinarias de primer orden con error del orden de h5, de uso tan frecuente que en la literatura sobre métodos numéricos se le llama simplemente el Método de Runge-Kutta, se dará a conocer sin demostrar y consiste en aplicar la ecuación de recurrencia (12) en donde la función  está dada por la expresión:






(16)


en el cual 












(17)

La ecuación (16) se obtiene haciendo un promedio de las cuatro pendientes, k1, k2, k3 y k4 a la curva integral, en forma semejante a como se procedió con las pendientes de las tangentes T1 y T2 que dieron lugar a (11).

6.3 Métodos de pasos múltiples
Los métodos de un paso descritos en las secciones anteriores utilizan información en un solo punto xi para predecir un valor de la variable dependiente yi+1 en un punto futuro xi+1. Procedimientos alternativos, llamados métodos multipaso, se basan en el conocimiento de que una vez empezado el cálculo, se tiene información valiosa de los puntos anteriores y está a nuestra disposición.
La curvatura de las líneas que conectan esos valores previos proporciona información con respecto a la trayectoria de la solución. Los métodos multipaso que exploraremos aprovechan esta información para resolver las EDO.
Antes de describir las versiones de orden superior, presentaremos un método simple de segundo orden que sirve para demostrar las características generales de los procedimientos multipaso.




6.4 Aplicaciones a la ingeniería.

Método de Euler
Ejercicio 1. Use el método de Euler para integrar numéricamente la siguiente ecuación diferencial:


Desde x = 0 hasta x = 4, con un tamaño de paso h = 0.5. Con la condición inicial de que cuando x = 0 entonces y = 1. Obtenga la solución exacta integrando analíticamente y compare los resultados con los obtenidos por el método de Euler. Tabular los resultados de Euler, la solución real y el error  relativo porcentual.
Ejemplo:
Aplicando la ecuación (2), para encontrar la primera aproximación:
x1= 0
y1= 1
y2 = y1 + f (x1, y1 )h
La pendiente es:
f(0,1)= -2(0)3 +12(0)2 -20(0)+8.5 = 8.5
Sustituyendo en la formula de Euler
y2 = 1 + 8.5(0.5) = 5.25
Método de Euler mejorado
Aplicar el método de Euler mejorado, para aproximar y(0.5) si: 

y' = 2xy
y(0) = 1
Solución
Vemos que este es el mismo ejemplo 1 del método anterior. Así que definimos h = 0.1 y encontraremos la aproximación después de cinco iteraciones. A diferencia del método de Euler 1, en cada iteración requerimos de dos cálculos en vez de uno solo: el deyn* primero  y posteriormente el de  yn.
Para aclarar el método veamos con detalle las primeras dos iteraciones. Primero que nada, aclaramos que tenemos los siguientes datos iniciales:  
 







En nuestra primera iteración tenemos:



Nótese que el valor de y1*   coincide con el y1 (Euler 1), y es el único valor que va a coincidir, pues para calcular  y2* se usará  y1  y no  y1*.
Esto lo veremos claramente en la siguiente iteración:



Nótese que ya no coinciden los valores de  y2 (Euler 1) y el de y2*. El proceso debe seguirse hasta la quinta iteración. Resumimos los resultados en la siguiente tabla: 


n
xn
yn
0
0
1
1
0.1
1.01
2
0.2
1.040704
3
0.3
1.093988
4
0.4
1.173192
5
0.5
1.28336

Concluímos entonces que la aproximación obtenida con el método de Euler mejorado  es:
y(0.5) = 1.28336
Con fines de comparación, calculamos el error relativo verdadero: 


Vemos que efectivamente se ha obtenido una mejor aproximación con este método, reduciendo el error relativo verdadero de un 5.4% hasta un 0.05%. En nuestro tercer método veremos cómo se reduce aún más este error prácticamente a un 0%!