jueves, 9 de octubre de 2008

METODO DEL TRAPECIO COMPUESTO

Regla del Trapecio Compuesto

Aplicando propiedades de la integral, vamos a dividir el intervalo en dos intervalos iguales.

MÉTODOS DE INTEGRACIÓN APROXIMADA

METODO DEL TRAPECIO SIMPLE

El método más simple e intuitivo de integración aproximada es el método de los trapecios, en el que se sustituye la función o la curva por varias cuerdas que unen los extremos de las ordenadas (también se puede decir que se sustituye en cada tramo por un polinomio de primer grado). Es evidente que se conseguirá mayor precisión en la medida en que tengamos un número mayor de ordenadas y por consiguiente de cuerdas, pues la adaptación de las cuerdas a la función mejora, tal y como podemos ver en las figuras siguientes.





El procedimiento de cálculo consiste en hallar el área de los distintos trapecios entre ordenadas consecutivas y sumarlos todos. Aquí partimos de que la separación entre ordenadas consecutivas es siempre la misma, o sea, igual a alfa

MÉTODO DE LA SECANTE

En análisis numérico el método de la secante es un método para encontrar los ceros de una función de forma iterativa.
Es una variación del método de Newton-Raphson donde en vez de calcular la derivada de la función en el punto de estudio, teniendo en mente la definición de derivada, se aproxima la pendiente a la recta que une la función evaluada en el punto de estudio y en el punto de la iteración anterior. Este método es de especial interés cuando el coste computacional de derivar la función de estudio y evaluarla es demasiado elevado, por lo que el método de Newton no resulta atractivo.
El método se define por la relación de recurrencia:



Como se puede ver, este método necesitará dos aproximaciones iniciales de la raíz para poder inducir una pendiente inicial.
El método se basa en obtener la ecuación de la recta que pasa por los puntos (xn−1, f(xn−1)) y (xn, f(xn)). A dicha recta se le llama secante por cortar la gráfica de la función. Posteriormente se escoge como siguiente elemento de la relación de recurrencia, xn+1, la intersección de la recta secante con el eje de abscisas obteniendo la fórmula.

MÉTODO DEL PUNTO FIJO

Este método sirve para encontrar las raíces de una ecuación y consiste en los siguientes pasos:
1. Nos deben dar la función a la cual le debemos encontrar la raíz, es decir, debemos conocer f(x)=0.
2.Nos deben de dar un valor inicial xo. Ejemplo xo = 0.
3. De la función f(x) debemos de despejar x de manera que encontremos una nueva función de x llamada ahora g(x).
4.Se deriva la función g(x). En el caso de que el valor absoluto de la derivada de g(x) sea menor a uno, se asegura que el despeje realizado funcione.

5. Luego se evalúa g(x) utilizando primero xo. El resultado de esta evaluación se convierte en el nuevo valor de x y así se continúa hasta encontrar la raíz deseada desde luego, satisfaciendo un error deseado.



Algoritmo:

Para obtener una solución a p=g(p) dada una aproximación inicial Po.

ENTRADA: Aproximación inicial xo; Tolerancia TOL; Numero máximo de iteraciones No.

SALIDA: Solución aproximada p o mensaje de fracaso.

Paso 1. Tome i =1

Paso 2. Mientras i≤No haga Pasos 3-6

Paso 3. Tome p=g(xo). (Calcule pi)

Paso 4. Si ú p-poú < TOL entonces

Salida (p); (Procedimiento terminado satisfactoriamente).

Pare

Paso 5. Tome i=i+1

Paso 6. Tome po=p (redefina po)

Paso 7. ('El método fracasó después de No iteraciones No=', No);

(Procedimiento terminado sin éxito)

Pare.

MÉTODO DE NEWTON RAPHSON

Método de Newton-Raphson

El Método de Newton-Raphson es ampliamente utilizado para encontrar las raices de la ecuación f(x)=0, ya que converge rapidamente, la contra es que uno debe conocer la derivada de f(x) y se necesita una aproximación inicial a la raiz.

xn = xn-1 - f(xn-1)/f '(xn-1)
Un ejemplo

Encontrar la raiz de la ecuación x3 + 4.0*x2 - 10.0 = 0, tomando como aproximación inicial para la raiz x=1.0 y N=10 (número máximo de iteraciones) y una tolerencia máxima TOL=0.0000001.

f(x)=x3 + 4.0*x2 - 10.0

f '(x)=3*x2 + 8.0*x

la raiz es x=1.36523001.


Código Fuente






//**************************************
//Metodo de Newton-Rapson para aproximar
//las raices de la ecuacion f(x)=0
//BorlandC 3.1
//Maestria en Desarrollo de Software
//Instituto de Estudios superiores de Chiapas
//**************************************

#include <stdio.h>
#include <math.h>
//la utilizo para las funciones getch() y clrscr()
#include <conio.h>

//numero maximo de iteraciones
#define N 10
//tolerancia maxima
#define TOL 0.0000001

//funcion a aproximar
//f(x)=x^3 + 4.0*x^2 - 10.0
double f(double x)
{
return (x*x*x + 4.0*x*x - 10.0);
}

//derivada de la funcion f(x)
//f'(x)=3*x^2 + 8.0*x
double df(double x)
{
return (3.0*x*x + 8.0*x);
}

int main(void)
{
double x, x0;
int i;

clrscr();
i=1;
//aproximacion inicial de la raiz, de f(x)
x0=1.0;
printf("%d %15.12lf\n", i, x0);
while (i<N)
{
x=x0-f(x0)/df(x0);
if (fabs(x-x0)<TOL)
{
//se alcanzo la tolerancia pedida
//y no se supero el numero maximo
//de iteraciones, esta es la raiz
//buscada.
printf("raiz x = %15.12lf\n", x);
getch();
return 0;
};
i+=1;
x0=x;
//muestra las sucesivas aproximaciones de la raiz.
printf("%d %15.12lf\n", i, x);
}
//se alcanzo el numero maximo de iteraciones pero no
//la tolerancia pedida, el metodo fallo.
printf("Se alcanzo el numero maximo de iteraciones");
getch();
return 0;
}



MÉTODO DE BISECCIÓN


En matemática, el método de bisección es un algoritmo de búsqueda de raíces que trabaja dividiendo el intervalo a la mitad y seleccionando el subintervalo que tiene la raíz.

Supóngase que queremos resolver la ecuación f(x) = 0 (donde f es continua. Dados dos puntos a y b tal que f(a) y f(b) tengan signos distintos, sabemos por el Teorema de Bolzano que f debe tener, al menos, una raíz en el intervalo [a, b]. El método de bisección divide el intervalo en dos, usando un tercer punto c = (a+b) / 2. En este momento, existen dos posibilidades: f(a) y f(c), ó f(c) y f(b) tienen distinto signo. El algoritmo de bisección se aplica al subintervalo donde el cambio de signo ocurre.

El método de bisección es menos eficiente que el método de Newton, pero es mucho más seguro asegurar la convergencia.

Si f es una función continua en el intervalo [a, b] y f(a)f(b) < 0, entonces este método converge a la raíz de f. De hecho, una cota del error absoluto es:

PRECISION Y EXACTITUD

A veces no distinguimos bien la diferencia entre los conceptos exactitud y precisión, por ejemplo los errores asociados con los cálculos y medidas se pueden caracterizar observando su exactitud y su precisión. La exactitud e refiere a qué tan cercano está el valor calculado o medido con el valor verdadero. La precisión se refiere, a qué tan cercano está un valor individual medido o calulado con respecto a los otros.
Usando una analogía de una diana de prácticas para tiro, los agujeros en cada blanco se pueden imaginar como las predicciones en una técnica númerica, mientras que el centro del blanco representa la verdad. La inexactitud también conocida como sesgo se define como un alejamiento sistemático de la verdad. En la figura observamos que los disparos en c) y están mas juntos que en a), los dos casos son igualmente inexactos ya que ambos se centran en la esquina superior izquierda del blanco. La imprecisión también llamada incertidumbre, sobre el otro lado, se refiere a la magnitud del esparcimiento de los disparos. Por lo tanto aunque en b) y d) son igualmente exactas, la última es mas precisa, ya que los disparos están en un grupo más compacto.