jueves, 9 de octubre de 2008

METODO DEL TRAPECIO COMPUESTO

Regla del Trapecio Compuesto

Aplicando propiedades de la integral, vamos a dividir el intervalo en dos intervalos iguales.

MÉTODOS DE INTEGRACIÓN APROXIMADA

METODO DEL TRAPECIO SIMPLE

El método más simple e intuitivo de integración aproximada es el método de los trapecios, en el que se sustituye la función o la curva por varias cuerdas que unen los extremos de las ordenadas (también se puede decir que se sustituye en cada tramo por un polinomio de primer grado). Es evidente que se conseguirá mayor precisión en la medida en que tengamos un número mayor de ordenadas y por consiguiente de cuerdas, pues la adaptación de las cuerdas a la función mejora, tal y como podemos ver en las figuras siguientes.





El procedimiento de cálculo consiste en hallar el área de los distintos trapecios entre ordenadas consecutivas y sumarlos todos. Aquí partimos de que la separación entre ordenadas consecutivas es siempre la misma, o sea, igual a alfa

MÉTODO DE LA SECANTE

En análisis numérico el método de la secante es un método para encontrar los ceros de una función de forma iterativa.
Es una variación del método de Newton-Raphson donde en vez de calcular la derivada de la función en el punto de estudio, teniendo en mente la definición de derivada, se aproxima la pendiente a la recta que une la función evaluada en el punto de estudio y en el punto de la iteración anterior. Este método es de especial interés cuando el coste computacional de derivar la función de estudio y evaluarla es demasiado elevado, por lo que el método de Newton no resulta atractivo.
El método se define por la relación de recurrencia:



Como se puede ver, este método necesitará dos aproximaciones iniciales de la raíz para poder inducir una pendiente inicial.
El método se basa en obtener la ecuación de la recta que pasa por los puntos (xn−1, f(xn−1)) y (xn, f(xn)). A dicha recta se le llama secante por cortar la gráfica de la función. Posteriormente se escoge como siguiente elemento de la relación de recurrencia, xn+1, la intersección de la recta secante con el eje de abscisas obteniendo la fórmula.

MÉTODO DEL PUNTO FIJO

Este método sirve para encontrar las raíces de una ecuación y consiste en los siguientes pasos:
1. Nos deben dar la función a la cual le debemos encontrar la raíz, es decir, debemos conocer f(x)=0.
2.Nos deben de dar un valor inicial xo. Ejemplo xo = 0.
3. De la función f(x) debemos de despejar x de manera que encontremos una nueva función de x llamada ahora g(x).
4.Se deriva la función g(x). En el caso de que el valor absoluto de la derivada de g(x) sea menor a uno, se asegura que el despeje realizado funcione.

5. Luego se evalúa g(x) utilizando primero xo. El resultado de esta evaluación se convierte en el nuevo valor de x y así se continúa hasta encontrar la raíz deseada desde luego, satisfaciendo un error deseado.



Algoritmo:

Para obtener una solución a p=g(p) dada una aproximación inicial Po.

ENTRADA: Aproximación inicial xo; Tolerancia TOL; Numero máximo de iteraciones No.

SALIDA: Solución aproximada p o mensaje de fracaso.

Paso 1. Tome i =1

Paso 2. Mientras i≤No haga Pasos 3-6

Paso 3. Tome p=g(xo). (Calcule pi)

Paso 4. Si ú p-poú < TOL entonces

Salida (p); (Procedimiento terminado satisfactoriamente).

Pare

Paso 5. Tome i=i+1

Paso 6. Tome po=p (redefina po)

Paso 7. ('El método fracasó después de No iteraciones No=', No);

(Procedimiento terminado sin éxito)

Pare.

MÉTODO DE NEWTON RAPHSON

Método de Newton-Raphson

El Método de Newton-Raphson es ampliamente utilizado para encontrar las raices de la ecuación f(x)=0, ya que converge rapidamente, la contra es que uno debe conocer la derivada de f(x) y se necesita una aproximación inicial a la raiz.

xn = xn-1 - f(xn-1)/f '(xn-1)
Un ejemplo

Encontrar la raiz de la ecuación x3 + 4.0*x2 - 10.0 = 0, tomando como aproximación inicial para la raiz x=1.0 y N=10 (número máximo de iteraciones) y una tolerencia máxima TOL=0.0000001.

f(x)=x3 + 4.0*x2 - 10.0

f '(x)=3*x2 + 8.0*x

la raiz es x=1.36523001.


Código Fuente






//**************************************
//Metodo de Newton-Rapson para aproximar
//las raices de la ecuacion f(x)=0
//BorlandC 3.1
//Maestria en Desarrollo de Software
//Instituto de Estudios superiores de Chiapas
//**************************************

#include <stdio.h>
#include <math.h>
//la utilizo para las funciones getch() y clrscr()
#include <conio.h>

//numero maximo de iteraciones
#define N 10
//tolerancia maxima
#define TOL 0.0000001

//funcion a aproximar
//f(x)=x^3 + 4.0*x^2 - 10.0
double f(double x)
{
return (x*x*x + 4.0*x*x - 10.0);
}

//derivada de la funcion f(x)
//f'(x)=3*x^2 + 8.0*x
double df(double x)
{
return (3.0*x*x + 8.0*x);
}

int main(void)
{
double x, x0;
int i;

clrscr();
i=1;
//aproximacion inicial de la raiz, de f(x)
x0=1.0;
printf("%d %15.12lf\n", i, x0);
while (i<N)
{
x=x0-f(x0)/df(x0);
if (fabs(x-x0)<TOL)
{
//se alcanzo la tolerancia pedida
//y no se supero el numero maximo
//de iteraciones, esta es la raiz
//buscada.
printf("raiz x = %15.12lf\n", x);
getch();
return 0;
};
i+=1;
x0=x;
//muestra las sucesivas aproximaciones de la raiz.
printf("%d %15.12lf\n", i, x);
}
//se alcanzo el numero maximo de iteraciones pero no
//la tolerancia pedida, el metodo fallo.
printf("Se alcanzo el numero maximo de iteraciones");
getch();
return 0;
}



MÉTODO DE BISECCIÓN


En matemática, el método de bisección es un algoritmo de búsqueda de raíces que trabaja dividiendo el intervalo a la mitad y seleccionando el subintervalo que tiene la raíz.

Supóngase que queremos resolver la ecuación f(x) = 0 (donde f es continua. Dados dos puntos a y b tal que f(a) y f(b) tengan signos distintos, sabemos por el Teorema de Bolzano que f debe tener, al menos, una raíz en el intervalo [a, b]. El método de bisección divide el intervalo en dos, usando un tercer punto c = (a+b) / 2. En este momento, existen dos posibilidades: f(a) y f(c), ó f(c) y f(b) tienen distinto signo. El algoritmo de bisección se aplica al subintervalo donde el cambio de signo ocurre.

El método de bisección es menos eficiente que el método de Newton, pero es mucho más seguro asegurar la convergencia.

Si f es una función continua en el intervalo [a, b] y f(a)f(b) < 0, entonces este método converge a la raíz de f. De hecho, una cota del error absoluto es:

PRECISION Y EXACTITUD

A veces no distinguimos bien la diferencia entre los conceptos exactitud y precisión, por ejemplo los errores asociados con los cálculos y medidas se pueden caracterizar observando su exactitud y su precisión. La exactitud e refiere a qué tan cercano está el valor calculado o medido con el valor verdadero. La precisión se refiere, a qué tan cercano está un valor individual medido o calulado con respecto a los otros.
Usando una analogía de una diana de prácticas para tiro, los agujeros en cada blanco se pueden imaginar como las predicciones en una técnica númerica, mientras que el centro del blanco representa la verdad. La inexactitud también conocida como sesgo se define como un alejamiento sistemático de la verdad. En la figura observamos que los disparos en c) y están mas juntos que en a), los dos casos son igualmente inexactos ya que ambos se centran en la esquina superior izquierda del blanco. La imprecisión también llamada incertidumbre, sobre el otro lado, se refiere a la magnitud del esparcimiento de los disparos. Por lo tanto aunque en b) y d) son igualmente exactas, la última es mas precisa, ya que los disparos están en un grupo más compacto.

CIFRAS SIGNIFICATIVAS Y REDONDEO

Redondeo es el proceso mediante el cual se eliminan decimales poco significativos a un número decimal.

1. Cualquier dígito diferente de cero es significativo.
1234.56 6 cifras significativas
2. Ceros entre dígitos distintos de cero son significativos.
1002.5 5 cifras significativas
3. Ceros a la izquierda del primer dígito distinto de cero no son significativos.
000456 3 cifras significativas
0.0056 2 cifras significativas
4. Si el número es mayor que (1), todos los ceros a la derecha del punto decimal son significativos.
457.12 5 cifras significativas
400.00 5 cifras significativas
5. Si el número es menor que uno, entonces únicamente los ceros que están al final del número y entre los dígitos distintos de cero son significativos.
0.01020 4 cifras significativas
6. Para los números que contengan puntos decimales, los ceros que se arrastran pueden o no pueden ser significativos. En este curso suponemos que los dígitos son significativos a menos que se diga los contrario.
1000 1, 2, 3, o 4 cifras significativas. Supondremos 4 en nuestros cálculos
0.0010 2 cifras significativas
1.000 4 cifras significativas
7. Supondremos que cantidades definidas o contadas tienen un número ilimitado de cifras significativas
NOTE: Es mucho más fácil contar y encontrar las cifras significativas si el número está escrita en notación significativa.
Uso en cálculos
1. Suma y Sustracción: El número de cifras significativas a la derecha del punto decimal en la suma o la diferencia es determinada por el número con menos cifras significativas a la derecha del punto decimal de cualquiera de los números originales.
6.2456 + 6.2 = 12.4456 redondeado a 12.4
nota: 3 cifras significativas en la respuesta
2. Multiplicación y División: El número de cifras significativas en el producto final o en el cociente es determinado por el número original que tenga la cifras significativas m{as pequeño.
2.51 x 2.30 = 5.773 redondeada a 5.77
2.4 x 0.000673 = 0.0016152 redondeado a 0.0016
Redondeando
1. Aumente en uno al dígito que sigue a la última cifra significativa si el primer dígito es menor que 5.
Redondear 1.61562 a 2 cifras significativas RESP: 1.6
2. Si el primer dígito a truncar es mayor que cinco, incrementar el dígito precedente en 1.
Redondear 1.61562 a 5 cifras significativas RESP: 1.6156
3. Si el primer dígito a truncar es cinco y hay dígitos diferentes de cero después del cinco, incrementa el dígito precedente en 1.
Redondear 1.61562 a 3 cifras significativas RESP: 1.62
Redondear 1.62500003 a 3 cifras significativas RESP: 1.63
4. Si el primer dígito a truncar es cinco y hay únicamente ceros después del cinco, redondee al número par.
Redondear 1.655000 a 3 cifras significativas RESP: 1.66

miércoles, 8 de octubre de 2008

MÉTODO DE CRAMER

La regla de kramer es un teorema en álgebra lineal, que da la solución de un sistema lineal de ecuaciones en términos de determinantes. Recibe este nombre en honor a Gabriel Cramer (1704 - 1752).
Si es un sistema de ecuaciones. A es la matriz de coeficientes del sistema, es el vector columna de las incógnitas y es el vector columna de los términos independientes
Entonces la solución al sistema se presenta así:



donde Aj es la matriz resultante de remplazar la j-ésima columna de A por el vector columna b.
Cramer obtuvo las incógnitas despejadas de un sistema en función de determinantes.
Resolvamos el sistema :



Las fórmulas son :



Recordemos que la fórmula de los determinantes (3x3) es :



Como se puede observar, para que podamos utilizar el método de Cramer , el determinante de la matriz de los coeficientes no debe ser 0 para que el denominador de las fórmulas no se anule . Si diese 0 es que una de las incógnitas se puede poner en función de las otras, es decir, tendríamos parámetros. La forma de resolver este problema es pasar al otro miembro (al lado del término independiente) la incógnita que tomemos como parámetro y de esta forma tendremos un determinante que no se anula pero de menor grado. Al aplicar las fórmulas de Cramer tendremos un parámetro en la columna de los términos independientes.

MÉTODO DE GAUSS-JORDAN

En la matemática, la eliminación Gaussiana o eliminación de Gauss-Jordan, llamada así debido a Carl Friedrich Gauss y Wilhelm Jordan, es un algoritmo del álgebra lineal para determinar las soluciones de un sistema de ecuaciones lineales, encontrar matrices e inversas. Cuando se aplica este proceso, la matriz resultante se conoce como: "forma escalonada"
El objetivo es reducir el sistema a otro equivalente, que tenga las mismas soluciones. Las operaciones (llamadas elementales) son estas:
• Multiplicar una ecuación por un escalar no nulo.
• Intercambiar de posición dos ecuaciones
• Sumar a una ecuación un múltiplo de otra.
Estas operaciones pueden representarse con matrices elementales que se usan también en otros procedimientos como la factorización LU o la diagonalización por congruencia de una matriz simétrica.

Ejemplo: Usar el método de Gauss-Jordan para resolver el siguiente sistema:



Solución. Comenzamos con la matriz aumentada:



Procedemos a hacer el primer pivoteo, y para ello, intercambiamos los renglones 1 y 2:



y haciendo ceros debajo del pivote, obtenemos:

MÉTODO DE GAUSS

El método de Gauss resuelve un sistema de ecuaciones lineales de forma simultánea. El método consiste de dos fases. La primera fase se le conoce como “eliminación hacia adelante”, debido a que realiza una eliminación de coeficientes comenzando de arriba hacia abajo, hasta dejar una matriz de coeficientes del tipo triangular superior. La segunda se le conoce como “sustitución hacia atrás”, por que se parte de la última ecuación del sistema, para despejar la incógnita, la cual, ya se puede resolver debido a que en esa última ecuación únicamente se desconoce una incógnita, por el hecho de tener un sistema de ecuaciones de tipo matriz triangular superior.



La 1ª ecuación siempre se deja igual, (procurando que esta sea la más sencilla) y a la 2ª y 3ª ecuación se debe anular el término que lleva la x .



Una vez que hemos anulado los términos en x debemos dejar fija la 1ª y 2ª ecuación y anular el término que lleva la y en la 3ª ecuación



De la última ecuación obtenemos que z = -256/-128 = 2, que sustituyendo en B’’ resulta
- y + 9•2 = 13 Þ y = 5
y a su vez sustituyendo en A’’ obtenemos que :
2x + 3•5 – 7•2 = -1 Þ x = -1
Por lo tanto la solución del sistema es (-1, 5, 2)
Clasificación de los sistemas:
Los sistemas de ecuaciones pueden ser de 3 tipos:
1. Sistema compatible determinado (S.C.D.) : una única solución
2. Sistema compatible indeterminado (S.C.I.) : infinitas soluciones
3. Sistema incompatible (S.I.) : no tiene solución

CÁLCULO DE LA MATRIZ INVERSA USANDO DETERMINANTES

Dada una matriz cuadrada A, se llama matriz adjunta de A, y se representa por Adj(A), a la matriz de los adjuntos, Adj(A) = (Aij).

Ejemplo

Si tenemos una matriz tal que det (A) ¹ 0, se verifica:



Esto es fácil probarlo puesto que sabemos que la suma de los productos de los elementos de una fila por sus adjuntos es el valor del determinante, y que la suma de los productos de los elementos de una fila por los adjuntos de otra fila diferente es 0 (esto sería el desarrollo de un determinante que tiene dos filas iguales por los adjuntos de una de ellas).

martes, 7 de octubre de 2008

DETERMINANTE

Antes de definir el determinante de una matriz , tenemos que definir otros conceptos.
Menor de un elemento:
Sea una matriz cuadrada mxm. Llamaremos menor del elemento (fila i, columna j) de A, y lo denotaremos con , al determinante de la submatriz resultante de eliminar la fila y la columna donde se encuentra el elemento, fila i y columna j.
Por ejemplo :

TRANSPUESTA DE UNA MATRIZ

La matriz transpuesta se obtiene al intercambiar los elementos por medio de su posición dentro de la matriz. Así, el elemento cuya posición es [2,1] será [1,2], la [3,2] será la [2,3] y así sucesivamente.
Por ejemplo, el transponer la siguiente matriz:



dará como resultado la siguiente:



El resultado de transponer una matriz de orden m x n, dará como resultado una de orden n x m.

Ti,j=Aj,i

Ai,j representa a los elementos de la matriz A. Los subíndices i y j representan la posición (fila por columna) del elemento de la matriz original que se transpone. T representa a la matriz resultado de la operación.
De manera sistemática, el siguiente algoritmo muestra cómo se obtiene la transpuesta de una matriz:

1) Desde el contador de filas igual a 1 hasta el número máximo de filas de la matriz transpuesta;
2) Desde el contador de columnas igual a 1 hasta el número máximo de columnas de la matriz transpuesta.
3) Asignar el elemento de la matriz origen al elemento de la matriz transpuesta, intercambiando los índices de posición fila x columna a columna x fila.

MULTIPLICACIÓN DE MATRICES

El producto de dos matrices se puede definir sólo si el número de columnas de la matriz izquierda es el mismo que el número de filas de la matriz derecha. Si A es una matriz m×n y B es una matriz n×p, entonces su producto matricial AB es la matriz m×p (m filas, p columnas) dada por:



para cada par i y j.

Por ejemplo:



El producto de dos matrices no es conmutativo, es decir, AB ≠ BA. La división entre matrices, es decir, la operación que podría producir el cociente A / B, no se encuentra definida. Sin embargo, existe el concepto de matriz inversa aplicable a las matrices cuadradas.

Dos matrices A y B se dicen multiplicables si el número de columnas de A coincide con el número de filas de B.
Mm x n x Mn x p = M m x p
El elemento cij de la matriz producto se obtiene multiplicando cada elemento de la fila i de la matriz A por cada elemento de la columna j de la matriz B y sumándolos.

SUMA DE MATRICES


SUMA
Dadas las matrices m-por-n A y B, su suma A + B es la matriz m-por-n calculada sumando los elementos correspondientes (i.e. (A + B)[i, j] = A[i, j] + B[i, j] ). Es decir, sumar cada uno de los elementos homólogos de las matrices a sumar.

Propiedades de la suma de matrices
• Asociativa
Dadas las matrices m×n A, B y C
A + (B + C) = (A + B) + C
• Conmutativa
Dadas las matrices m×n A y B
A + B = B + A
• Existencia de matriz cero o matriz nula
A + 0 = 0 + A = A
• Existencia de matriz opuesta con -A = [-aij]
A + (-A) = 0

CLASIFICACION DE MATRICES (PROPIEDADES)

MATRIZ CUADRADA: Una matriz es cuadrada cuando el número de filas es igual al número de columnas (m=n).

MATRIZ NULA: Se considera nula una matriz, cuando todos los elementos de la matriz son igual a cero.

MATRIZ TRIANGULAR SUPERIOR: Se dice que una matriz, es Triangular Superior, cuando los elementos de la Diagonal hacia arriba son diferentes de cero y los demás son igual a cero.

MATRIZ TRIANGULAR INFERIOR: Una matriz, es Triangular Inferior, cuando los elementos de la Diagonal hacia abajo son diferentes de cero y los demás son igual a cero.

MATRIZ DIAGONAL: Una matriz es Diagonal, cuando todos los elementos que forman la diagonal son diferentes de cero y todos los demás son igual a cero.

MATRIZ UNITARIA: Una matriz Unitaria, es aquella en la que los elementos de la Diagonal tiene el valor igual a 1, y los demás elementos son igual a cero.

VECTOR FILA: Cuando existen elementos en una sola fila y varias columnas.

VECTOR COLUMNA: Cuando existen elementos en una sola columna y varias filas.

Matrices


DEFINICION

Las matrices aparecen por primera vez hacia el año 1850, introducidas por J.J. Sylvester. El desarrollo inicial de la teoría se debe al matemático W.R. Hamilton en 1853. En 1858, A. Cayley introduce la notación matricial como una forma abreviada de escribir un sistema de m ecuaciones lineales con n incógnitas.

Las matrices se utilizan en el cálculo numérico, en la resolución de sistemas de ecuaciones lineales, de las ecuaciones diferenciales y de las derivadas parciales. Además de su utilidad para el estudio de sistemas de ecuaciones lineales, las matrices aparecen de forma natural en geometría, estadística, economía, informática, física, etc...

La utilización de matrices (arrays) constituye actualmente una parte esencial de los lenguajes de programación, ya que la mayoría de los datos se introducen en los ordenadores como tablas organizadas en filas y columnas: hojas de cálculo, bases de datos, etc.

Una matriz es una tabla o arreglo rectangular de números. Los números en el arreglo se denominan elementos de la matriz.

Las líneas horizontales en una matriz se denominan filas y las líneas verticales se denominan columnas. A una matriz con m filas y n columnas se le denomina matriz m-por-n (escrito m×n), y m y n son sus dimensiones. Las dimensiones de una matriz siempre se dan con el número de filas primero y el número de columnas después.

Se llama matriz de orden m×n a todo conjunto rectangular de elementos aij dispuestos en m líneas horizontales (filas) y n verticales (columnas) de la forma:

lunes, 6 de octubre de 2008

Matrices


Código Fuente

Las matrices aparecen por primera vez hacia el año 1850, introducidas por J.J. Sylvester
El desarrollo inicial de la teoría se debe al matemático W.R. Hamilton en 1853
En 1858, A. Cayley introduce la notación matricial como una forma abreviada de escribir un sistema de m ecuaciones lineales con n incógnitas.

Las matrices se utilizan en el cálculo numérico, en la resolución de sistemas de ecuaciones lineales, de las ecuaciones diferenciales y de las derivadas parciales. Además de su utilidad para el estudio de sistemas de ecuaciones lineales, las matrices aparecen de forma natural en geometría, estadística, economía, informática, física, etc...

La utilización de matrices (arrays) constituye actualmente una parte esencial dn los lenguajes de programación, ya que la mayoría de los datos se introducen en los ordenadores como tablas organizadas en filas y columnas : hojas de cálculo, bases de datos,...

  • CONCEPTO DE MATRIZ

Una matriz es un conjunto de elementos de cualquier naturaleza aunque, en general, suelen ser números ordenados en filas y columnas.

Se llama matriz de orden "m × n" a un conjunto rectangular de elementos aij dispuestos en m filas y en n columnas. El orden de una matriz también se denomina dimensión o tamaño, siendo m y n números naturales.

Las matrices se denotan con letras mayúsculas: A, B, C, ... y los elementos de las mismas con letras minúsculas y subíndices que indican el lugar ocupado: a, b, c, ... Un elemento genérico que ocupe la fila i y la columna j se escribe aij . Si el elemento genérico aparece entre paréntesis también representa a toda la matriz : A = (aij)


Bienvenidos!!

Tutorial de Analisis numerico