6. Ecuaciones diferenciales ordinarias

una ecuación diferencial ordinaria (comúnmente abreviada “EDO”) es una relación que contiene funciones de una sola variable independiente, y una o más de sus derivadas con respecto a esa variable.

Las ecuaciones diferenciales ordinarias se distinguen de lasecuaciones diferenciales parciales, las cuales involucran derivadas parciales de varias variables.

Las ecuaciones diferenciales ordinarias son importantes en diversas áreas de estudio como la geometríamecánica y astronomía, además de muchas otras aplicaciones.

Se ha dedicado mucho estudio a la resolución de este tipo de ecuaciones, estando casi completamente desarrollada la teoría para ecuaciones lineales. Sin embargo la mayoría de las ecuaciones diferenciales interesantes son no-lineales, a las cuales en la mayoría de los casos no se les puede encontrar una solución exacta.

Si F es una relación o función, la ecuación diferencial ordinaria (EDO) es

(1a)\ F(x,y,y',y'',\dots,y^{(n)}) = 0

La ecuación diferencial lineal más general, de orden n está dada por:

(1b)\ a_n(t)y^{(n)}+a_{n-1}(t) y^{(n-1)}+\ldots+a_1(t) y'+a_0(t) y = g(t)

Donde los a_i representan funciones dependientes de t.

Una solución de la ecuación (1a) o (1b) será una “familia” de curvas o funciones del tipo y = f(t)\, que substituida dentro de la ecuación la convierte en una igualdad en la que todos los términos son conocidos.

5. Diferenciacion e integracion numerica

5.1 DIFERENCIACION NUMERICA 

procedimientos para diferenciar numéricamente funciones que están definidas mediante datos tabulados o mediante curvas determinadas en forma experimental.

Un método consiste en aproximar la función en la vecindad del punto en que se desea la derivada, mediante una parábola de segundo, tercer o mayor grado, y utilizar entonces la derivada de la parábola en ese punto como la derivada aproximada de la función.

Otro ejemplo, que comentaremos aquí, utiliza los desarrollos en serie de Taylor.

La serie de Taylor para una función Y = f(X) en Xi + Delta X, desarrollada con respecto al punto Xi es

Desarrollo de Taylor

(1)

en donde Yi es la ordenada que corresponde a Xi y Xi + Delta Xse encuentra en la región de convergencia. La función para Xi - Delta Xestá dada en forma similar por:

(2)

Utilizando solamente los tres primeros términos de cada desarrollo, podremos obtener una expresión para Y’i restando la ec. (2) de la ec. (1),

 

5.2 INTEGRACION NUMERICA

En análisis numérico, la integración numérica constituye una amplia gama de algoritmos para calcular el valor numérico de unaintegral definida y, por extensión, el término se usa a veces para describir algoritmos numéricos para resolver ecuaciones diferenciales. El término cuadratura numérica (a menudo abreviado a cuadratura) es más o menos sinónimo de integración numérica, especialmente si se aplica a integrales de una dimensión a pesar de que para el caso de dos o más dimensiones (integral múltiple) también se utiliza.

El problema básico considerado por la integración numérica es calcular una solución aproximada a la integral definida:

\int_a^b f(x)\, dx

Este problema también puede ser enunciado como un problema de valor inicial para una ecuación diferencial ordinaria, como sigue:

y'(x) = f(x), \quad y(a) = 0

Encontrar y(b) es equivalente a calcular la integral. Los métodos desarrollados para ecuaciones diferenciales ordinarias, como elmétodo de Runge-Kutta, pueden ser aplicados al problema reformulado. En este artículo se discuten métodos desarrollados específicamente para el problema formulado como una integral definida.

 

 

 

 

 

 

4. Interpolacion

4.1 MINIMOS CUADRADOS

El método de mínimos cuadrados sirve para interpolar valores, dicho en otras palabras, se usa para buscar valores desconocidos usando como referencia otras muestras del mismo evento.

El método consiste en acercar una línea o una curva, según se escoja, lo más posible a los puntos determinados por la coordenadas (x,f(x)), que normalmente corresponden a muestras de algún experimento.

Cabe aclarar que este método, aunque es sencillo de implantar no es del todo preciso, pero si proporciona una interpolación aceptable.

Como se comento previamente se puede usar una recta o una curva como base para calcular nuevos valores.

4.2 METODO DE LAGRANGE

Este método de interpolación consiste en encontrar una función que pase a través de n puntos dados.

Un polinomio en series de potencias es

g(x) = a+ a1x + a2x+ … + anxn

La formula de interpolación de Lagrange de orden n es

4.3 METODO DE INTERPOLACION DE NEWTON

El metodo de interpolacion de Newton es un poco mas complicado que el de Lagrange, pero como todo lo de Newton, es mas preciso.

Por supuesto que este metodo tiene todo un desarrollo teorico para llegar a la ecuacion general, pero es demasiado largo y para fines practicos lo que sirve al final es solo la forma de realizar el metodo y como aplicarlo.

La ecuación general para este método es la siguiente:

3. Sistema de ecuaciones lineales

3.1 METODO DE GAUSS

 

Solución de sistemas de ecuaciones lineales por reducción a la forma escalonada.

Dos sistemas de ecuaciones lineales se dicen EQUIVALENTES si tienen las mismas soluciones.

Reduciremos el sistema de ecuaciones

2x 1 +  3x 2 + 4x 3  -     x 4 =  1

x 1 +  2x 2   -   x 3   +  2x 4 =  0

(3.26)               3x 1 -  2x 2 +   x 3   +    x 4 = -1

3x 1 + 5x 2 + 3x 3     +   x 4 =  1

6x 1 + 3x 2 + 4x 3    + 2x 4 =  0

a un sistema de ecuaciones equivalente, para hallar soluciones del mismo.

La matriz aumentada del sistema 3.26 es

2     3     4    -1 ½    1

(3.27)                   1     2    -1     2 ½    0

3    -2     1     1 ½   -1

3     5     3     1 ½    1

6     3     4     2 ½    0

Intercambiando la primera fila con la segunda obtenemos:

1     2    -1    2  ½   0

2     3     4    -1 ½    1

(3.28)               3    -2     1     1 ½   -1

3     5     3     1 ½    1

6     3     4     2 ½    0

Restando de las filas 2da., 3ra., 4ta., y 5ª., multiplos convenientes de la 1ra., llegamos a:

1     2    -1      2  ½   0

0    -1     6     -5  ½   1

(3.29)               0    -8     4     -5  ½  -1

0    -1     6     -5  ½   1

0    -9   10  -10   ½   0

Restando de las filas 3ra., 4ta., y 5ta., multiplos convenientes de la 2da., transformamos (3.29) en

1     2    -1     2  ½   0

0    -1     6    -5  ½   1

(3.30)               0     0   -44    35½  -9

0     0     0      0 ½    0

0     0   -44    35½   -9

Sumando a la 5ta. fila el negativo de la 3ra.,

1     2    -1     2  ½   0

0    -1     6    -5  ½   1

(3.31)               0     0   -44    35½  -9

0     0     0      0 ½    0

0     0     0      0 ½   0

Las matrices (3.27), (3.28.) , (3.29), (3.30)  y  (3.31) son matrices aumentadas de sistemas de ecuaciones lineales equivalentes, lo cual se probará en la próxima sección. Por lo tanto las soluciones de (3.26) son exactamente las soluciones del sistema

(3.32)              x1 +  2 x2  -   x3  +   2x =    0

-  x2 +  6x3  -   5x4  =    1

- 44x3  + 35x4  = – 9

En el cual se han eliminado las dos últimas filas por ser irrelevantes.

Dando valores a   x4   se hallan diferentes soluciones por sustitución regresiva.

Las operaciones por filas que denotaremos de ahora en adelante OPERACIONES ELEMENTALES POR FILAS son:

1.       Intercambio de dos filas.

2.       Multiplicación (o división) de una fila por un número diferente de cero.

Sustitución de una fila por su adicion (o sustracción) con un múltiplo de otra fila.

3.2 GAUSS SEIDEL

En análisis numérico el método de Gauss-Seidel es un método iterativo utilizado para resolver sistemas de ecuaciones lineales. El método se llama así en honor a los matemáticos alemanes Carl Friedrich Gauss y Philipp Ludwig von Seidel y es similar al método de Jacobi.

Aunque este método puede aplicarse a cualquier sistema de ecuaciones lineales que produzca una matriz (cuadrada, naturalmente pues para que exista solución única, el sistema debe tener tantas ecuaciones como incógnitas) de coeficientes con los elementos de su diagonal no-nulos, la convergencia del método solo se garantiza si la matriz es diagonalmente dominante o si es simétrica y, a la vez,definida positiva.

Es un método iterativo, lo que significa que se parte de una aproximación inicial y se repite el proceso hasta llegar a una solución con un margen de error tan pequeño como se quiera. Buscamos la solución a un sistema de ecuaciones lineales, en notación matricial:

 A x = b,\,

donde:

A=\begin{bmatrix} a_{11} & a_{12} & \cdots & a_{1n} \\ a_{21} & a_{22} & \cdots & a_{2n} \\ \vdots & \vdots & \ddots & \vdots \\a_{n1} & a_{n2} & \cdots & a_{nn} \end{bmatrix}, \qquad  x = \begin{bmatrix} x_{1} \\ x_2 \\ \vdots \\ x_n \end{bmatrix} , \qquad  b = \begin{bmatrix} b_{1} \\ b_2 \\ \vdots \\ b_n \end{bmatrix}.

El método de iteración Gauss-Seidel se computa, para la iteración (k+1)\,:

<br /><br />
x^{(k+1)} = M x^{(k)} + c.\,<br /><br />
” src=”<a href=http://upload.wikimedia.org/math/6/7/c/67c94d6565c83c783272334fb2d50add.png&#8221; />

donde

A = N-P\,

definimos

M = N^{-1}P\,

y

c= N^{-1}b\,,

donde los coeficientes de la matriz N se definen como n_{ij} = a_{ij}\,  si i{\leq}jn_{ij} = 0 \, si i>j\,.

Considerando el sistema  Ax=b,\,  con la condición de que a_{ii}{\neq}0, i= 1, ..., n\, . Entonces podemos escribir la fórmula de iteración del método

 x_i^{(k+1)}=\frac{-\sum_{1{\leq}j{\leq}i-1}a_{ij}x_{j}^{(k+1)}-\sum_{i+1{\leq}j{\leq}n}a_{ij}x_{j}^{(k)}+b_i}{a_{ii}}, i=1,...,n \, (*)

La diferencia entre este método y el de Jacobi es que, en este último, las mejoras a las aproximaciones no se utilizan hasta completar las iteraciones.

2. Raices de ecuaciones

2.1 TEOREMA FUNDAMENTAL DEL ALGEBRA

El teorema fundamental del álgebra establece que un polinomio en una variable, no constante y a coeficientes complejos, tiene tantas raíces como su grado, dado que las raíces se cuentan con sus multiplicidades. En otras palabras, dado un polinomio complejo p de grado n > 0, la ecuación p(z) = 0 tiene exactamente n soluciones complejas, contando multiplicidades. De manera equivalente:

  • El cuerpo de los complejos es cerrado para las operaciones algebraicas.
  • Todo polinomio complejo de grado n se puede expresar como un producto de n polinomios de la forma .

El teorema se establece comúnmente de la siguiente manera: todo polinomio en una variable con coeficientes complejos de grado al menos uno tiene al menos una raíz compleja. Aunque ésta en principio parece ser una declaración más débil, implica fácilmente la forma completa por la división polinómica sucesiva por factores lineales.

El nombre del teorema es considerado ahora un error por muchos matemáticos, puesto que es más un teorema en análisis que en álgebra.

 2.2 REGLA DE SIGNOS DE DESCARTES

*El Número de Raíces Positivas es Igual al Número de Variaciones   ( J ) de f(x) ó es menor que este Número en un  número Par.

* El Número de Raíces Negativas es Igual al Número de Variaciones de f(-x) ó es menor que este Número en un Número Par.

*    Por ejemplo:

+      -      i

3      2     0

1      2     2

3      0     2

1      0     4

La Regla de los Signos de Descartes nos dice de acuerdo con la Tabla anterior que la Ecuación tiene por lo menos 1 Raíz Positiva y Máximo 3,y que ó tiene 2 Raíces Negativas ó no tiene ninguna.

 

1. Análisis de errores

1.1 Tipos de errores

SERIE DE TAYLOR

En matemáticas, una serie de Taylor es una representación de una función como una infinita suma de términos, Términos que se calculan a partir de las derivadas de la función para un determinado valor de la variable

proporciona una buena forma de aproximar el valor de una función en un punto en términos del valor de la función y sus derivadas en otro punto.

Por supuesto, para hacer esta aproximación sólo se pueden tomar unas cuantas expresiones de esta serie, por lo que el resto resulta en un error conocido como el término residual, es a criterio del que aplica la serie en numero de términos que ha de incluir la aproximación.

La serie de Taylor se basa en ir haciendo operaciones según una ecuación general y mientras mas operaciones tenga la serie mas exacto será el resultado que se esta buscando.

o expresado de otra forma

Donde n! es el factorial de n

F(n) es la enésima derivada de f en el punto a

Como se puede observar en la ecuación, hay una parte en la cual hay que desarrollar un binomio (x-a) n por lo que para simplificar el asunto se igualara a “a” siempre a 0. Para fines prácticos no afecta mucho en el resultado si se hacen muchas operaciones en la serie.

Teorema de TaylorSi la función y sus primeras n+1 derivadas son continuas en un intervalo que contiene a y a x, entonces el valor de la función en un punto x

La expansión en series de Taylor de n-ésimo orden debe ser exacta para un polinomio de n-ésimo orden.

Para otras funciones continuas diferenciables, como las exponenciales o sinusoidales, no se obtiene una estimación exacta mediante un número finito de términos.

El valor práctico de las series de Taylor radica en el uso de un número finito de términos que darán una aproximación lo suficientemente cercana a la solución verdadera para propósitos prácticos.

¿Cuántos términos se requieren para obtener una “aproximación razonable”?

La ecuación para el término residual se puede expresar como:

R_n = O(h^{n + 1} )

1.2  Exactitud y presicion

Son términos  que de manera frecuente se utilizan en el lenguaje coloquial como cosas semejantes, inclusive como sinónimos. Sin embargo veremos que esto no es del todo aceptado en áreas de ciencias e ingeniería reconociendo que hay diferencias muy marcadas entre estas.

Exactitud.

La exactitud es lo cerca que el resultado de una medición está del valor verdadero.

Precisión.

La precisión es lo cerca que los valores medidos están unos de otros.

1.3 Error Absoluto y Relativo.

  • Error absoluto. Es la diferencia entre el valor de la medida y el valor tomado como exacto. Puede ser positivo o negativo, según si la medida es superior al valor real o inferior (la resta sale positiva o negativa). Tiene unidades, las mismas que las de la medida.
  • Error relativo. Es el cociente (la división) entre el error absoluto y el valor exacto. Si se multiplica por 100 se obtiene el tanto por ciento (%) de error. Al igual que el error absoluto puede ser positivo o negativo (según lo sea el error absoluto) porque puede ser por exceso o por defecto. no tiene unidades.

Hello world!

Welcome to WordPress.com! This is your very first post. Click the Edit link to modify or delete it, or start a new post. If you like, use this post to tell readers why you started this blog and what you plan to do with it.

Happy blogging!

Follow

Get every new post delivered to your Inbox.