Docsity
Docsity

Prepara tus exámenes
Prepara tus exámenes

Prepara tus exámenes y mejora tus resultados gracias a la gran cantidad de recursos disponibles en Docsity


Consigue puntos base para descargar
Consigue puntos base para descargar

Gana puntos ayudando a otros estudiantes o consíguelos activando un Plan Premium


Orientación Universidad
Orientación Universidad

Métodos Numéricos: Una Introducción a las Técnicas de Aproximación Numérica, Guías, Proyectos, Investigaciones de Métodos Numéricos

Este documento proporciona una introducción a los métodos numéricos, explorando su historia, aplicaciones y conceptos clave. Se analizan los errores numéricos, incluyendo errores de truncamiento y redondeo, y se destaca la importancia de las herramientas computacionales en la resolución de problemas complejos. El documento también explora la evolución histórica de los métodos numéricos, desde los antiguos babilonios hasta la era moderna de la computación.

Tipo: Guías, Proyectos, Investigaciones

2023/2024

Subido el 04/09/2024

samuel-de-la-cruz-orozco
samuel-de-la-cruz-orozco 🇲🇽

1 documento

1 / 9

Toggle sidebar

Esta página no es visible en la vista previa

¡No te pierdas las partes importantes!

bg1
Investigación sobre los métodos numéricos
J.J. Esposito Smith, M. Jacobo Del solar, S. De la cruz Orozco
Resumen
Los métodos numéricos son técnicas matemáticas utilizadas para resolver problemas mediante
aproximaciones numéricas en lugar de soluciones exactas. Estos métodos abarcan una amplia variedad
de algoritmos y herramientas computacionales que permiten abordar problemas complejos en ciencia,
ingeniería y otros campos. Su aplicación involucra la formulación de problemas matemáticos, la
discretización de variables, la elección y aplicación de métodos específicos, la implementación
computacional, el análisis de errores y la interpretación de resultados. Aunque ofrecen soluciones
aproximadas, los métodos numéricos son fundamentales para enfrentar problemas prácticos donde no
se dispone de soluciones analíticas exactas.
Palabras Clave: Exactitud, precisión, error, truncamiento, absoluto, relativo, aplicación, redondeo,
truncamiento, numéricos, solución, lógico, iterativa, herramientas computacionales.
I. Introducción
Se puede estudiar la historia de los métodos
numéricos estadísticamente y se encontrará que,
en todos los campos descritos antes, alrededor del
90% de ellos han sido desarrollados en los
últimos 70 años. Si bien gran parte de los
métodos numéricos estudiados no corresponden a
los desarrollados a partir de 1940, el 10% restante
surgieron como curiosidades matemáticas con
baja aplicabilidad por no disponer en su momento
de una plataforma de implementación como los
son las computadoras. Pero son actualmente
suficientes para resolver la mayoría de los
problemas genéricos de simulación. Si bien
podríamos basar el estudio de estas técnicas en
un enfoque descriptivo de las mismas y
complementariamente en un enfoque analítico
sobre su comportamiento, la realidad de la
práctica profesional implica también el
aprendizaje de su implementación sobre
plataformas tecnológicas más o menos
desarrolladas y basadas en la programación.
II. Desarrollo
Historia de los métodos numéricos.
La base histórica del cálculo numérico se
remonta en las épocas de la antigua
Mesopotamia,3000 años a.C. La historia, indica
que fueron muy probablemente los babilonios
quienes usaron el instrumento más antiguo del
cálculo matemático conocido como el ábaco.
En el año 2600 a de C., en la misma
Mesopotamia, los habitantes sumerios crearon
unas tablitas hechas de arcilla para grabar en ella
el soporte de sus actividades económicas,
ejercicios geométricos y problemas aritméticos,
así también, se escribieron en ellas las conocidas
tablas de multiplicar. En esta época, se desarrolló
una matemática que permitía resolver ecuaciones
de hasta tercer grado. Se conocía el número pi, a
la raíz y la potencia, por lo que existía la
capacidad del cálculo de volumen y superficies
de las principales figuras geométricas. Por esto
último, se puede apreciar que las tablitas de
arcilla participaron como un medio de repetición
con un orden numérico establecido.
En el año 1650 a de C., el matemático Ahmés,
redacta un papiro conocido como el “papiro de
ahmes”, el cual resultó ser la primera fuente de
información de la matemática egipcia. Este
papiro, también llamado como segundo nombre,
“el papiro de Rhind”, expresa solución a
pf3
pf4
pf5
pf8
pf9

Vista previa parcial del texto

¡Descarga Métodos Numéricos: Una Introducción a las Técnicas de Aproximación Numérica y más Guías, Proyectos, Investigaciones en PDF de Métodos Numéricos solo en Docsity!

Investigación sobre los métodos numéricos

J.J. Esposito Smith, M. Jacobo Del solar, S. De la cruz Orozco Resumen Los métodos numéricos son técnicas matemáticas utilizadas para resolver problemas mediante aproximaciones numéricas en lugar de soluciones exactas. Estos métodos abarcan una amplia variedad de algoritmos y herramientas computacionales que permiten abordar problemas complejos en ciencia, ingeniería y otros campos. Su aplicación involucra la formulación de problemas matemáticos, la discretización de variables, la elección y aplicación de métodos específicos, la implementación computacional, el análisis de errores y la interpretación de resultados. Aunque ofrecen soluciones aproximadas, los métodos numéricos son fundamentales para enfrentar problemas prácticos donde no se dispone de soluciones analíticas exactas. Palabras Clave : Exactitud, precisión, error, truncamiento, absoluto, relativo, aplicación, redondeo, truncamiento, numéricos, solución, lógico, iterativa, herramientas computacionales. I. Introducción Se puede estudiar la historia de los métodos numéricos estadísticamente y se encontrará que, en todos los campos descritos antes, alrededor del 90% de ellos han sido desarrollados en los últimos 70 años. Si bien gran parte de los métodos numéricos estudiados no corresponden a los desarrollados a partir de 1940, el 10% restante sí surgieron como curiosidades matemáticas con baja aplicabilidad por no disponer en su momento de una plataforma de implementación como los son las computadoras. Pero son actualmente suficientes para resolver la mayoría de los problemas genéricos de simulación. Si bien podríamos basar el estudio de estas técnicas en un enfoque descriptivo de las mismas y complementariamente en un enfoque analítico sobre su comportamiento, la realidad de la práctica profesional implica también el aprendizaje de su implementación sobre plataformas tecnológicas más o menos desarrolladas y basadas en la programación. II. Desarrollo Historia de los métodos numéricos. La base histórica del cálculo numérico se remonta en las épocas de la antigua Mesopotamia,3000 años a.C. La historia, indica que fueron muy probablemente los babilonios quienes usaron el instrumento más antiguo del cálculo matemático conocido como el ábaco. En el año 2600 a de C., en la misma Mesopotamia, los habitantes sumerios crearon unas tablitas hechas de arcilla para grabar en ella el soporte de sus actividades económicas, ejercicios geométricos y problemas aritméticos, así también, se escribieron en ellas las conocidas tablas de multiplicar. En esta época, se desarrolló una matemática que permitía resolver ecuaciones de hasta tercer grado. Se conocía el número pi, a la raíz y la potencia, por lo que existía la capacidad del cálculo de volumen y superficies de las principales figuras geométricas. Por esto último, se puede apreciar que las tablitas de arcilla participaron como un medio de repetición con un orden numérico establecido. En el año 1650 a de C., el matemático Ahmés, redacta un papiro conocido como el “papiro de ahmes”, el cual resultó ser la primera fuente de información de la matemática egipcia. Este papiro, también llamado como segundo nombre, “el papiro de Rhind”, expresa solución a

problemas matemáticos usando las cuatro operaciones aritméticas básicas y que estos problemas son de la talla de raíces de ecuaciones, progresiones, etc. Se puede apreciar los primeros algoritmos numéricos expresados con aritmética básica. En el año 1000 a de C., los Mayas habitantes territoriales del sureste de México, Guatemala y otras zonas de Mesoamérica, fueron los que idearon un sistema de numeración para medir el tiempo. Por lo tanto, indicaron con un método o modelo preciso para resolver o conseguir su calendario del tiempo. En el año 540 a de C., Pitágoras contribuyo significativamente en el avance de las matemáticas. Entre una de sus aportaciones, presenta el teorema de Pitágoras. Es decir, la relación entre los lados de triángulos rectángulos. Históricamente, Pitágoras incluyó en su cálculo a las operaciones aritméticas básicas y el concepto de relación para la solución de problemas matemáticos trigonométricos. En el año 250 a de C., Arquímedes, de igual forma, aporta múltiples aportaciones en el área de la matemática y la física indica. Esta última, por medio de su “principio de Arquímedes” usa la aritmética básica y también la relación para producir un resultado numérico, es decir, un cálculo por medio de un algoritmo matemático. En el mismo año referido anteriormente. Euclides, desarrolla un método de agotamiento para demostrar la relación entre una circunferencia y su diámetro. Este método, consiste en doblar el número de lados de los polígonos regulares inscritos y circunscritos. El resultado del proceso determina el valor de una constante irracional y más importante de las matemáticas, el numero Pi. Como se puede leer, en este modelo matemático, se procesan valores numéricos con un sistema iterativo, y que en cada repetición del modelo se produce una aproximación numérica hacia una con convergencia a Pi. En el año 900 d de C., se crea un modelo matemático en el que se usaron letras para representar relaciones aritméticas, métodos algebraicos. Y prácticamente, se formaliza más el sentido de los métodos numéricos. Se idean modelos numéricos que expresan la solución de problemas, contextuales a ese tiempo, mediante uno pasos ordenados, lógicos y aritméticos, los métodos algorítmicos. En el año 1672. Leibniz, considerado un intelectual supremo, por conducto de su conocimiento en el área de las matemáticas, inventa una máquina de calcular. La cual era capaz de realizar multiplicaciones, divisiones y extraer raíces de tipo cuadrático. A Gottfried, se le atribuye ser el iniciador en el desarrollo de la lógica matemática y uno de los precursores de los ordenadores. En este tiempo, es cuando se formaliza aún más la implementación de modelos matemáticos con estructura numérica y procedimientos definidos. Para el año de 1617, el matemático Napier, desarrolló un sistema llamado: “huesos de Napier”. El cual fue una versión del ábaco. Por ende, esta máquina también se le conoció como: <ábaco neperiano=. Esta máquina, sirvió de base e inspiración para las subsecuentes maquinas calculadoras que incluían los logaritmos, y con ello, se empieza a fusionar máquinas que solucionan problemas matemáticos. En el año de 1623, el astrónomo y matemático Kepler, utiliza una máquina para realizar cálculos numéricos para desarrollar sus estudios astronómicos. Esta máquina era capaz de guardar secuencias para reutilizarse en otros cálculos.

especialmente adecuados para ilustrar el poder y las limitaciones de las computadoras.

  1. Los métodos numéricos son un medio para reforzar su comprensión de las matemáticas, ya que una de sus funciones es convertir las matemáticas superiores en operaciones aritméticas básicas, de esta manera se puede profundizar en los temas que de otro modo resultarían oscuros. Esta perspectiva dará como resultado un aumento la capacidad de comprensión y entendimiento en la materia. Conceptos de exactitud, precisión y error La exactitud se refiere a qué tan cercano está el valor calculado o medido del valor verdadero. La precisión se refiere a qué tan cercanos se encuentran, unos de otros, diversos valores calculados o medidos. Estos conceptos se ilustran gráficamente utilizando la analogía con una diana en la práctica de tiro. Los agujeros en cada blanco de la figura se consideran como las predicciones con una técnica numérica; mientras que el centro del blanco representa la verdad. La inexactitud (conocida también como sesgo) se define como una desviación sistemática del valor verdadero. Por lo tanto, aunque los disparos en la figura c) están más juntos que los de la figura a), los dos casos son igualmente inexactos, ya que ambos se centran en la esquina superior izquierda del blanco. La imprecisión (también llamada incertidumbre), por otro lado, se refiere a la magnitud en la dispersión de los disparos. Por consiguiente, aunque las figuras b) y d) son igualmente exactas (esto es, igualmente centradas respecto al blanco), la última es más precisa, pues los disparos están agrupados en forma más compacta. Fig. 1. Un ejemplo de puntería ilustra los conceptos de exactitud y precisión. a) Inexacto e impreciso; b) exacto e impreciso; c) inexacto y preciso; d) exacto y preciso. Los métodos numéricos deben ser lo suficientemente exactos o sin sesgo para satisfacer los requisitos de un problema particular de ingeniería. También deben ser suficientemente precisos para ser adecuados en el diseño de la ingeniería. Error Los errores numéricos surgen del uso de aproximaciones para representar operaciones y cantidades matemáticas exactas. Éstas incluyen los errores de truncamiento que resultan del empleo de aproximaciones como un procedimiento matemático exacto, y los errores de redondeo que se producen cuando se usan números que tienen un límite de cifras significativas para representar números exactos. Para ambos tipos de errores, la relación entre el resultado exacto, o verdadero, y el aproximado está dada por: Valor verdadero = Valor aproximado + error [1] Reordenando la ecuación 1) se encuentra que el error numérico es igual a la diferencia entre el valor verdadero y el valor aproximado, es decir: Et = valor verdadero – valor aproximado (^) [2]

donde Et se usa para denotar el valor exacto del error. El subíndice t indica que se trata del error “verdadero” (true). Como ya se mencionó brevemente, esto contrasta con los otros casos, donde se debe emplear una estimación “aproximada” del error. Una desventaja en esta definición es que no toma en consideración el orden de la magnitud del valor que se estima. Por ejemplo, un error de un centímetro es mucho más significativo si se está midiendo un remache en lugar de un puente. Una manera de tomar en cuenta las magnitudes de las cantidades que se evalúan consiste en normalizar el error respecto al valor verdadero, es decir: [3] donde Et denota el error relativo porcentual verdadero. Errores inherentes, de redondeo y por truncamiento. ERRORES INHERENTES Son errores que existen en los valores de los datos, causados por incertidumbre en las mediciones, por verdaderas equivocaciones, o por la naturaleza necesariamente aproximada de la representación, mediante un número finito de dígitos, de cantidades que no pueden representarse exactamente con el número de dígitos permisible. Por ejemplo, si necesitamos usar p en un cálculo, podemos escribirlo como 3.14, 3.1416, 3.1415926535589793..., etc. En muchos casos aún una fracción simple no tiene representación decimal exacta, por ejemplo 1/3, que puede escribirse solamente como una sucesión finita de números 3. Muchas fracciones que tienen representación finita en un sistema no la tienen en otro, el número 1/10 es igual a 0.1 en decimal y en binario es 0.000110011001100... ERRORES POR TRUNCAMIENTO Estos son debidos a la omisión de términos en una serie que tiene un número infinito de términos. Por ejemplo, podemos utilizar la serie infinita de Taylor para calcular el seno de cualquier ángulo X, expresado en radianes: [ 3 ] Por supuesto que no podemos usar todos los términos de la serie en un cálculo, porque la serie es infinita; entonces, los términos omitidos introducen un error por truncamiento. ERRORES POR REDONDEO Estos errores se introducen en los procesos de computación por el hecho de que las computadoras trabajan con un número finito de dígitos después del punto decimal y tienen que redondear. Como nos interesa el redondeo de punto flotante, revisaremos la forma de representación de un número de punto flotante. Recordando que cada número lo podemos representar por una fracción generalmente llamada Mantisa, la cual está multiplicada por una potencia del número base, llamada generalmente el Exponente. Entonces tenemos números como los siguientes: Se puede determinar un límite al error relativo máximo que puede ocurrir en un resultado aritmético obtenido con redondeo truncado. El [ 4 ]

X = cantidad verdadera. = una aproximación a la cantidad verdadera. eX = error absoluto. Tenemos que: [ 14 ] De acuerdo con nuestra definición: [ 15 ] El Error Relativo se define como el cociente del error absoluto entre la aproximación [16] Uso de herramientas computacionales. En la actualidad, las computadoras y los métodos numéricos ofrecen una alternativa para los cálculos complicados. Al usar la potencia de la computadora se obtienen soluciones directamente, de esta manera se pueden aproximar los cálculos sin tener que recurrir a consideraciones de simplificación o a técnicas muy lentas. Aunque las soluciones analíticas aún son muy valiosas, tanto para resolver problemas como para brindar una mayor comprensión, los métodos numéricos representan opciones que aumentan, en forma considerable, la capacidad para enfrentar y resolver los problemas; como resulta do, se dispone de más tiempo para aprovechar las habilidades creativas personales. En consecuencia, es posible dar más importancia a la formulación de un problema y a la interpretación de la solución, así como a su incorporación al sistema total, o conciencia “holística”. En la actualidad existen dos tipos de usuarios de software. Por un lado, están aquellos que toman lo que se les da. Es decir, quienes se limitan a las capacidades que encuentran en el modo estándar de operación del software existente. Por ejemplo, resulta muy sencillo resolver un sistema de ecuaciones lineales o generar una gráfica con valores x-y con Excel o con MATLAB. Como este modo de operación por lo común requiere un mínimo esfuerzo, muchos de los usuarios adoptan este modo de operación. Además, como los diseñadores de estos paquetes se anticipan a la mayoría de las necesidades típicas de los usuarios, muchos de los problemas pueden resolverse de esta manera. Pero ¿qué pasa cuando se presentan problemas que están más allá de las capacidades estándar de dichas herramientas? Por desgracia, decir “Lo siento jefe, pero no lo sé hacer” no es algo aceptado en la mayoría de los círculos de la ingeniería. En tales casos usted tiene dos alternativas. La primera sería buscar otro paquete y ver si sirve para resolver el problema. Sabiendo usar ambos, se amplía de forma notable el rango de problemas que pueden resolverse. La segunda sería que es posible volverse un “potente usuario” si se aprende a escribir macros en Excel VBA1 o archivos M (M-files) en MATLAB. ¿Y qué son tales cuestiones? No son más que programas computacionales que permiten ampliar la capacidad de estas herramientas. Como los ingenieros nunca se sentirán satisfechos al verse limitados por las herramientas, harán todo lo que sea necesario para resolver sus problemas. Una buena manera de lograrlo consiste en aprender a escribir programas en los ambientes de Excel y MATLAB. Además, las habilidades necesarias para crear macros o ar chivos M (M-files) son las

mismas que se necesitan para desarrollar efectivamente programas en lenguajes como Fortran 90 o C. Los programas computacionales son únicamente conjuntos de instrucciones que dirigen a la computadora para realizar una cierta tarea. Hay mucha gente que escribe programas para un amplio rango de aplicaciones en los lenguajes de alto nivel, como Fortran 90 o C, porque tienen una gran variedad de capacidades. Aunque habrá algunos ingenieros que usarán toda la amplia gama de capacidades, la mayoría sólo necesitará realizar los cálculos numéricos orientados a la ingeniería. Visto desde esta perspectiva, reducimos toda esa complejidad a unos cuantos tópicos de programación, que son:

  • Representación de información sencilla (declaración de constantes, variables y tipos)
  • Representación de información más compleja (estructuras de datos, arreglos y registros)
  • Fórmulas matemáticas (asignación, reglas de prioridad y funciones intrínsecas)
  • Entrada/Salida
  • Representación lógica (secuencia, selección y repetición)
  • Programación modular (funciones y subrutinas) Como suponemos que el lector ya ha tenido algún contacto con la programación, no dedicaremos mucho tiempo en las cuatro primeras áreas. En lugar de ello, las presentamos como una lista para que el lector verifique lo que necesitará saber para desarrollar los programas que siguen. No obstante, sí dedicaremos algún tiempo a los dos últimos tópicos. Destacaremos la representación lógica porque es el área que más influye en la coherencia y la comprensión de un algoritmo. Trataremos la programación modular porque también contribuye de manera importante en la organización de un programa. Además, los módulos son un medio para almacenar algoritmos utilizados frecuentemente en un formato adecuado para aplicaciones subsecuentes. III. Discusión Los antes comentados nos serán de gran ayuda para poder conocer un poco mejor de lo que va la ingeniería. IV. Conclusiones Tomando en cuenta lo antes visto cabe recalcar que los métodos numéricos para los métodos computacionales deben ser precisos, eficientes, fáciles de usar y estar respaldados por una sólida documentación y soporte técnico para garantizar su efectividad y utilidad en diversas aplicaciones. V. Referencias [1]. Granados Ospina, A. (2015). Las TIC en la enseñanza de los métodos numéricos. Sophia, 11(2), 143-154. Retrieved March 13, 2024. [2]. Canale, P., & Chapra, S. (2007). Métodos numéricos para ingenieros (5ta ed.). McGraw-Hill Companies. [3]. Hernández, E., Pacheco Castelao, J. M., & García, R. (1983). Métodos numéricos en la predicción del tiempo. [4]. Historia Métodos Numéricos–Matemáticas y Métodos Numéricos (unam.mx). Marzo, 2024. VI. Autores Maximiliano Jacobo Del Solar. 28 de agosto del 2002. Estudió la prepa abierta y se