





Prepara tus exámenes y mejora tus resultados gracias a la gran cantidad de recursos disponibles en Docsity
Gana puntos ayudando a otros estudiantes o consíguelos activando un Plan Premium
Prepara tus exámenes
Prepara tus exámenes y mejora tus resultados gracias a la gran cantidad de recursos disponibles en Docsity
Prepara tus exámenes con los documentos que comparten otros estudiantes como tú en Docsity
Los mejores documentos en venta realizados por estudiantes que han terminado sus estudios
Estudia con lecciones y exámenes resueltos basados en los programas académicos de las mejores universidades
Responde a preguntas de exámenes reales y pon a prueba tu preparación
Consigue puntos base para descargar
Gana puntos ayudando a otros estudiantes o consíguelos activando un Plan Premium
Comunidad
Pide ayuda a la comunidad y resuelve tus dudas de estudio
Descubre las mejores universidades de tu país según los usuarios de Docsity
Ebooks gratuitos
Descarga nuestras guías gratuitas sobre técnicas de estudio, métodos para controlar la ansiedad y consejos para la tesis preparadas por los tutores de Docsity
Este documento proporciona una introducción a los métodos numéricos, explorando su historia, aplicaciones y conceptos clave. Se analizan los errores numéricos, incluyendo errores de truncamiento y redondeo, y se destaca la importancia de las herramientas computacionales en la resolución de problemas complejos. El documento también explora la evolución histórica de los métodos numéricos, desde los antiguos babilonios hasta la era moderna de la computación.
Tipo: Guías, Proyectos, Investigaciones
1 / 9
Esta página no es visible en la vista previa
¡No te pierdas las partes importantes!
J.J. Esposito Smith, M. Jacobo Del solar, S. De la cruz Orozco Resumen Los métodos numéricos son técnicas matemáticas utilizadas para resolver problemas mediante aproximaciones numéricas en lugar de soluciones exactas. Estos métodos abarcan una amplia variedad de algoritmos y herramientas computacionales que permiten abordar problemas complejos en ciencia, ingeniería y otros campos. Su aplicación involucra la formulación de problemas matemáticos, la discretización de variables, la elección y aplicación de métodos específicos, la implementación computacional, el análisis de errores y la interpretación de resultados. Aunque ofrecen soluciones aproximadas, los métodos numéricos son fundamentales para enfrentar problemas prácticos donde no se dispone de soluciones analíticas exactas. Palabras Clave : Exactitud, precisión, error, truncamiento, absoluto, relativo, aplicación, redondeo, truncamiento, numéricos, solución, lógico, iterativa, herramientas computacionales. I. Introducción Se puede estudiar la historia de los métodos numéricos estadísticamente y se encontrará que, en todos los campos descritos antes, alrededor del 90% de ellos han sido desarrollados en los últimos 70 años. Si bien gran parte de los métodos numéricos estudiados no corresponden a los desarrollados a partir de 1940, el 10% restante sí surgieron como curiosidades matemáticas con baja aplicabilidad por no disponer en su momento de una plataforma de implementación como los son las computadoras. Pero son actualmente suficientes para resolver la mayoría de los problemas genéricos de simulación. Si bien podríamos basar el estudio de estas técnicas en un enfoque descriptivo de las mismas y complementariamente en un enfoque analítico sobre su comportamiento, la realidad de la práctica profesional implica también el aprendizaje de su implementación sobre plataformas tecnológicas más o menos desarrolladas y basadas en la programación. II. Desarrollo Historia de los métodos numéricos. La base histórica del cálculo numérico se remonta en las épocas de la antigua Mesopotamia,3000 años a.C. La historia, indica que fueron muy probablemente los babilonios quienes usaron el instrumento más antiguo del cálculo matemático conocido como el ábaco. En el año 2600 a de C., en la misma Mesopotamia, los habitantes sumerios crearon unas tablitas hechas de arcilla para grabar en ella el soporte de sus actividades económicas, ejercicios geométricos y problemas aritméticos, así también, se escribieron en ellas las conocidas tablas de multiplicar. En esta época, se desarrolló una matemática que permitía resolver ecuaciones de hasta tercer grado. Se conocía el número pi, a la raíz y la potencia, por lo que existía la capacidad del cálculo de volumen y superficies de las principales figuras geométricas. Por esto último, se puede apreciar que las tablitas de arcilla participaron como un medio de repetición con un orden numérico establecido. En el año 1650 a de C., el matemático Ahmés, redacta un papiro conocido como el “papiro de ahmes”, el cual resultó ser la primera fuente de información de la matemática egipcia. Este papiro, también llamado como segundo nombre, “el papiro de Rhind”, expresa solución a
problemas matemáticos usando las cuatro operaciones aritméticas básicas y que estos problemas son de la talla de raíces de ecuaciones, progresiones, etc. Se puede apreciar los primeros algoritmos numéricos expresados con aritmética básica. En el año 1000 a de C., los Mayas habitantes territoriales del sureste de México, Guatemala y otras zonas de Mesoamérica, fueron los que idearon un sistema de numeración para medir el tiempo. Por lo tanto, indicaron con un método o modelo preciso para resolver o conseguir su calendario del tiempo. En el año 540 a de C., Pitágoras contribuyo significativamente en el avance de las matemáticas. Entre una de sus aportaciones, presenta el teorema de Pitágoras. Es decir, la relación entre los lados de triángulos rectángulos. Históricamente, Pitágoras incluyó en su cálculo a las operaciones aritméticas básicas y el concepto de relación para la solución de problemas matemáticos trigonométricos. En el año 250 a de C., Arquímedes, de igual forma, aporta múltiples aportaciones en el área de la matemática y la física indica. Esta última, por medio de su “principio de Arquímedes” usa la aritmética básica y también la relación para producir un resultado numérico, es decir, un cálculo por medio de un algoritmo matemático. En el mismo año referido anteriormente. Euclides, desarrolla un método de agotamiento para demostrar la relación entre una circunferencia y su diámetro. Este método, consiste en doblar el número de lados de los polígonos regulares inscritos y circunscritos. El resultado del proceso determina el valor de una constante irracional y más importante de las matemáticas, el numero Pi. Como se puede leer, en este modelo matemático, se procesan valores numéricos con un sistema iterativo, y que en cada repetición del modelo se produce una aproximación numérica hacia una con convergencia a Pi. En el año 900 d de C., se crea un modelo matemático en el que se usaron letras para representar relaciones aritméticas, métodos algebraicos. Y prácticamente, se formaliza más el sentido de los métodos numéricos. Se idean modelos numéricos que expresan la solución de problemas, contextuales a ese tiempo, mediante uno pasos ordenados, lógicos y aritméticos, los métodos algorítmicos. En el año 1672. Leibniz, considerado un intelectual supremo, por conducto de su conocimiento en el área de las matemáticas, inventa una máquina de calcular. La cual era capaz de realizar multiplicaciones, divisiones y extraer raíces de tipo cuadrático. A Gottfried, se le atribuye ser el iniciador en el desarrollo de la lógica matemática y uno de los precursores de los ordenadores. En este tiempo, es cuando se formaliza aún más la implementación de modelos matemáticos con estructura numérica y procedimientos definidos. Para el año de 1617, el matemático Napier, desarrolló un sistema llamado: “huesos de Napier”. El cual fue una versión del ábaco. Por ende, esta máquina también se le conoció como: <ábaco neperiano=. Esta máquina, sirvió de base e inspiración para las subsecuentes maquinas calculadoras que incluían los logaritmos, y con ello, se empieza a fusionar máquinas que solucionan problemas matemáticos. En el año de 1623, el astrónomo y matemático Kepler, utiliza una máquina para realizar cálculos numéricos para desarrollar sus estudios astronómicos. Esta máquina era capaz de guardar secuencias para reutilizarse en otros cálculos.
especialmente adecuados para ilustrar el poder y las limitaciones de las computadoras.
donde Et se usa para denotar el valor exacto del error. El subíndice t indica que se trata del error “verdadero” (true). Como ya se mencionó brevemente, esto contrasta con los otros casos, donde se debe emplear una estimación “aproximada” del error. Una desventaja en esta definición es que no toma en consideración el orden de la magnitud del valor que se estima. Por ejemplo, un error de un centímetro es mucho más significativo si se está midiendo un remache en lugar de un puente. Una manera de tomar en cuenta las magnitudes de las cantidades que se evalúan consiste en normalizar el error respecto al valor verdadero, es decir: [3] donde Et denota el error relativo porcentual verdadero. Errores inherentes, de redondeo y por truncamiento. ERRORES INHERENTES Son errores que existen en los valores de los datos, causados por incertidumbre en las mediciones, por verdaderas equivocaciones, o por la naturaleza necesariamente aproximada de la representación, mediante un número finito de dígitos, de cantidades que no pueden representarse exactamente con el número de dígitos permisible. Por ejemplo, si necesitamos usar p en un cálculo, podemos escribirlo como 3.14, 3.1416, 3.1415926535589793..., etc. En muchos casos aún una fracción simple no tiene representación decimal exacta, por ejemplo 1/3, que puede escribirse solamente como una sucesión finita de números 3. Muchas fracciones que tienen representación finita en un sistema no la tienen en otro, el número 1/10 es igual a 0.1 en decimal y en binario es 0.000110011001100... ERRORES POR TRUNCAMIENTO Estos son debidos a la omisión de términos en una serie que tiene un número infinito de términos. Por ejemplo, podemos utilizar la serie infinita de Taylor para calcular el seno de cualquier ángulo X, expresado en radianes: [ 3 ] Por supuesto que no podemos usar todos los términos de la serie en un cálculo, porque la serie es infinita; entonces, los términos omitidos introducen un error por truncamiento. ERRORES POR REDONDEO Estos errores se introducen en los procesos de computación por el hecho de que las computadoras trabajan con un número finito de dígitos después del punto decimal y tienen que redondear. Como nos interesa el redondeo de punto flotante, revisaremos la forma de representación de un número de punto flotante. Recordando que cada número lo podemos representar por una fracción generalmente llamada Mantisa, la cual está multiplicada por una potencia del número base, llamada generalmente el Exponente. Entonces tenemos números como los siguientes: Se puede determinar un límite al error relativo máximo que puede ocurrir en un resultado aritmético obtenido con redondeo truncado. El [ 4 ]
X = cantidad verdadera. = una aproximación a la cantidad verdadera. eX = error absoluto. Tenemos que: [ 14 ] De acuerdo con nuestra definición: [ 15 ] El Error Relativo se define como el cociente del error absoluto entre la aproximación [16] Uso de herramientas computacionales. En la actualidad, las computadoras y los métodos numéricos ofrecen una alternativa para los cálculos complicados. Al usar la potencia de la computadora se obtienen soluciones directamente, de esta manera se pueden aproximar los cálculos sin tener que recurrir a consideraciones de simplificación o a técnicas muy lentas. Aunque las soluciones analíticas aún son muy valiosas, tanto para resolver problemas como para brindar una mayor comprensión, los métodos numéricos representan opciones que aumentan, en forma considerable, la capacidad para enfrentar y resolver los problemas; como resulta do, se dispone de más tiempo para aprovechar las habilidades creativas personales. En consecuencia, es posible dar más importancia a la formulación de un problema y a la interpretación de la solución, así como a su incorporación al sistema total, o conciencia “holística”. En la actualidad existen dos tipos de usuarios de software. Por un lado, están aquellos que toman lo que se les da. Es decir, quienes se limitan a las capacidades que encuentran en el modo estándar de operación del software existente. Por ejemplo, resulta muy sencillo resolver un sistema de ecuaciones lineales o generar una gráfica con valores x-y con Excel o con MATLAB. Como este modo de operación por lo común requiere un mínimo esfuerzo, muchos de los usuarios adoptan este modo de operación. Además, como los diseñadores de estos paquetes se anticipan a la mayoría de las necesidades típicas de los usuarios, muchos de los problemas pueden resolverse de esta manera. Pero ¿qué pasa cuando se presentan problemas que están más allá de las capacidades estándar de dichas herramientas? Por desgracia, decir “Lo siento jefe, pero no lo sé hacer” no es algo aceptado en la mayoría de los círculos de la ingeniería. En tales casos usted tiene dos alternativas. La primera sería buscar otro paquete y ver si sirve para resolver el problema. Sabiendo usar ambos, se amplía de forma notable el rango de problemas que pueden resolverse. La segunda sería que es posible volverse un “potente usuario” si se aprende a escribir macros en Excel VBA1 o archivos M (M-files) en MATLAB. ¿Y qué son tales cuestiones? No son más que programas computacionales que permiten ampliar la capacidad de estas herramientas. Como los ingenieros nunca se sentirán satisfechos al verse limitados por las herramientas, harán todo lo que sea necesario para resolver sus problemas. Una buena manera de lograrlo consiste en aprender a escribir programas en los ambientes de Excel y MATLAB. Además, las habilidades necesarias para crear macros o ar chivos M (M-files) son las
mismas que se necesitan para desarrollar efectivamente programas en lenguajes como Fortran 90 o C. Los programas computacionales son únicamente conjuntos de instrucciones que dirigen a la computadora para realizar una cierta tarea. Hay mucha gente que escribe programas para un amplio rango de aplicaciones en los lenguajes de alto nivel, como Fortran 90 o C, porque tienen una gran variedad de capacidades. Aunque habrá algunos ingenieros que usarán toda la amplia gama de capacidades, la mayoría sólo necesitará realizar los cálculos numéricos orientados a la ingeniería. Visto desde esta perspectiva, reducimos toda esa complejidad a unos cuantos tópicos de programación, que son: