Docsity
Docsity

Prepara tus exámenes
Prepara tus exámenes

Prepara tus exámenes y mejora tus resultados gracias a la gran cantidad de recursos disponibles en Docsity


Consigue puntos base para descargar
Consigue puntos base para descargar

Gana puntos ayudando a otros estudiantes o consíguelos activando un Plan Premium


Orientación Universidad
Orientación Universidad

Ajustes de curvas de reynolds, Guías, Proyectos, Investigaciones de Organización y Gestión del laboratorio

Descripción para graficar las curvas de Reino d laminar turbulento transitorio

Tipo: Guías, Proyectos, Investigaciones

2024/2025

Subido el 04/06/2025

alejandro-gabriel-talavera-gomez
alejandro-gabriel-talavera-gomez 🇻🇪

1 documento

1 / 5

Toggle sidebar

Esta página no es visible en la vista previa

¡No te pierdas las partes importantes!

bg1
1
AJUSTE DE CURVAS
(Teoría)
Algunas definiciones
La media. La media
y
de una muestra se define como la suma de los datos individuales
i
y
dividido por el número de puntos n, o:
1
n
i
i
y
y
n
=
=
Desviación estándar. La madida más común de la dispersión de una muestra es la desviación
estándar
S
, en función de la media:
( )
2
t1
, donde S .
1
n
t
y i
i
S
S y y
n
=
= =
Error estándar de la aproximación. Cuantifica la dispersión alrededor de la línea de regresión
y está dado por
,
2
r
yx
S
Sn
=
Donde
r
S
representa la suma de los cuadrados de los residuos en cada ajuste.
Coeficiente de correlación
. Cuantifica cuán mejor es la reducción del error debido al modelo de
ajuste obtenido
t r
t
S S
rS
=
Utilidad de la regresión
La regresión con mínimos cuadrados se usa para desarrollar la mejor curva que ajuste todas las
tendencias de los datos sin pasar necesariamente a través de algún punto. Todos los métodos de
regresión se diseñan de manera que ajusten funciones que minimicen la suma de los cuadrados de
los residuos entre los datos y la función. A estos métodos se les conoce como
regresión con
mínimos cuadrados.
pf3
pf4
pf5

Vista previa parcial del texto

¡Descarga Ajustes de curvas de reynolds y más Guías, Proyectos, Investigaciones en PDF de Organización y Gestión del laboratorio solo en Docsity!

AJUSTE DE CURVAS

(Teoría)

Algunas definiciones

La media. La media y de una muestra se define como la suma de los datos individuales yi

dividido por el número de puntos n, o:

1

n i i

y y n

=^ =

Desviación estándar. La madida más común de la dispersión de una muestra es la desviación estándar S (^) y, en función de la media:

2 t 1

, donde S. 1

n t y i i

S

S y y n (^) =

Error estándar de la aproximación. Cuantifica la dispersión alrededor de la línea de regresión y está dado por

r y x

S

S

n

Donde Sr representa la suma de los cuadrados de los residuos en cada ajuste.

Coeficiente de correlación. Cuantifica cuán mejor es la reducción del error debido al modelo de ajuste obtenido

t r t

S S

r S

Utilidad de la regresión

La regresión con mínimos cuadrados se usa para desarrollar la mejor curva que ajuste todas las tendencias de los datos sin pasar necesariamente a través de algún punto. Todos los métodos de regresión se diseñan de manera que ajusten funciones que minimicen la suma de los cuadrados de los residuos entre los datos y la función. A estos métodos se les conoce como regresión con mínimos cuadrados.

Regresión lineal

La regresión con mínimos cuadrados lineal se usa en aquellos casos en donde una variable dependiente y otra independiente se relacionan de manera lineal. La más simple aproximación es el ajuste de una línea recta a un conjunto de parejas de datos observados:

( x 1 , y 1 ) , ( x 2 , y 2 ) ,..., ( xn , yn ).Trabajamos con la expresión matemática de una línea recta:

y = a 0 + a x 1 +e

en donde a 0 y a 1 son coeficientes que representan la intersección con el eje de las abscisas y la pendiente, respectivamente y e es el error o residuo entre el modelo y las observaciones. Este error se puede representar como

e = y − a 0 −a x 1 ,

Lo que quiere decir, que el error o residuo es la diferencia entre el valor real de y y el valor aproximado, a 0 + a 1 x, predicho por la ecuación lineal.

Criterio para un mejor ajuste

El procedimiento que obtiene la mejor línea a través de los puntos es la de minimizar la suma de los cuadrados de los residuos, Sr:

2 0 1 1

n r i i i

S y a a x

Para determinar los valores de las constantes a 0 y a 1 , se deriva Sr con respecto a cada uno de los coeficientes e igualamos a cero:

0 1 0 1

0 1 1 1

n r i i i

n r i i i i

S

y a a x a

S

y a a x x a

=

=

Estas ecuaciones se pueden expresar como un conjunto de dos ecuaciones lineales simultáneas con dos incógnitas a 0 y a 1 :

0 1 1 1 2 0 1 1 1 1

n n i i i i n n n i i i i i i i

na a x y

a x a x x y

= =

= = =

Estas ecuaciones reciben el nombre de ecuaciones normales para el ajuste lineal.

Interpolación polinomial

La interpolación polinomial consiste en determinar el único polinomio de n-ésimo orden que ajuste n + 1 puntos. Este polinomio proporciona una fórmula para calcular valores intermedios. Estudiaremos dos casos de ellos: los polinomios de Newton y los de Lagrange.

Forma general de la interpolación de polinomios de Newton

El polinomio de n-ésimo orden es

fn ( x ) = b 0 + b 1 ( x − x 0 ) + b 2 ( x − x 0 )( x − x 1 ) + ... + bn ( x − x 0 )( x − x 1 ) ...( x −xn − 1 )

Para este polinomio se requiere n+1 puntos: ( x 0 , f ( x 0 )) , ( x 1 , f ( x 1 )) ,..., ( xn ,f ( xn )). Usamos

estos datos y las siguientes ecuaciones para evaluar los coeficientes:

[ ] [ ] [ ]

[ ]

0 0 1 1 0 2 2 1 0 3 3 2 1 0

1 1 0

n n ,^ n ,...,^ ,

b f x b f x x b f x x x b f x x x x

b f x x (^) − x x

Las evaluaciones de la función puestas entre corchetes se llaman diferencias divididas finitas. Por ejemplo, la primera diferencia dividida finita se representa por lo general como

i j i j i j

f x f x f x x x x

La segunda diferencia dividida finita, la cual representa la diferencia de las dos primeras diferencias divididas, se expresa como

i j j k i j k i k

f x x f x x f x x x x x

En forma similar, la n-ésima diferencia dividida finita es

[ ]

[ 1 1 ] [ 1 2 0 ] 1 1 0 0

n ,^ n ,...,^ ,^ n^ n^ n^ n n

f x x x f x x x f x x x x x x

− − − −

Polinomio de Lagrange

La interpolación de polinimios de Lagrange es una reformulación del polinomio de Newton, que evita el cálculo de las diferencias dividias finitas y se expresa de la siguiente manera:

0

n n i i i

f x L x f x

Donde

n^ j i j i j

x x L x = x x

0 1 2 0 1 2

n i i i i n

x x x x x x x x x x x x x x x x

 −^  −^  −^   − 