Teoria de errores
 
   
Una magnitud física es un atributo de un cuerpo, un fenómeno o una sustancia, que puede determinarse cuantitativamente, es decir, es un atributo susceptible de ser medido. Ejemplos de magnitudes son la longitud, la masa, la potencia, la velocidad, etc. A la magnitud de un objeto específico que estamos interesados en medir, la llamamos medida (mensura). Por ejemplo, si estamos interesados en medir la longitud de una barra, esa longitud específica será su medida. 

Para establecer el valor de una medida tenemos que usar instrumentos de medición y un método de medición. 
Asimismo es necesario definir unidades de medición. Por ejemplo, si deseamos medir el largo de una mesa, el instrumento de medición será una regla. Si hemos elegido el Sistema Internacional de Unidades (SI), la unidad será el metro y la regla a usar deberá estar calibrada en esa unidad (o submúltiplos). 
El método de medición consistirá en determinar cuántas veces la regla y fracciones de ella entran en la longitud buscada. 
El concepto de error tiene un significado diferente del uso habitual de este término. Coloquialmente, es usual el empleo del término error como análogo o equivalente a equivocación. En ciencia, el error, está más bien asociado al concepto de incertidumbre en la determinación del resultado de una medición. Más precisamente, lo que procuramos en toda medición es conocer las cotas (o limites probabilísticos) de estas incertidumbres. 
Así denotamos: Ancho de la mesa: 12,3 ±0,1m

Notamos que, en lugar de dar un único número, definimos un intervalo. A valor representativo del centro del intervalo (X) lo llamamos el mejor valor de la medida. Al semiancho del intervalo (Δx) se denomina la incertidumbre o error absoluto de la medición. 
En todo proceso de medición existen limitaciones dadas por:
  • los instrumentos usados, 
  • el método de medición, 
  • el observador (u observadores) que realizan la medición. 
El mismo proceso de medición introduce errores o incertidumbres. Por ejemplo, cuando usamos un termómetro para medir una temperatura, parte del calor del objeto fluye al termómetro (o viceversa), de modo que el resultado de la medición es un valor modificado del original debido a la inevitable interacción que debimos realizar. Es claro que esta interacción podrá o no ser significativa (es decir deberá o no ser tomada en cuenta): Si estamos midiendo la temperatura de un metro cúbico de agua, la cantidad de calor transferida al termómetro puede no ser significativa, pero si lo será, si el volumen en cuestión es de una pequeña fracción de un mililitro. 
Tanto los instrumentos que usamos para medir, como las magnitudes mismas son fuente de incertidumbres al momento de medir. Los instrumentos tienen una precisión finita, por lo que, para un dado instrumento, siempre existe una variación mínima de la magnitud que puede detectar. Esta mínima cantidad se denomina la apreciación del instrumento. Por ejemplo, con una regla graduada en milímetros, no podemos detectar variaciones menores que una fracción del milímetro. 

A su vez, las magnitudes a medir no están definidas con infinita precisión. 
Imaginemos que queremos medir el largo de una mesa. Es posible que al usar instrumentos cada vez más precisos empecemos a notar las irregularidades típicas del corte de los bordes o, al ir aun más allá, finalmente detectemos la naturaleza atómica o molecular del material que la constituye. Es claro que en ese punto la longitud dejará de estar bien definida. 
En la práctica, es posible que mucho antes de estos casos límites, la falta de paralelismo en sus bordes haga que el concepto de la “longitud de la mesa” comience a hacerse cada vez menos definido, y a esta limitación intrínseca la denominamos incertidumbre intrínseca o falta de definición de la magnitud en cuestión. 

 
 
La hora es:
 
Dale un Me Gusta
 
 
¡Hoy había/n 3 visitantes (3 clics a subpáginas) en ésta página!
Este sitio web fue creado de forma gratuita con PaginaWebGratis.es. ¿Quieres también tu sitio web propio?
Registrarse gratis