Probabilidad: significado, concepto e importancia

Después de leer este artículo, aprenderá acerca de: 1. Significado de probabilidad 2. Diferentes escuelas de pensamiento sobre el concepto de probabilidad 3. Terminología importante 4. Importancia 5. Principios.

Significado de la probabilidad:

En nuestra vida cotidiana, el término "probabilidad" o "probabilidad" es un término muy utilizado. A veces, solemos decir "Probablemente pueda llover mañana", "Probablemente el Sr. X pueda venir hoy para tomar su clase", "Probablemente tengas razón". Todos estos términos, posibilidad y probabilidad transmiten el mismo significado. Pero en estadística, la probabilidad tiene cierta connotación especial, a diferencia de Layman.

La teoría de la probabilidad se ha desarrollado en el siglo XVII. Tiene su origen en los juegos, lanzando monedas, lanzando un dado, sacando una carta de un paquete. En 1954, Antoine Gornband había tomado una iniciación y un interés por esta área.

Después de él, muchos autores en estadística habían intentado remodelar la idea dada por el primero. La "probabilidad" se ha convertido en una de las herramientas básicas de la estadística. A veces el análisis estadístico se paraliza sin el teorema de la probabilidad. "La probabilidad de un evento dado se define como la frecuencia esperada de ocurrencia del evento entre eventos de un tipo similar". (Garrett)

La teoría de la probabilidad proporciona un medio para tener una idea de la probabilidad de ocurrencia de diferentes eventos resultantes de un experimento aleatorio en términos de medidas cuantitativas que varían entre cero y uno. La probabilidad es cero para un evento imposible y uno para un evento que seguramente ocurrirá.

Ejemplo:

La probabilidad de que el cielo caiga es .00.

Un individuo que ahora vive, algún día morirá, es 1.00.

Aclaremos el significado de probabilidad con un ejemplo de robar una carta de juego. Hay 4 variedades de cartas en un paquete y si se barajan aleatoriamente, la probabilidad de sacar una pala es 13/52 = 1/4. Si se lanza una moneda no sesgada, la probabilidad de aparición de Cabeza (H) es 1/2.

Probabilidad como Ratio:

La probabilidad de un evento declarado o expresado matemáticamente se llama como una proporción. La probabilidad de una moneda imparcial, la caída de la cabeza es 1/2, y la probabilidad de que un dado muestre dos puntos es 1/6. Estas relaciones, llamadas relaciones de probabilidad, están definidas por esa fracción, cuyo numerador es igual al resultado o resultados deseados, y el denominador de los cuales es igual al total de resultados posibles.

En pocas palabras, la probabilidad de que aparezca cualquier cara en una cara de 6 (por ejemplo, 4 puntos) es 1/6 o

Probabilidad = resultado deseado / número total de resultados

Por lo tanto, una probabilidad es un número o una proporción que varía de 0 a 1. Cero para un evento que no puede ocurrir y 1 para un evento, que seguramente ocurrirá.

Diferentes escuelas de pensamiento sobre el concepto de probabilidad:

Hay diferentes escuelas de pensamiento sobre el concepto de probabilidad:

1. Probabilidad clásica:

El enfoque clásico de la probabilidad es una de las escuelas de pensamiento más antiguas y sencillas. Se originó en el siglo XVIII, lo que explica la probabilidad de juegos de azar como lanzar monedas, dados, robar cartas, etc.

La definición de probabilidad fue dada por un matemático francés llamado "Laplace". Según él, la probabilidad es la relación entre el número de casos favorables y el número de casos igualmente probables.

O en otras palabras, la proporción sugerida por el enfoque clásico es:

Pr. = Número de casos favorables / Número de casos igualmente probables

Por ejemplo, si se lanza una moneda, y si se le pregunta cuál es la probabilidad de que ocurra la cabeza, entonces el número del caso favorable = 1, el número de los casos igualmente probables = 2.

Pr. de cabeza = 1/2

Simbólicamente se puede expresar como:

P = Pr. (A) = a / n, q = Pr. (B) o (no A) = b / n

1 - a / n = b / n = (o) a + b = 1 y también p + q = 1

p = 1 - q, y q = 1 - p y si a + b = 1 entonces también a / n + b / n = 1

En este enfoque, la probabilidad varía de 0 a 1. Cuando la probabilidad es cero, indica que es imposible que ocurra.

Si la probabilidad es 1, entonces hay certeza para la ocurrencia, es decir, el evento está destinado a ocurrir.

Ejemplo:

De una bolsa que contiene 20 bolas negras y 25 bolas blancas, se dibuja una bola al azar. ¿Cuál es la probabilidad de que sea negro?

Pr. de una bola negra = 20/45 = 4/9 = p, 25 Pr. de una bola blanca = 25/45 = 5/9 = q

p = 4/9 y q = 5/9 (p + q = 4/9 + 5/9 = 1)

Deméritos:

(1) El enfoque clásico solo se limita a las monedas, dados, cartas, etc .;

(2) Esto puede no explicar el resultado real en ciertos casos;

(3) Si el número de casos igualmente probables es mayor, entonces es difícil encontrar los valores de la razón de probabilidad, y

(4) Si el número de casos igualmente probables es 00, este enfoque es inadecuado.

2. Teoría de la frecuencia relativa de la probabilidad:

Este enfoque de la probabilidad es una protesta contra el enfoque clásico. Indica el hecho de que si n aumenta hasta up, podemos averiguar la probabilidad de p o q.

Ejemplo:

Si n es ∞, entonces Pr. de A = a / n = .5, Pr. de B = b / n = 5

Si un evento ocurre veces fuera de n, su frecuencia relativa es a / n. Cuando n se convierte en ∞, se llama límite de frecuencia relativa.

Pr. (A) = límite a / n

donde n → ∞

Pr. (B) = límite de bl.t. aquí → ∞.

Si hay dos tipos de objetos entre los objetos de naturaleza similar u otra, entonces la probabilidad de un objeto, es decir, Pr. de A = .5, entonces Pr. de B = .5.

Deméritos:

1. Este enfoque no es en absoluto un enfoque auténtico y científico.

2. Este enfoque de probabilidad es un concepto indefinido.

3. Este tipo de enfoque de probabilidad, aunque se aplica en el área de negocios y economía, aún no es confiable.

Terminología importante en probabilidad:

1. Eventos mutuamente exclusivos:

Se dice que los eventos se excluyen mutuamente cuando no se producen simultáneamente. Entre los eventos, si un evento permanecerá presente en una prueba, otros eventos no aparecerán. En otras palabras, la ocurrencia de uno excluye la ocurrencia de todos los demás.

Por ejemplo:

Si una chica es hermosa, no puede ser fea. Si una bola es blanca, no puede ser roja. Si tomamos otros eventos como muertos y vivos, se puede decir que una persona puede estar viva o muerta en algún momento.

Pero la mentira no puede estar viva y muerta simultáneamente. Si se lanza una moneda, aparecerá la cabeza o aparecerá la cola. Pero ambos no pueden aparecer al mismo tiempo. Se refiere a que al lanzar una moneda, la aparición de cabeza y cola se incluye en eventos mutuamente exclusivos.

Simbólicamente, si los eventos 'A' y 'B' se excluyen mutuamente, entonces la probabilidad de eventos puede estimarse en P (A) o P (B). En eventos mutuamente exclusivos P (AB) = 0.

2. Eventos independientes y dependientes:

Se dice que dos o más eventos son independientes cuando la aparición de un ensayo no afecta al otro. Indica el hecho de que si el ensayo se realiza uno por uno, un ensayo no se ve afectado por el otro. Y también un ensayo nunca describe nada sobre los otros ensayos.

Ejemplo:

Los eventos en tirar una moneda son eventos independientes. Si una moneda se lanza una por una, entonces una prueba no se ve afectada por la otra. En una prueba, la cabeza o la cola pueden ser cónicas, lo que nunca describe qué evento ocurrirá en la segunda prueba. Por lo tanto, la segunda prueba es completamente independiente de la primera prueba.

Los eventos dependientes son aquellos en los que la ocurrencia y la no ocurrencia de un evento en un ensayo pueden afectar la ocurrencia de los otros ensayos. Aquí los eventos son mutuamente dependientes unos de otros.

Ejemplo:

Si se extrae una carta de un paquete de cartas y no se reemplaza, en el 2º de prueba se modificará la probabilidad.

3. Eventos igualmente probables:

Se dice que los eventos son igualmente probables, cuando existe la misma posibilidad de que ocurran. Si un evento no se produce como otros eventos, los eventos no se consideran igualmente probables. O, en otras palabras, se dice que los eventos son igualmente probables cuando un evento no ocurre con más frecuencia que los otros.

Ejemplo:

Si se lanza una moneda o un dado imparcial, se espera que cada cara que se produzca es un número igual en el largo plazo. En otro ejemplo, en un paquete de cartas, esperamos que cada carta aparezca igual. Si una moneda o un dado está sesgado, no se espera que cada cara aparezca igual.

4. Eventos simples y compuestos:

Eventos simples. En los eventos simples pensamos en la probabilidad de que suceda o no suceda algo de los eventos simples. Cuando lanzamos la moneda, estamos considerando la ocurrencia de eventos de cabeza y cola. En otro ejemplo, si en una bolsa hay 10 bolas blancas y 6 bolas rojas y, cuando intentamos averiguar la probabilidad de sacar una bola roja, se incluye en los eventos simples.

Eventos compuestos:

Pero, por otro lado, cuando consideramos la ocurrencia conjunta de dos o más eventos, se convierte en eventos compuestos. A diferencia de los eventos simples aquí, más de un evento se toman en consideración.

Por ejemplo:

Si hay 10 bolas blancas y 6 rojas en una bolsa y si se hacen sorteos sucesivos de 3 bolas y cuando intentamos averiguar la probabilidad de 3 bolas como las bolas blancas. Este ejemplo establece el hecho de que los eventos se consideran en más de dos casos eventuales.

Importancia de la probabilidad:

El concepto de probabilidad es de gran importancia en la vida cotidiana. El análisis estadístico se basa en este valioso concepto. De hecho, el papel desempeñado por la probabilidad en la ciencia moderna es el de un sustituto de la certeza.

La siguiente discusión lo explica más a fondo:

yo. La teoría de la probabilidad es muy útil para hacer predicciones. Las estimaciones y predicciones forman una parte importante de la investigación de investigación. Con la ayuda de métodos estadísticos, hacemos estimaciones para el análisis posterior. Por lo tanto, los métodos estadísticos dependen en gran medida de la teoría de la probabilidad.

ii. También tiene una importancia inmensa en la toma de decisiones.

iii. Se ocupa de la planificación y el control y de la aparición de accidentes de todo tipo.

iv. Es una de las herramientas inseparables para todos los tipos de estudios formales que implican incertidumbre.

v. El concepto de probabilidad no solo se aplica en negocios y líneas comerciales, sino que también se aplica a toda investigación científica y vida cotidiana.

vi. Antes de conocer los procedimientos de decisión estadística hay que conocer la teoría de la probabilidad.

vii Las características de la probabilidad normal. La curva se basa en la teoría de la probabilidad.

La distribución normal es, con mucho, la distribución más utilizada para extraer inferencias a partir de datos estadísticos debido a las siguientes razones:

1. El número de evidencias se acumula para mostrar que la distribución normal se adapta bien o describe las frecuencias de ocurrencia de muchas variables y hechos en (i) estadísticas biológicas, por ejemplo, la proporción de sexos en los nacimientos en un país durante varios años, (ii) los datos antropométricos, por ejemplo, altura, peso, (iii) salarios y rendimiento de un gran número de trabajadores en la misma ocupación en condiciones comparables, (iv) mediciones psicológicas, por ejemplo, inteligencia, tiempo de reacción, ajuste, ansiedad y (v) errores de observación en Física, Química y otras ciencias físicas.

2. La distribución normal es de gran valor en la evaluación e investigación tanto en psicología como en educación, cuando hacemos uso de la medición mental. Cabe señalar que la distribución normal no es una distribución real de puntajes en ninguna prueba de habilidad o logro académico, sino que es un modelo matemático.

La distribución de los resultados de las pruebas se aproxima a la distribución normal teórica como un límite, pero el ajuste rara vez es ideal y perfecto.

Principios de probabilidad y curva de probabilidad normal:

Cuando lanzamos una moneda imparcial puede caer cabeza o cola. Por lo tanto, la probabilidad de caída de la cabeza es del 50% o 1/2 y la caída de la cola también es del 50% o 1/2. Si lanzamos dos monedas no sesgadas, pueden caer de varias maneras, como HH (dos cabezas) HT (cabeza de la primera moneda y segunda cola de la moneda), TH (primera cola de la moneda y segunda cabeza de la moneda) o TT (dos colas).

Entonces, hay cuatro arreglos posibles si lanzamos dos monedas, (a) y (b), al mismo tiempo:

Tenemos para dos monedas (H + T) 2 ; y al cuadrado, el binomio (H + T) 2 = H 2 + 2HT + T 2 .

1 H 2 1 posibilidad en 4 de 2 cabezas; razón de probabilidad = 1/4

2 HT 2 oportunidades en 4 de 1 cabeza y 1 cola; razón de probabilidad = 1/2

1 T 2 1 chance en 4 de 2 colas; razón de probabilidad = 1/4

Total = 4

Si lanzamos tres monedas (a), (b) y (c) simultáneamente, hay 8 resultados posibles:

Expresado como razones, la probabilidad de tres cabezas es 1/8 (combinación 1); de dos cabezas y una cola 3/8 (combinaciones 2, 3 y 4); de una cabeza y dos colas 3/8 (combinaciones 5, 6 y 7); y de tres colas 1/8 (combinación 8). La suma de estas razones de probabilidad es 1/8 + 3/8 + 3/8 + 1/8, o 1.00.

Si tenemos tres factores independientes que operan, la expresión (p + q) n se convierte en tres monedas (H + T) 3 . Al expandir este binomio, obtenemos H 3 + 3H 2 T + 3HT 2 + T 3, que se puede escribir,

1 H 3 1 posibilidad en 8 de 3 cabezas; razón de probabilidad = 1/8

3 H 2 T 3 oportunidades en 8 de 2 cabezas y 1 cola; razón de probabilidad = 3/8

3 HT 2 3 oportunidades en 8 de 1 cabeza y 2 colas; razón de probabilidad = 3/8

1 T 3 1 posibilidad en 8 de 3 colas; cociente de probabilidad Total = 1/8

De manera similar, si lanzamos diez monedas y sustituimos 10 por n, la expansión binomial será

(H + T) 10 = H 10 + 10H 9 T + 45H 8 T 2 + 120H 7 T 3 + 210H 6 T 4 + 252 H 5 T 5 + 210 H 4 T 6 + 120 H3 T 7 + 45H 2 T 8 + 10HT 9 + T 10 .

La expansión tiene once combinaciones y la probabilidad de ocurrencia de cada combinación de la posible ocurrencia total se expresa mediante el coeficiente de cada combinación.

Podemos representar los once términos anteriores de la expansión a lo largo del eje X a distancias iguales como:

Podemos representar la posibilidad de ocurrencia de cada combinación de H y T como frecuencias a lo largo del eje Y. Si trazamos todos estos puntos y los unimos, obtendremos un polígono de frecuencia simétrica.

Si en el binomio (H + T) n el valor de n es bastante grande (digamos infinito) tendríamos un gran número de puntos en la gráfica y al unirlos obtendríamos una curva simétrica perfectamente suavizada. Tal curva suave y simétrica se conoce como "curva de probabilidad normal".

Mire detenidamente la siguiente distribución de frecuencia, que obtuvo un maestro después de examinar a 150 estudiantes de la clase IX en una prueba de rendimiento en matemáticas (consulte la Tabla 6.1):

¿Puede encontrar alguna tendencia especial en las frecuencias que se muestran en la columna 3 de la tabla anterior? ¡Probablemente si! La concentración de frecuencia máxima ( f = 30) está en el valor central de la distribución y las frecuencias disminuyen gradualmente simétricamente en ambos lados de este valor. Si dibujamos un polígono de frecuencia con la ayuda de la distribución anterior, tendremos una curva como se muestra en la Fig. 6.1.

La forma de la curva en la figura es como una 'Campana' y es simétrica en ambos lados. Si calcula los valores de Media, Mediana y Modo, encontrará que estos tres son aproximadamente los mismos (Media = Mediana = Modo = 52).

La curva en forma de "campana" conocida técnicamente como curva de probabilidad normal o simplemente curva normal y la correspondiente distribución de frecuencia de las puntuaciones, que tienen valores iguales de las tres medidas de tendencia central, se conoce como distribución normal.

Esta curva normal tiene gran importancia en la medición psicológica y educativa. En la medición de los aspectos de comportamiento, la curva de probabilidad normal se ha utilizado a menudo como curva de referencia.

Por lo tanto, la curva de probabilidad normal es una curva en forma de campana simétrica. En ciertas distribuciones, las mediciones o puntajes tienden a distribuirse simétricamente sobre sus medios. Es decir, la mayoría de los casos se encuentran en el centro de la distribución y muy pocos casos se encuentran en los extremos (extremo inferior y superior y).

En otras palabras, la mayoría de las mediciones (puntuaciones) se concentran en la parte media de la distribución y otras mediciones (puntuaciones) comienzan a disminuir tanto a la derecha como a la izquierda en proporciones iguales. Este es a menudo el caso con muchos fenómenos naturales y con muchos rasgos mentales y sociales.

Si dibujamos una curva de mejor ajuste para tal distribución simétrica, tomará la forma de una curva en forma de campana simétrica en ambos lados de su centro.