Sesgo del estimador

La estimación es algo que utilizas todos los días sin ni siquiera pensar en ello. Calculas cuánto tardarás en llegar al trabajo, cuánta sal añadir a lo que cocinas y lo bien que le irá a tu equipo de fútbol favorito. Eso no significa que siempre tengas razón. Entonces, ¿cómo sabes si tus estimaciones son correctas? ¿Cómo puedes saber si están sesgadas o no?

Pruéablo tú mismo

Review generated flashcards

Regístrate gratis
Has alcanzado el límite diario de IA

Comienza a aprender o crea tus propias tarjetas de aprendizaje con IA

Equipo editorial StudySmarter

Equipo de profesores de Sesgo del estimador

  • Tiempo de lectura de 10 minutos
  • Revisado por el equipo editorial de StudySmarter
Guardar explicación Guardar explicación
Tarjetas de estudio
Tarjetas de estudio

Saltar a un capítulo clave

    Aquí es donde los estadísticos utilizan el sesgo del estim ador. Como tu estimación se basa en una idea media de cómo han ido las cosas en el pasado, puedes utilizar un estimador para la media, y a partir de ahí averiguar lo sesgado o no que está.

    La comparación de estimadores y la determinación de la varianza o error típico de un estimador se explican en el artículo Calidad de los estimadores.

    Definición del Sesgo de un estimador

    Supongamos, por ejemplo, que quieres hallar la longitud media de los peces de un acuario. No sólo hay un gran número de peces que tendrías que medir, sino que además es muy difícil capturar y medir a todos los peces.

    En lugar de medir todos y cada uno de los peces de la población (lo que se denomina censo), sería mejor tomar una muestra de peces y, a partir de esa muestra, obtener una estimación de la longitud media de los peces. Esto se denomina estimador.

    Pero primero tienes que saber qué es un estadístico.

    La estadística, \(T\), se compone de \(n\) muestras de la variable aleatoria \(X\) (es decir, \(X_1,X_2,X_3,...,X_n\)). Estas observaciones son independientes y están cada una idénticamente distribuida.

    A menudo se denominan estadísticos de prueba para diferenciarlos de la palabra "estadística". Matemáticamente, esto significa que el estadístico utilizado para estimar un parámetro, \(T\), estará compuesto por \(n\) muestras aleatorias independientes tomadas de una variable aleatoria, \(X\).

    Un estimador es un estadístico utilizado para estimar un parámetro poblacional. Una estimación es el valor del estimador cuando se toma de una muestra.

    También puedes ver un estimador llamado estimación puntual. Es importante saber reconocer qué son los estimadores. Observa el siguiente ejemplo.

    Explica por qué las siguientes funciones son o no son estimadores cuando \(X_1, X_2,...,X_n\) se toman de una población con parámetros \(\mu\) y \(\sigma\).

    i) \(\dfrac{X_3+X_6}{2})

    ii) \(\dfrac{\sum(X_i-\mu)^2}{n}\)

    Solución:

    i) La función

    \[\dfrac{X_3+X_6}{2}\]

    es un estimador, ya que se compone de muestras independientes e idénticamente distribuidas.

    ii) Por otro lado

    \[\dfrac{\sum(X_i-\mu)^2}{n}\]

    no es un estimador, ya que contiene \(\mu\), que no es una muestra. De hecho, este estimador potencial ni siquiera es un estadístico. ¡La variable \(\mu\) es el parámetro poblacional! No puedes utilizar una fórmula que incluya el parámetro poblacional para estimar el parámetro poblacional.

    Echemos un vistazo rápido.

    Visión general del sesgo del estimador

    No todos los estadísticos son estimadores fiables. Para determinar la validez de la capacidad de un estadístico para estimar un parámetro, tendrás que encontrar el valor esperado del estadístico.

    Si la expectativa del estadístico es diferente a la del parámetro que quieres estimar, esto te indica que el estadístico está sesgado.

    Puedes considerar el sesgo comouna medida de lo sesgada que está tu distribución muestral, o también de lo alejado del parámetro poblacional que está tu estimador. Cuantomás sesgada sea la distribución muestral, mayor será el sesgo.

    Para más información sobre la asimetría, consulta el artículo Asimetría.

    Explicación del sesgo de un estimador

    Puedes escribir la definición de que una estimación es sesgada o insesgada utilizando una notación matemática sencilla.

    Si \(\hat{\theta}\) es un estadístico utilizado para estimar el parámetro poblacional \(\theta\), \(\hat{\theta}\) es insesgado cuando

    \[\text {E}(\hat{\theta})=\theta\]

    donde \(\text{E}\) es la notación del valor esperado. Cualquier estadística que no sea insesgada se denomina sesgada.

    Si \(\hat{\theta}\) es sesgada, el sesgo puede hallarse mediante la siguiente fórmula:

    \[\text{Bias}(\hat{\theta})=\text{E}(\hat{\theta})-\theta.\]

    Cómo de grande es el sesgo de \(\hat{\theta}\) puede hallarse utilizando la siguiente fórmula:

    \[\text{Bias}(\hat{\theta})=\text{E}(\hat{\theta})-\theta.\]

    Observa que si \(\text{E}(\hat{\theta})=\theta) entonces \(\text{Bias}=0\).

    Pongamos en práctica la definición.

    Demuestra que \text{E}(\bar{X})=\mu\) donde

    \[\bar{X}=\frac{(X_1+X_2+\dots+X_n)}{n} \]

    es un estimador insesgado.

    Solución:

    Teniendo en cuenta que \(\texto {E}(aX)=\texto {E}(X)\), tienes

    \[\begin{align}{texto{E}(\bar{X})&={frac{1}{n}{texto{E}(X_1+puntos +X_n)\&={frac{1}{n}(\texto{E}(X_1)+puntos +texto{E}(X_n))\final{align}].

    Como \(\text {E}(X_i)=\mu\) para todo \(i\), tienes

    \[ \inicio{alineación} \texto {E} (\bar{X}) &= \frac{\mu +\mu +\dots + \mu}{n} \\ y= \frac{n} {\mu} {\mu} &=\mu .\final{align}\]

    Esto demuestra que \(\text {E}(\bar{X})=\mu), lo que significa que \(\bar{X}) es un estimador insesgado del parámetro \(\mu). Esto significa que , por término medio, este estadístico dará el valor correcto del parámetro estimado.

    Para recordar por qué \(\text {E}(aX)=\text {E}(X)\), consulta el artículo Suma de variables aleatorias independientes.

    El hecho de que el ejemplo anterior te proporcione un estimador insesgado es la razón por la que lo verás utilizado para construir intervalos de confianza.

    Ejemplo de sesgo del estimador

    ¡No todos los estimadores son insesgados!

    Se te da

    \[T=\frac{X_1+2X_2}{n}\]

    como candidato a estimador del parámetro de la media de una distribución, \(t\), donde \(n\) es el número total de muestras tomadas. Halla el sesgo de este estadístico.

    Solución:

    En este problema, el parámetro poblacional es la media, \(t\). Por tanto, para hallar el sesgo, puedes utilizar la fórmula

    \[\text{Bias}(T)=\text {E}(T)-t,\]

    lo que te da

    \[\inicio{alineación} \text{Bias} (T) &= \text{E} \(X_1+2X_2) -t &= \frac {texto {E} (X_1)+2\texto {E} (X_2)}{n} -t ¾= ¾frac {3t}{n}-t ¾= ¾frac {t(3-n)}{n} .\end{align}]

    Por tanto, el sesgo del estimador \(T\) es

    \text{Bias}(T) = \dfrac{t(3-n)}{n}.

    Fórmula del sesgo del estimador

    Aunque la media muestral es una forma de obtener un estimador insesgado, no es la única. En su lugar, veamos cómo aplicar la fórmula del estimador del sesgo a la varianza.

    Para encontrar un estimador de la varianza de la población, puedes intentar utilizar la varianza de la muestra, que se denotaría como

    \[V=\frac{\sum\limits_{i=1}^n(X_i-\bar{X})^2}{n}.\]

    Sin embargo, como esta fórmula utiliza la media muestral, \(\bar{X}), en lugar de \(\mu\), la media poblacional, la varianza de una muestra estará sesgada hacia la media muestral en lugar de hacia la media poblacional.

    En su lugar, puedes utilizar un estadístico diferente: la varianza de la muestra. Así obtendrás un estimador insesgado de la varianza poblacional, \(\sigma^2\2).

    Un estimador insesgado de la varianza poblacional, \(\sigma ^2\), es la varianza muestral, \(S^2\):

    \[S^2=\frac{\sum\limits^n_{i=1} (X_i-\bar{X})^2}{n-1}.\]

    Esta fórmula no siempre es la más fácil de utilizar para calcular la media muestral. Hay otras formas de hallar \(s^2).

    Éstas son las formas en que puedes calcular la varianza muestral:

    \[\begin{align} s^2 &= \frac{{suma}limits^n_{i=1}(X_i-\bar{X})^2}{n-1} \frac{{suma}limits_{i=1}^n x^2-n\bar{x}^2}{n-1} \frac{S_{xx}}{n-1} .\fend{align} \]

    En general, \(S^2\) se utiliza para denotar el estimador de la varianza poblacional, y \(s^2\) para denotar una estimación concreta. Merece la pena aprender las dos fórmulas equivalentes anteriores, ya que son bastante más fáciles de aplicar que la primera.

    Veamos la prueba de que \(s^2\) es una estimación insesgada de \( \sigma ^2\). En otras palabras, el objetivo es demostrar que \text {E}(s^2)=\sigma ^2\).

    Para ello, tienes que escribir la esperanza de la varianza muestral

    \[\text{E}(S^2) = \frac{\sum\limits_{i=1}^n x^2-n\bar{x}^2}{n-1} \frac].

    en términos de \(\sigma\) y \(\mu\). Observa que ya has utilizado una de las formas alternativas de calcular la varianza muestral.

    En primer lugar, utilizando la definición de \(\sigma ^2\), tienes

    \[\begin{align} \sigma ^2 &=\text{Var}(X) &=\text{E}(X^2)-\mu ^2, \end{align}. \]

    por tanto, \(\text{E}(X^2)=\sigma ^2 +\mu ^2.\)

    También sabes que \text{Var}(\bar{X})=\dfrac{sigma ^2}{n}) y \text{E}(\bar{X})=\mu), por lo que puedes escribir \text{Var}(\bar{X})\} como

    \[inicio \text{Var}(\bar{X}) &= \frac{\sigma ^2}{n} \\ &=texto {E}(\bar{X} ^2)-\mu ^2, fin].

    por lo que

    \[\text {E}(\bar{X}^2)=\frac{\sigma ^2}{n}+\mu ^2.\2].

    La expectativa de la varianza muestral viene dada por:

    \[\begin{align} \(S^2) &= \frac{ \text {E}izquierda(\suma límites_i=1}^n X^2-n\bar{X}^2derecha)}{n-1} &= \frac{ \text {E}izquierda(\suma límites_i=1}^n X^2derecha)-texto {E}(n\bar{X}^2)}{n-1} .\final{align} \]

    Puesto que

    \[\begin{align} \izquierda(suma límites_i=1}^n X^2)&=suma límites_i=1}^n texto {E}(X^2)& &=ntexto {E}(X^2), |end{align}].

    tienes

    \n[\ncomienza{align} \texto {E}(S^2) &= \frac{ n\texto {E}(X^2)-texto {E}(n\bar{X}^2)}{n-1} \frac{n(\sigma ^2 +\mu ^2)-nizquierda(\dfrac{\sigma ^2}{n} +\mu ^2derecha)}{n-1} &= {\frac{n\sigma^2 +n\mu ^2 -\sigma ^2 -n\mu ^2 }{n-1} \&= {\frac{(n-1)\sigma ^2}{n-1} \ &= {\sigma^2 . \fin{align} \]

    Como \(\text {E}(s^2)=\sigma ^2\), has demostrado que \(s^2\) es una estimación insesgada de la varianza poblacional, \(\sigma ^2\).

    Aunque no necesites memorizar la demostración, siempre es bueno leer y comprender los pasos para asegurarte de que comprendes bien el tema.

    Sesgo del estimador - Puntos clave

    • Un estimador es un estadístico utilizado para estimar un parámetro poblacional. Una estimación es el valor del estimador cuando se toma de una muestra.
    • El estadístico, \(T\), se compone de \(n\) muestras de la variable aleatoria \(X\) (es decir, \(X_1,X_2,X_3,\dots ,X_n\)). Estas observaciones son independientes y están cada una idénticamente distribuida.
    • Si \(\hat{\theta}\) es un estadístico utilizado para estimar el parámetro poblacional \(\theta\), \(\hat{\theta}\) es insesgado cuando \(\text {E}(\hat{\theta})=\theta\).
    • Si \(\hat{\theta}\) está sesgado, el sesgo puede cuantificarse mediante la siguiente fórmula:\[\text{Bias}(\hat{\theta})=\text{E}(\hat{\theta})-\theta.\]
    Preguntas frecuentes sobre Sesgo del estimador
    ¿Qué es el sesgo del estimador?
    El sesgo del estimador es la diferencia entre el valor esperado del estimador y el valor verdadero del parámetro que se está estimando.
    ¿Cómo se calcula el sesgo del estimador?
    El sesgo se calcula como la diferencia entre el valor esperado del estimador y el valor real del parámetro estimado.
    ¿Por qué es importante el sesgo del estimador?
    Es importante porque un estimador sesgado puede llevar a conclusiones incorrectas sobre el parámetro que se está estimando.
    ¿Cómo se puede reducir el sesgo del estimador?
    El sesgo se puede reducir utilizando métodos de estimación diferentes, aumentando el tamaño de la muestra o mejorando el modelo estadístico.
    Guardar explicación

    Pon a prueba tus conocimientos con tarjetas de opción múltiple

    La varianza de la muestra es...

    ¿Cuál es la fórmula de \(\text{Var}(X)\)?

    ¿Por qué necesitamos estimaciones?

    Siguiente

    Descubre materiales de aprendizaje con la aplicación gratuita StudySmarter

    Regístrate gratis
    1
    Acerca de StudySmarter

    StudySmarter es una compañía de tecnología educativa reconocida a nivel mundial, que ofrece una plataforma de aprendizaje integral diseñada para estudiantes de todas las edades y niveles educativos. Nuestra plataforma proporciona apoyo en el aprendizaje para una amplia gama de asignaturas, incluidas las STEM, Ciencias Sociales e Idiomas, y también ayuda a los estudiantes a dominar con éxito diversos exámenes y pruebas en todo el mundo, como GCSE, A Level, SAT, ACT, Abitur y más. Ofrecemos una extensa biblioteca de materiales de aprendizaje, incluidas tarjetas didácticas interactivas, soluciones completas de libros de texto y explicaciones detalladas. La tecnología avanzada y las herramientas que proporcionamos ayudan a los estudiantes a crear sus propios materiales de aprendizaje. El contenido de StudySmarter no solo es verificado por expertos, sino que también se actualiza regularmente para garantizar su precisión y relevancia.

    Aprende más
    Equipo editorial StudySmarter

    Equipo de profesores de Matemáticas

    • Tiempo de lectura de 10 minutos
    • Revisado por el equipo editorial de StudySmarter
    Guardar explicación Guardar explicación

    Guardar explicación

    Sign-up for free

    Regístrate para poder subrayar y tomar apuntes. Es 100% gratis.

    Únete a más de 22 millones de estudiantes que aprenden con nuestra app StudySmarter.

    La primera app de aprendizaje que realmente tiene todo lo que necesitas para superar tus exámenes en un solo lugar.

    • Tarjetas y cuestionarios
    • Asistente de Estudio con IA
    • Planificador de estudio
    • Exámenes simulados
    • Toma de notas inteligente
    Únete a más de 22 millones de estudiantes que aprenden con nuestra app StudySmarter.