Срединная ошибка через среднеквадратичное отклонение

Макеты страниц

Во многих вопросах прикладной теории вероятностей, в частности в теории стрельбы, а также в теории ошибок, пользуются характеристикой рассеивания, которую называют вероятным, или срединным отклонением. В теории стрельбы ее называют срединной ошибкой.

Определение 1. Вероятным (срединным) отклонением называется такое число Е, что вероятность того, что случайная величина (ошибка, например), подчиненная нормальному закону распределения

попадет в интервал , равна 1/2 (рис. 437), т. е.

Для любой, случайной величины подчиняющейся нормальному закону распределения с центром рассеивания срединное отклонение Е (рис. 438) удовлетворяет соотношению

Выразим среднеквадратичное отклонение о через срединную ошибку Е.

Рис. 437,

Рис. 438,

Левую часть равенства (1) выразим через функцию :

По формуле (7) § 17 получаем

В равенствах (1) и (4) левые части равны, следовательно, равны и правые:

По таблице значений функции находим значение аргумента для которого Следовательно,

Это число 0,4769 принято обозначать через :

Отсюда

From Wikipedia, the free encyclopedia

In statistics, the mean squared error (MSE)[1] or mean squared deviation (MSD) of an estimator (of a procedure for estimating an unobserved quantity) measures the average of the squares of the errors—that is, the average squared difference between the estimated values and the actual value. MSE is a risk function, corresponding to the expected value of the squared error loss.[2] The fact that MSE is almost always strictly positive (and not zero) is because of randomness or because the estimator does not account for information that could produce a more accurate estimate.[3] In machine learning, specifically empirical risk minimization, MSE may refer to the empirical risk (the average loss on an observed data set), as an estimate of the true MSE (the true risk: the average loss on the actual population distribution).

The MSE is a measure of the quality of an estimator. As it is derived from the square of Euclidean distance, it is always a positive value that decreases as the error approaches zero.

The MSE is the second moment (about the origin) of the error, and thus incorporates both the variance of the estimator (how widely spread the estimates are from one data sample to another) and its bias (how far off the average estimated value is from the true value).[citation needed] For an unbiased estimator, the MSE is the variance of the estimator. Like the variance, MSE has the same units of measurement as the square of the quantity being estimated. In an analogy to standard deviation, taking the square root of MSE yields the root-mean-square error or root-mean-square deviation (RMSE or RMSD), which has the same units as the quantity being estimated; for an unbiased estimator, the RMSE is the square root of the variance, known as the standard error.

Definition and basic properties[edit]

The MSE either assesses the quality of a predictor (i.e., a function mapping arbitrary inputs to a sample of values of some random variable), or of an estimator (i.e., a mathematical function mapping a sample of data to an estimate of a parameter of the population from which the data is sampled). The definition of an MSE differs according to whether one is describing a predictor or an estimator.

Predictor[edit]

If a vector of n predictions is generated from a sample of n data points on all variables, and Y is the vector of observed values of the variable being predicted, with hat{Y} being the predicted values (e.g. as from a least-squares fit), then the within-sample MSE of the predictor is computed as

{displaystyle operatorname {MSE} ={frac {1}{n}}sum _{i=1}^{n}left(Y_{i}-{hat {Y_{i}}}right)^{2}.}

In other words, the MSE is the mean {textstyle left({frac {1}{n}}sum _{i=1}^{n}right)} of the squares of the errors {textstyle left(Y_{i}-{hat {Y_{i}}}right)^{2}}. This is an easily computable quantity for a particular sample (and hence is sample-dependent).

In matrix notation,

{displaystyle operatorname {MSE} ={frac {1}{n}}sum _{i=1}^{n}(e_{i})^{2}={frac {1}{n}}mathbf {e} ^{mathsf {T}}mathbf {e} }

where e_{i} is {displaystyle (Y_{i}-{hat {Y_{i}}})} and {displaystyle mathbf {e} } is the {displaystyle ntimes 1} column vector.

The MSE can also be computed on q data points that were not used in estimating the model, either because they were held back for this purpose, or because these data have been newly obtained. Within this process, known as statistical learning, the MSE is often called the test MSE,[4] and is computed as

{displaystyle operatorname {MSE} ={frac {1}{q}}sum _{i=n+1}^{n+q}left(Y_{i}-{hat {Y_{i}}}right)^{2}.}

Estimator[edit]

The MSE of an estimator hat{theta} with respect to an unknown parameter theta is defined as[1]

{displaystyle operatorname {MSE} ({hat {theta }})=operatorname {E} _{theta }left[({hat {theta }}-theta )^{2}right].}

This definition depends on the unknown parameter, but the MSE is a priori a property of an estimator. The MSE could be a function of unknown parameters, in which case any estimator of the MSE based on estimates of these parameters would be a function of the data (and thus a random variable). If the estimator hat{theta} is derived as a sample statistic and is used to estimate some population parameter, then the expectation is with respect to the sampling distribution of the sample statistic.

The MSE can be written as the sum of the variance of the estimator and the squared bias of the estimator, providing a useful way to calculate the MSE and implying that in the case of unbiased estimators, the MSE and variance are equivalent.[5]

{displaystyle operatorname {MSE} ({hat {theta }})=operatorname {Var} _{theta }({hat {theta }})+operatorname {Bias} ({hat {theta }},theta )^{2}.}

Proof of variance and bias relationship[edit]

{displaystyle {begin{aligned}operatorname {MSE} ({hat {theta }})&=operatorname {E} _{theta }left[({hat {theta }}-theta )^{2}right]&=operatorname {E} _{theta }left[left({hat {theta }}-operatorname {E} _{theta }[{hat {theta }}]+operatorname {E} _{theta }[{hat {theta }}]-theta right)^{2}right]&=operatorname {E} _{theta }left[left({hat {theta }}-operatorname {E} _{theta }[{hat {theta }}]right)^{2}+2left({hat {theta }}-operatorname {E} _{theta }[{hat {theta }}]right)left(operatorname {E} _{theta }[{hat {theta }}]-theta right)+left(operatorname {E} _{theta }[{hat {theta }}]-theta right)^{2}right]&=operatorname {E} _{theta }left[left({hat {theta }}-operatorname {E} _{theta }[{hat {theta }}]right)^{2}right]+operatorname {E} _{theta }left[2left({hat {theta }}-operatorname {E} _{theta }[{hat {theta }}]right)left(operatorname {E} _{theta }[{hat {theta }}]-theta right)right]+operatorname {E} _{theta }left[left(operatorname {E} _{theta }[{hat {theta }}]-theta right)^{2}right]&=operatorname {E} _{theta }left[left({hat {theta }}-operatorname {E} _{theta }[{hat {theta }}]right)^{2}right]+2left(operatorname {E} _{theta }[{hat {theta }}]-theta right)operatorname {E} _{theta }left[{hat {theta }}-operatorname {E} _{theta }[{hat {theta }}]right]+left(operatorname {E} _{theta }[{hat {theta }}]-theta right)^{2}&&operatorname {E} _{theta }[{hat {theta }}]-theta ={text{const.}}&=operatorname {E} _{theta }left[left({hat {theta }}-operatorname {E} _{theta }[{hat {theta }}]right)^{2}right]+2left(operatorname {E} _{theta }[{hat {theta }}]-theta right)left(operatorname {E} _{theta }[{hat {theta }}]-operatorname {E} _{theta }[{hat {theta }}]right)+left(operatorname {E} _{theta }[{hat {theta }}]-theta right)^{2}&&operatorname {E} _{theta }[{hat {theta }}]={text{const.}}&=operatorname {E} _{theta }left[left({hat {theta }}-operatorname {E} _{theta }[{hat {theta }}]right)^{2}right]+left(operatorname {E} _{theta }[{hat {theta }}]-theta right)^{2}&=operatorname {Var} _{theta }({hat {theta }})+operatorname {Bias} _{theta }({hat {theta }},theta )^{2}end{aligned}}}

An even shorter proof can be achieved using the well-known formula that for a random variable {textstyle X}, {textstyle mathbb {E} (X^{2})=operatorname {Var} (X)+(mathbb {E} (X))^{2}}. By substituting {textstyle X} with, {textstyle {hat {theta }}-theta }, we have

{displaystyle {begin{aligned}operatorname {MSE} ({hat {theta }})&=mathbb {E} [({hat {theta }}-theta )^{2}]&=operatorname {Var} ({hat {theta }}-theta )+(mathbb {E} [{hat {theta }}-theta ])^{2}&=operatorname {Var} ({hat {theta }})+operatorname {Bias} ^{2}({hat {theta }})end{aligned}}}

But in real modeling case, MSE could be described as the addition of model variance, model bias, and irreducible uncertainty (see Bias–variance tradeoff). According to the relationship, the MSE of the estimators could be simply used for the efficiency comparison, which includes the information of estimator variance and bias. This is called MSE criterion.

In regression[edit]

In regression analysis, plotting is a more natural way to view the overall trend of the whole data. The mean of the distance from each point to the predicted regression model can be calculated, and shown as the mean squared error. The squaring is critical to reduce the complexity with negative signs. To minimize MSE, the model could be more accurate, which would mean the model is closer to actual data. One example of a linear regression using this method is the least squares method—which evaluates appropriateness of linear regression model to model bivariate dataset,[6] but whose limitation is related to known distribution of the data.

The term mean squared error is sometimes used to refer to the unbiased estimate of error variance: the residual sum of squares divided by the number of degrees of freedom. This definition for a known, computed quantity differs from the above definition for the computed MSE of a predictor, in that a different denominator is used. The denominator is the sample size reduced by the number of model parameters estimated from the same data, (np) for p regressors or (np−1) if an intercept is used (see errors and residuals in statistics for more details).[7] Although the MSE (as defined in this article) is not an unbiased estimator of the error variance, it is consistent, given the consistency of the predictor.

In regression analysis, «mean squared error», often referred to as mean squared prediction error or «out-of-sample mean squared error», can also refer to the mean value of the squared deviations of the predictions from the true values, over an out-of-sample test space, generated by a model estimated over a particular sample space. This also is a known, computed quantity, and it varies by sample and by out-of-sample test space.

Examples[edit]

Mean[edit]

Suppose we have a random sample of size n from a population, X_{1},dots ,X_{n}. Suppose the sample units were chosen with replacement. That is, the n units are selected one at a time, and previously selected units are still eligible for selection for all n draws. The usual estimator for the mu is the sample average

overline{X}=frac{1}{n}sum_{i=1}^n X_i

which has an expected value equal to the true mean mu (so it is unbiased) and a mean squared error of

{displaystyle operatorname {MSE} left({overline {X}}right)=operatorname {E} left[left({overline {X}}-mu right)^{2}right]=left({frac {sigma }{sqrt {n}}}right)^{2}={frac {sigma ^{2}}{n}}}

where sigma ^{2} is the population variance.

For a Gaussian distribution, this is the best unbiased estimator (i.e., one with the lowest MSE among all unbiased estimators), but not, say, for a uniform distribution.

Variance[edit]

The usual estimator for the variance is the corrected sample variance:

{displaystyle S_{n-1}^{2}={frac {1}{n-1}}sum _{i=1}^{n}left(X_{i}-{overline {X}}right)^{2}={frac {1}{n-1}}left(sum _{i=1}^{n}X_{i}^{2}-n{overline {X}}^{2}right).}

This is unbiased (its expected value is sigma ^{2}), hence also called the unbiased sample variance, and its MSE is[8]

{displaystyle operatorname {MSE} (S_{n-1}^{2})={frac {1}{n}}left(mu _{4}-{frac {n-3}{n-1}}sigma ^{4}right)={frac {1}{n}}left(gamma _{2}+{frac {2n}{n-1}}right)sigma ^{4},}

where mu _{4} is the fourth central moment of the distribution or population, and gamma_2=mu_4/sigma^4-3 is the excess kurtosis.

However, one can use other estimators for sigma ^{2} which are proportional to S^2_{n-1}, and an appropriate choice can always give a lower mean squared error. If we define

{displaystyle S_{a}^{2}={frac {n-1}{a}}S_{n-1}^{2}={frac {1}{a}}sum _{i=1}^{n}left(X_{i}-{overline {X}},right)^{2}}

then we calculate:

{displaystyle {begin{aligned}operatorname {MSE} (S_{a}^{2})&=operatorname {E} left[left({frac {n-1}{a}}S_{n-1}^{2}-sigma ^{2}right)^{2}right]&=operatorname {E} left[{frac {(n-1)^{2}}{a^{2}}}S_{n-1}^{4}-2left({frac {n-1}{a}}S_{n-1}^{2}right)sigma ^{2}+sigma ^{4}right]&={frac {(n-1)^{2}}{a^{2}}}operatorname {E} left[S_{n-1}^{4}right]-2left({frac {n-1}{a}}right)operatorname {E} left[S_{n-1}^{2}right]sigma ^{2}+sigma ^{4}&={frac {(n-1)^{2}}{a^{2}}}operatorname {E} left[S_{n-1}^{4}right]-2left({frac {n-1}{a}}right)sigma ^{4}+sigma ^{4}&&operatorname {E} left[S_{n-1}^{2}right]=sigma ^{2}&={frac {(n-1)^{2}}{a^{2}}}left({frac {gamma _{2}}{n}}+{frac {n+1}{n-1}}right)sigma ^{4}-2left({frac {n-1}{a}}right)sigma ^{4}+sigma ^{4}&&operatorname {E} left[S_{n-1}^{4}right]=operatorname {MSE} (S_{n-1}^{2})+sigma ^{4}&={frac {n-1}{na^{2}}}left((n-1)gamma _{2}+n^{2}+nright)sigma ^{4}-2left({frac {n-1}{a}}right)sigma ^{4}+sigma ^{4}end{aligned}}}

This is minimized when

a=frac{(n-1)gamma_2+n^2+n}{n} = n+1+frac{n-1}{n}gamma_2.

For a Gaussian distribution, where gamma_2=0, this means that the MSE is minimized when dividing the sum by a=n+1. The minimum excess kurtosis is gamma_2=-2,[a] which is achieved by a Bernoulli distribution with p = 1/2 (a coin flip), and the MSE is minimized for {displaystyle a=n-1+{tfrac {2}{n}}.} Hence regardless of the kurtosis, we get a «better» estimate (in the sense of having a lower MSE) by scaling down the unbiased estimator a little bit; this is a simple example of a shrinkage estimator: one «shrinks» the estimator towards zero (scales down the unbiased estimator).

Further, while the corrected sample variance is the best unbiased estimator (minimum mean squared error among unbiased estimators) of variance for Gaussian distributions, if the distribution is not Gaussian, then even among unbiased estimators, the best unbiased estimator of the variance may not be S^2_{n-1}.

Gaussian distribution[edit]

The following table gives several estimators of the true parameters of the population, μ and σ2, for the Gaussian case.[9]

True value Estimator Mean squared error
{displaystyle theta =mu } hat{theta} = the unbiased estimator of the population mean, overline{X}=frac{1}{n}sum_{i=1}^n(X_i) operatorname{MSE}(overline{X})=operatorname{E}((overline{X}-mu)^2)=left(frac{sigma}{sqrt{n}}right)^2
{displaystyle theta =sigma ^{2}} hat{theta} = the unbiased estimator of the population variance, S^2_{n-1} = frac{1}{n-1}sum_{i=1}^nleft(X_i-overline{X},right)^2 operatorname{MSE}(S^2_{n-1})=operatorname{E}((S^2_{n-1}-sigma^2)^2)=frac{2}{n - 1}sigma^4
{displaystyle theta =sigma ^{2}} hat{theta} = the biased estimator of the population variance, S^2_{n} = frac{1}{n}sum_{i=1}^nleft(X_i-overline{X},right)^2 operatorname{MSE}(S^2_{n})=operatorname{E}((S^2_{n}-sigma^2)^2)=frac{2n - 1}{n^2}sigma^4
{displaystyle theta =sigma ^{2}} hat{theta} = the biased estimator of the population variance, S^2_{n+1} = frac{1}{n+1}sum_{i=1}^nleft(X_i-overline{X},right)^2 operatorname{MSE}(S^2_{n+1})=operatorname{E}((S^2_{n+1}-sigma^2)^2)=frac{2}{n + 1}sigma^4

Interpretation[edit]

An MSE of zero, meaning that the estimator hat{theta} predicts observations of the parameter theta with perfect accuracy, is ideal (but typically not possible).

Values of MSE may be used for comparative purposes. Two or more statistical models may be compared using their MSEs—as a measure of how well they explain a given set of observations: An unbiased estimator (estimated from a statistical model) with the smallest variance among all unbiased estimators is the best unbiased estimator or MVUE (Minimum-Variance Unbiased Estimator).

Both analysis of variance and linear regression techniques estimate the MSE as part of the analysis and use the estimated MSE to determine the statistical significance of the factors or predictors under study. The goal of experimental design is to construct experiments in such a way that when the observations are analyzed, the MSE is close to zero relative to the magnitude of at least one of the estimated treatment effects.

In one-way analysis of variance, MSE can be calculated by the division of the sum of squared errors and the degree of freedom. Also, the f-value is the ratio of the mean squared treatment and the MSE.

MSE is also used in several stepwise regression techniques as part of the determination as to how many predictors from a candidate set to include in a model for a given set of observations.

Applications[edit]

  • Minimizing MSE is a key criterion in selecting estimators: see minimum mean-square error. Among unbiased estimators, minimizing the MSE is equivalent to minimizing the variance, and the estimator that does this is the minimum variance unbiased estimator. However, a biased estimator may have lower MSE; see estimator bias.
  • In statistical modelling the MSE can represent the difference between the actual observations and the observation values predicted by the model. In this context, it is used to determine the extent to which the model fits the data as well as whether removing some explanatory variables is possible without significantly harming the model’s predictive ability.
  • In forecasting and prediction, the Brier score is a measure of forecast skill based on MSE.

Loss function[edit]

Squared error loss is one of the most widely used loss functions in statistics[citation needed], though its widespread use stems more from mathematical convenience than considerations of actual loss in applications. Carl Friedrich Gauss, who introduced the use of mean squared error, was aware of its arbitrariness and was in agreement with objections to it on these grounds.[3] The mathematical benefits of mean squared error are particularly evident in its use at analyzing the performance of linear regression, as it allows one to partition the variation in a dataset into variation explained by the model and variation explained by randomness.

Criticism[edit]

The use of mean squared error without question has been criticized by the decision theorist James Berger. Mean squared error is the negative of the expected value of one specific utility function, the quadratic utility function, which may not be the appropriate utility function to use under a given set of circumstances. There are, however, some scenarios where mean squared error can serve as a good approximation to a loss function occurring naturally in an application.[10]

Like variance, mean squared error has the disadvantage of heavily weighting outliers.[11] This is a result of the squaring of each term, which effectively weights large errors more heavily than small ones. This property, undesirable in many applications, has led researchers to use alternatives such as the mean absolute error, or those based on the median.

See also[edit]

  • Bias–variance tradeoff
  • Hodges’ estimator
  • James–Stein estimator
  • Mean percentage error
  • Mean square quantization error
  • Mean square weighted deviation
  • Mean squared displacement
  • Mean squared prediction error
  • Minimum mean square error
  • Minimum mean squared error estimator
  • Overfitting
  • Peak signal-to-noise ratio

Notes[edit]

  1. ^ This can be proved by Jensen’s inequality as follows. The fourth central moment is an upper bound for the square of variance, so that the least value for their ratio is one, therefore, the least value for the excess kurtosis is −2, achieved, for instance, by a Bernoulli with p=1/2.

References[edit]

  1. ^ a b «Mean Squared Error (MSE)». www.probabilitycourse.com. Retrieved 2020-09-12.
  2. ^ Bickel, Peter J.; Doksum, Kjell A. (2015). Mathematical Statistics: Basic Ideas and Selected Topics. Vol. I (Second ed.). p. 20. If we use quadratic loss, our risk function is called the mean squared error (MSE) …
  3. ^ a b Lehmann, E. L.; Casella, George (1998). Theory of Point Estimation (2nd ed.). New York: Springer. ISBN 978-0-387-98502-2. MR 1639875.
  4. ^ Gareth, James; Witten, Daniela; Hastie, Trevor; Tibshirani, Rob (2021). An Introduction to Statistical Learning: with Applications in R. Springer. ISBN 978-1071614174.
  5. ^ Wackerly, Dennis; Mendenhall, William; Scheaffer, Richard L. (2008). Mathematical Statistics with Applications (7 ed.). Belmont, CA, USA: Thomson Higher Education. ISBN 978-0-495-38508-0.
  6. ^ A modern introduction to probability and statistics : understanding why and how. Dekking, Michel, 1946-. London: Springer. 2005. ISBN 978-1-85233-896-1. OCLC 262680588.{{cite book}}: CS1 maint: others (link)
  7. ^ Steel, R.G.D, and Torrie, J. H., Principles and Procedures of Statistics with Special Reference to the Biological Sciences., McGraw Hill, 1960, page 288.
  8. ^ Mood, A.; Graybill, F.; Boes, D. (1974). Introduction to the Theory of Statistics (3rd ed.). McGraw-Hill. p. 229.
  9. ^ DeGroot, Morris H. (1980). Probability and Statistics (2nd ed.). Addison-Wesley.
  10. ^ Berger, James O. (1985). «2.4.2 Certain Standard Loss Functions». Statistical Decision Theory and Bayesian Analysis (2nd ed.). New York: Springer-Verlag. p. 60. ISBN 978-0-387-96098-2. MR 0804611.
  11. ^ Bermejo, Sergio; Cabestany, Joan (2001). «Oriented principal component analysis for large margin classifiers». Neural Networks. 14 (10): 1447–1461. doi:10.1016/S0893-6080(01)00106-X. PMID 11771723.

From Wikipedia, the free encyclopedia

In statistics, the mean squared error (MSE)[1] or mean squared deviation (MSD) of an estimator (of a procedure for estimating an unobserved quantity) measures the average of the squares of the errors—that is, the average squared difference between the estimated values and the actual value. MSE is a risk function, corresponding to the expected value of the squared error loss.[2] The fact that MSE is almost always strictly positive (and not zero) is because of randomness or because the estimator does not account for information that could produce a more accurate estimate.[3] In machine learning, specifically empirical risk minimization, MSE may refer to the empirical risk (the average loss on an observed data set), as an estimate of the true MSE (the true risk: the average loss on the actual population distribution).

The MSE is a measure of the quality of an estimator. As it is derived from the square of Euclidean distance, it is always a positive value that decreases as the error approaches zero.

The MSE is the second moment (about the origin) of the error, and thus incorporates both the variance of the estimator (how widely spread the estimates are from one data sample to another) and its bias (how far off the average estimated value is from the true value).[citation needed] For an unbiased estimator, the MSE is the variance of the estimator. Like the variance, MSE has the same units of measurement as the square of the quantity being estimated. In an analogy to standard deviation, taking the square root of MSE yields the root-mean-square error or root-mean-square deviation (RMSE or RMSD), which has the same units as the quantity being estimated; for an unbiased estimator, the RMSE is the square root of the variance, known as the standard error.

Definition and basic properties[edit]

The MSE either assesses the quality of a predictor (i.e., a function mapping arbitrary inputs to a sample of values of some random variable), or of an estimator (i.e., a mathematical function mapping a sample of data to an estimate of a parameter of the population from which the data is sampled). The definition of an MSE differs according to whether one is describing a predictor or an estimator.

Predictor[edit]

If a vector of n predictions is generated from a sample of n data points on all variables, and Y is the vector of observed values of the variable being predicted, with hat{Y} being the predicted values (e.g. as from a least-squares fit), then the within-sample MSE of the predictor is computed as

{displaystyle operatorname {MSE} ={frac {1}{n}}sum _{i=1}^{n}left(Y_{i}-{hat {Y_{i}}}right)^{2}.}

In other words, the MSE is the mean {textstyle left({frac {1}{n}}sum _{i=1}^{n}right)} of the squares of the errors {textstyle left(Y_{i}-{hat {Y_{i}}}right)^{2}}. This is an easily computable quantity for a particular sample (and hence is sample-dependent).

In matrix notation,

{displaystyle operatorname {MSE} ={frac {1}{n}}sum _{i=1}^{n}(e_{i})^{2}={frac {1}{n}}mathbf {e} ^{mathsf {T}}mathbf {e} }

where e_{i} is {displaystyle (Y_{i}-{hat {Y_{i}}})} and {displaystyle mathbf {e} } is the {displaystyle ntimes 1} column vector.

The MSE can also be computed on q data points that were not used in estimating the model, either because they were held back for this purpose, or because these data have been newly obtained. Within this process, known as statistical learning, the MSE is often called the test MSE,[4] and is computed as

{displaystyle operatorname {MSE} ={frac {1}{q}}sum _{i=n+1}^{n+q}left(Y_{i}-{hat {Y_{i}}}right)^{2}.}

Estimator[edit]

The MSE of an estimator hat{theta} with respect to an unknown parameter theta is defined as[1]

{displaystyle operatorname {MSE} ({hat {theta }})=operatorname {E} _{theta }left[({hat {theta }}-theta )^{2}right].}

This definition depends on the unknown parameter, but the MSE is a priori a property of an estimator. The MSE could be a function of unknown parameters, in which case any estimator of the MSE based on estimates of these parameters would be a function of the data (and thus a random variable). If the estimator hat{theta} is derived as a sample statistic and is used to estimate some population parameter, then the expectation is with respect to the sampling distribution of the sample statistic.

The MSE can be written as the sum of the variance of the estimator and the squared bias of the estimator, providing a useful way to calculate the MSE and implying that in the case of unbiased estimators, the MSE and variance are equivalent.[5]

{displaystyle operatorname {MSE} ({hat {theta }})=operatorname {Var} _{theta }({hat {theta }})+operatorname {Bias} ({hat {theta }},theta )^{2}.}

Proof of variance and bias relationship[edit]

{displaystyle {begin{aligned}operatorname {MSE} ({hat {theta }})&=operatorname {E} _{theta }left[({hat {theta }}-theta )^{2}right]&=operatorname {E} _{theta }left[left({hat {theta }}-operatorname {E} _{theta }[{hat {theta }}]+operatorname {E} _{theta }[{hat {theta }}]-theta right)^{2}right]&=operatorname {E} _{theta }left[left({hat {theta }}-operatorname {E} _{theta }[{hat {theta }}]right)^{2}+2left({hat {theta }}-operatorname {E} _{theta }[{hat {theta }}]right)left(operatorname {E} _{theta }[{hat {theta }}]-theta right)+left(operatorname {E} _{theta }[{hat {theta }}]-theta right)^{2}right]&=operatorname {E} _{theta }left[left({hat {theta }}-operatorname {E} _{theta }[{hat {theta }}]right)^{2}right]+operatorname {E} _{theta }left[2left({hat {theta }}-operatorname {E} _{theta }[{hat {theta }}]right)left(operatorname {E} _{theta }[{hat {theta }}]-theta right)right]+operatorname {E} _{theta }left[left(operatorname {E} _{theta }[{hat {theta }}]-theta right)^{2}right]&=operatorname {E} _{theta }left[left({hat {theta }}-operatorname {E} _{theta }[{hat {theta }}]right)^{2}right]+2left(operatorname {E} _{theta }[{hat {theta }}]-theta right)operatorname {E} _{theta }left[{hat {theta }}-operatorname {E} _{theta }[{hat {theta }}]right]+left(operatorname {E} _{theta }[{hat {theta }}]-theta right)^{2}&&operatorname {E} _{theta }[{hat {theta }}]-theta ={text{const.}}&=operatorname {E} _{theta }left[left({hat {theta }}-operatorname {E} _{theta }[{hat {theta }}]right)^{2}right]+2left(operatorname {E} _{theta }[{hat {theta }}]-theta right)left(operatorname {E} _{theta }[{hat {theta }}]-operatorname {E} _{theta }[{hat {theta }}]right)+left(operatorname {E} _{theta }[{hat {theta }}]-theta right)^{2}&&operatorname {E} _{theta }[{hat {theta }}]={text{const.}}&=operatorname {E} _{theta }left[left({hat {theta }}-operatorname {E} _{theta }[{hat {theta }}]right)^{2}right]+left(operatorname {E} _{theta }[{hat {theta }}]-theta right)^{2}&=operatorname {Var} _{theta }({hat {theta }})+operatorname {Bias} _{theta }({hat {theta }},theta )^{2}end{aligned}}}

An even shorter proof can be achieved using the well-known formula that for a random variable {textstyle X}, {textstyle mathbb {E} (X^{2})=operatorname {Var} (X)+(mathbb {E} (X))^{2}}. By substituting {textstyle X} with, {textstyle {hat {theta }}-theta }, we have

{displaystyle {begin{aligned}operatorname {MSE} ({hat {theta }})&=mathbb {E} [({hat {theta }}-theta )^{2}]&=operatorname {Var} ({hat {theta }}-theta )+(mathbb {E} [{hat {theta }}-theta ])^{2}&=operatorname {Var} ({hat {theta }})+operatorname {Bias} ^{2}({hat {theta }})end{aligned}}}

But in real modeling case, MSE could be described as the addition of model variance, model bias, and irreducible uncertainty (see Bias–variance tradeoff). According to the relationship, the MSE of the estimators could be simply used for the efficiency comparison, which includes the information of estimator variance and bias. This is called MSE criterion.

In regression[edit]

In regression analysis, plotting is a more natural way to view the overall trend of the whole data. The mean of the distance from each point to the predicted regression model can be calculated, and shown as the mean squared error. The squaring is critical to reduce the complexity with negative signs. To minimize MSE, the model could be more accurate, which would mean the model is closer to actual data. One example of a linear regression using this method is the least squares method—which evaluates appropriateness of linear regression model to model bivariate dataset,[6] but whose limitation is related to known distribution of the data.

The term mean squared error is sometimes used to refer to the unbiased estimate of error variance: the residual sum of squares divided by the number of degrees of freedom. This definition for a known, computed quantity differs from the above definition for the computed MSE of a predictor, in that a different denominator is used. The denominator is the sample size reduced by the number of model parameters estimated from the same data, (np) for p regressors or (np−1) if an intercept is used (see errors and residuals in statistics for more details).[7] Although the MSE (as defined in this article) is not an unbiased estimator of the error variance, it is consistent, given the consistency of the predictor.

In regression analysis, «mean squared error», often referred to as mean squared prediction error or «out-of-sample mean squared error», can also refer to the mean value of the squared deviations of the predictions from the true values, over an out-of-sample test space, generated by a model estimated over a particular sample space. This also is a known, computed quantity, and it varies by sample and by out-of-sample test space.

Examples[edit]

Mean[edit]

Suppose we have a random sample of size n from a population, X_{1},dots ,X_{n}. Suppose the sample units were chosen with replacement. That is, the n units are selected one at a time, and previously selected units are still eligible for selection for all n draws. The usual estimator for the mu is the sample average

overline{X}=frac{1}{n}sum_{i=1}^n X_i

which has an expected value equal to the true mean mu (so it is unbiased) and a mean squared error of

{displaystyle operatorname {MSE} left({overline {X}}right)=operatorname {E} left[left({overline {X}}-mu right)^{2}right]=left({frac {sigma }{sqrt {n}}}right)^{2}={frac {sigma ^{2}}{n}}}

where sigma ^{2} is the population variance.

For a Gaussian distribution, this is the best unbiased estimator (i.e., one with the lowest MSE among all unbiased estimators), but not, say, for a uniform distribution.

Variance[edit]

The usual estimator for the variance is the corrected sample variance:

{displaystyle S_{n-1}^{2}={frac {1}{n-1}}sum _{i=1}^{n}left(X_{i}-{overline {X}}right)^{2}={frac {1}{n-1}}left(sum _{i=1}^{n}X_{i}^{2}-n{overline {X}}^{2}right).}

This is unbiased (its expected value is sigma ^{2}), hence also called the unbiased sample variance, and its MSE is[8]

{displaystyle operatorname {MSE} (S_{n-1}^{2})={frac {1}{n}}left(mu _{4}-{frac {n-3}{n-1}}sigma ^{4}right)={frac {1}{n}}left(gamma _{2}+{frac {2n}{n-1}}right)sigma ^{4},}

where mu _{4} is the fourth central moment of the distribution or population, and gamma_2=mu_4/sigma^4-3 is the excess kurtosis.

However, one can use other estimators for sigma ^{2} which are proportional to S^2_{n-1}, and an appropriate choice can always give a lower mean squared error. If we define

{displaystyle S_{a}^{2}={frac {n-1}{a}}S_{n-1}^{2}={frac {1}{a}}sum _{i=1}^{n}left(X_{i}-{overline {X}},right)^{2}}

then we calculate:

{displaystyle {begin{aligned}operatorname {MSE} (S_{a}^{2})&=operatorname {E} left[left({frac {n-1}{a}}S_{n-1}^{2}-sigma ^{2}right)^{2}right]&=operatorname {E} left[{frac {(n-1)^{2}}{a^{2}}}S_{n-1}^{4}-2left({frac {n-1}{a}}S_{n-1}^{2}right)sigma ^{2}+sigma ^{4}right]&={frac {(n-1)^{2}}{a^{2}}}operatorname {E} left[S_{n-1}^{4}right]-2left({frac {n-1}{a}}right)operatorname {E} left[S_{n-1}^{2}right]sigma ^{2}+sigma ^{4}&={frac {(n-1)^{2}}{a^{2}}}operatorname {E} left[S_{n-1}^{4}right]-2left({frac {n-1}{a}}right)sigma ^{4}+sigma ^{4}&&operatorname {E} left[S_{n-1}^{2}right]=sigma ^{2}&={frac {(n-1)^{2}}{a^{2}}}left({frac {gamma _{2}}{n}}+{frac {n+1}{n-1}}right)sigma ^{4}-2left({frac {n-1}{a}}right)sigma ^{4}+sigma ^{4}&&operatorname {E} left[S_{n-1}^{4}right]=operatorname {MSE} (S_{n-1}^{2})+sigma ^{4}&={frac {n-1}{na^{2}}}left((n-1)gamma _{2}+n^{2}+nright)sigma ^{4}-2left({frac {n-1}{a}}right)sigma ^{4}+sigma ^{4}end{aligned}}}

This is minimized when

a=frac{(n-1)gamma_2+n^2+n}{n} = n+1+frac{n-1}{n}gamma_2.

For a Gaussian distribution, where gamma_2=0, this means that the MSE is minimized when dividing the sum by a=n+1. The minimum excess kurtosis is gamma_2=-2,[a] which is achieved by a Bernoulli distribution with p = 1/2 (a coin flip), and the MSE is minimized for {displaystyle a=n-1+{tfrac {2}{n}}.} Hence regardless of the kurtosis, we get a «better» estimate (in the sense of having a lower MSE) by scaling down the unbiased estimator a little bit; this is a simple example of a shrinkage estimator: one «shrinks» the estimator towards zero (scales down the unbiased estimator).

Further, while the corrected sample variance is the best unbiased estimator (minimum mean squared error among unbiased estimators) of variance for Gaussian distributions, if the distribution is not Gaussian, then even among unbiased estimators, the best unbiased estimator of the variance may not be S^2_{n-1}.

Gaussian distribution[edit]

The following table gives several estimators of the true parameters of the population, μ and σ2, for the Gaussian case.[9]

True value Estimator Mean squared error
{displaystyle theta =mu } hat{theta} = the unbiased estimator of the population mean, overline{X}=frac{1}{n}sum_{i=1}^n(X_i) operatorname{MSE}(overline{X})=operatorname{E}((overline{X}-mu)^2)=left(frac{sigma}{sqrt{n}}right)^2
{displaystyle theta =sigma ^{2}} hat{theta} = the unbiased estimator of the population variance, S^2_{n-1} = frac{1}{n-1}sum_{i=1}^nleft(X_i-overline{X},right)^2 operatorname{MSE}(S^2_{n-1})=operatorname{E}((S^2_{n-1}-sigma^2)^2)=frac{2}{n - 1}sigma^4
{displaystyle theta =sigma ^{2}} hat{theta} = the biased estimator of the population variance, S^2_{n} = frac{1}{n}sum_{i=1}^nleft(X_i-overline{X},right)^2 operatorname{MSE}(S^2_{n})=operatorname{E}((S^2_{n}-sigma^2)^2)=frac{2n - 1}{n^2}sigma^4
{displaystyle theta =sigma ^{2}} hat{theta} = the biased estimator of the population variance, S^2_{n+1} = frac{1}{n+1}sum_{i=1}^nleft(X_i-overline{X},right)^2 operatorname{MSE}(S^2_{n+1})=operatorname{E}((S^2_{n+1}-sigma^2)^2)=frac{2}{n + 1}sigma^4

Interpretation[edit]

An MSE of zero, meaning that the estimator hat{theta} predicts observations of the parameter theta with perfect accuracy, is ideal (but typically not possible).

Values of MSE may be used for comparative purposes. Two or more statistical models may be compared using their MSEs—as a measure of how well they explain a given set of observations: An unbiased estimator (estimated from a statistical model) with the smallest variance among all unbiased estimators is the best unbiased estimator or MVUE (Minimum-Variance Unbiased Estimator).

Both analysis of variance and linear regression techniques estimate the MSE as part of the analysis and use the estimated MSE to determine the statistical significance of the factors or predictors under study. The goal of experimental design is to construct experiments in such a way that when the observations are analyzed, the MSE is close to zero relative to the magnitude of at least one of the estimated treatment effects.

In one-way analysis of variance, MSE can be calculated by the division of the sum of squared errors and the degree of freedom. Also, the f-value is the ratio of the mean squared treatment and the MSE.

MSE is also used in several stepwise regression techniques as part of the determination as to how many predictors from a candidate set to include in a model for a given set of observations.

Applications[edit]

  • Minimizing MSE is a key criterion in selecting estimators: see minimum mean-square error. Among unbiased estimators, minimizing the MSE is equivalent to minimizing the variance, and the estimator that does this is the minimum variance unbiased estimator. However, a biased estimator may have lower MSE; see estimator bias.
  • In statistical modelling the MSE can represent the difference between the actual observations and the observation values predicted by the model. In this context, it is used to determine the extent to which the model fits the data as well as whether removing some explanatory variables is possible without significantly harming the model’s predictive ability.
  • In forecasting and prediction, the Brier score is a measure of forecast skill based on MSE.

Loss function[edit]

Squared error loss is one of the most widely used loss functions in statistics[citation needed], though its widespread use stems more from mathematical convenience than considerations of actual loss in applications. Carl Friedrich Gauss, who introduced the use of mean squared error, was aware of its arbitrariness and was in agreement with objections to it on these grounds.[3] The mathematical benefits of mean squared error are particularly evident in its use at analyzing the performance of linear regression, as it allows one to partition the variation in a dataset into variation explained by the model and variation explained by randomness.

Criticism[edit]

The use of mean squared error without question has been criticized by the decision theorist James Berger. Mean squared error is the negative of the expected value of one specific utility function, the quadratic utility function, which may not be the appropriate utility function to use under a given set of circumstances. There are, however, some scenarios where mean squared error can serve as a good approximation to a loss function occurring naturally in an application.[10]

Like variance, mean squared error has the disadvantage of heavily weighting outliers.[11] This is a result of the squaring of each term, which effectively weights large errors more heavily than small ones. This property, undesirable in many applications, has led researchers to use alternatives such as the mean absolute error, or those based on the median.

See also[edit]

  • Bias–variance tradeoff
  • Hodges’ estimator
  • James–Stein estimator
  • Mean percentage error
  • Mean square quantization error
  • Mean square weighted deviation
  • Mean squared displacement
  • Mean squared prediction error
  • Minimum mean square error
  • Minimum mean squared error estimator
  • Overfitting
  • Peak signal-to-noise ratio

Notes[edit]

  1. ^ This can be proved by Jensen’s inequality as follows. The fourth central moment is an upper bound for the square of variance, so that the least value for their ratio is one, therefore, the least value for the excess kurtosis is −2, achieved, for instance, by a Bernoulli with p=1/2.

References[edit]

  1. ^ a b «Mean Squared Error (MSE)». www.probabilitycourse.com. Retrieved 2020-09-12.
  2. ^ Bickel, Peter J.; Doksum, Kjell A. (2015). Mathematical Statistics: Basic Ideas and Selected Topics. Vol. I (Second ed.). p. 20. If we use quadratic loss, our risk function is called the mean squared error (MSE) …
  3. ^ a b Lehmann, E. L.; Casella, George (1998). Theory of Point Estimation (2nd ed.). New York: Springer. ISBN 978-0-387-98502-2. MR 1639875.
  4. ^ Gareth, James; Witten, Daniela; Hastie, Trevor; Tibshirani, Rob (2021). An Introduction to Statistical Learning: with Applications in R. Springer. ISBN 978-1071614174.
  5. ^ Wackerly, Dennis; Mendenhall, William; Scheaffer, Richard L. (2008). Mathematical Statistics with Applications (7 ed.). Belmont, CA, USA: Thomson Higher Education. ISBN 978-0-495-38508-0.
  6. ^ A modern introduction to probability and statistics : understanding why and how. Dekking, Michel, 1946-. London: Springer. 2005. ISBN 978-1-85233-896-1. OCLC 262680588.{{cite book}}: CS1 maint: others (link)
  7. ^ Steel, R.G.D, and Torrie, J. H., Principles and Procedures of Statistics with Special Reference to the Biological Sciences., McGraw Hill, 1960, page 288.
  8. ^ Mood, A.; Graybill, F.; Boes, D. (1974). Introduction to the Theory of Statistics (3rd ed.). McGraw-Hill. p. 229.
  9. ^ DeGroot, Morris H. (1980). Probability and Statistics (2nd ed.). Addison-Wesley.
  10. ^ Berger, James O. (1985). «2.4.2 Certain Standard Loss Functions». Statistical Decision Theory and Bayesian Analysis (2nd ed.). New York: Springer-Verlag. p. 60. ISBN 978-0-387-96098-2. MR 0804611.
  11. ^ Bermejo, Sergio; Cabestany, Joan (2001). «Oriented principal component analysis for large margin classifiers». Neural Networks. 14 (10): 1447–1461. doi:10.1016/S0893-6080(01)00106-X. PMID 11771723.

В стрелковой
практике часто приходится сравнивать
разные способы измерения по степени их
точности. Для этого используют какую-то
общую меру точности способов измерения.
Такой мерой явля­ется средняя ошибка,
допускаемая при том или ином методе
измерения.

За
среднюю ошибку принимают одну из
следующих мер: или сре­динную, или
среднюю арифметическую, или среднюю
квадратическую ошибку.

Наиболее
распространенной мерой точности
является срединная
ошибка
,
которая обозначается буквой Е.

Срединной
ошибкой называется такая ошибка, которая
по своей

абсолютной величине больше
каждой из ошибок одной половины и мень­ше
каждой из ошибок другой половины всех
ошибок, расположенных в

ряд в
возрастающем или убывающем порядке.

Исходя
из этого определения, найдем срединную
ошибку из 100 результатов измерений. Для
этого абсолютные величины всех получен­ных
ошибок расположим в возрастающем порядке
в приводимой ниже таблице.

Таблица № 3.

Результаты измерений
ошибок.

Δ

Δ

Δ

Δ

Δ

1

2

3

4

4

5

5

6

6

8

7

9

8

9

11

10

1

+
1

21

+ 19

41

-33

61

-53

81

+ 74

2

-2

22

-20

42

+ 34

62

+ 53

82

+ 75

3

— 5

23

-20

43

-35

63

-56

83

— 78

4

— 5

24

-21

44

+ 36

64

— 56

84

— 81

——
— J
J.

5

+ 5

25

+ 21

45

-37

65

+ 57

85

+ 82

6

— 6

26

-22

46

-37

66

-59

86

+ 86

7

+ 7

27

+ 22

47

+ 38

67

-61

87

+ 86

8

— 8

28

-23

48

+ 38

68

+ 62

88

+ 89

1

2

3

4

5

6

7

8

9

10

9

+ 8

29

-24

49

+ 39

69

-63

89

— 92

10

+8

30

+24

50

+39

70

-63

90

+98

11

+10

31

+25

51

-41

71

+63

91

+97

12

-11

32

-27

52

-41

72

+ 64

92

— 103

13

-12

33

-27

53

+ 44

73

-65

93

+ 105

14

+ 12

34

-28

54

-46

74

+ 67

94

-107

15

-13

35

+ 28

55

+ 46

75

-70

95

-112

16

+ 13

36

-29

56

+ 47

76

+ 70

96

+ 112

17

-14

37

+ 29

57

-49

77

+ 71

97

-114

18

-17

38

-31

58

+ 49

78

+ 72

98

— 117

19

+ 17

39

-31

59

-52

79

-74

99

— 121

20

+ 18

40

+ 32

60

+ 52

80

+ 74

100

+ 124

Найдем
такую ошибку, которая в ряде всех ошибок
занимает срединное положение. Так как
мы имеем всего 100 измерений, то сре­динная
ошибка будет занимать место между 50-й
и 51-й ошибками. Абсолютная величина 50-й
ошибки равна 39 м, а 51-й— 41 м. Срединная
ошибка рассматриваемого ряда измерений
равна:


м.

Действительно,
ошибка величиной 40 м больше каждой
ошибки пер­вой половины ряда всех
ошибок и меньше каждой ошибки второй
половины ряда всех ошибок.

В
приведенной таблице из всех 100 ошибок
50% ошибок по своей

абсолютной величине
меньше найденной нами срединной ошибки.
По­смотрим, сколько в этой половине
положительных и сколько отрица­тельных
ошибок.

Положительных
ошибок, в пределах 1Е
оказалось 24, т. е., приблизительно, 25%
всех ошибок; отрицательных ошибок в
этих пределах — 26, т. е. также около 25%
всех ошибок.

Найдем
число ошибок в пределах от +1Е
до
+2Е
и
выразим их в %. Ошибок от 41 до 80 м всего
оказалось 33; из них положительных ошибок
— 17, отрицательных — 16, т. е. примерно, по
16%.

Таким
же образом определяется % ошибок в
пределах от ±2Е
до ±3Е
и от ±3 Е
до ±4 Е.

Р
езультаты
подсчетов отразим графиком — шкалой
ошибок (рис. 11),

Рис.
11. Шкала ошибок из опыта.

Если
взять достаточно большое число ошибок,
при котором можно считать, что частота
события равна вероятности его появления,
тогда частота появления ошибок в пределах
одной Е
будет выражена в % на рис. 12. Этот график
представляет собой численное
выражение нормального закона ошибок
,
так как он показывает численную
зависимость между величинами ошибок,
выраженными в Е,
и вероятностями получе­ния их в
определенных пределах.

Рис.
12. Численное выражение нормального
закона ошибок.

Так, например, на
основании полученного графика мы можем
ска­зать, что вероятность получения
ошибки в пределах величин:

  • одной срединной
    ошибки равна 25% +25%= 50%;

  • двух срединных
    ошибок равна 16,13%+25%+25%+16,13% = 82,26%.

На
основании данных рис. 12 можно сказать,
что ошибки измере­ния по своей величине
могут достигать до ±5Е
и даже до ±6Е.
Но из этого же рисунка видно, что
вероятность получения таких больших
ошибок очень невелика. На самом деле,
вероятность получения ошибки бо­лее
4Е
равна 2·(0,31% +0,04%) =0,70%. Это означает, что
из 1000 из­мерений только в 7 случаях
ошибка может быть больше 4Е.

На
основании этого с целью упрощения
расчетов численное выра­жение
нормального закона ошибок обычно
округляют, представляя его в виде шкалы
(рис. 13), которую называют шкалой
ошибок
.
В этом случае практическим пределом
ошибки для любого способа измерения
при­нимают предел ± 4Е.

0,02 0,07 0,16
0,25 0,25 0,16 0,07 0,02

-4Е –3Е
–2Е –1Е 0 +1Е +2Е
+3Е +4Е

Рис.
13. Шкала ошибок.

Шкала
ошибок на рис. 13 составлена в целых долях
срединной ошибки Е.
Такую шкалу можно составить с любой
точностью — в любых долях Е.
На рис. 14 дана шкала ошибок, которая
позволяет определить вероятность
получения ошибки в пределах с точностью
до 1/2 Е
и до 1/4 Е.
Так, например, вероятность получить
ошибку в пределах ± 1/2Е
равна 0,13+0,13 =0,26 или 26%; в пределах ±1
Е
равна (0,25+ 0,051)2 =0,602 или 60,2%; в пределах от
– -l
Е
до + 1
Е
равна 0,09 + 0,25 + 0,067 = 0,407 или 40,7%; в пределах
от

+

Е
до+1
Е
равна 0,12 + 0,09 + 0,037 = 0,247 или 24,7%.

0,02

0,07

0,16

0,25

0,25

0,16

0,07

0,02

0,005

0,015

0,03

0,04

0,07

0,09

0,12

0,13

0,13

0,12

0,09

0,07

0,04

0,03

0,015

0,005

0,002

0,004

0,005

0,008

0,011

0,014

0,019

0,024

0,031

0,037

0,044

0,051

0,056

0,064

0,066

0,067

0,067

0,066

0,064

0,056

0,051

0,044

0,037

0,031

0,024

0,019

0,014

0,011

0,008

0,005

0,004

0,002

-4Е –3Е
–2Е –1Е 0 +1Е +2Е
+3Е +4Е

Рис.
14. Шкала ошибок с точностью до 1/4 Е.

При
расчетах, требующих большой точности,
пользуются шкалой ошибок, составленной
до 0,01 Е.
Такая шкала имеет вид таблицы, где
вероятность получения ошибки в пределах
от 0 до ± Вдается
как Ф
),
т. е. как функция того или иного предела,
выраженного в Е.

Пользование этой
таблицей покажем на примерах.

Положим, что
истинное расстояние до цели равно 800 м.
Наблюдатель, измеряя это расстояние
глазомером, допускает какую-то ошибку.
Срединная ошибка измерения равна 10%
(см. табл. № 4), что в данном случае
состав­ляет 80 м.

Таблица № 4.

Процентный размер
ошибок

№ по пор.

Наименование
ошибок

величина
срединной ошибки

1

2

3

4

5

6

7

Ошибка в определении
расстояния до цели:

  • глазомером…………………………………….

  • промером местности
    шагами…………………

  • по
    карте………………………………………..

Ошибка в определении
скорости ветра (без приборов)……

Ошибка в определении
скорости цели (без приборов)…………….

Ошибка в определении
температуры воздуха (без приборов)…….

Ошибка приведения
оружия к нормальному бою………………….

Ошибка наводки
оружия:

  • лёжа с
    руки……………………………………………………

  • с колена без
    упора……………………………………………

  • на ходу с короткой
    остановки……………………………….

Ошибка в определении
курсового угла цели……………………….

10%Д

4%Д

5%Д

1,5м/сек

20%
ц

5°С

0,3 тыс.

0,4 тыс.

0,8 тыс.

2,0 тыс.

0,1 радиана

1
Определить вероятность получения ошибки
в пределах ±100 м (рис. 15).
Решение

В
=100:80= ±1,25Е
.

Вероятность
получения ошибки в заданных пределах

Р

=Ф(В)=Ф(1,25Е)=0,601
или 60,1%.

Рис.
15. Вероятность получения ошибок в
пределах ±1,25Е.

2

.
Определить вероятность получения
отрицательной ошибки в преде­лах от
0 до 124 м (рис. 16).

Рис.
16. Вероятность получения ошибок в
пределах от 0 до – 1,55 Е.

Решение
В=
124:80=1,55 Е

и

ли
35,2%.

Повторяя
измерения какой-либо величины одним и
тем же спосо­бом, мы получаем разные
результаты с разными по величине и знаку
ошибками. Положим, что мы имеем ряд
измерений и нам требуется оп­ределить
ошибку каждого результата измерения.
Для этого надо знать истинное значение
измеряемой величины. Но так как это
невозможно, нужно найти такое значение,
которое можно было бы считать наиболее
подходящим
к истинному значению измеряемой величины.
Данному ус­ловию отвечает среднее
арифметическое из всех отдельных
результатов измерений, т. е. средний
результат.

Например, 10 человек
измеряли глазомерным способом расстояние
до одного и того же местного предмета.
При этом были получены сле­дующие
результаты измерений: 930, 1150, 1071, 730, 1050,
955, 760, 1260, 839, 1015 м.

(

Средний
результат 976 м считаем наиболее подходящим
значением измеряемой величины, т. е.
принимаем его за истинное значение.
Теперь можно определить ошибки каждого
результата измерений, как разность
между результатами отдельных измерений
и найденным подходящим значением
измеряемой величины. Мы получим: -46, +
174, +95, -246, +74, -21, -216, +284, -137, +39 м). Определить
средний результат Дср.

Р

асположим
абсолютные значения этих ошибок в
возрастающем (можно в убывающем) порядке:
21, 39, 46, 74, 95,
137
,
174, 216, 246, 284 (м). Срединная ошибка этого
ряда будет равна:

Однако
так находить срединную ошибку можно
только при большом количестве измерений.
При малом числе измерений срединную
ошибку определяют одним из следующих
двух способов: или по величине сред­ней
арифметической ошибки, или по величине
средней квадратической ошибки. Для
этого нужно знать, как определяются,
величины названных ошибок и какие
существуют численные зависимости между
этими ошиб­ками и срединной ошибкой.

Средняя
арифметическая ошибка

(E1)
равна
сумме абсолютных значений величин
ошибок, деленной на число ошибок, т. е.

П

о
условию предыдущего примера, где было
произведено 10 изме­рений и получено
10 ошибок, средняя арифметическая
ошибка равна:

Между
срединной ошибкой (Е)
и средней арифметической ошибкой (E1)
существует следующая численная
зависимость: срединная ошибка равна
5/6 средней арифметической ошибки Е=5/6Е1

(точнее
Е=0,84535Е1).

На основании этого
можно найти величину срединной ошибки,
если известна величина средней
арифметической ошибки.

По условию нашего
примера срединная ошибка

E=
м.

Средняя
квадратическая ошибка (Е
2)
равна квадратному корню из

с

уммы
квадратов абсолютных значений величин
ошибок, деленной на число ошибок без
одной, т. е.

По
условию предыдущего примера из 10
измерений средняя квадра­тическая
ошибка равна:

М

ежду
срединной ошибкой (Е)
и средней квадратической ошибкой (E2)
установлена следующая зависимость:
срединная ошибка равна 2/3 средней
квадратической ошибки

(точнее,
Е
= 0,67449 Е2).

Н

а
основании этой зависимости найдем
величину срединной ошибки, если известна
величина средней квадратической ошибки
по условию на­шего примера:

В
приведенных примерах величина срединной
ошибки Е,
найденная построением ошибок в ряд (116
м), незначительно отличается от вели­чины
срединной ошибки, найденной по средней
арифметической (111 м), и от величины Е,
найденной по средней квадратической
ошибке (112 м). Однако теория стрельбы
установила, что наиболее точно срединная
ошибка может быть определена по средней
квадратической ошибке.

Рассмотрим
пример, на котором покажем, что при
небольшом ко­личестве измерений
срединную ошибку необходимо определять
только через среднюю квадратическую.

Два
офицера при троекратном измерении
расстояния по карте коман­дирской
линейкой допустили следующие ошибки в
миллиметрах: пер­вый измерявший — 1,
3, 5; второй измерявший — 2, 3, 4. Кто из них
рабо­тал точнее?

По характеру
допущенных ошибок можно предположить,
что точнее измерял второй.

П

одсчитаем
среднюю ошибку каждого измерявшего,
взяв за нее среднюю арифметическую
величину. Тогда получается, что средняя
арифметическая ошибка первого измерявшего

и

у второго

т.
е. они работали одинаково точно. Однако
сам вид ошибок показывает нам, что точнее
работал второй измерявший. Проверим
это по средней квадратической ошибке,
которая являет­ся более высокой мерой
точности при небольшом числе измерений.
Най­дем среднюю квадратическую ошибку
первого и второго измерявшего:

Теперь
мы подтвердили свое предположение о
том, что второй изме­рявший работал
точнее: у него средняя квадратическая
ошибка меньше, чем у первого. Этот расчет
убеждает нас и в том, что средняя
квадрати­ческая ошибка оказывается
более высокой мерой точности, чем средняя
арифметическая.

Если
же мы в приведенном примере сравним
допущенные измеряв­шими срединные
ошибки, находя их по положению в ряду,
то мы не придем к правильному решению:
срединные ошибки оказываются равными.
Получается, что точность работы измерявших
одинакова. Это, как мы уже показали,
неверно и произошло потому, что при
малом количестве измерений срединную
ошибку нельзя находить построением
ошибок в ряд.

Итак,
при небольшом числе измерений срединную
ошибку следует находить по средней
квадратической ошибке, зная, что Е =

Е
2.

Тогда в нашем примере
для первого измерявшего Е’=
4,2=2,8
,
для второго измерявшего Е»=
·3,8=2,53
,
т. е. он работал точнее.

Таким образом, при
малом количестве измерений за подходящее
значение срединной ошибки следует
принимать срединную ошибку, най­денную
по средней квадратической.

Вернемся к
рассмотренному ранее примеру с 10-ю
измерениями. Мы нашли ошибку каждого
результата измерения, после чего
определили подходящее значение срединной
ошибки различными способами:

— по месту в ряде
абсолютных значений ошибок срединная
ошибка оказалась равна Е=116
м;

— по средней квадратической ошибке
срединная ошибка равна 112м.

И здесь легко
убедиться в недостаточной точности
первого способа. Действительно, достаточно
добавить к нашему ряду еще одно (11-е)
из­мерение, как искомая величина Е
резко изменится (вместо 116 м станет 137 м
или 95 м).

Чтобы убедиться в
преимуществе второго способа, применим
к нему те же испытания, что и к первому
способу, т. е. посмотрим, как изменит­ся
искомая величина Е,
если к имеющимся ошибкам 10-ти измерений
добавить ошибку 11-го измерения. Пусть
в одном случае эта ошибка равна 140 м
(больше 137 м), а в другом — 80 м (меньше 95
м).

При 11-ти измерениях
с добавлением ошибки 140 м срединная
ошибка Е,
найденная по средней квадратической,
будет равняться 110м.

При 11-ти измерениях
с добавлением ошибки 80 м срединная
ошибка Е,
найденная по средней квадратической,
будет составлять 108 м.

Как видим, добавочное измерение
незначительно изменяет сужде­ние о
величине срединной ошибки, если ее
определять по средней квадратической
ошибке.

Таким образом,
практически для определения подходящего
значе­ния срединной ошибки следует
применять способ определения срединной
ошибки по средней квадратической,
пользуясь зависимостью

П

ример.
Определить срединную ошибку измерения
дальности до цели, если получены следующие
результаты в м: 360, 400, 450, 390.

Решение:

Статистическое оценивание срединного отклонения

случайной величины

А.В. Тихоненков

Рассмотрена сущность срединного отклонения как характеристики рассеивания случайной величины. Доказана чувствительность этой характеристики к отклонениям закона распределения случайной величины от нормального. Показаны возможные изменения срединного отклонения в статистических расчётах, связанные с недооценкой характеристик выборки.

Ключевые слова: выборка, гипотеза, параметр, распределение, совокупность, функционирование, функция, характеристика, цензурирование

Во многих вопросах прикладной теории вероятностей, в частности в теории стрельбы, а также в теории ошибок для количественной оценки рассеивания используется обычно величина, которую называют вероятным или срединным отклонением (срединной ошибкой) [1].

Вероятным или срединным отклонением (обычно обозначается Ех) называется половина длины интервала, симметричного относительно центра рассеивания, вероятность попадания в который равна 0,5. В интервал длиной 2Ех, симметричный относительно центра рассеивания, попадает в среднем «лучшая» половина значений нормальной случайной величины [2].

Характеристики рассеивания можно определять опытным, опытно-теоретическим и теоретическим методами. Но находят применение только разновидности опытно-теоретического метода с различной степенью участия эксперимента и теории [3].

В основу определения характеристик рассеивания положены опытные значения этих характеристик, полученные для каждой группы испытаний по известной формуле:

где В^ — статистическая оценка вероятного (срединного) отклонения результатов измерений (точек попадания) по координате:

Тихоненков Алексей Викторович — кандидат технических наук, доцент кафедры информатики и математики Международного института экономики и права, докторант Военного учебно-научного центра Сухопутных войск «Общевойсковая академия Вооружённых Сил Российской Федерации». Адрес для корреспонденции: tihonenk@mail.ru

Для цитирования: Вестник МИЭП. 2014. № 1. С. 17-23.

п _ 2

(1)

п

_ I £ £ =

1=1 1

(2)

п

где п — число счетных результатов в данной группе.

Статистическая оценка срединного отклонения В^ по N группам испытаний определяется по формуле:

В = 0,6745

1

N 2

I В^-1) ]=1

N

I п^

н

(3)

Однако уже давно замечена нестабильность исследуемых характеристик при повторных испытаниях, то есть значения В^, вычисляемые по формуле (3), имеют значительный разброс, доходящий до 30-40% и более. Очевидно, нужны методы, позволяющие устранить этот недостаток.

Вероятное отклонение выражается через среднеквадратическое отклонение. Согласно определению,

Г1 ^

Р(

Х-т

X

< Е =

X

2

(4)

Для симметричного (относительно центра рассеивания) интервала известна формула:

г > < 1 = Ф —

Р(

Х-т

X

О

V X У

(5)

Тогда, принимая 1 = Ех, находим:

Ф

Г Е ^

X

О

V X У

0,5.

(6)

По таблице функции Ф(х) получаем значение аргумента х ~ 0,6745, при котором она будет равна 0,5. Следовательно, справедливо соотношение:

Ех/ах = 0,6745.

Отсюда получим:

Ех = 0,6745 ах.

(7)

(8)

Проведенные вычисления доказывают, что исторически в основу определения характеристик рассеивания был положен нормальный закон распределения с исчерпывающими характеристиками — функцией распределения (9) и функцией плотности распределения (10):

Б (X, ц, О)

1

X

1 Г X-Ц

г- Iе

ол/2п -(Ю

2 v о

dx,

(9)

1 -2н2

f (X, ц, о) = —^е о > ■ (10)

ол/ 2п

Однако при малом числе испытаний (для малых выборок) использование нормального закона распределения представляется недостаточно обоснованным. Тем не менее его используют практически во всех областях науки и техники, что приводит к значительному (недопустимому с точки зрения математики) разбросу получаемых опытно-теоретическим путем параметров кучности и значительному их завышению в силу осреднения экспериментальных данных в соответствии с законом нормального распределения.

Предпринимались различные попытки скорректировать случайные отклонения путем учета разброса условий проведения эксперимента (вплоть до атмосферных), однако проблема огрубления характеристик рассеивания этим не снимается.

Ни одна из методик проведения испытаний с целью определения характеристик рассеивания не учитывает также факт получения в результате испытаний цензурированных данных. В многочисленных источниках в качестве основных причин возникновения цензурированных выборок называют:

■ перевод изделий из одного режима применения в другой в процессе испытаний или эксплуатации;

■ использование изделий однократного применения по назначению из режима хранения;

■ объединение данных, полученных при испытаниях по двум и более однотипным планам, либо по планам разных типов [4-8, 9, с. 18].

Очевидно, что данные причины имеют место во всех методиках испытаний для определения срединного отклонения. Исходя из логики проведения таких испытаний, можно утверждать, что исследователь имеет дело с цензурированием интервалом, границами которого являются соответственно минимальное и максимальное отклонение результатов измерения (точек попадания) от номинального значения (точки прицеливания).

В соответствии с определением цензурированной выборки, приведенным в ряде публикаций [10, 11] можно сделать вывод о том, что термины «цензурирование» и «усечение» являются синонимами. Данный вывод подтверждает и В.М. Скрипник: «.термин «цензурирование» удобнее использовать для выборок, а термин «усечение» для законов распределения, усеченных на интервале» [9, с. 15]. Кендалл и Стюарт также предлагают выборки, состоящие из элементов с полными и неполными наработками, называть цен-зурированными, а законы распределения случайных наработок до отказа на интервале [0, Т] — усеченными (урезанными) [12].

Хотя встречаются и иные точки зрения [13, с. 123], усеченными принято называть выборки, в которых отсутствуют значения случайной величины, большие или меньшие некоторого граничного значения, тогда как цензури-

рованными — выборки, в которых часть членов отбрасывается. Тем не менее случайные величины, составляющие как цензурированную, так и усеченную выборку, подчиняются усеченному распределению.

К чему приводит недооценка указанных выше факторов, можно проиллюстрировать на следующем примере. В одной из работ автора доказано, что характеристики функционирования технических систем, являющихся предметом исследования, наилучшим образом согласуются с логарифмически нормальным (логнормальным) законом распределения [14], двусторонне усеченным.

Если случайная величина У распределена нормально, то случайная величина

X = 1пУ (11)

подчинена логарифмически нормальному (или логнормальному) закону распределения с исчерпывающими характеристиками — функцией распределения (12) и функцией плотности распределения (13):

1 (1пх-ц ^ 2

1 х 2 ^ а у

Б (х, ц, а) = —1= е ёх, (12)

а

л/2П

о

1

1 (1пх-цЛ 2

Г (х, ц, а) = —е а ^ . (13)

хал/ 2п

При вычислениях, связанных с логарифмически нормальным распределением, пользуются приемами, используемыми для нормального распределения, заменяя при этом значение случайной величины ее логарифмом [13, с. 35]. Подробный анализ этого распределения дан в работе Эйчисона и Брауна [15].

Для двусторонне усеченного нормального распределения справедливы следующие соотношения для показателей математического ожидания (М(х)) и дисперсии (Б(х)):

М(х)=ц-(^2-^1)ст, (14)

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

Б(х)=(1+^1-^2-^1)2а2, (15)

где Х2 — величины, рассчитываемые по формулам (16) и (17) соответственно.

^ = , 0б) = ^ , (17)

к 2 Ф(4 2) — ф(^1)

где ф(^1), ф(^2) — плотности вероятностей стандартного нормального распределения; £,2 — величины, рассчитываемые по формулам (18) и (19) соответственно.

^ = (18) о

£ 2 = , (19)

о

где а15 а2 — граничные значения.

При переходе от нормального закона распределения случайной величины к логарифмически нормальному (в силу того, что функция плотности распределения не симметрична относительно математического ожидания (рисунок) возникает необходимость модификации определения для вероятного (срединного) отклонения.

Их

1 г

1 1 *

; *

1 1

• /■Ч

— * * » /

-1 9 •

1 и > ч V

Г 1 ч. 3 —

О г*» Ч1 ■»нсотгм-нтгг-.огоиэспгч тоо^^г^огошспгмт^

N г1 Н моооооо^^^гнгмгмгмгоглог)-^ ^ Т Т 1Л [Л

о о о о о о о о’ о о о о о’ о» о» о» о о о» о» о о» о о» о о» ^ норм.распр, — — усеч. норм.распр. — • логнорм. распр. …….усеч. логнорм,распр.

Функции плотности вероятности

Исходя из приведенных соображений, представляется целесообразным называть вероятным или срединным отклонением половину длины интервала, симметричного относительно центра рассеивания по вероятности, вероятность попадания в который равна 0,5. Результаты соответствующих расчетов приведены в таблице.

Для представленных в таблице исходных данных справедливы следующие утверждения:

■ при использовании зависимостей логнормального закона распределения величина оценки срединного отклонения изменилась на 17,5%;

■ при учете фактора усечения она изменилась на 38,5%;

■ при совместном учете обоих факторов — на 92,9%.

Результаты расчета величины срединного отклонения

Исходные данные и числовые характеристики Законы распределения

нормальный усеченный нормальный логнормальный усеченный логнормальный

x 0,02; 0,05; 0,07; 0,09; 0,12; 0,16; 0,21

lnx -3,912; -2,996; -2,659; -2,408; -2,120; -1,833; -1,561

Ц 0,1028571 0,1028571 -2,49835 -2,49835

о 0,0657557 0,0657557 0,790085 0,790085

$1 -1,260076 -1,78927

$2 1,6294084 1,186837

Ф ($1) 0,180353933 0,080485797

Ф ($2) 0,105776767 0,19726049

А.1 0,213546 0,095185

^2 0,125244 0,233288

M(X) 0,1028571 0,1086635 0,112339 0,077787

D(X) 0,0016361 0,010939 0,000686

ох 0,0657557 0,0404492 0,104591 0,026187

Ex 0,0443522 0,027283 0,036591 0,003144

В данном примере использован один из крайних случаев, однако недооценка отклонения эмпирического закона распределения от нормального и

игнорирование факта цензурирования всегда приводят к значительному искажению характеристик рассеивания.

Литература

1. Пискунов Н.С. Дифференциальное и интегральное исчисления. — М., 1970. — Т. 2. — С. 495.

2. Журко Д.М. Применение математических методов в военном деле. — М., 1984. — С. 120.

3. Беляева С.Д., Монченко Н.М., Паршин Ж.П. Внешняя баллистика. Ч. II: Устойчивость движения снарядов. — М., 1988. — С. 343.

4. Скрипник В.М., Назин А.Е. Оценка надежности технических систем по цензурированным выборкам / Под ред. А.И. Широкова. — Минск, 1981. -144 с.

5. Gill R.D. Censoring and stochastic integrals // Mathematical center tracts 124. — Amsterdam, 1980. — 172 p.

6. Назин А.Е., Приходько Ю.Г., Скрипник В.М., Явид Ю.Ю. Вопросы обработки статистической информации по цензурированным выборкам. -Минск, 1979. — 86 с.

7. Lagakos S.W. General right censoring and its impact on the analysis of survival data // Biometrics. — 1979. — N 35. — P. 139-156.

8. Беляев Ю.К. Непараметрические методы в задачах обработки результатов испытаний и эксплуатации. — М., 1984. — 60 с.

9. Скрипник В.М., Назин А.Е., Приходько Ю.Г. Анализ надежности технических систем по цензурированным выборкам. — М., 1988.

10. Агзамов С.К., Огульник Ю.М. Определение интервальных оценок и точности показателей долговечности по многократно усеченным выборкам // Надежность и контроль качества. — 1976. — № 9. — С. 49-54.

11. Баталова З.Г., Благовещенский Ю.Н. О точности оценок ресурсов элементов конструкций методом максимума правдоподобия при случайном усечении длительности наблюдений // Надежность и контроль качества. 1979. — № 9. — С. 12-20.

12. Кендалл М.Ж., Стюарт А. Статистические выводы и связь: Пер. с англ. -М., 1973. — 900 с.

13. Кобзарь А.И. Прикладная математическая статистика. Для инженеров и научных работников. — М., 2006.

14. Платонов А.А., Тихоненков А.В. и др. Методические основы построения математических моделей и обработки результатов испытаний неуправляемых артиллерийских снарядов. — М., 2010. — 70 с.

15. Aitchison J., Brown J. The lognormal distribution. London, 1951.

Statistical estimation of the median deviation of the random variable Tikhonenkov Aleksey, Candidate of Engineering Sciences, Associate Professor of Computer Science and Mathematics of International Institute of Economics and Law, doctoral Military Training and Research Center of Land Forces «Combined Military Academy of the Armed Forces of the Russian Federation»

The article considers the nature of the median deviation characteristics of dissipation random variable. Sensitivity of these characteristics to the deviation of the distribution law of a random variable from a normalization is proven. The author shows the possible changes of the median deviation in statistics-sky calculations associated with the underestimation of the characteristics of the sample.

Keywords: sampling, hypothesis, argument, distribution, collection, function, planning, function, feature, censoring

Address for correspondence: tihonenk@mail.ru

For citation: Herald of International Institute of Economics and Law. 2014. N 1(14). P. 17-23.

Что такое среднеквадратичное отклонение

Рассматривая какие-либо величины или их изменения, используют такие критерии как среднеарифметическая величина и ее отклонение. Различные понятия позволяют оценить разброс измеряемой величины и ее отклонение. К ним относится абсолютная погрешность, которая показывает насколько каждая конкретная величина отличается от среднего значения. Но так как сумма всех абсолютных погрешностей равна нулю, то этот критерий не позволяет показать разброс измеряемых величин. И для решения этой задачи был введен новый показатель — среднее квадратичное отклонение.

Для того чтобы объяснить его смысл необходимо вспомнить некоторые основные математические понятия.

Определение

Средней величиной или средним арифметическим называется число, полученное в результате деления суммы всех величин на их количество.

Осторожно! Если преподаватель обнаружит плагиат в работе, не избежать крупных проблем (вплоть до отчисления). Если нет возможности написать самому, закажите тут.

Пример

Среднеарифметическое для 3 чисел b1, b2 и b3 определяется как:

(M=frac{b_1+b_2+b_3}3)

Со средней величиной непосредственно связана и другая характеристика — математическое ожидание.

Определение

Значение среднего арифметического некоторого множества при стремлении его членов к бесконечности называется математическим ожиданием (М).

А оценкой математического ожидания является среднее арифметическое определенного числа измерений изучаемой величины.

Определение

Вариантой или абсолютной погрешностью называется разность измеряемой величины со средним значением.

Она обозначается греческой буквой D. Для того чтобы найти варианту единичного измерения ai следует отнять от ее значение среднее арифметическое:

(Da_i=a_i-M)

Также для оценки единичного измерения используется и относительная погрешность, значение которой выражается в процентах. Ее вычисление проводят по формуле:

(sigma=frac{left|triangle a_iright|}Mtimes100%)

Относительная погрешность каждой величины позволяет отбросить из вариации измерений значения с очень большой погрешностью и проводить дальнейший анализ только величин с незначительной относительной погрешностью.

Характеристикой распределения значений некоторой измеряемой величины является дисперсия (D).

Определение

Дисперсией называется среднее арифметическое квадратов всех абсолютных погрешностей.

Теперь можно дать определение и «среднеквадратичному отклонению».

Определение

Значение корня квадратного из дисперсии случайной величины называется среднеквадратичным отклонением и обозначается «ϭ».

Оно вычисляется по формуле:

(sigma=sqrt{D_{left|xright|}})

Единицей измерения среднеквадратического отклонения является единица измерения исследуемой величины. Данный критерий используется при измерении линейной функции, статической проверки гипотезы, расчете стандартной ошибки среднего арифметического, а также при построении доверительных интервалов.

Как найти среднеквадратическое отклонение

Вычисление среднеквадратичного отклонения на первый взгляд может показаться достаточно сложным и запутанным. Но этот процесс можно облегчить, если воспользоваться следующим алгоритмом действий:

  1. Найти среднее арифметическое всех членов множества.
  2. Для каждого элемента вычислить варианту.
  3. Сложить все полученные на предыдущем этапе значения.
  4. Разделить число, полученное при выполнении третьего шага, на количество элементов множества.
  5. Из полученного в предыдущем шаге числа извлечь корень квадратный.

Формула, примеры решения задач

Для четырех измеренных значений величины b формула среднеквадратичного отклонения будет выглядеть следующим образом:

(sigma=sqrt{frac{triangle b_1+triangle b_2+triangle b_3+triangle b_4}4})

где Db1 — Db4 являются абсолютными погрешностями каждой исследуемой величины.

Рассмотрим пример решения конкретной задачи.

Задача

При проведении лабораторной работы по физике школьники несколько раз измерили напряжение электрического тока и получили следующие значения:

(U_1=4.22BU_2=4.30BU_3=4.27BU_4=4.23BU_5=4.20B)

Необходимо рассчитать погрешности (абсолютные и относительные) каждого измерения, дисперсию и среднеквадратическое отклонение.

Решение

Определим среднее арифметическое значение напряжения в данной работе:

(U_c=sqrt{frac{U_1+U_2+U_3+U_4+U_5}5}=frac{4.22+4.30+4.27+4.23+4.20}5=4.244B)

Теперь рассчитаем для каждого полученного измерения абсолютную и относительную погрешности. Так как абсолютная погрешность определяется как разница между средним арифметическим и полученным значением, то

(triangle U_1=0.024triangle U_2=-0.056triangle U_3=-0.026triangle U_4=0.014triangle U_5=0.044)

Находим относительную погрешность:

(sigma_1=frac{left|U_1right|}{U_c}times100%=0.50%sigma_2=frac{left|U_2right|}{U_c}times100%=1.06%sigma_3=frac{left|U_3right|}{U_c}times100%=0.50%sigma_4=frac{left|U_4right|}{U_c}times100%=0.25%sigma_5=frac{left|U_5right|}{U_c}times100%=0.84%)

Зная абсолютные погрешности несложно вычислить дисперсию:

(D=frac{triangle U_1^2+{triangle U_2}^2+{triangle U_3}^2+{triangle U_4}^2+{triangle U_5}^2}5=0.001304)

Теперь можно вычислить среднеквадратичное отклонение:

(sigma=sqrt D=0.0361)

В статистика, то среднеквадратичная ошибка (MSE)[1][2] или среднеквадратическое отклонение (MSD) из оценщик (процедуры оценки ненаблюдаемой величины) измеряет средний квадратов ошибки — то есть средний квадрат разницы между оценочными и фактическими значениями. MSE — это функция риска, соответствующий ожидаемое значение квадрата ошибки потери. Тот факт, что MSE почти всегда строго положительный (а не нулевой), объясняется тем, что случайность или потому что оценщик не учитывает информацию это может дать более точную оценку.[3]

MSE — это мера качества оценки — она ​​всегда неотрицательна, а значения, близкие к нулю, лучше.

МСЭ — второй момент (о происхождении) ошибки и, таким образом, включает в себя как отклонение оценщика (насколько разбросаны оценки от одного образец данных другому) и его предвзятость (насколько далеко среднее оценочное значение от истинного значения). Для объективный оценщик, MSE — это дисперсия оценки. Как и дисперсия, MSE имеет те же единицы измерения, что и квадрат оцениваемой величины. По аналогии с стандартное отклонение, извлечение квадратного корня из MSE дает среднеквадратичную ошибку или среднеквадратичное отклонение (RMSE или RMSD), который имеет те же единицы, что и оцениваемое количество; для несмещенной оценки RMSE — это квадратный корень из отклонение, известный как стандартная ошибка.

Определение и основные свойства

MSE либо оценивает качество предсказатель (т.е. функция, отображающая произвольные входные данные в выборку значений некоторых случайная переменная ) или оценщик (т.е. математическая функция отображение образец данных для оценки параметр из численность населения из которого берутся данные). Определение MSE различается в зависимости от того, описывается ли предсказатель или оценщик.

Предсказатель

Если вектор п прогнозы генерируются из выборки п точки данных по всем переменным, и Y — вектор наблюдаемых значений прогнозируемой переменной, при этом hat {Y} будучи предсказанными значениями (например, по методу наименьших квадратов), то MSE в пределах выборки предсказателя вычисляется как

{ displaystyle operatorname {MSE} = { frac {1} {n}} sum _ {i = 1} ^ {n} (Y_ {i} - { hat {Y_ {i}}}) ^ { 2}.}

Другими словами, MSE — это иметь в виду { displaystyle left ({ frac {1} {n}} sum _ {i = 1} ^ {n} right)} из квадраты ошибок { displaystyle (Y_ {i} - { hat {Y_ {i}}}) ^ {2}}. Это легко вычисляемая величина для конкретного образца (и, следовательно, зависит от образца).

В матрица обозначение

{ displaystyle operatorname {MSE} = { frac {1} {n}} sum _ {i = 1} ^ {n} (e_ {i}) ^ {2} = { frac {1} {n }} mathbf {e} ^ { mathsf {T}} mathbf {e}}

куда e_ {i} является { displaystyle (Y_ {i} - { hat {Y_ {i}}})} и { displaystyle mathbf {e}} это { Displaystyle п раз 1} матрица.

MSE также можно вычислить на q точки данных, которые не использовались при оценке модели, либо потому, что они были задержаны для этой цели, либо потому, что эти данные были получены заново. В этом процессе (известном как перекрестная проверка ), MSE часто называют среднеквадратичная ошибка прогноза, и вычисляется как

{ displaystyle operatorname {MSPE} = { frac {1} {q}} sum _ {i = n + 1} ^ {n + q} (Y_ {i} - { hat {Y_ {i}} }) ^ {2}.}

Оценщик

MSE оценщика hat { theta} по неизвестному параметру theta определяется как[2]

{ displaystyle operatorname {MSE} ({ hat { theta}}) = operatorname {E} _ { theta} left [({ hat { theta}} - theta) ^ {2} верно].}

Это определение зависит от неизвестного параметра, но MSE априори свойство оценщика. MSE может быть функцией неизвестных параметров, и в этом случае любой оценщик MSE на основе оценок этих параметров будет функцией данных (и, следовательно, случайной величиной). Если оценщик hat { theta} выводится как статистика выборки и используется для оценки некоторого параметра совокупности, тогда ожидание относится к распределению выборки статистики выборки.

MSE можно записать как сумму отклонение оценщика и квадрата предвзятость оценщика, обеспечивая полезный способ вычисления MSE и подразумевая, что в случае несмещенных оценок MSE и дисперсия эквивалентны.[4]

{ displaystyle operatorname {MSE} ({ hat { theta}}) = operatorname {Var} _ { theta} ({ hat { theta}}) + operatorname {Bias} ({ hat { theta}}, theta) ^ {2}.}

Доказательство отношения дисперсии и предвзятости

{ displaystyle { begin {align} operatorname {MSE} ({ hat { theta}}) & = operatorname {E} _ { theta} left [({ hat { theta}} - theta) ^ {2} right] & = operatorname {E} _ { theta} left [ left ({ hat { theta}} - operatorname {E} _ { theta} [{ hat { theta}}] + operatorname {E} _ { theta} [{ hat { theta}}] - theta right) ^ {2} right] & = operatorname {E } _ { theta} left [ left ({ hat { theta}} - operatorname {E} _ { theta} [{ hat { theta}}] right) ^ {2} +2 left ({ hat { theta}} - operatorname {E} _ { theta} [{ hat { theta}}] right) left ( operatorname {E} _ { theta} [{ hat { theta}}] - theta right) + left ( operatorname {E} _ { theta} [{ hat { theta}}] - theta right) ^ {2} right ] & = operatorname {E} _ { theta} left [ left ({ hat { theta}} - operatorname {E} _ { theta} [{ hat { theta}}] right) ^ {2} right] + operatorname {E} _ { theta} left [2 left ({ hat { theta}} - operatorname {E} _ { theta} [{ шляпа { theta}}] right) left ( operatorname {E} _ { theta} [{ hat { theta}}] - theta right) right] + operatorname {E} _ { the ta} left [ left ( operatorname {E} _ { theta} [{ hat { theta}}] - theta right) ^ {2} right] & = operatorname {E} _ { theta} left [ left ({ hat { theta}} - operatorname {E} _ { theta} [{ hat { theta}}] right) ^ {2} right] +2 left ( operatorname {E} _ { theta} [{ hat { theta}}] - theta right) operatorname {E} _ { theta} left [{ hat { theta }} - operatorname {E} _ { theta} [{ hat { theta}}] right] + left ( operatorname {E} _ { theta} [{ hat { theta}}] - theta right) ^ {2} && operatorname {E} _ { theta} [{ hat { theta}}] - theta = { text {const.}} & = operatorname { E} _ { theta} left [ left ({ hat { theta}} - operatorname {E} _ { theta} [{ hat { theta}}] right) ^ {2} right] +2 left ( operatorname {E} _ { theta} [{ hat { theta}}] - theta right) left ( operatorname {E} _ { theta} [{ hat { theta}}] - operatorname {E} _ { theta} [{ hat { theta}}] right) + left ( operatorname {E} _ { theta} [{ hat { theta}}] - theta right) ^ {2} && operatorname {E} _ { theta} [{ hat { theta}}] = { text {const.}} & = operatorname {E} _ { theta} l eft [ left ({ hat { theta}} - operatorname {E} _ { theta} [{ hat { theta}}] right) ^ {2} right] + left ( operatorname {E} _ { theta} [{ hat { theta}}] - theta right) ^ {2} & = operatorname {Var} _ { theta} ({ hat { theta} }) + operatorname {Bias} _ { theta} ({ hat { theta}}, theta) ^ {2} end {align}}}
В качестве альтернативы у нас есть
{ displaystyle { begin {align} mathbb {E} ( theta - { hat { theta}}) ^ {2} & = mathbb {E} ({ hat { theta}} ^ {2 }) + mathbb {E} ( theta ^ {2}) - 2 theta mathbb {E} ({ hat { theta}}) & = operatorname {Var} ({ hat { theta}}) + ( mathbb {E} { hat { theta}}) ^ {2} + theta ^ {2} -2 theta mathbb {E} ({ hat { theta}}) & = operatorname {Var} ({ hat { theta}}) + ( mathbb {E} { hat { theta}} - theta) ^ {2} & = operatorname {Var } ({ hat { theta}}) + operatorname {Bias} ^ {2} ({ hat { theta}}) end {align}}}

Но в реальном случае моделирования MSE можно описать как добавление дисперсии модели, систематической ошибки модели и неснижаемой неопределенности. Согласно соотношению, MSE оценщиков может быть просто использована для эффективность сравнение, которое включает информацию о дисперсии и смещении оценки. Это называется критерием MSE.

В регрессе

В регрессивный анализ, построение графиков — более естественный способ просмотра общей тенденции всех данных. Среднее значение расстояния от каждой точки до прогнозируемой регрессионной модели может быть вычислено и показано как среднеквадратичная ошибка. Возведение в квадрат критически важно для уменьшения сложности с отрицательными знаками. Чтобы свести к минимуму MSE, модель может быть более точной, что означает, что модель ближе к фактическим данным. Одним из примеров линейной регрессии с использованием этого метода является метод наименьших квадратов —Который оценивает соответствие модели линейной регрессии модели двумерный набор данных[5], но чье ограничение связано с известным распределением данных.

Период, термин среднеквадратичная ошибка иногда используется для обозначения объективной оценки дисперсии ошибки: остаточная сумма квадратов делится на количество степени свободы. Это определение известной вычисленной величины отличается от приведенного выше определения вычисленной MSE предиктора тем, что используется другой знаменатель. Знаменатель — это размер выборки, уменьшенный на количество параметров модели, оцененных на основе тех же данных, (н-р) за п регрессоры или (п-п-1) если используется перехват (см. ошибки и остатки в статистике Больше подробностей).[6] Хотя MSE (как определено в этой статье) не является объективной оценкой дисперсии ошибки, она последовательный, учитывая непротиворечивость предсказателя.

В регрессионном анализе «среднеквадратичная ошибка», часто называемая среднеквадратичная ошибка прогноза или «среднеквадратичная ошибка вне выборки», также может относиться к среднему значению квадратичные отклонения прогнозов на основе истинных значений в тестовом пространстве вне выборки, сгенерированных моделью, оцененной в конкретном пространстве выборки. Это также известная вычисляемая величина, которая зависит от образца и тестового пространства вне образца.

Примеры

Иметь в виду

Предположим, у нас есть случайная выборка размера п от населения, X_ {1}, точки, X_ {n}. Предположим, что образцы были выбраны с заменой. Это п единицы выбираются по одному, и ранее выбранные единицы по-прежнему имеют право на выбор для всех п рисует. Обычная оценка для му это среднее по выборке[1]

overline {X} = frac {1} {n} sum_ {i = 1} ^ n X_i

ожидаемое значение которого равно истинному среднему значению му (так что это беспристрастно) и среднеквадратичная ошибка

{ Displaystyle OperatorName {MSE} left ({ overline {X}} right) = operatorname {E} left [ left ({ overline {X}} - mu right) ^ {2} right] = left ({ frac { sigma} { sqrt {n}}} right) ^ {2} = { frac { sigma ^ {2}} {n}}}

куда sigma ^ {2} это дисперсия населения.

Для Гауссово распределение, это лучший объективный оценщик (то есть с самой низкой MSE среди всех несмещенных оценок), но не, скажем, для равномерное распределение.

Дисперсия

Обычной оценкой дисперсии является исправлено выборочная дисперсия:

{ displaystyle S_ {n-1} ^ {2} = { frac {1} {n-1}} sum _ {i = 1} ^ {n} left (X_ {i} - { overline { X}} right) ^ {2} = { frac {1} {n-1}} left ( sum _ {i = 1} ^ {n} X_ {i} ^ {2} -n { overline {X}} ^ {2} right).}

Это объективно (его ожидаемое значение sigma ^ {2}), поэтому также называется объективная дисперсия выборки, и его MSE[7]

{ displaystyle operatorname {MSE} (S_ {n-1} ^ {2}) = { frac {1} {n}} left ( mu _ {4} - { frac {n-3} { n-1}} sigma ^ {4} right) = { frac {1} {n}} left ( gamma _ {2} + { frac {2n} {n-1}} right) sigma ^ {4},}

куда mu _ {4} это четвертый центральный момент распределения или населения, и gamma_2 = mu_4 / sigma ^ 4-3 это избыточный эксцесс.

Однако можно использовать другие оценки для sigma ^ {2} которые пропорциональны S ^ 2_ {n-1}, и соответствующий выбор всегда может дать более низкую среднеквадратичную ошибку. Если мы определим

{ displaystyle S_ {a} ^ {2} = { frac {n-1} {a}} S_ {n-1} ^ {2} = { frac {1} {a}} sum _ {i = 1} ^ {n} left (X_ {i} - { overline {X}} , right) ^ {2}}

затем рассчитываем:

{ displaystyle { begin {align} operatorname {MSE} (S_ {a} ^ {2}) & = operatorname {E} left [ left ({ frac {n-1} {a}} S_ {n-1} ^ {2} - sigma ^ {2} right) ^ {2} right] & = operatorname {E} left [{ frac {(n-1) ^ {2 }} {a ^ {2}}} S_ {n-1} ^ {4} -2 left ({ frac {n-1} {a}} S_ {n-1} ^ {2} right) sigma ^ {2} + sigma ^ {4} right] & = { frac {(n-1) ^ {2}} {a ^ {2}}} operatorname {E} left [ S_ {n-1} ^ {4} right] -2 left ({ frac {n-1} {a}} right) operatorname {E} left [S_ {n-1} ^ {2 } right] sigma ^ {2} + sigma ^ {4} & = { frac {(n-1) ^ {2}} {a ^ {2}}} operatorname {E} left [S_ {n-1} ^ {4} right] -2 left ({ frac {n-1} {a}} right) sigma ^ {4} + sigma ^ {4} && operatorname {E} left [S_ {n-1} ^ {2} right] = sigma ^ {2} & = { frac {(n-1) ^ {2}} {a ^ {2} }} left ({ frac { gamma _ {2}} {n}} + { frac {n + 1} {n-1}} right) sigma ^ {4} -2 left ({ frac {n-1} {a}} right) sigma ^ {4} + sigma ^ {4} && operatorname {E} left [S_ {n-1} ^ {4} right] = operatorname {MSE} (S_ {n-1} ^ {2}) + sigma ^ {4} & = { frac {n-1} {na ^ {2}}} left ((n- 1) gamma _ {2} + n ^ {2} + n right) sigma ^ {4} -2 left ({ frac {n-1} {a}} right) sigma ^ {4 } + sigm а ^ {4} end {выровнено}}}

Это сводится к минимуму, когда

a = frac {(n-1) gamma_2 + n ^ 2 + n} {n} = n + 1 + frac {n-1} {n} gamma_2.

Для Гауссово распределение, куда gamma_2 = 0, это означает, что MSE минимизируется при делении суммы на а = п + 1. Минимальный избыточный эксцесс составляет gamma_2 = -2,[а] что достигается за счет Распределение Бернулли с п = 1/2 (подбрасывание монеты), и MSE минимизируется для { displaystyle a = n-1 + { tfrac {2} {n}}.} Следовательно, независимо от эксцесса, мы получаем «лучшую» оценку (в смысле наличия более низкой MSE), немного уменьшая несмещенную оценку; это простой пример оценщик усадки: один «сжимает» оценку до нуля (уменьшает несмещенную оценку).

Далее, хотя исправленная дисперсия выборки является лучший объективный оценщик (минимальная среднеквадратичная ошибка среди несмещенных оценок) дисперсии для гауссовских распределений, если распределение не является гауссовым, то даже среди несмещенных оценок лучшая несмещенная оценка дисперсии может не быть S ^ 2_ {n-1}.

Гауссово распределение

В следующей таблице приведены несколько оценок истинных параметров популяции, μ и σ.2, для гауссова случая.[8]

Истинное значение Оценщик Среднеквадратичная ошибка
{ displaystyle theta = mu} hat { theta} = несмещенная оценка Средняя численность населения, overline {X} = frac {1} {n} sum_ {i = 1} ^ n (X_i) operatorname {MSE} ( overline {X}) = operatorname {E} (( overline {X} - mu) ^ 2) = left ( frac { sigma} { sqrt {n}} справа) ^ 2
{ Displaystyle theta = sigma ^ {2}} hat { theta} = несмещенная оценка дисперсия населения, S ^ 2_ {n-1} = frac {1} {n-1} sum_ {i = 1} ^ n left (X_i- overline {X} , right) ^ 2 operatorname {MSE} (S ^ 2_ {n-1}) = operatorname {E} ((S ^ 2_ {n-1} - sigma ^ 2) ^ 2) = frac {2} {n - 1 } sigma ^ 4
{ Displaystyle theta = sigma ^ {2}} hat { theta} = смещенная оценка дисперсия населения, S ^ 2_ {n} = frac {1} {n} sum_ {i = 1} ^ n left (X_i- overline {X} , right) ^ 2 operatorname {MSE} (S ^ 2_ {n}) = operatorname {E} ((S ^ 2_ {n} - sigma ^ 2) ^ 2) = frac {2n - 1} {n ^ 2} сигма ^ 4
{ Displaystyle theta = sigma ^ {2}} hat { theta} = смещенная оценка дисперсия населения, S ^ 2_ {n + 1} = frac {1} {n + 1} sum_ {i = 1} ^ n left (X_i- overline {X} , right) ^ 2 operatorname {MSE} (S ^ 2_ {n + 1}) = operatorname {E} ((S ^ 2_ {n + 1} - sigma ^ 2) ^ 2) = frac {2} {n + 1 } sigma ^ 4

Интерпретация

MSE равна нулю, что означает, что оценщик hat { theta} предсказывает наблюдения параметра theta с идеальной точностью идеален (но обычно невозможен).

Значения MSE могут использоваться для сравнительных целей. Два и более статистические модели можно сравнить, используя их MSE — как меру того, насколько хорошо они объясняют данный набор наблюдений: несмещенная оценка (рассчитанная на основе статистической модели) с наименьшей дисперсией среди всех несмещенных оценок — это оценка лучший объективный оценщик или MVUE (несмещенная оценка минимальной дисперсии).

Обе линейная регрессия методы, такие как дисперсионный анализ оценить MSE как часть анализа и использовать оценочную MSE для определения Статистическая значимость изучаемых факторов или предикторов. Цель экспериментальная конструкция состоит в том, чтобы построить эксперименты таким образом, чтобы при анализе наблюдений MSE была близка к нулю относительно величины по крайней мере одного из оцененных эффектов лечения.

В односторонний дисперсионный анализ, MSE можно вычислить путем деления суммы квадратов ошибок и степени свободы. Кроме того, значение f — это отношение среднего квадрата обработки и MSE.

MSE также используется в нескольких пошаговая регрессия методы как часть определения того, сколько предикторов из набора кандидатов включить в модель для данного набора наблюдений.

Приложения

  • Минимизация MSE является ключевым критерием при выборе оценщиков: см. минимальная среднеквадратичная ошибка. Среди несмещенных оценщиков минимизация MSE эквивалентна минимизации дисперсии, а оценщик, который делает это, является несмещенная оценка минимальной дисперсии. Однако смещенная оценка может иметь более низкую MSE; видеть систематическая ошибка оценки.
  • В статистическое моделирование MSE может представлять разницу между фактическими наблюдениями и значениями наблюдений, предсказанными моделью. В этом контексте он используется для определения степени, в которой модель соответствует данным, а также возможности удаления некоторых объясняющих переменных без значительного ущерба для прогнозирующей способности модели.
  • В прогнозирование и прогноз, то Оценка Бриера это мера умение прогнозировать на основе MSE.

Функция потерь

Квадратичная потеря ошибок — одна из наиболее широко используемых функции потерь в статистике[нужна цитата ], хотя его широкое использование проистекает больше из математического удобства, чем из соображений реальных потерь в приложениях. Карл Фридрих Гаусс, который ввел использование среднеквадратичной ошибки, сознавал ее произвол и был согласен с возражениями против нее на этих основаниях.[3] Математические преимущества среднеквадратичной ошибки особенно очевидны при ее использовании при анализе производительности линейная регрессия, поскольку он позволяет разделить вариацию в наборе данных на вариации, объясняемые моделью, и вариации, объясняемые случайностью.

Критика

Использование среднеквадратичной ошибки без вопросов подвергалось критике со стороны теоретик решений Джеймс Бергер. Среднеквадратичная ошибка — это отрицательное значение ожидаемого значения одного конкретного вспомогательная функция, квадратичная функция полезности, которая может не подходить для использования в данном наборе обстоятельств. Однако есть некоторые сценарии, в которых среднеквадратичная ошибка может служить хорошим приближением к функции потерь, естественным образом возникающей в приложении.[9]

подобно отклонение, среднеквадратичная ошибка имеет тот недостаток, что выбросы.[10] Это результат возведения в квадрат каждого члена, который фактически дает больший вес большим ошибкам, чем малым. Это свойство, нежелательное для многих приложений, заставило исследователей использовать альтернативы, такие как средняя абсолютная ошибка, или основанные на медиана.

Смотрите также

  • Компромисс смещения и дисперсии
  • Оценщик Ходжеса
  • Оценка Джеймса – Стейна
  • Средняя процентная ошибка
  • Среднеквадратичная ошибка квантования
  • Среднеквадратичное взвешенное отклонение
  • Среднеквадратичное смещение
  • Среднеквадратичная ошибка прогноза
  • Минимальная среднеквадратичная ошибка
  • Оценщик минимальной среднеквадратичной ошибки
  • Пиковое отношение сигнал / шум

Примечания

  1. ^ Это может быть доказано Неравенство Дженсена следующим образом. Четвертый центральный момент является верхней границей квадрата дисперсии, так что наименьшее значение для их отношения равно единице, следовательно, наименьшее значение для избыточный эксцесс равно −2, что достигается, например, Бернулли с п=1/2.

Рекомендации

  1. ^ а б «Список вероятностных и статистических символов». Математическое хранилище. 2020-04-26. Получено 2020-09-12.
  2. ^ а б «Среднеквадратичная ошибка (MSE)». www.probabilitycourse.com. Получено 2020-09-12.
  3. ^ а б Lehmann, E. L .; Казелла, Джордж (1998). Теория точечного оценивания (2-е изд.). Нью-Йорк: Спрингер. ISBN  978-0-387-98502-2. Г-Н  1639875.
  4. ^ Вакерли, Деннис; Менденхолл, Уильям; Шеаффер, Ричард Л. (2008). Математическая статистика с приложениями (7-е изд.). Белмонт, Калифорния, США: Высшее образование Томсона. ISBN  978-0-495-38508-0.
  5. ^ Современное введение в вероятность и статистику: понимание, почему и как. Деккинг, Мишель, 1946-. Лондон: Спрингер. 2005 г. ISBN  978-1-85233-896-1. OCLC  262680588.CS1 maint: другие (ссылка на сайт)
  6. ^ Стил, Р.Г.Д., и Торри, Дж. Х., Принципы и процедуры статистики с особым акцентом на биологические науки., Макгроу Хилл, 1960, стр.288.
  7. ^ Настроение, А .; Graybill, F .; Боэс, Д. (1974). Введение в теорию статистики (3-е изд.). Макгроу-Хилл. п.229.
  8. ^ ДеГрут, Моррис Х. (1980). вероятность и статистика (2-е изд.). Эддисон-Уэсли.
  9. ^ Бергер, Джеймс О. (1985). «2.4.2 Некоторые стандартные функции потерь». Статистическая теория принятия решений и байесовский анализ (2-е изд.). Нью-Йорк: Springer-Verlag. п.60. ISBN  978-0-387-96098-2. Г-Н  0804611.
  10. ^ Бермехо, Серхио; Кабестани, Джоан (2001). «Ориентированный анализ главных компонентов для классификаторов с большой маржой». Нейронные сети. 14 (10): 1447–1461. Дои:10.1016 / S0893-6080 (01) 00106-X. PMID  11771723.

Привет, Вы узнаете про вероятное срединное отклонение, Разберем основные ее виды и особенности использования. Еще будет много подробных примеров и описаний. Для того чтобы лучше понимать что такое
вероятное срединное отклонение , настоятельно рекомендую прочитать все из категории Теория вероятностей. Математическая статистика и Стохастический анализ .

В ряде областей практических применений теории вероятностей (в частности, в теории стрельбы) часто, наряду со средним квадратическим отклонением, пользуются еще одной характеристикой рассеивания, так называемым вероятным, или срединным, отклонением. Вероятное отклонение обычно обозначается буквой 6.4. Вероятное (срединное) отклонение (иногда В).

Вероятным (срединным) отклонением случайной величины 6.4. Вероятное (срединное) отклонение, распределенной по нормальному закону, называется половина длины участка, симметричного относительно центра рассеивания, вероятность попадания в который равна половине.

Геометрическая интерпретация вероятного отклонения показана на рис. 6.4.1. Вероятное отклонение 6.4. Вероятное (срединное) отклонение – это половина длины участка оси абсцисс, симметричного относительно точки 6.4. Вероятное (срединное) отклонение, на который опирается половина площади кривой распределения.

6.4. Вероятное (срединное) отклонение

Рис. 6.4.1.

Поясним смысл термина «срединное отклонение» или «срединная ошибка», которым часто пользуются в артиллерийской практике вместо «вероятного отклонения».

Рассмотрим случайную величину 6.4. Вероятное (срединное) отклонение, распределенную по нормальному закону. Вероятность того, что она отклонится от центра рассеивания  6.4. Вероятное (срединное) отклонение меньше, чем на 6.4. Вероятное (срединное) отклонение, по определению вероятного отклонения 6.4. Вероятное (срединное) отклонение, равна 6.4. Вероятное (срединное) отклонение:

6.4. Вероятное (срединное) отклонение.            (6.4.1)

Вероятность того, что она отклонится от 6.4. Вероятное (срединное) отклонение больше, чем на 6.4. Вероятное (срединное) отклонение, тоже равна 6.4. Вероятное (срединное) отклонение:

6.4. Вероятное (срединное) отклонение.

Таким образом, при большом числе опытов в среднем половина значений случайной величины 6.4. Вероятное (срединное) отклонение отклонится от 6.4. Вероятное (срединное) отклонение больше, чем на 6.4. Вероятное (срединное) отклонение, а половина – меньше . Об этом говорит сайт https://intellect.icu . Отсюда и термин «срединная ошибка», «срединное отклонение».

Очевидно, вероятное отклонение, как характеристика рассеивания, должно находиться в прямой зависимости от среднего квадратического отклонения 6.4. Вероятное (срединное) отклонение. Вычислим вероятность события 6.4. Вероятное (срединное) отклонение в уравнении (6.4.1) по формуле (6.3.10). Имеем:

6.4. Вероятное (срединное) отклонение.

Отсюда

6.4. Вероятное (срединное) отклонение.          (6.4.2)

По таблицам функции 6.4. Вероятное (срединное) отклонение можно найти такое значение аргумента 6.4. Вероятное (срединное) отклонение, при котором она равна 0,75. Это значение приближенно равно 0,674;  отсюда

6.4. Вероятное (срединное) отклонение;          6.4. Вероятное (срединное) отклонение.              (6.4.3)

Таким образом, зная значение 6.4. Вероятное (срединное) отклонение, можно сразу найти пропорциональное ему значение 6.4. Вероятное (срединное) отклонение. Часто пользуются еще такой формой записи этой зависимости:

6.4. Вероятное (срединное) отклонение,              (6.4.4)

где 6.4. Вероятное (срединное) отклонение — такое значение аргумента, при котором одна из форм интеграла вероятностей – так называемая функция Лапласа

6.4. Вероятное (срединное) отклонение

— равна половине. Численное значение величины 6.4. Вероятное (срединное) отклонение приближенно равно 0,477.

В настоящее время вероятное отклонение, как характеристика рассеивания, все больше вытесняется более универсальной характеристикой 6.4. Вероятное (срединное) отклонение. В ряде областей приложений теории вероятностей она сохраняется лишь по традиции.

Если в качестве характеристики рассеивания принято вероятное отклонение 6.4. Вероятное (срединное) отклонение, то плотность нормального распределения записывается в виде:

6.4. Вероятное (срединное) отклонение,          (6.4.5)

а вероятность попадания на участок от 6.4. Вероятное (срединное) отклонение до 6.4. Вероятное (срединное) отклонение чаще всего записывается в виде:

6.4. Вероятное (срединное) отклонение,              (6.4.6)

где

6.4. Вероятное (срединное) отклонение         (6.4.7)

— так называемая приведенная функция Лапласа.

Сделаем подсчет, аналогичный выполненному в предыдущем n° для среднего квадратического отклонения 6.4. Вероятное (срединное) отклонение: отложим от центра рассеивания  6.4. Вероятное (срединное) отклонение последовательные отрезки длиной в одно вероятное отклонение 6.4. Вероятное (срединное) отклонение (рис. 6.4.2) и подсчитаем вероятности попадания в эти отрезки с точностью до 0,01. Получим:

6.4. Вероятное (срединное) отклонение

6.4. Вероятное (срединное) отклонение

Рис. 6.4.2.

Отсюда видно, что с точностью до 0,01 все значения нормально распределенной случайной величины укладываются на участке 6.4. Вероятное (срединное) отклонение.

Пример. Самолет-штурмовик производит обстрел  колонны войск противника, ширина которой равна 8 м. Полет – вдоль колонны; вследствие скольжения имеется систематическая ошибка: 2 м вправо по направлению полета. Главные вероятные отклонения: по направлению полета 6.4. Вероятное (срединное) отклонение м, в боковом направлении 6.4. Вероятное (срединное) отклонением. Не имея в своем распоряжении никаких таблиц интегралов вероятностей, а зная только числа:

25%, 16%, 7%, 2%,

оценить грубо-приближенно вероятность попадания в колонну при одном выстреле и вероятность хотя бы одного попадания при трех независимых выстрелах.

Решение. Для решения задачи достаточно рассмотреть одну координату точки попадания – абсциссу 6.4. Вероятное (срединное) отклонение в направлении, перпендикулярном колонне. Эта абсцисса распределена по нормальному закону с центром рассеивания 6.4. Вероятное (срединное) отклонение и вероятным отклонением  6.4. Вероятное (срединное) отклонение(м). Отложим мысленно от центра рассеивания в ту и другую сторону отрезки длиной в 5 м. Вправо от центра рассеивания цель занимает участок 2 м, который составляет 0,4 вероятного отклонения. Вероятность попадания на этот участок приближенно равна:

6.4. Вероятное (срединное) отклонение.

Влево от центра рассеивания цель занимает участок 6 м. Это – целое вероятное отклонение (5 м), вероятность попадания в которое равна 25% плюс часть длиной 1 м следующего (второго от центра) вероятного отклонения, вероятность попадания в которое равна 16%. Вероятность попадания в часть длиной 1 м приближенно равна:

6.4. Вероятное (срединное) отклонение.

Таким образом, вероятность попадания в колонну приближенно равна:

6.4. Вероятное (срединное) отклонение.

Вероятность хотя бы одного попадания при трех выстрелах равна:

6.4. Вероятное (срединное) отклонение

Надеюсь, эта статья про вероятное срединное отклонение, была вам полезна,счастья и удачи в ваших начинаниях! Надеюсь, что теперь ты понял что такое вероятное срединное отклонение
и для чего все это нужно, а если не понял, или есть замечания,
то нестесняся пиши или спрашивай в комментариях, с удовольствием отвечу. Для того чтобы глубже понять настоятельно рекомендую изучить всю информацию из категории
Теория вероятностей. Математическая статистика и Стохастический анализ

Из статьи мы узнали кратко, но емко про вероятное срединное отклонение

RMSE

  1. Среднеквадратичная ошибка, среднеквадратичная ошибка
  2. Это квадратный корень из отношения суммы квадратов отклонения между значением наблюдения и истинным значением к количеству m наблюдений.
  3. Он используется для измерения отклонения между наблюдаемым значением и истинным значением.

MAE

  1. Средняя абсолютная ошибка, средняя абсолютная ошибка
  2. Среднее значение абсолютных ошибок
  3. Он может лучше отражать реальную ситуацию с ошибкой предсказанного значения.

Стандартное отклонение

  1. Стандартное отклонение, стандартное отклонение
  2. Квадратный корень из дисперсии
  3. Используется для измерения степени разброса набора чисел

Сравнение RMSE и стандартного отклонения:

Стандартное отклонение используется для измерения степени разброса набора чисел, а среднеквадратичная ошибка используется для измерения отклонения между наблюдаемым значением и истинным значением. Их объекты исследования и исследовательские цели различны, но процесс расчета аналогичен.

Сравнение RMSE и MAE:

RMSE эквивалентно норме L2, а MAE эквивалентно норме L1. Чем больше число раз, тем больше результат вычисления связан с большим значением, в то время как меньшее значение игнорируется, поэтому RMSE более чувствителен к выбросам (то есть, если есть прогнозируемое значение, которое сильно отличается от истинного значения, то RMSE Будет огромно).

В
войсковой практике используют критерий
точности, называемый вероятная
ошибка
. За
вероятную
ошибку

принимают модуль такого значения r
отклонения
,
которое ограничивает симметричную
область под кривой нормальной функции
плотности вероятности, равную0.5.
По этому значению вероятности из

находим значение нормированного
отклонения
t
(
).
Оно составит.
Отсюда
,
(5.15)

где
S
вычисляется согласно (5.?) или
согласно
(5.12). Таким образом, при нормальном
распределении вероятность уклонения
в пределах r
на
ниже, а значениеr
на
меньше с.к.о.

На
практике вероятное отклонение находят
без вычислений путем ранжирования ряда
модулей отклонений в порядке возрастания
или убывания значений. Среднее в ряду
отклонений от среднего будет близко к
r.
Найденную путем ранжирования оценку
называют
срединной ошибкой. Срединная ошибка

не зависит от закона распределения, не
реагирует на хвосты (асимметрию) и
эксцесс, т.е. робастна.

Сделать
сводную табл оценок

5.3.2. Относительные отклонения

До
Относительное отклонение определяют
по соответствующему абсолютному. Пусть
x
измеренное значение величины X.
Тогда

S/x
= 1/N
1
среднее квадратическое относительное
отклонение,

/x=
1/N
2
среднее относительное отклонение,

r/x=
1/N
3
вероятное относительное отклонение,

/x=
1/N
4
истинное относительное отклонение.

Относительные
отклонения используют для характеристик
точности тогда, когда существует
линейная зависимость значения абсолютной
характеристики отклонения от размера
измеряемой величины, например, для
характеристики точности измерения
длины отрезка. Измерения, характеризующиеся
относительными отклонениями менее
0.001 (0.1%),

называют точными.
Примеры измерений: продольный параллакс
точное
p=68.350 0.025,
относительное отклонение 25/68350=3/10000;
поперечный параллакс неточное
— q= 5.003
0.025, относительное отклонение
25/5003=5/1000, показывают, что относительное
отклонение есть эффективная характеристика
степени точности измерений.

5.4. Оценка точности определения значения ско (сао)

Надежной
оценкой точности определения СКО при
нормальном распределении наблюдений
служит доверительный интервал вычисленного
значения оценки СКО, найденный по
распределению 2,
как показано в предыдущей главе (ссылка).
На практике важно хотя бы приближенно
оценить, насколько реальное значение
СКО может быть
больше

вычисленного (в пределах правой граница
доверительного интервала). Для приближенной
оценки используют простой подход, а
именно вычисляют СКО определения оценки
СКО -«ошибку ошибки» по формулам,
полученным Хелмертом [ ] для значения
СКО S, вычисленного по данным
n
наблюдений,

;
(5.17)

для
значения САО ,
вычисленного по данным n
наблюдений,

.
(5.18)

Отсюда
очевидно, что при малом числе наблюдений
ошибка оценки СКО будет весьма большой.

Например,
измерены две линии равной длины: первая
девятью, а вторая шестнадцатью приемами.
Получены СКО для первой линии S=2.83мм,
а для второй S=3.01мм.
С учетом «ошибки ошибки» получаем
максимальные значения S
для первой линии S=2.83мм+
0.67мм = 3.50мм
,
а для второй S=3.01мм+0.53=
3.54мм.
Вывод: эти оценки практически равнозначны.

Формулы
Хелмерта получены для нормальных
измерений. Но существует много видов
измерений, следующих другим распределениям.
Оценкой точности определения дисперсии,
робустной к закону распределения,
служит, например, величина (Смирнов
и Дунин-Барковский с.320
),
вычисляемая по эксцессу выборки,

(5.19)

где

-оценка четвертого центрального момента
(эксцесса), S2
оценка дисперсии, n
-объем выборки. Отсюда приближенно при
объеме выборки большем 20 точность
оценки СКО (
Крамер, Мат методы статистики с.387)

проверить
(5.20)

Подставляя
сюда выражение для оценки эксцесса E
(3. ), получаем

(5.21)

Так
как для нормального распределения
коэффициент эксцесса Е=0,
то формула Хелмерта есть частный случай
выражения (5.21). Из (5.21) получаем
относительную СКО оценки S:

(5.22)

Это
интересный результат, ибо (5.22) показывает,
что относительная
ошибка определения СКО зависит только
от объема однородной выборки и эксцесса
ее распределения. Точность измерений
(дисперсия) влияет только через оценку
Е.
!

Соседние файлы в папке Коршунов

  • #
  • #
  • #
  • #
  • #
  • #
  • #
  • #
  • #

From Wikipedia, the free encyclopedia

In statistics, the mean squared error (MSE)[1] or mean squared deviation (MSD) of an estimator (of a procedure for estimating an unobserved quantity) measures the average of the squares of the errors—that is, the average squared difference between the estimated values and the actual value. MSE is a risk function, corresponding to the expected value of the squared error loss.[2] The fact that MSE is almost always strictly positive (and not zero) is because of randomness or because the estimator does not account for information that could produce a more accurate estimate.[3] In machine learning, specifically empirical risk minimization, MSE may refer to the empirical risk (the average loss on an observed data set), as an estimate of the true MSE (the true risk: the average loss on the actual population distribution).

The MSE is a measure of the quality of an estimator. As it is derived from the square of Euclidean distance, it is always a positive value that decreases as the error approaches zero.

The MSE is the second moment (about the origin) of the error, and thus incorporates both the variance of the estimator (how widely spread the estimates are from one data sample to another) and its bias (how far off the average estimated value is from the true value).[citation needed] For an unbiased estimator, the MSE is the variance of the estimator. Like the variance, MSE has the same units of measurement as the square of the quantity being estimated. In an analogy to standard deviation, taking the square root of MSE yields the root-mean-square error or root-mean-square deviation (RMSE or RMSD), which has the same units as the quantity being estimated; for an unbiased estimator, the RMSE is the square root of the variance, known as the standard error.

Definition and basic properties[edit]

The MSE either assesses the quality of a predictor (i.e., a function mapping arbitrary inputs to a sample of values of some random variable), or of an estimator (i.e., a mathematical function mapping a sample of data to an estimate of a parameter of the population from which the data is sampled). The definition of an MSE differs according to whether one is describing a predictor or an estimator.

Predictor[edit]

If a vector of n predictions is generated from a sample of n data points on all variables, and Y is the vector of observed values of the variable being predicted, with hat{Y} being the predicted values (e.g. as from a least-squares fit), then the within-sample MSE of the predictor is computed as

{displaystyle operatorname {MSE} ={frac {1}{n}}sum _{i=1}^{n}left(Y_{i}-{hat {Y_{i}}}right)^{2}.}

In other words, the MSE is the mean {textstyle left({frac {1}{n}}sum _{i=1}^{n}right)} of the squares of the errors {textstyle left(Y_{i}-{hat {Y_{i}}}right)^{2}}. This is an easily computable quantity for a particular sample (and hence is sample-dependent).

In matrix notation,

{displaystyle operatorname {MSE} ={frac {1}{n}}sum _{i=1}^{n}(e_{i})^{2}={frac {1}{n}}mathbf {e} ^{mathsf {T}}mathbf {e} }

where e_{i} is {displaystyle (Y_{i}-{hat {Y_{i}}})} and {displaystyle mathbf {e} } is the {displaystyle ntimes 1} column vector.

The MSE can also be computed on q data points that were not used in estimating the model, either because they were held back for this purpose, or because these data have been newly obtained. Within this process, known as statistical learning, the MSE is often called the test MSE,[4] and is computed as

{displaystyle operatorname {MSE} ={frac {1}{q}}sum _{i=n+1}^{n+q}left(Y_{i}-{hat {Y_{i}}}right)^{2}.}

Estimator[edit]

The MSE of an estimator hat{theta} with respect to an unknown parameter theta is defined as[1]

{displaystyle operatorname {MSE} ({hat {theta }})=operatorname {E} _{theta }left[({hat {theta }}-theta )^{2}right].}

This definition depends on the unknown parameter, but the MSE is a priori a property of an estimator. The MSE could be a function of unknown parameters, in which case any estimator of the MSE based on estimates of these parameters would be a function of the data (and thus a random variable). If the estimator hat{theta} is derived as a sample statistic and is used to estimate some population parameter, then the expectation is with respect to the sampling distribution of the sample statistic.

The MSE can be written as the sum of the variance of the estimator and the squared bias of the estimator, providing a useful way to calculate the MSE and implying that in the case of unbiased estimators, the MSE and variance are equivalent.[5]

{displaystyle operatorname {MSE} ({hat {theta }})=operatorname {Var} _{theta }({hat {theta }})+operatorname {Bias} ({hat {theta }},theta )^{2}.}

Proof of variance and bias relationship[edit]

{displaystyle {begin{aligned}operatorname {MSE} ({hat {theta }})&=operatorname {E} _{theta }left[({hat {theta }}-theta )^{2}right]\&=operatorname {E} _{theta }left[left({hat {theta }}-operatorname {E} _{theta }[{hat {theta }}]+operatorname {E} _{theta }[{hat {theta }}]-theta right)^{2}right]\&=operatorname {E} _{theta }left[left({hat {theta }}-operatorname {E} _{theta }[{hat {theta }}]right)^{2}+2left({hat {theta }}-operatorname {E} _{theta }[{hat {theta }}]right)left(operatorname {E} _{theta }[{hat {theta }}]-theta right)+left(operatorname {E} _{theta }[{hat {theta }}]-theta right)^{2}right]\&=operatorname {E} _{theta }left[left({hat {theta }}-operatorname {E} _{theta }[{hat {theta }}]right)^{2}right]+operatorname {E} _{theta }left[2left({hat {theta }}-operatorname {E} _{theta }[{hat {theta }}]right)left(operatorname {E} _{theta }[{hat {theta }}]-theta right)right]+operatorname {E} _{theta }left[left(operatorname {E} _{theta }[{hat {theta }}]-theta right)^{2}right]\&=operatorname {E} _{theta }left[left({hat {theta }}-operatorname {E} _{theta }[{hat {theta }}]right)^{2}right]+2left(operatorname {E} _{theta }[{hat {theta }}]-theta right)operatorname {E} _{theta }left[{hat {theta }}-operatorname {E} _{theta }[{hat {theta }}]right]+left(operatorname {E} _{theta }[{hat {theta }}]-theta right)^{2}&&operatorname {E} _{theta }[{hat {theta }}]-theta ={text{const.}}\&=operatorname {E} _{theta }left[left({hat {theta }}-operatorname {E} _{theta }[{hat {theta }}]right)^{2}right]+2left(operatorname {E} _{theta }[{hat {theta }}]-theta right)left(operatorname {E} _{theta }[{hat {theta }}]-operatorname {E} _{theta }[{hat {theta }}]right)+left(operatorname {E} _{theta }[{hat {theta }}]-theta right)^{2}&&operatorname {E} _{theta }[{hat {theta }}]={text{const.}}\&=operatorname {E} _{theta }left[left({hat {theta }}-operatorname {E} _{theta }[{hat {theta }}]right)^{2}right]+left(operatorname {E} _{theta }[{hat {theta }}]-theta right)^{2}\&=operatorname {Var} _{theta }({hat {theta }})+operatorname {Bias} _{theta }({hat {theta }},theta )^{2}end{aligned}}}

An even shorter proof can be achieved using the well-known formula that for a random variable {textstyle X}, {textstyle mathbb {E} (X^{2})=operatorname {Var} (X)+(mathbb {E} (X))^{2}}. By substituting {textstyle X} with, {textstyle {hat {theta }}-theta }, we have

{displaystyle {begin{aligned}operatorname {MSE} ({hat {theta }})&=mathbb {E} [({hat {theta }}-theta )^{2}]\&=operatorname {Var} ({hat {theta }}-theta )+(mathbb {E} [{hat {theta }}-theta ])^{2}\&=operatorname {Var} ({hat {theta }})+operatorname {Bias} ^{2}({hat {theta }})end{aligned}}}

But in real modeling case, MSE could be described as the addition of model variance, model bias, and irreducible uncertainty (see Bias–variance tradeoff). According to the relationship, the MSE of the estimators could be simply used for the efficiency comparison, which includes the information of estimator variance and bias. This is called MSE criterion.

In regression[edit]

In regression analysis, plotting is a more natural way to view the overall trend of the whole data. The mean of the distance from each point to the predicted regression model can be calculated, and shown as the mean squared error. The squaring is critical to reduce the complexity with negative signs. To minimize MSE, the model could be more accurate, which would mean the model is closer to actual data. One example of a linear regression using this method is the least squares method—which evaluates appropriateness of linear regression model to model bivariate dataset,[6] but whose limitation is related to known distribution of the data.

The term mean squared error is sometimes used to refer to the unbiased estimate of error variance: the residual sum of squares divided by the number of degrees of freedom. This definition for a known, computed quantity differs from the above definition for the computed MSE of a predictor, in that a different denominator is used. The denominator is the sample size reduced by the number of model parameters estimated from the same data, (np) for p regressors or (np−1) if an intercept is used (see errors and residuals in statistics for more details).[7] Although the MSE (as defined in this article) is not an unbiased estimator of the error variance, it is consistent, given the consistency of the predictor.

In regression analysis, «mean squared error», often referred to as mean squared prediction error or «out-of-sample mean squared error», can also refer to the mean value of the squared deviations of the predictions from the true values, over an out-of-sample test space, generated by a model estimated over a particular sample space. This also is a known, computed quantity, and it varies by sample and by out-of-sample test space.

Examples[edit]

Mean[edit]

Suppose we have a random sample of size n from a population, X_{1},dots ,X_{n}. Suppose the sample units were chosen with replacement. That is, the n units are selected one at a time, and previously selected units are still eligible for selection for all n draws. The usual estimator for the mu is the sample average

overline{X}=frac{1}{n}sum_{i=1}^n X_i

which has an expected value equal to the true mean mu (so it is unbiased) and a mean squared error of

{displaystyle operatorname {MSE} left({overline {X}}right)=operatorname {E} left[left({overline {X}}-mu right)^{2}right]=left({frac {sigma }{sqrt {n}}}right)^{2}={frac {sigma ^{2}}{n}}}

where sigma ^{2} is the population variance.

For a Gaussian distribution, this is the best unbiased estimator (i.e., one with the lowest MSE among all unbiased estimators), but not, say, for a uniform distribution.

Variance[edit]

The usual estimator for the variance is the corrected sample variance:

{displaystyle S_{n-1}^{2}={frac {1}{n-1}}sum _{i=1}^{n}left(X_{i}-{overline {X}}right)^{2}={frac {1}{n-1}}left(sum _{i=1}^{n}X_{i}^{2}-n{overline {X}}^{2}right).}

This is unbiased (its expected value is sigma ^{2}), hence also called the unbiased sample variance, and its MSE is[8]

{displaystyle operatorname {MSE} (S_{n-1}^{2})={frac {1}{n}}left(mu _{4}-{frac {n-3}{n-1}}sigma ^{4}right)={frac {1}{n}}left(gamma _{2}+{frac {2n}{n-1}}right)sigma ^{4},}

where mu _{4} is the fourth central moment of the distribution or population, and gamma_2=mu_4/sigma^4-3 is the excess kurtosis.

However, one can use other estimators for sigma ^{2} which are proportional to S^2_{n-1}, and an appropriate choice can always give a lower mean squared error. If we define

{displaystyle S_{a}^{2}={frac {n-1}{a}}S_{n-1}^{2}={frac {1}{a}}sum _{i=1}^{n}left(X_{i}-{overline {X}},right)^{2}}

then we calculate:

{displaystyle {begin{aligned}operatorname {MSE} (S_{a}^{2})&=operatorname {E} left[left({frac {n-1}{a}}S_{n-1}^{2}-sigma ^{2}right)^{2}right]\&=operatorname {E} left[{frac {(n-1)^{2}}{a^{2}}}S_{n-1}^{4}-2left({frac {n-1}{a}}S_{n-1}^{2}right)sigma ^{2}+sigma ^{4}right]\&={frac {(n-1)^{2}}{a^{2}}}operatorname {E} left[S_{n-1}^{4}right]-2left({frac {n-1}{a}}right)operatorname {E} left[S_{n-1}^{2}right]sigma ^{2}+sigma ^{4}\&={frac {(n-1)^{2}}{a^{2}}}operatorname {E} left[S_{n-1}^{4}right]-2left({frac {n-1}{a}}right)sigma ^{4}+sigma ^{4}&&operatorname {E} left[S_{n-1}^{2}right]=sigma ^{2}\&={frac {(n-1)^{2}}{a^{2}}}left({frac {gamma _{2}}{n}}+{frac {n+1}{n-1}}right)sigma ^{4}-2left({frac {n-1}{a}}right)sigma ^{4}+sigma ^{4}&&operatorname {E} left[S_{n-1}^{4}right]=operatorname {MSE} (S_{n-1}^{2})+sigma ^{4}\&={frac {n-1}{na^{2}}}left((n-1)gamma _{2}+n^{2}+nright)sigma ^{4}-2left({frac {n-1}{a}}right)sigma ^{4}+sigma ^{4}end{aligned}}}

This is minimized when

a=frac{(n-1)gamma_2+n^2+n}{n} = n+1+frac{n-1}{n}gamma_2.

For a Gaussian distribution, where gamma_2=0, this means that the MSE is minimized when dividing the sum by a=n+1. The minimum excess kurtosis is gamma_2=-2,[a] which is achieved by a Bernoulli distribution with p = 1/2 (a coin flip), and the MSE is minimized for {displaystyle a=n-1+{tfrac {2}{n}}.} Hence regardless of the kurtosis, we get a «better» estimate (in the sense of having a lower MSE) by scaling down the unbiased estimator a little bit; this is a simple example of a shrinkage estimator: one «shrinks» the estimator towards zero (scales down the unbiased estimator).

Further, while the corrected sample variance is the best unbiased estimator (minimum mean squared error among unbiased estimators) of variance for Gaussian distributions, if the distribution is not Gaussian, then even among unbiased estimators, the best unbiased estimator of the variance may not be S^2_{n-1}.

Gaussian distribution[edit]

The following table gives several estimators of the true parameters of the population, μ and σ2, for the Gaussian case.[9]

True value Estimator Mean squared error
{displaystyle theta =mu } hat{theta} = the unbiased estimator of the population mean, overline{X}=frac{1}{n}sum_{i=1}^n(X_i) operatorname{MSE}(overline{X})=operatorname{E}((overline{X}-mu)^2)=left(frac{sigma}{sqrt{n}}right)^2
{displaystyle theta =sigma ^{2}} hat{theta} = the unbiased estimator of the population variance, S^2_{n-1} = frac{1}{n-1}sum_{i=1}^nleft(X_i-overline{X},right)^2 operatorname{MSE}(S^2_{n-1})=operatorname{E}((S^2_{n-1}-sigma^2)^2)=frac{2}{n - 1}sigma^4
{displaystyle theta =sigma ^{2}} hat{theta} = the biased estimator of the population variance, S^2_{n} = frac{1}{n}sum_{i=1}^nleft(X_i-overline{X},right)^2 operatorname{MSE}(S^2_{n})=operatorname{E}((S^2_{n}-sigma^2)^2)=frac{2n - 1}{n^2}sigma^4
{displaystyle theta =sigma ^{2}} hat{theta} = the biased estimator of the population variance, S^2_{n+1} = frac{1}{n+1}sum_{i=1}^nleft(X_i-overline{X},right)^2 operatorname{MSE}(S^2_{n+1})=operatorname{E}((S^2_{n+1}-sigma^2)^2)=frac{2}{n + 1}sigma^4

Interpretation[edit]

An MSE of zero, meaning that the estimator hat{theta} predicts observations of the parameter theta with perfect accuracy, is ideal (but typically not possible).

Values of MSE may be used for comparative purposes. Two or more statistical models may be compared using their MSEs—as a measure of how well they explain a given set of observations: An unbiased estimator (estimated from a statistical model) with the smallest variance among all unbiased estimators is the best unbiased estimator or MVUE (Minimum-Variance Unbiased Estimator).

Both analysis of variance and linear regression techniques estimate the MSE as part of the analysis and use the estimated MSE to determine the statistical significance of the factors or predictors under study. The goal of experimental design is to construct experiments in such a way that when the observations are analyzed, the MSE is close to zero relative to the magnitude of at least one of the estimated treatment effects.

In one-way analysis of variance, MSE can be calculated by the division of the sum of squared errors and the degree of freedom. Also, the f-value is the ratio of the mean squared treatment and the MSE.

MSE is also used in several stepwise regression techniques as part of the determination as to how many predictors from a candidate set to include in a model for a given set of observations.

Applications[edit]

  • Minimizing MSE is a key criterion in selecting estimators: see minimum mean-square error. Among unbiased estimators, minimizing the MSE is equivalent to minimizing the variance, and the estimator that does this is the minimum variance unbiased estimator. However, a biased estimator may have lower MSE; see estimator bias.
  • In statistical modelling the MSE can represent the difference between the actual observations and the observation values predicted by the model. In this context, it is used to determine the extent to which the model fits the data as well as whether removing some explanatory variables is possible without significantly harming the model’s predictive ability.
  • In forecasting and prediction, the Brier score is a measure of forecast skill based on MSE.

Loss function[edit]

Squared error loss is one of the most widely used loss functions in statistics[citation needed], though its widespread use stems more from mathematical convenience than considerations of actual loss in applications. Carl Friedrich Gauss, who introduced the use of mean squared error, was aware of its arbitrariness and was in agreement with objections to it on these grounds.[3] The mathematical benefits of mean squared error are particularly evident in its use at analyzing the performance of linear regression, as it allows one to partition the variation in a dataset into variation explained by the model and variation explained by randomness.

Criticism[edit]

The use of mean squared error without question has been criticized by the decision theorist James Berger. Mean squared error is the negative of the expected value of one specific utility function, the quadratic utility function, which may not be the appropriate utility function to use under a given set of circumstances. There are, however, some scenarios where mean squared error can serve as a good approximation to a loss function occurring naturally in an application.[10]

Like variance, mean squared error has the disadvantage of heavily weighting outliers.[11] This is a result of the squaring of each term, which effectively weights large errors more heavily than small ones. This property, undesirable in many applications, has led researchers to use alternatives such as the mean absolute error, or those based on the median.

See also[edit]

  • Bias–variance tradeoff
  • Hodges’ estimator
  • James–Stein estimator
  • Mean percentage error
  • Mean square quantization error
  • Mean square weighted deviation
  • Mean squared displacement
  • Mean squared prediction error
  • Minimum mean square error
  • Minimum mean squared error estimator
  • Overfitting
  • Peak signal-to-noise ratio

Notes[edit]

  1. ^ This can be proved by Jensen’s inequality as follows. The fourth central moment is an upper bound for the square of variance, so that the least value for their ratio is one, therefore, the least value for the excess kurtosis is −2, achieved, for instance, by a Bernoulli with p=1/2.

References[edit]

  1. ^ a b «Mean Squared Error (MSE)». www.probabilitycourse.com. Retrieved 2020-09-12.
  2. ^ Bickel, Peter J.; Doksum, Kjell A. (2015). Mathematical Statistics: Basic Ideas and Selected Topics. Vol. I (Second ed.). p. 20. If we use quadratic loss, our risk function is called the mean squared error (MSE) …
  3. ^ a b Lehmann, E. L.; Casella, George (1998). Theory of Point Estimation (2nd ed.). New York: Springer. ISBN 978-0-387-98502-2. MR 1639875.
  4. ^ Gareth, James; Witten, Daniela; Hastie, Trevor; Tibshirani, Rob (2021). An Introduction to Statistical Learning: with Applications in R. Springer. ISBN 978-1071614174.
  5. ^ Wackerly, Dennis; Mendenhall, William; Scheaffer, Richard L. (2008). Mathematical Statistics with Applications (7 ed.). Belmont, CA, USA: Thomson Higher Education. ISBN 978-0-495-38508-0.
  6. ^ A modern introduction to probability and statistics : understanding why and how. Dekking, Michel, 1946-. London: Springer. 2005. ISBN 978-1-85233-896-1. OCLC 262680588.{{cite book}}: CS1 maint: others (link)
  7. ^ Steel, R.G.D, and Torrie, J. H., Principles and Procedures of Statistics with Special Reference to the Biological Sciences., McGraw Hill, 1960, page 288.
  8. ^ Mood, A.; Graybill, F.; Boes, D. (1974). Introduction to the Theory of Statistics (3rd ed.). McGraw-Hill. p. 229.
  9. ^ DeGroot, Morris H. (1980). Probability and Statistics (2nd ed.). Addison-Wesley.
  10. ^ Berger, James O. (1985). «2.4.2 Certain Standard Loss Functions». Statistical Decision Theory and Bayesian Analysis (2nd ed.). New York: Springer-Verlag. p. 60. ISBN 978-0-387-96098-2. MR 0804611.
  11. ^ Bermejo, Sergio; Cabestany, Joan (2001). «Oriented principal component analysis for large margin classifiers». Neural Networks. 14 (10): 1447–1461. doi:10.1016/S0893-6080(01)00106-X. PMID 11771723.

Срединная ошибка

Cтраница 1

Срединная ошибка в определении дальности составляет 100& % от дальности; срединная ошибка в определении углового отклонения составляет е радиан. Ошибка нанесения точки А на карту подчинена нормальному круговому закону со срединным отклонением г; ошибка определения положения точки О также подчинена нормальному круговому закону со срединным отклонением R.
 [1]

Срединная ошибка измерения дальности радиолокатором равна 25 м, а систематическая ошибка отсутствует.
 [2]

Срединная ошибка определения величины скорости судна равна 2 м / сек, что составляет 10 % от его скорости, а срединная ошибка определения курса судна составляет 0 08 рад. Рассчитать единичный эллипс ошибок положения судна для момента времени t 1 мин.
 [3]

Срединная ошибка определения величины скорости судна равна 2 м / сек, что составляет 10 % от его скорости, а срединная ошибка определения курса судна составляет 0 08 рад.
 [4]

Определить срединную ошибку в g, если измерение длины маятника, произведенное со срединной ошибкой EL — 5 мм, дало L 5 м, а измеренный период колебаний маятника оказался равным 4 5 сек. Период колебаний маятника найден по длительности времени п 10 полных размахов, которое измеряется со срединной ошибкой Et Q l сек.
 [5]

Определить срединную ошибку в g, если измерение длины маятника, произведенное со срединной ошибкой EL 5 мм, дало Z, — 5 м, а измеренный период колебаний маятника оказался равным 4 5 сек.
 [6]

Измерительный прибор имеет срединную ошибку 40 м, систематические ошибки отсутствуют.
 [7]

Точность процесса взвешивания характеризуется срединной ошибкой в 0 02 г. Найти срединную ошибку в определении веса взвешиваемого тела.
 [8]

Заряд охотничьего пороха отвешивается на весах, имеющих срединную ошибку взвешивания 100 мг.
 [9]

Как изменится закон распределения координат точки К, если срединная ошибка измерения дальности МК уменьшится вдвое.
 [10]

Как изменится закон распределения координат точки К, если срединная ошибка измерения дальности МК уменьшится вдвое.
 [11]

Срединная ошибка в определении дальности составляет 100& % от дальности; срединная ошибка в определении углового отклонения составляет е радиан. Ошибка нанесения точки А на карту подчинена нормальному круговому закону со срединным отклонением г; ошибка определения положения точки О также подчинена нормальному круговому закону со срединным отклонением R.
 [12]

Точность процесса взвешивания характеризуется срединной ошибкой в 0 02 г. Найти срединную ошибку в определении веса взвешиваемого тела.
 [13]

Определить срединную ошибку в g, если измерение длины маятника, произведенное со срединной ошибкой EL — 5 мм, дало L 5 м, а измеренный период колебаний маятника оказался равным 4 5 сек. Период колебаний маятника найден по длительности времени п 10 полных размахов, которое измеряется со срединной ошибкой Et Q l сек.
 [14]

Определить срединную ошибку в g, если измерение длины маятника, произведенное со срединной ошибкой EL 5 мм, дало Z, — 5 м, а измеренный период колебаний маятника оказался равным 4 5 сек.
 [15]

Страницы:  

   1

   2

В статистика, то среднеквадратичная ошибка (MSE)[1][2] или среднеквадратическое отклонение (MSD) из оценщик (процедуры оценки ненаблюдаемой величины) измеряет средний квадратов ошибки — то есть средний квадрат разницы между оценочными и фактическими значениями. MSE — это функция риска, соответствующий ожидаемое значение квадрата ошибки потери. Тот факт, что MSE почти всегда строго положительный (а не нулевой), объясняется тем, что случайность или потому что оценщик не учитывает информацию это может дать более точную оценку.[3]

MSE — это мера качества оценки — она ​​всегда неотрицательна, а значения, близкие к нулю, лучше.

МСЭ — второй момент (о происхождении) ошибки и, таким образом, включает в себя как отклонение оценщика (насколько разбросаны оценки от одного образец данных другому) и его предвзятость (насколько далеко среднее оценочное значение от истинного значения). Для объективный оценщик, MSE — это дисперсия оценки. Как и дисперсия, MSE имеет те же единицы измерения, что и квадрат оцениваемой величины. По аналогии с стандартное отклонение, извлечение квадратного корня из MSE дает среднеквадратичную ошибку или среднеквадратичное отклонение (RMSE или RMSD), который имеет те же единицы, что и оцениваемое количество; для несмещенной оценки RMSE — это квадратный корень из отклонение, известный как стандартная ошибка.

Определение и основные свойства

MSE либо оценивает качество предсказатель (т.е. функция, отображающая произвольные входные данные в выборку значений некоторых случайная переменная ) или оценщик (т.е. математическая функция отображение образец данных для оценки параметр из численность населения из которого берутся данные). Определение MSE различается в зависимости от того, описывается ли предсказатель или оценщик.

Предсказатель

Если вектор п прогнозы генерируются из выборки п точки данных по всем переменным, и Y — вектор наблюдаемых значений прогнозируемой переменной, при этом  hat {Y} будучи предсказанными значениями (например, по методу наименьших квадратов), то MSE в пределах выборки предсказателя вычисляется как

{ displaystyle  operatorname {MSE} = { frac {1} {n}}  sum _ {i = 1} ^ {n} (Y_ {i} - { hat {Y_ {i}}}) ^ { 2}.}

Другими словами, MSE — это иметь в виду { displaystyle  left ({ frac {1} {n}}  sum _ {i = 1} ^ {n}  right)} из квадраты ошибок { displaystyle (Y_ {i} - { hat {Y_ {i}}}) ^ {2}}. Это легко вычисляемая величина для конкретного образца (и, следовательно, зависит от образца).

В матрица обозначение

{ displaystyle  operatorname {MSE} = { frac {1} {n}}  sum _ {i = 1} ^ {n} (e_ {i}) ^ {2} = { frac {1} {n }}  mathbf {e} ^ { mathsf {T}}  mathbf {e}}

куда e_ {i} является { displaystyle (Y_ {i} - { hat {Y_ {i}}})} и { displaystyle  mathbf {e}} это { Displaystyle п  раз 1} матрица.

MSE также можно вычислить на q точки данных, которые не использовались при оценке модели, либо потому, что они были задержаны для этой цели, либо потому, что эти данные были получены заново. В этом процессе (известном как перекрестная проверка ), MSE часто называют среднеквадратичная ошибка прогноза, и вычисляется как

{ displaystyle  operatorname {MSPE} = { frac {1} {q}}  sum _ {i = n + 1} ^ {n + q} (Y_ {i} - { hat {Y_ {i}} }) ^ {2}.}

Оценщик

MSE оценщика  hat { theta} по неизвестному параметру  theta определяется как[2]

{ displaystyle  operatorname {MSE} ({ hat { theta}}) =  operatorname {E} _ { theta}  left [({ hat { theta}} -  theta) ^ {2}  верно].}

Это определение зависит от неизвестного параметра, но MSE априори свойство оценщика. MSE может быть функцией неизвестных параметров, и в этом случае любой оценщик MSE на основе оценок этих параметров будет функцией данных (и, следовательно, случайной величиной). Если оценщик  hat { theta} выводится как статистика выборки и используется для оценки некоторого параметра совокупности, тогда ожидание относится к распределению выборки статистики выборки.

MSE можно записать как сумму отклонение оценщика и квадрата предвзятость оценщика, обеспечивая полезный способ вычисления MSE и подразумевая, что в случае несмещенных оценок MSE и дисперсия эквивалентны.[4]

{ displaystyle  operatorname {MSE} ({ hat { theta}}) =  operatorname {Var} _ { theta} ({ hat { theta}}) +  operatorname {Bias} ({ hat {  theta}},  theta) ^ {2}.}

Доказательство отношения дисперсии и предвзятости

{ displaystyle { begin {align}  operatorname {MSE} ({ hat { theta}}) & =  operatorname {E} _ { theta}  left [({ hat { theta}} -  theta) ^ {2}  right]  & =  operatorname {E} _ { theta}  left [ left ({ hat { theta}} -  operatorname {E} _ { theta} [{  hat { theta}}] +  operatorname {E} _ { theta} [{ hat { theta}}] -  theta  right) ^ {2}  right]  & =  operatorname {E } _ { theta}  left [ left ({ hat { theta}} -  operatorname {E} _ { theta} [{ hat { theta}}]  right) ^ {2} +2  left ({ hat { theta}} -  operatorname {E} _ { theta} [{ hat { theta}}]  right)  left ( operatorname {E} _ { theta} [{  hat { theta}}] -  theta  right) +  left ( operatorname {E} _ { theta} [{ hat { theta}}] -  theta  right) ^ {2}  right ]  & =  operatorname {E} _ { theta}  left [ left ({ hat { theta}} -  operatorname {E} _ { theta} [{ hat { theta}}]  right) ^ {2}  right] +  operatorname {E} _ { theta}  left [2  left ({ hat { theta}} -  operatorname {E} _ { theta} [{ шляпа { theta}}]  right)  left ( operatorname {E} _ { theta} [{ hat { theta}}] -  theta  right)  right] +  operatorname {E} _ {  the ta}  left [ left ( operatorname {E} _ { theta} [{ hat { theta}}] -  theta  right) ^ {2}  right]  & =  operatorname {E} _ { theta}  left [ left ({ hat { theta}} -  operatorname {E} _ { theta} [{ hat { theta}}]  right) ^ {2}  right] +2  left ( operatorname {E} _ { theta} [{ hat { theta}}] -  theta  right)  operatorname {E} _ { theta}  left [{ hat { theta }} -  operatorname {E} _ { theta} [{ hat { theta}}]  right] +  left ( operatorname {E} _ { theta} [{ hat { theta}}] -  theta  right) ^ {2} &&  operatorname {E} _ { theta} [{ hat { theta}}] -  theta = { text {const.}}  & =  operatorname { E} _ { theta}  left [ left ({ hat { theta}} -  operatorname {E} _ { theta} [{ hat { theta}}]  right) ^ {2}  right] +2  left ( operatorname {E} _ { theta} [{ hat { theta}}] -  theta  right)  left ( operatorname {E} _ { theta} [{ hat { theta}}] -  operatorname {E} _ { theta} [{ hat { theta}}]  right) +  left ( operatorname {E} _ { theta} [{ hat { theta}}] -  theta  right) ^ {2} &&  operatorname {E} _ { theta} [{ hat { theta}}] = { text {const.}}  & =  operatorname {E} _ { theta}  l eft [ left ({ hat { theta}} -  operatorname {E} _ { theta} [{ hat { theta}}]  right) ^ {2}  right] +  left ( operatorname {E} _ { theta} [{ hat { theta}}] -  theta  right) ^ {2}  & =  operatorname {Var} _ { theta} ({ hat { theta} }) +  operatorname {Bias} _ { theta} ({ hat { theta}},  theta) ^ {2}  end {align}}}
В качестве альтернативы у нас есть
{ displaystyle { begin {align}  mathbb {E} ( theta - { hat { theta}}) ^ {2} & =  mathbb {E} ({ hat { theta}} ^ {2 }) +  mathbb {E} ( theta ^ {2}) - 2  theta  mathbb {E} ({ hat { theta}})  & =  operatorname {Var} ({ hat { theta}}) + ( mathbb {E} { hat { theta}}) ^ {2} +  theta ^ {2} -2  theta  mathbb {E} ({ hat { theta}})  & =  operatorname {Var} ({ hat { theta}}) + ( mathbb {E} { hat { theta}} -  theta) ^ {2}  & =  operatorname {Var } ({ hat { theta}}) +  operatorname {Bias} ^ {2} ({ hat { theta}})  end {align}}}

Но в реальном случае моделирования MSE можно описать как добавление дисперсии модели, систематической ошибки модели и неснижаемой неопределенности. Согласно соотношению, MSE оценщиков может быть просто использована для эффективность сравнение, которое включает информацию о дисперсии и смещении оценки. Это называется критерием MSE.

В регрессе

В регрессивный анализ, построение графиков — более естественный способ просмотра общей тенденции всех данных. Среднее значение расстояния от каждой точки до прогнозируемой регрессионной модели может быть вычислено и показано как среднеквадратичная ошибка. Возведение в квадрат критически важно для уменьшения сложности с отрицательными знаками. Чтобы свести к минимуму MSE, модель может быть более точной, что означает, что модель ближе к фактическим данным. Одним из примеров линейной регрессии с использованием этого метода является метод наименьших квадратов —Который оценивает соответствие модели линейной регрессии модели двумерный набор данных[5], но чье ограничение связано с известным распределением данных.

Период, термин среднеквадратичная ошибка иногда используется для обозначения объективной оценки дисперсии ошибки: остаточная сумма квадратов делится на количество степени свободы. Это определение известной вычисленной величины отличается от приведенного выше определения вычисленной MSE предиктора тем, что используется другой знаменатель. Знаменатель — это размер выборки, уменьшенный на количество параметров модели, оцененных на основе тех же данных, (н-р) за п регрессоры или (п-п-1) если используется перехват (см. ошибки и остатки в статистике Больше подробностей).[6] Хотя MSE (как определено в этой статье) не является объективной оценкой дисперсии ошибки, она последовательный, учитывая непротиворечивость предсказателя.

В регрессионном анализе «среднеквадратичная ошибка», часто называемая среднеквадратичная ошибка прогноза или «среднеквадратичная ошибка вне выборки», также может относиться к среднему значению квадратичные отклонения прогнозов на основе истинных значений в тестовом пространстве вне выборки, сгенерированных моделью, оцененной в конкретном пространстве выборки. Это также известная вычисляемая величина, которая зависит от образца и тестового пространства вне образца.

Примеры

Иметь в виду

Предположим, у нас есть случайная выборка размера п от населения, X_ {1},  точки, X_ {n}. Предположим, что образцы были выбраны с заменой. Это п единицы выбираются по одному, и ранее выбранные единицы по-прежнему имеют право на выбор для всех п рисует. Обычная оценка для  му это среднее по выборке[1]

 overline {X} =  frac {1} {n}  sum_ {i = 1} ^ n X_i

ожидаемое значение которого равно истинному среднему значению  му (так что это беспристрастно) и среднеквадратичная ошибка

{ Displaystyle  OperatorName {MSE}  left ({ overline {X}}  right) =  operatorname {E}  left [ left ({ overline {X}} -  mu  right) ^ {2}  right] =  left ({ frac { sigma} { sqrt {n}}}  right) ^ {2} = { frac { sigma ^ {2}} {n}}}

куда  sigma ^ {2} это дисперсия населения.

Для Гауссово распределение, это лучший объективный оценщик (то есть с самой низкой MSE среди всех несмещенных оценок), но не, скажем, для равномерное распределение.

Дисперсия

Обычной оценкой дисперсии является исправлено выборочная дисперсия:

{ displaystyle S_ {n-1} ^ {2} = { frac {1} {n-1}}  sum _ {i = 1} ^ {n}  left (X_ {i} - { overline { X}}  right) ^ {2} = { frac {1} {n-1}}  left ( sum _ {i = 1} ^ {n} X_ {i} ^ {2} -n { overline {X}} ^ {2}  right).}

Это объективно (его ожидаемое значение  sigma ^ {2}), поэтому также называется объективная дисперсия выборки, и его MSE[7]

{ displaystyle  operatorname {MSE} (S_ {n-1} ^ {2}) = { frac {1} {n}}  left ( mu _ {4} - { frac {n-3} { n-1}}  sigma ^ {4}  right) = { frac {1} {n}}  left ( gamma _ {2} + { frac {2n} {n-1}}  right)  sigma ^ {4},}

куда  mu _ {4} это четвертый центральный момент распределения или населения, и  gamma_2 =  mu_4 /  sigma ^ 4-3 это избыточный эксцесс.

Однако можно использовать другие оценки для  sigma ^ {2} которые пропорциональны S ^ 2_ {n-1}, и соответствующий выбор всегда может дать более низкую среднеквадратичную ошибку. Если мы определим

{ displaystyle S_ {a} ^ {2} = { frac {n-1} {a}} S_ {n-1} ^ {2} = { frac {1} {a}}  sum _ {i = 1} ^ {n}  left (X_ {i} - { overline {X}} ,  right) ^ {2}}

затем рассчитываем:

{ displaystyle { begin {align}  operatorname {MSE} (S_ {a} ^ {2}) & =  operatorname {E}  left [ left ({ frac {n-1} {a}} S_ {n-1} ^ {2} -  sigma ^ {2}  right) ^ {2}  right]  & =  operatorname {E}  left [{ frac {(n-1) ^ {2 }} {a ^ {2}}} S_ {n-1} ^ {4} -2  left ({ frac {n-1} {a}} S_ {n-1} ^ {2}  right)  sigma ^ {2} +  sigma ^ {4}  right]  & = { frac {(n-1) ^ {2}} {a ^ {2}}}  operatorname {E}  left [ S_ {n-1} ^ {4}  right] -2  left ({ frac {n-1} {a}}  right)  operatorname {E}  left [S_ {n-1} ^ {2 }  right]  sigma ^ {2} +  sigma ^ {4}  & = { frac {(n-1) ^ {2}} {a ^ {2}}}  operatorname {E}  left [S_ {n-1} ^ {4}  right] -2  left ({ frac {n-1} {a}}  right)  sigma ^ {4} +  sigma ^ {4} &&  operatorname {E}  left [S_ {n-1} ^ {2}  right] =  sigma ^ {2}  & = { frac {(n-1) ^ {2}} {a ^ {2} }}  left ({ frac { gamma _ {2}} {n}} + { frac {n + 1} {n-1}}  right)  sigma ^ {4} -2  left ({  frac {n-1} {a}}  right)  sigma ^ {4} +  sigma ^ {4} &&  operatorname {E}  left [S_ {n-1} ^ {4}  right] =  operatorname {MSE} (S_ {n-1} ^ {2}) +  sigma ^ {4}  & = { frac {n-1} {na ^ {2}}}  left ((n- 1)  gamma _ {2} + n ^ {2} + n  right)  sigma ^ {4} -2  left ({ frac {n-1} {a}}  right)  sigma ^ {4 } +  sigm а ^ {4}  end {выровнено}}}

Это сводится к минимуму, когда

a =  frac {(n-1)  gamma_2 + n ^ 2 + n} {n} = n + 1 +  frac {n-1} {n}  gamma_2.

Для Гауссово распределение, куда  gamma_2 = 0, это означает, что MSE минимизируется при делении суммы на а = п + 1. Минимальный избыточный эксцесс составляет  gamma_2 = -2,[а] что достигается за счет Распределение Бернулли с п = 1/2 (подбрасывание монеты), и MSE минимизируется для { displaystyle a = n-1 + { tfrac {2} {n}}.} Следовательно, независимо от эксцесса, мы получаем «лучшую» оценку (в смысле наличия более низкой MSE), немного уменьшая несмещенную оценку; это простой пример оценщик усадки: один «сжимает» оценку до нуля (уменьшает несмещенную оценку).

Далее, хотя исправленная дисперсия выборки является лучший объективный оценщик (минимальная среднеквадратичная ошибка среди несмещенных оценок) дисперсии для гауссовских распределений, если распределение не является гауссовым, то даже среди несмещенных оценок лучшая несмещенная оценка дисперсии может не быть S ^ 2_ {n-1}.

Гауссово распределение

В следующей таблице приведены несколько оценок истинных параметров популяции, μ и σ.2, для гауссова случая.[8]

Истинное значение Оценщик Среднеквадратичная ошибка
{ displaystyle  theta =  mu}  hat { theta} = несмещенная оценка Средняя численность населения,  overline {X} =  frac {1} {n}  sum_ {i = 1} ^ n (X_i)  operatorname {MSE} ( overline {X}) =  operatorname {E} (( overline {X} -  mu) ^ 2) =  left ( frac { sigma} { sqrt {n}}  справа) ^ 2
{ Displaystyle  theta =  sigma ^ {2}}  hat { theta} = несмещенная оценка дисперсия населения, S ^ 2_ {n-1} =  frac {1} {n-1}  sum_ {i = 1} ^ n  left (X_i-  overline {X} ,  right) ^ 2  operatorname {MSE} (S ^ 2_ {n-1}) =  operatorname {E} ((S ^ 2_ {n-1} -  sigma ^ 2) ^ 2) =  frac {2} {n - 1 }  sigma ^ 4
{ Displaystyle  theta =  sigma ^ {2}}  hat { theta} = смещенная оценка дисперсия населения, S ^ 2_ {n} =  frac {1} {n}  sum_ {i = 1} ^ n  left (X_i-  overline {X} ,  right) ^ 2  operatorname {MSE} (S ^ 2_ {n}) =  operatorname {E} ((S ^ 2_ {n} -  sigma ^ 2) ^ 2) =  frac {2n - 1} {n ^ 2}  сигма ^ 4
{ Displaystyle  theta =  sigma ^ {2}}  hat { theta} = смещенная оценка дисперсия населения, S ^ 2_ {n + 1} =  frac {1} {n + 1}  sum_ {i = 1} ^ n  left (X_i-  overline {X} ,  right) ^ 2  operatorname {MSE} (S ^ 2_ {n + 1}) =  operatorname {E} ((S ^ 2_ {n + 1} -  sigma ^ 2) ^ 2) =  frac {2} {n + 1 }  sigma ^ 4

Интерпретация

MSE равна нулю, что означает, что оценщик  hat { theta} предсказывает наблюдения параметра  theta с идеальной точностью идеален (но обычно невозможен).

Значения MSE могут использоваться для сравнительных целей. Два и более статистические модели можно сравнить, используя их MSE — как меру того, насколько хорошо они объясняют данный набор наблюдений: несмещенная оценка (рассчитанная на основе статистической модели) с наименьшей дисперсией среди всех несмещенных оценок — это оценка лучший объективный оценщик или MVUE (несмещенная оценка минимальной дисперсии).

Обе линейная регрессия методы, такие как дисперсионный анализ оценить MSE как часть анализа и использовать оценочную MSE для определения Статистическая значимость изучаемых факторов или предикторов. Цель экспериментальная конструкция состоит в том, чтобы построить эксперименты таким образом, чтобы при анализе наблюдений MSE была близка к нулю относительно величины по крайней мере одного из оцененных эффектов лечения.

В односторонний дисперсионный анализ, MSE можно вычислить путем деления суммы квадратов ошибок и степени свободы. Кроме того, значение f — это отношение среднего квадрата обработки и MSE.

MSE также используется в нескольких пошаговая регрессия методы как часть определения того, сколько предикторов из набора кандидатов включить в модель для данного набора наблюдений.

Приложения

  • Минимизация MSE является ключевым критерием при выборе оценщиков: см. минимальная среднеквадратичная ошибка. Среди несмещенных оценщиков минимизация MSE эквивалентна минимизации дисперсии, а оценщик, который делает это, является несмещенная оценка минимальной дисперсии. Однако смещенная оценка может иметь более низкую MSE; видеть систематическая ошибка оценки.
  • В статистическое моделирование MSE может представлять разницу между фактическими наблюдениями и значениями наблюдений, предсказанными моделью. В этом контексте он используется для определения степени, в которой модель соответствует данным, а также возможности удаления некоторых объясняющих переменных без значительного ущерба для прогнозирующей способности модели.
  • В прогнозирование и прогноз, то Оценка Бриера это мера умение прогнозировать на основе MSE.

Функция потерь

Квадратичная потеря ошибок — одна из наиболее широко используемых функции потерь в статистике[нужна цитата ], хотя его широкое использование проистекает больше из математического удобства, чем из соображений реальных потерь в приложениях. Карл Фридрих Гаусс, который ввел использование среднеквадратичной ошибки, сознавал ее произвол и был согласен с возражениями против нее на этих основаниях.[3] Математические преимущества среднеквадратичной ошибки особенно очевидны при ее использовании при анализе производительности линейная регрессия, поскольку он позволяет разделить вариацию в наборе данных на вариации, объясняемые моделью, и вариации, объясняемые случайностью.

Критика

Использование среднеквадратичной ошибки без вопросов подвергалось критике со стороны теоретик решений Джеймс Бергер. Среднеквадратичная ошибка — это отрицательное значение ожидаемого значения одного конкретного вспомогательная функция, квадратичная функция полезности, которая может не подходить для использования в данном наборе обстоятельств. Однако есть некоторые сценарии, в которых среднеквадратичная ошибка может служить хорошим приближением к функции потерь, естественным образом возникающей в приложении.[9]

подобно отклонение, среднеквадратичная ошибка имеет тот недостаток, что выбросы.[10] Это результат возведения в квадрат каждого члена, который фактически дает больший вес большим ошибкам, чем малым. Это свойство, нежелательное для многих приложений, заставило исследователей использовать альтернативы, такие как средняя абсолютная ошибка, или основанные на медиана.

Смотрите также

  • Компромисс смещения и дисперсии
  • Оценщик Ходжеса
  • Оценка Джеймса – Стейна
  • Средняя процентная ошибка
  • Среднеквадратичная ошибка квантования
  • Среднеквадратичное взвешенное отклонение
  • Среднеквадратичное смещение
  • Среднеквадратичная ошибка прогноза
  • Минимальная среднеквадратичная ошибка
  • Оценщик минимальной среднеквадратичной ошибки
  • Пиковое отношение сигнал / шум

Примечания

  1. ^ Это может быть доказано Неравенство Дженсена следующим образом. Четвертый центральный момент является верхней границей квадрата дисперсии, так что наименьшее значение для их отношения равно единице, следовательно, наименьшее значение для избыточный эксцесс равно −2, что достигается, например, Бернулли с п=1/2.

Рекомендации

  1. ^ а б «Список вероятностных и статистических символов». Математическое хранилище. 2020-04-26. Получено 2020-09-12.
  2. ^ а б «Среднеквадратичная ошибка (MSE)». www.probabilitycourse.com. Получено 2020-09-12.
  3. ^ а б Lehmann, E. L .; Казелла, Джордж (1998). Теория точечного оценивания (2-е изд.). Нью-Йорк: Спрингер. ISBN  978-0-387-98502-2. Г-Н  1639875.
  4. ^ Вакерли, Деннис; Менденхолл, Уильям; Шеаффер, Ричард Л. (2008). Математическая статистика с приложениями (7-е изд.). Белмонт, Калифорния, США: Высшее образование Томсона. ISBN  978-0-495-38508-0.
  5. ^ Современное введение в вероятность и статистику: понимание, почему и как. Деккинг, Мишель, 1946-. Лондон: Спрингер. 2005 г. ISBN  978-1-85233-896-1. OCLC  262680588.CS1 maint: другие (ссылка на сайт)
  6. ^ Стил, Р.Г.Д., и Торри, Дж. Х., Принципы и процедуры статистики с особым акцентом на биологические науки., Макгроу Хилл, 1960, стр.288.
  7. ^ Настроение, А .; Graybill, F .; Боэс, Д. (1974). Введение в теорию статистики (3-е изд.). Макгроу-Хилл. п.229.
  8. ^ ДеГрут, Моррис Х. (1980). вероятность и статистика (2-е изд.). Эддисон-Уэсли.
  9. ^ Бергер, Джеймс О. (1985). «2.4.2 Некоторые стандартные функции потерь». Статистическая теория принятия решений и байесовский анализ (2-е изд.). Нью-Йорк: Springer-Verlag. п.60. ISBN  978-0-387-96098-2. Г-Н  0804611.
  10. ^ Бермехо, Серхио; Кабестани, Джоан (2001). «Ориентированный анализ главных компонентов для классификаторов с большой маржой». Нейронные сети. 14 (10): 1447–1461. Дои:10.1016 / S0893-6080 (01) 00106-X. PMID  11771723.

Понравилась статья? Поделить с друзьями:
  • Срединная ошибка измерения дальности
  • Срединная круговая ошибка
  • Среди депутатов было четверо женщин найдите ошибку
  • Среди букв найти словарные слова и исправить ошибки
  • Ср квадратич ошибка повторной выборки для доли