Среднеквадратическая ошибка ско

From Wikipedia, the free encyclopedia

In statistics, the mean squared error (MSE)[1] or mean squared deviation (MSD) of an estimator (of a procedure for estimating an unobserved quantity) measures the average of the squares of the errors—that is, the average squared difference between the estimated values and the actual value. MSE is a risk function, corresponding to the expected value of the squared error loss.[2] The fact that MSE is almost always strictly positive (and not zero) is because of randomness or because the estimator does not account for information that could produce a more accurate estimate.[3] In machine learning, specifically empirical risk minimization, MSE may refer to the empirical risk (the average loss on an observed data set), as an estimate of the true MSE (the true risk: the average loss on the actual population distribution).

The MSE is a measure of the quality of an estimator. As it is derived from the square of Euclidean distance, it is always a positive value that decreases as the error approaches zero.

The MSE is the second moment (about the origin) of the error, and thus incorporates both the variance of the estimator (how widely spread the estimates are from one data sample to another) and its bias (how far off the average estimated value is from the true value).[citation needed] For an unbiased estimator, the MSE is the variance of the estimator. Like the variance, MSE has the same units of measurement as the square of the quantity being estimated. In an analogy to standard deviation, taking the square root of MSE yields the root-mean-square error or root-mean-square deviation (RMSE or RMSD), which has the same units as the quantity being estimated; for an unbiased estimator, the RMSE is the square root of the variance, known as the standard error.

Definition and basic properties[edit]

The MSE either assesses the quality of a predictor (i.e., a function mapping arbitrary inputs to a sample of values of some random variable), or of an estimator (i.e., a mathematical function mapping a sample of data to an estimate of a parameter of the population from which the data is sampled). The definition of an MSE differs according to whether one is describing a predictor or an estimator.

Predictor[edit]

If a vector of n predictions is generated from a sample of n data points on all variables, and Y is the vector of observed values of the variable being predicted, with \hat{Y} being the predicted values (e.g. as from a least-squares fit), then the within-sample MSE of the predictor is computed as

{\displaystyle \operatorname {MSE} ={\frac {1}{n}}\sum _{i=1}^{n}\left(Y_{i}-{\hat {Y_{i}}}\right)^{2}.}

In other words, the MSE is the mean {\textstyle \left({\frac {1}{n}}\sum _{i=1}^{n}\right)} of the squares of the errors {\textstyle \left(Y_{i}-{\hat {Y_{i}}}\right)^{2}}. This is an easily computable quantity for a particular sample (and hence is sample-dependent).

In matrix notation,

{\displaystyle \operatorname {MSE} ={\frac {1}{n}}\sum _{i=1}^{n}(e_{i})^{2}={\frac {1}{n}}\mathbf {e} ^{\mathsf {T}}\mathbf {e} }

where e_{i} is {\displaystyle (Y_{i}-{\hat {Y_{i}}})} and {\displaystyle \mathbf {e} } is a {\displaystyle n\times 1} column vector.

The MSE can also be computed on q data points that were not used in estimating the model, either because they were held back for this purpose, or because these data have been newly obtained. Within this process, known as cross-validation, the MSE is often called the test MSE,[4] and is computed as

{\displaystyle \operatorname {MSE} ={\frac {1}{q}}\sum _{i=n+1}^{n+q}\left(Y_{i}-{\hat {Y_{i}}}\right)^{2}.}

Estimator[edit]

The MSE of an estimator \hat{\theta} with respect to an unknown parameter \theta is defined as[1]

{\displaystyle \operatorname {MSE} ({\hat {\theta }})=\operatorname {E} _{\theta }\left[({\hat {\theta }}-\theta )^{2}\right].}

This definition depends on the unknown parameter, but the MSE is a priori a property of an estimator. The MSE could be a function of unknown parameters, in which case any estimator of the MSE based on estimates of these parameters would be a function of the data (and thus a random variable). If the estimator \hat{\theta} is derived as a sample statistic and is used to estimate some population parameter, then the expectation is with respect to the sampling distribution of the sample statistic.

The MSE can be written as the sum of the variance of the estimator and the squared bias of the estimator, providing a useful way to calculate the MSE and implying that in the case of unbiased estimators, the MSE and variance are equivalent.[5]

{\displaystyle \operatorname {MSE} ({\hat {\theta }})=\operatorname {Var} _{\theta }({\hat {\theta }})+\operatorname {Bias} ({\hat {\theta }},\theta )^{2}.}

Proof of variance and bias relationship[edit]

{\displaystyle {\begin{aligned}\operatorname {MSE} ({\hat {\theta }})&=\operatorname {E} _{\theta }\left[({\hat {\theta }}-\theta )^{2}\right]\\&=\operatorname {E} _{\theta }\left[\left({\hat {\theta }}-\operatorname {E} _{\theta }[{\hat {\theta }}]+\operatorname {E} _{\theta }[{\hat {\theta }}]-\theta \right)^{2}\right]\\&=\operatorname {E} _{\theta }\left[\left({\hat {\theta }}-\operatorname {E} _{\theta }[{\hat {\theta }}]\right)^{2}+2\left({\hat {\theta }}-\operatorname {E} _{\theta }[{\hat {\theta }}]\right)\left(\operatorname {E} _{\theta }[{\hat {\theta }}]-\theta \right)+\left(\operatorname {E} _{\theta }[{\hat {\theta }}]-\theta \right)^{2}\right]\\&=\operatorname {E} _{\theta }\left[\left({\hat {\theta }}-\operatorname {E} _{\theta }[{\hat {\theta }}]\right)^{2}\right]+\operatorname {E} _{\theta }\left[2\left({\hat {\theta }}-\operatorname {E} _{\theta }[{\hat {\theta }}]\right)\left(\operatorname {E} _{\theta }[{\hat {\theta }}]-\theta \right)\right]+\operatorname {E} _{\theta }\left[\left(\operatorname {E} _{\theta }[{\hat {\theta }}]-\theta \right)^{2}\right]\\&=\operatorname {E} _{\theta }\left[\left({\hat {\theta }}-\operatorname {E} _{\theta }[{\hat {\theta }}]\right)^{2}\right]+2\left(\operatorname {E} _{\theta }[{\hat {\theta }}]-\theta \right)\operatorname {E} _{\theta }\left[{\hat {\theta }}-\operatorname {E} _{\theta }[{\hat {\theta }}]\right]+\left(\operatorname {E} _{\theta }[{\hat {\theta }}]-\theta \right)^{2}&&\operatorname {E} _{\theta }[{\hat {\theta }}]-\theta ={\text{const.}}\\&=\operatorname {E} _{\theta }\left[\left({\hat {\theta }}-\operatorname {E} _{\theta }[{\hat {\theta }}]\right)^{2}\right]+2\left(\operatorname {E} _{\theta }[{\hat {\theta }}]-\theta \right)\left(\operatorname {E} _{\theta }[{\hat {\theta }}]-\operatorname {E} _{\theta }[{\hat {\theta }}]\right)+\left(\operatorname {E} _{\theta }[{\hat {\theta }}]-\theta \right)^{2}&&\operatorname {E} _{\theta }[{\hat {\theta }}]={\text{const.}}\\&=\operatorname {E} _{\theta }\left[\left({\hat {\theta }}-\operatorname {E} _{\theta }[{\hat {\theta }}]\right)^{2}\right]+\left(\operatorname {E} _{\theta }[{\hat {\theta }}]-\theta \right)^{2}\\&=\operatorname {Var} _{\theta }({\hat {\theta }})+\operatorname {Bias} _{\theta }({\hat {\theta }},\theta )^{2}\end{aligned}}}

An even shorter proof can be achieved using the well-known formula that for a random variable {\textstyle X}, {\textstyle \mathbb {E} (X^{2})=\operatorname {Var} (X)+(\mathbb {E} (X))^{2}}. By substituting {\textstyle X} with, {\textstyle {\hat {\theta }}-\theta }, we have

{\displaystyle {\begin{aligned}\operatorname {MSE} ({\hat {\theta }})&=\mathbb {E} [({\hat {\theta }}-\theta )^{2}]\\&=\operatorname {Var} ({\hat {\theta }}-\theta )+(\mathbb {E} [{\hat {\theta }}-\theta ])^{2}\\&=\operatorname {Var} ({\hat {\theta }})+\operatorname {Bias} ^{2}({\hat {\theta }},\theta )\end{aligned}}}

But in real modeling case, MSE could be described as the addition of model variance, model bias, and irreducible uncertainty (see Bias–variance tradeoff). According to the relationship, the MSE of the estimators could be simply used for the efficiency comparison, which includes the information of estimator variance and bias. This is called MSE criterion.

In regression[edit]

In regression analysis, plotting is a more natural way to view the overall trend of the whole data. The mean of the distance from each point to the predicted regression model can be calculated, and shown as the mean squared error. The squaring is critical to reduce the complexity with negative signs. To minimize MSE, the model could be more accurate, which would mean the model is closer to actual data. One example of a linear regression using this method is the least squares method—which evaluates appropriateness of linear regression model to model bivariate dataset,[6] but whose limitation is related to known distribution of the data.

The term mean squared error is sometimes used to refer to the unbiased estimate of error variance: the residual sum of squares divided by the number of degrees of freedom. This definition for a known, computed quantity differs from the above definition for the computed MSE of a predictor, in that a different denominator is used. The denominator is the sample size reduced by the number of model parameters estimated from the same data, (np) for p regressors or (np−1) if an intercept is used (see errors and residuals in statistics for more details).[7] Although the MSE (as defined in this article) is not an unbiased estimator of the error variance, it is consistent, given the consistency of the predictor.

In regression analysis, «mean squared error», often referred to as mean squared prediction error or «out-of-sample mean squared error», can also refer to the mean value of the squared deviations of the predictions from the true values, over an out-of-sample test space, generated by a model estimated over a particular sample space. This also is a known, computed quantity, and it varies by sample and by out-of-sample test space.

In the context of gradient descent algorithms, it is common to introduce a factor of 1/2 to the MSE for ease of computation after taking the derivative. So a value which is technically half the mean of squared errors may be called the MSE.

Examples[edit]

Mean[edit]

Suppose we have a random sample of size n from a population, X_{1},\dots ,X_{n}. Suppose the sample units were chosen with replacement. That is, the n units are selected one at a time, and previously selected units are still eligible for selection for all n draws. The usual estimator for the \mu is the sample average

\overline{X}=\frac{1}{n}\sum_{i=1}^n X_i

which has an expected value equal to the true mean \mu (so it is unbiased) and a mean squared error of

{\displaystyle \operatorname {MSE} \left({\overline {X}}\right)=\operatorname {E} \left[\left({\overline {X}}-\mu \right)^{2}\right]=\left({\frac {\sigma }{\sqrt {n}}}\right)^{2}={\frac {\sigma ^{2}}{n}}}

where \sigma ^{2} is the population variance.

For a Gaussian distribution, this is the best unbiased estimator (i.e., one with the lowest MSE among all unbiased estimators), but not, say, for a uniform distribution.

Variance[edit]

The usual estimator for the variance is the corrected sample variance:

{\displaystyle S_{n-1}^{2}={\frac {1}{n-1}}\sum _{i=1}^{n}\left(X_{i}-{\overline {X}}\right)^{2}={\frac {1}{n-1}}\left(\sum _{i=1}^{n}X_{i}^{2}-n{\overline {X}}^{2}\right).}

This is unbiased (its expected value is \sigma ^{2}), hence also called the unbiased sample variance, and its MSE is[8]

{\displaystyle \operatorname {MSE} (S_{n-1}^{2})={\frac {1}{n}}\left(\mu _{4}-{\frac {n-3}{n-1}}\sigma ^{4}\right)={\frac {1}{n}}\left(\gamma _{2}+{\frac {2n}{n-1}}\right)\sigma ^{4},}

where \mu _{4} is the fourth central moment of the distribution or population, and \gamma_2=\mu_4/\sigma^4-3 is the excess kurtosis.

However, one can use other estimators for \sigma ^{2} which are proportional to S^2_{n-1}, and an appropriate choice can always give a lower mean squared error. If we define

{\displaystyle S_{a}^{2}={\frac {n-1}{a}}S_{n-1}^{2}={\frac {1}{a}}\sum _{i=1}^{n}\left(X_{i}-{\overline {X}}\,\right)^{2}}

then we calculate:

{\displaystyle {\begin{aligned}\operatorname {MSE} (S_{a}^{2})&=\operatorname {E} \left[\left({\frac {n-1}{a}}S_{n-1}^{2}-\sigma ^{2}\right)^{2}\right]\\&=\operatorname {E} \left[{\frac {(n-1)^{2}}{a^{2}}}S_{n-1}^{4}-2\left({\frac {n-1}{a}}S_{n-1}^{2}\right)\sigma ^{2}+\sigma ^{4}\right]\\&={\frac {(n-1)^{2}}{a^{2}}}\operatorname {E} \left[S_{n-1}^{4}\right]-2\left({\frac {n-1}{a}}\right)\operatorname {E} \left[S_{n-1}^{2}\right]\sigma ^{2}+\sigma ^{4}\\&={\frac {(n-1)^{2}}{a^{2}}}\operatorname {E} \left[S_{n-1}^{4}\right]-2\left({\frac {n-1}{a}}\right)\sigma ^{4}+\sigma ^{4}&&\operatorname {E} \left[S_{n-1}^{2}\right]=\sigma ^{2}\\&={\frac {(n-1)^{2}}{a^{2}}}\left({\frac {\gamma _{2}}{n}}+{\frac {n+1}{n-1}}\right)\sigma ^{4}-2\left({\frac {n-1}{a}}\right)\sigma ^{4}+\sigma ^{4}&&\operatorname {E} \left[S_{n-1}^{4}\right]=\operatorname {MSE} (S_{n-1}^{2})+\sigma ^{4}\\&={\frac {n-1}{na^{2}}}\left((n-1)\gamma _{2}+n^{2}+n\right)\sigma ^{4}-2\left({\frac {n-1}{a}}\right)\sigma ^{4}+\sigma ^{4}\end{aligned}}}

This is minimized when

a=\frac{(n-1)\gamma_2+n^2+n}{n} = n+1+\frac{n-1}{n}\gamma_2.

For a Gaussian distribution, where \gamma_2=0, this means that the MSE is minimized when dividing the sum by a=n+1. The minimum excess kurtosis is \gamma_2=-2,[a] which is achieved by a Bernoulli distribution with p = 1/2 (a coin flip), and the MSE is minimized for {\displaystyle a=n-1+{\tfrac {2}{n}}.} Hence regardless of the kurtosis, we get a «better» estimate (in the sense of having a lower MSE) by scaling down the unbiased estimator a little bit; this is a simple example of a shrinkage estimator: one «shrinks» the estimator towards zero (scales down the unbiased estimator).

Further, while the corrected sample variance is the best unbiased estimator (minimum mean squared error among unbiased estimators) of variance for Gaussian distributions, if the distribution is not Gaussian, then even among unbiased estimators, the best unbiased estimator of the variance may not be S^2_{n-1}.

Gaussian distribution[edit]

The following table gives several estimators of the true parameters of the population, μ and σ2, for the Gaussian case.[9]

True value Estimator Mean squared error
{\displaystyle \theta =\mu } \hat{\theta} = the unbiased estimator of the population mean, \overline{X}=\frac{1}{n}\sum_{i=1}^n(X_i) \operatorname{MSE}(\overline{X})=\operatorname{E}((\overline{X}-\mu)^2)=\left(\frac{\sigma}{\sqrt{n}}\right)^2
{\displaystyle \theta =\sigma ^{2}} \hat{\theta} = the unbiased estimator of the population variance, S^2_{n-1} = \frac{1}{n-1}\sum_{i=1}^n\left(X_i-\overline{X}\,\right)^2 \operatorname{MSE}(S^2_{n-1})=\operatorname{E}((S^2_{n-1}-\sigma^2)^2)=\frac{2}{n - 1}\sigma^4
{\displaystyle \theta =\sigma ^{2}} \hat{\theta} = the biased estimator of the population variance, S^2_{n} = \frac{1}{n}\sum_{i=1}^n\left(X_i-\overline{X}\,\right)^2 \operatorname{MSE}(S^2_{n})=\operatorname{E}((S^2_{n}-\sigma^2)^2)=\frac{2n - 1}{n^2}\sigma^4
{\displaystyle \theta =\sigma ^{2}} \hat{\theta} = the biased estimator of the population variance, S^2_{n+1} = \frac{1}{n+1}\sum_{i=1}^n\left(X_i-\overline{X}\,\right)^2 \operatorname{MSE}(S^2_{n+1})=\operatorname{E}((S^2_{n+1}-\sigma^2)^2)=\frac{2}{n + 1}\sigma^4

Interpretation[edit]

An MSE of zero, meaning that the estimator \hat{\theta} predicts observations of the parameter \theta with perfect accuracy, is ideal (but typically not possible).

Values of MSE may be used for comparative purposes. Two or more statistical models may be compared using their MSEs—as a measure of how well they explain a given set of observations: An unbiased estimator (estimated from a statistical model) with the smallest variance among all unbiased estimators is the best unbiased estimator or MVUE (Minimum-Variance Unbiased Estimator).

Both analysis of variance and linear regression techniques estimate the MSE as part of the analysis and use the estimated MSE to determine the statistical significance of the factors or predictors under study. The goal of experimental design is to construct experiments in such a way that when the observations are analyzed, the MSE is close to zero relative to the magnitude of at least one of the estimated treatment effects.

In one-way analysis of variance, MSE can be calculated by the division of the sum of squared errors and the degree of freedom. Also, the f-value is the ratio of the mean squared treatment and the MSE.

MSE is also used in several stepwise regression techniques as part of the determination as to how many predictors from a candidate set to include in a model for a given set of observations.

Applications[edit]

  • Minimizing MSE is a key criterion in selecting estimators: see minimum mean-square error. Among unbiased estimators, minimizing the MSE is equivalent to minimizing the variance, and the estimator that does this is the minimum variance unbiased estimator. However, a biased estimator may have lower MSE; see estimator bias.
  • In statistical modelling the MSE can represent the difference between the actual observations and the observation values predicted by the model. In this context, it is used to determine the extent to which the model fits the data as well as whether removing some explanatory variables is possible without significantly harming the model’s predictive ability.
  • In forecasting and prediction, the Brier score is a measure of forecast skill based on MSE.

Loss function[edit]

Squared error loss is one of the most widely used loss functions in statistics[citation needed], though its widespread use stems more from mathematical convenience than considerations of actual loss in applications. Carl Friedrich Gauss, who introduced the use of mean squared error, was aware of its arbitrariness and was in agreement with objections to it on these grounds.[3] The mathematical benefits of mean squared error are particularly evident in its use at analyzing the performance of linear regression, as it allows one to partition the variation in a dataset into variation explained by the model and variation explained by randomness.

Criticism[edit]

The use of mean squared error without question has been criticized by the decision theorist James Berger. Mean squared error is the negative of the expected value of one specific utility function, the quadratic utility function, which may not be the appropriate utility function to use under a given set of circumstances. There are, however, some scenarios where mean squared error can serve as a good approximation to a loss function occurring naturally in an application.[10]

Like variance, mean squared error has the disadvantage of heavily weighting outliers.[11] This is a result of the squaring of each term, which effectively weights large errors more heavily than small ones. This property, undesirable in many applications, has led researchers to use alternatives such as the mean absolute error, or those based on the median.

See also[edit]

  • Bias–variance tradeoff
  • Hodges’ estimator
  • James–Stein estimator
  • Mean percentage error
  • Mean square quantization error
  • Mean square weighted deviation
  • Mean squared displacement
  • Mean squared prediction error
  • Minimum mean square error
  • Minimum mean squared error estimator
  • Overfitting
  • Peak signal-to-noise ratio

Notes[edit]

  1. ^ This can be proved by Jensen’s inequality as follows. The fourth central moment is an upper bound for the square of variance, so that the least value for their ratio is one, therefore, the least value for the excess kurtosis is −2, achieved, for instance, by a Bernoulli with p=1/2.

References[edit]

  1. ^ a b «Mean Squared Error (MSE)». www.probabilitycourse.com. Retrieved 2020-09-12.
  2. ^ Bickel, Peter J.; Doksum, Kjell A. (2015). Mathematical Statistics: Basic Ideas and Selected Topics. Vol. I (Second ed.). p. 20. If we use quadratic loss, our risk function is called the mean squared error (MSE) …
  3. ^ a b Lehmann, E. L.; Casella, George (1998). Theory of Point Estimation (2nd ed.). New York: Springer. ISBN 978-0-387-98502-2. MR 1639875.
  4. ^ Gareth, James; Witten, Daniela; Hastie, Trevor; Tibshirani, Rob (2021). An Introduction to Statistical Learning: with Applications in R. Springer. ISBN 978-1071614174.
  5. ^ Wackerly, Dennis; Mendenhall, William; Scheaffer, Richard L. (2008). Mathematical Statistics with Applications (7 ed.). Belmont, CA, USA: Thomson Higher Education. ISBN 978-0-495-38508-0.
  6. ^ A modern introduction to probability and statistics : understanding why and how. Dekking, Michel, 1946-. London: Springer. 2005. ISBN 978-1-85233-896-1. OCLC 262680588.{{cite book}}: CS1 maint: others (link)
  7. ^ Steel, R.G.D, and Torrie, J. H., Principles and Procedures of Statistics with Special Reference to the Biological Sciences., McGraw Hill, 1960, page 288.
  8. ^ Mood, A.; Graybill, F.; Boes, D. (1974). Introduction to the Theory of Statistics (3rd ed.). McGraw-Hill. p. 229.
  9. ^ DeGroot, Morris H. (1980). Probability and Statistics (2nd ed.). Addison-Wesley.
  10. ^ Berger, James O. (1985). «2.4.2 Certain Standard Loss Functions». Statistical Decision Theory and Bayesian Analysis (2nd ed.). New York: Springer-Verlag. p. 60. ISBN 978-0-387-96098-2. MR 0804611.
  11. ^ Bermejo, Sergio; Cabestany, Joan (2001). «Oriented principal component analysis for large margin classifiers». Neural Networks. 14 (10): 1447–1461. doi:10.1016/S0893-6080(01)00106-X. PMID 11771723.

Средняя ошибка
полученная как среднеарифметическое
из истинных ошибок, дает неверное
представление о точности результатов,
так как при сложении положительных и
отрицательных ошибок компенсируется.
Поэтому определяют среднее арифметическое
из абсолютных значений ошибок.

v=[|∆|]/n,
где ∆-среднеарифметическое, n-число
измерений.

В таком случае
средняя ошибка наиболее достоверна, но
средняя ошибка недостаточно точно
характеризует результаты измерений,
т.к сглаживает влияние больших по
величине ошибок.

Чтобы усилить их
влияние нужно их возвести в квадрат и
получают средние
квадратические ошибки.

m=√([∆2]/n)

Преимущество СКО
по сравнению со средними:

1.Учитывают влияние
больших по величине ошибок.

2.СКО одного измерения
(me)
определенная из небольшого числа
измерений мало отличается от СКО большого
числа таких же измерений.

При оценке точности
результатов измерений достаточно чтобы
в оценке участвовали 4 рез-та, которые
дадут однозначное значение ошибки.

При оценке точности
после определения СКО необходимо
вычислить ошибку самой ошибки (надежность
ошибки):

mml=ml/√2n

Зная СКО можно
установить предельную ошибку, абсолютное
значение которой является верхней
границей допустимых при данных условиях
измерений размеров ошибок. ∆прm,
где ґ=2;2,5;3. Предельная ошибка устанавливается
инструкциями на все виды работ и
называется служебный
допуск.

Вероятная ошибка
— такое значение случайной ошибки при
данных условиях измерения по отношению
к которой ошибки и большие и меньшие по
абсолютной величине встречаются
одинаково часто. В теории вероятности
доказано, что при достаточно большом
числе измерений существуют следующие
зависимости: вероятная ошибка составляет
2/3 квадратической ошибки, а средняя
ошибка составляет 4/5 от средней
квадратической ошибки.

r=2/3m;
v=4/5m.

Истинная, средняя,
вероятная, СКО, предельные ошибки
называются абсолютными.
В тех случаях
когда на точность измерений влияет
размер определяемой величины, то оценка
точности по абсолютной ошибке становится
недостаточной и судить о качестве
измерений нельзя.

Во всех таких
случаях для точности применяют понятие
относительная
ошибка

отвлеченное число выражающее отношение
абсолютной ошибка измерения к его
результату.

13. Математическая обработка равноточных измерений. Арифметическое среднее, ско арифметической середины.

1.Имеется
ряд равноточных измерений l1,l2…,ln.
За окончательное значение принимаем
среднее из них.

L=(l1+l2+…+ln)/n=[l]/n.

Сравним каждый
результат с точным значением x
и получим ряд истинных ошибок.

1=l1-x

2=l2-x

…..

n=ln-x

где х — точное
значение измеренной величины.

Сложим все и получим
[∆]=[l]-nx.

Выразим отсюда
величину точного значения

x=[l]/n-[∆]/n.

При бесконечном
числе измерений среднее арифметическое
значение их находится ближе всего к
точному их значению х, чем любой из
результатов измерений (l1,l2…ln)
поэтому его называть вероятнейшим
значением измеренной величины.

2.
Если X-точное
значение измеренной величины, а L
-вероятнейшее значение, то М-ошибка
арифметического среднего или вероятнейшее
значение измереной величины.

М= L-x;

Для вывода формулы
определим зависимость между ошибками.
Воспользуемся рядом истинных ошибок:

1=l1-x

2=l2-x

…..

n=ln-x

Сложим равенства
и разделим на n(количество
измерений).

[∆]/n=([l]/n)-x

[∆]/n=L-x

M=[∆]/n

Возведем в квадрат:

M2=(∆12+∆22+…+∆n2+2∆12+2∆13+…+2∆1n+…+2∆23+2∆24+…+2∆2n+…+2∆n-1n)/n2

В числителе этой
формулы удвоенные произведения имеют
разные знаки и при возрастании числа
измерений сумма их стремится к 0 поэтому
отбросив их получим приближенные
равенства.

M2=(∆12+∆22+…+∆n2)/
n2

M2=[∆2]/n2

ml=√([∆2]/n)

M=ml/√n

mL=
ml/√n
– среднеквадратическая ошибка
вероятнейшего значения через СКО

Средняя ошибка
меньше СКО одного измерения.

14-15.Оценка точности
результатов равноточных измерений по
истинным ошибкам. Формулы, порядок
вычислений.

Случайные ошибки
в ряду измерений отличаются одна от
другой на незначительную величину. О
точности измерений можно судить по
значению средней ошибки.

Средняя ошибка,
полученная как среднее арифметическое
из истинных ошибок, дает неверное
представление о точности результатов,
так как при сложении положительных и
отрицательных ошибок компенсируется.
Поэтому определяют среднее арифметическое
из абсолютных значений ошибок.

v=[|∆|]/n,
где ∆-среднеарифметическое, n-число
измерений.

В таком случае
средняя ошибка будет наиболее достоверна,
но средняя ошибка недостаточно точно
характеризует результаты измерений,
так как сглаживает влияние больших по
величине ошибок.

Чтобы усилить их
влияние, их нужно возвести в квадрат. И
получают средние
квадратические ошибки.

ml=√[∆2/n]

При оценке точности
результатов измерений достаточно, чтобы
в этой оценке участвовали всего лишь 4
результата, которые дадут однозначное
значение ошибки. При оценке точности
после после определения СКО необходимо
вычислить ошибку самой ошибки (надежность
ошибки):

mml=ml/√2n

Соседние файлы в предмете [НЕСОРТИРОВАННОЕ]

  • #

    14.02.20152.46 Mб10Э.doc

  • #
  • #
  • #
  • #
  • #
  • #
  • #
  • #
  • #
  • #

Среднеквадратичная ошибка (Mean Squared Error) – Среднее арифметическое (Mean) квадратов разностей между предсказанными и реальными значениями Модели (Model) Машинного обучения (ML):

MSE как среднее дистанций между предсказаниями и реальными наблюдениями

Рассчитывается с помощью формулы, которая будет пояснена в примере ниже:

$$MSE = \frac{1}{n} × \sum_{i=1}^n (y_i — \widetilde{y}_i)^2$$
$$MSE\space{}{–}\space{Среднеквадратическая}\space{ошибка,}$$
$$n\space{}{–}\space{количество}\space{наблюдений,}$$
$$y_i\space{}{–}\space{фактическая}\space{координата}\space{наблюдения,}$$
$$\widetilde{y}_i\space{}{–}\space{предсказанная}\space{координата}\space{наблюдения,}$$

MSE практически никогда не равен нулю, и происходит это из-за элемента случайности в данных или неучитывания Оценочной функцией (Estimator) всех факторов, которые могли бы улучшить предсказательную способность.

Пример. Исследуем линейную регрессию, изображенную на графике выше, и установим величину среднеквадратической Ошибки (Error). Фактические координаты точек-Наблюдений (Observation) выглядят следующим образом:

Мы имеем дело с Линейной регрессией (Linear Regression), потому уравнение, предсказывающее положение записей, можно представить с помощью формулы:

$$y = M * x + b$$
$$y\space{–}\space{значение}\space{координаты}\space{оси}\space{y,}$$
$$M\space{–}\space{уклон}\space{прямой}$$
$$x\space{–}\space{значение}\space{координаты}\space{оси}\space{x,}$$
$$b\space{–}\space{смещение}\space{прямой}\space{относительно}\space{начала}\space{координат}$$

Параметры M и b уравнения нам, к счастью, известны в данном обучающем примере, и потому уравнение выглядит следующим образом:

$$y = 0,5252 * x + 17,306$$

Зная координаты реальных записей и уравнение линейной регрессии, мы можем восстановить полные координаты предсказанных наблюдений, обозначенных серыми точками на графике выше. Простой подстановкой значения координаты x в уравнение мы рассчитаем значение координаты ỹ:

Рассчитаем квадрат разницы между Y и Ỹ:

Сумма таких квадратов равна 4 445. Осталось только разделить это число на количество наблюдений (9):

$$MSE = \frac{1}{9} × 4445 = 493$$

Само по себе число в такой ситуации становится показательным, когда Дата-сайентист (Data Scientist) предпринимает попытки улучшить предсказательную способность модели и сравнивает MSE каждой итерации, выбирая такое уравнение, что сгенерирует наименьшую погрешность в предсказаниях.

MSE и Scikit-learn

Среднеквадратическую ошибку можно вычислить с помощью SkLearn. Для начала импортируем функцию:

import sklearn
from sklearn.metrics import mean_squared_error

Инициализируем крошечные списки, содержащие реальные и предсказанные координаты y:

y_true = [5, 41, 70, 77, 134, 68, 138, 101, 131]
y_pred = [23, 35, 55, 90, 93, 103, 118, 121, 129]

Инициируем функцию mean_squared_error(), которая рассчитает MSE тем же способом, что и формула выше:

mean_squared_error(y_true, y_pred)

Интересно, что конечный результат на 3 отличается от расчетов с помощью Apple Numbers:

496.0

Ноутбук, не требующий дополнительной настройки на момент написания статьи, можно скачать здесь.

Автор оригинальной статьи: @mmoshikoo

Фото: @tobyelliott

Среднеквадратическая ошибка (Mean Squared Error, MSE) – это одна из наиболее широко используемых метрик для оценки точности моделей и алгоритмов в статистике и машинном обучении. MSE представляет собой среднее значение квадратов разностей между предсказанными и фактическими значениями.

Формула MSE выглядит следующим образом:

MSE = 1/n * ∑(y — ŷ)²

Где:

  • n – количество наблюдений;
  • y – фактическое значение;
  • ŷ – предсказанное значение.

Чем меньше значение MSE, тем лучше модель. Это связано с тем, что MSE учитывает не только абсолютные различия между предсказанными и фактическими значениями, но и их отклонения в квадрате. Таким образом, модели с меньшей MSE имеют более точные прогнозы.

Содержание

  1. Что такое среднеквадратическая ошибка
  2. Определение среднеквадратической ошибки
  3. Формула среднеквадратической ошибки
  4. Примеры среднеквадратической ошибки
  5. Применение среднеквадратической ошибки
  6. Вопрос-ответ
  7. Что такое среднеквадратическая ошибка?
  8. Зачем нужна среднеквадратическая ошибка?
  9. Можете привести пример использования среднеквадратической ошибки?
  10. Как интерпретировать значение среднеквадратической ошибки?

Что такое среднеквадратическая ошибка

Среднеквадратическая ошибка (MSE) — это мера отклонения между фактическими и прогнозируемыми значениями в регрессионном анализе. Она используется для определения точности модели предсказания.

Чтобы вычислить среднеквадратическую ошибку, необходимо:

  1. Вычесть фактическое значение от прогнозируемого значения.
  2. Возвести полученную разницу в квадрат.
  3. Повторить эту операцию для каждой пары фактического и прогнозируемого значений.
  4. Сложить все полученные квадраты.
  5. Поделить сумму квадратов на количество пар значений.

Формула для вычисления среднеквадратической ошибки выглядит следующим образом:

MSE = (1/n) * Σ(yi — yhat,i)2

Где:

  • MSE — среднеквадратическая ошибка;
  • n — количество пар значений;
  • yi — фактическое значение;
  • yhat,i — прогнозируемое значение.

Среднеквадратическая ошибка позволяет оценить точность модели предсказания. Чем меньше значение MSE, тем лучше модель соответствует фактическим данным. Если значение MSE высоко, это может указывать на неправильную модель или некорректные входные данные.

Например, если модель предсказывает цены на недвижимость на основе различных факторов, среднеквадратическая ошибка позволит оценить, насколько точна модель. Чем ближе значение MSE к нулю, тем более точные прогнозы делает модель.

Определение среднеквадратической ошибки

Среднеквадратическая ошибка (Mean Squared Error, MSE) — это одна из основных метрик, используемых для измерения точности модели машинного обучения. Она представляет собой среднее значение квадратов отклонений прогнозируемых значений от истинных значений.

MSE является одной из наиболее популярных и широко используемых метрик для задач регрессии. Она позволяет оценить, насколько хорошо модель предсказывает истинные значения в числовой форме.

Формула для вычисления среднеквадратической ошибки MSE:

Формула Описание
MSE = (1/n) * Σ(y — ŷ)^2 где:
n количество наблюдений
y истинное значение
ŷ прогнозируемое значение

Чем ниже значение MSE, тем лучше модель предсказывает истинные значения. Ошибки возводятся в квадрат, чтобы позитивные и негативные отклонения не сбалансировали друг друга.

Пример использования MSE: предположим, у нас есть регрессионная модель, которая прогнозирует цены на недвижимость. Мы можем вычислить MSE для этой модели, сравнивая прогнозируемые цены с реальными ценами на недвижимость и определить, насколько точно модель предсказывает истинные значения.

Формула среднеквадратической ошибки

Среднеквадратическая ошибка (СКО) — это статистическая мера, которая позволяет оценить разницу между значениями, полученными в результате эксперимента или прогнозирования, и ожидаемыми значениями.

Формула для вычисления СКО:

Формула : СКО = √((Σ(значениефактическое — значениеожидаемое)²) / n)
Где:
Σ : сумма значений
значениефактическое : значение, полученное в результате эксперимента или прогнозирования
значениеожидаемое : ожидаемое значение
n : количество измерений

Формула СКО применяется в различных областях, таких как статистика, эконометрика, машинное обучение и других, для определения точности прогноза или модели.

Примеры среднеквадратической ошибки

Пример 1:

Рассмотрим задачу о предсказании цены на недвижимость. У нас есть данные о проданных квартирах и реальных ценах на них. Мы обучили модель машинного обучения, которая предсказывает цену на основе различных характеристик квартиры, таких как площадь, количество комнат и расположение. Чтобы оценить точность нашей модели, мы вычисляем среднеквадратическую ошибку между предсказанными и реальными ценами.

import numpy as np

# Предсказанные цены на основе модели

predicted_prices = np.array([100000, 150000, 200000, 120000])

# Реальные цены на квартиры

actual_prices = np.array([110000, 140000, 210000, 130000])

# Вычисление среднеквадратической ошибки

mse = np.mean((actual_prices - predicted_prices)**2)

# Вывод результата

print("Среднеквадратическая ошибка:", mse)

В данном примере мы имеем значения предсказанных цен на квартиры (100000, 150000, 200000, 120000) и реальные цены на эти квартиры (110000, 140000, 210000, 130000). После вычисления среднеквадратической ошибки получаем результат 18000000.

Пример 2:

Рассмотрим задачу о предсказании оценок студентов. У нас есть данные об истинных и предсказанных оценках для каждого студента. Мы хотим оценить точность нашей модели, чтобы определить, насколько хорошо она предсказывает оценки студентов.

import numpy as np

# Предсказанные оценки студентов

predicted_grades = np.array([3, 4, 5, 4, 5, 2, 3, 4])

# Истинные оценки студентов

actual_grades = np.array([4, 4, 5, 3, 5, 2, 4, 5])

# Вычисление среднеквадратической ошибки

mse = np.mean((actual_grades - predicted_grades)**2)

# Вывод результата

print("Среднеквадратическая ошибка:", mse)

В данном примере мы имеем предсказанные оценки студентов (3, 4, 5, 4, 5, 2, 3, 4) и истинные оценки студентов (4, 4, 5, 3, 5, 2, 4, 5). После вычисления среднеквадратической ошибки получаем результат 0.5.

Пример 3:

Рассмотрим задачу об оценке прогнозов погоды. У нас есть данные о прогнозах температуры на следующий день и реальных значений температуры. Мы хотим определить, насколько точными были эти прогнозы.

import numpy as np

# Предсказанные значения температуры

predicted_temperatures = np.array([25, 26, 24, 27, 25, 23])

# Реальные значения температуры

actual_temperatures = np.array([24, 24, 25, 26, 26, 22])

# Вычисление среднеквадратической ошибки

mse = np.mean((actual_temperatures - predicted_temperatures)**2)

# Вывод результата

print("Среднеквадратическая ошибка:", mse)

В данном примере мы имеем значения предсказанных температур (25, 26, 24, 27, 25, 23) и реальных значений температур (24, 24, 25, 26, 26, 22). После вычисления среднеквадратической ошибки получаем результат 0.8333333333333334.

Применение среднеквадратической ошибки

Среднеквадратическая ошибка (Mean Squared Error, MSE) является одной из наиболее распространенных метрик для оценки качества моделей в задачах регрессии. Она позволяет измерить, насколько сильно модель отклоняется от фактических значений целевой переменной.

MSE вычисляется путем разности между предсказанным значением и фактическим значением целевой переменной, возведенной в квадрат, а затем усреднения всех этих разностей.

Применение MSE связано с рядом преимуществ:

  • Интерпретируемость – MSE можно легко интерпретировать, поскольку она измеряет среднюю ошибку модели в единицах измерения целевой переменной. Это делает ее удобной для понимания и объяснения результатов.
  • Дифференцируемость – MSE является дифференцируемой функцией, что позволяет использовать ее в градиентных методах оптимизации при обучении моделей.
  • Математическое обоснование – MSE является состоятельной оценкой и обладает определенными математическими свойствами. Например, минимизация MSE эквивалентна максимизации правдоподобия модели.

Применение среднеквадратической ошибки позволяет сравнивать различные модели регрессии, выбирать наилучшую модель и оптимизировать ее параметры. Также MSE может быть использована для оценки степени переобучения модели и выбора оптимального числа признаков.

Например, при обучении модели линейной регрессии мы можем использовать MSE для вычисления ошибки модели на тренировочной и тестовой выборках, и выбрать такую модель, которая имеет наименьшую среднеквадратическую ошибку на тестовой выборке – это поможет нам избежать недообучения или переобучения модели.

В целом, среднеквадратическая ошибка является мощным и универсальным инструментом для оценки качества моделей регрессии и оптимизации их параметров.

Вопрос-ответ

Что такое среднеквадратическая ошибка?

Среднеквадратическая ошибка (СКО) — это метрика, которая позволяет измерить разницу между фактическими и предсказанными значениями. Она вычисляется путем нахождения среднего значения квадратов разностей между фактическими и предсказанными значениями. Чем меньше значение СКО, тем более точными будут предсказания. Формула для расчета СКО: СКО = sqrt((1/n) * ∑(y — y_hat)^2), где n — количество наблюдений, y — фактическое значение, y_hat — предсказанное значение.

Зачем нужна среднеквадратическая ошибка?

Среднеквадратическая ошибка является популярной и широко используемой метрикой в различных областях, таких как статистика, экономика и машинное обучение. Она позволяет оценить точность модели или предсказаний путем измерения разницы между фактическими и предсказанными значениями. С помощью СКО можно сравнивать разные модели или алгоритмы, выбирать самый точный и оптимальный вариант.

Можете привести пример использования среднеквадратической ошибки?

Допустим, у вас есть модель, которая предсказывает цены недвижимости на основе различных факторов, таких как площадь, количество комнат и расстояние до центра города. Вы можете использовать среднеквадратическую ошибку для измерения точности вашей модели, сравнивая фактические цены с предсказанными. Если СКО будет низким, это будет означать, что ваша модель хорошо предсказывает цены и достаточно точна. В противном случае, если СКО будет высоким, это будет указывать на низкую точность модели.

Как интерпретировать значение среднеквадратической ошибки?

Значение среднеквадратической ошибки интерпретируется как средняя разница между фактическими и предсказанными значениями. Чем меньше это значение, тем более точными являются предсказания. Например, если среднеквадратическая ошибка равна 1000, это означает, что ваша модель в среднем ошибается на 1000 единиц. Однако, интерпретация значения СКО может варьироваться в зависимости от контекста применения и конкретной задачи, поэтому важно принимать это во внимание при анализе результатов.

Среднеквадратическая ошибка (СКО) — это показатель, который используется для оценки точности прогнозной модели или метода измерения. Она представляет собой среднее значение квадратов разностей между истинными и прогнозируемыми значениями. СКО часто используется в статистике и машинном обучении, чтобы определить насколько хорошо модель или метод способны предсказать данные.

Понимание и использование СКО позволяет оценивать точность и надежность результатов предсказания. Чем меньше значение СКО, тем ближе прогнозируемые значения к истинным и, следовательно, тем точнее модель или метод. Оценка СКО также позволяет сравнивать различные модели или методы и выбирать наилучший вариант на основе их предсказательной силы.

Например, рассмотрим задачу предсказания цен на недвижимость. Пусть у нас есть модель, которая прогнозирует стоимость дома на основе таких факторов, как площадь, количество комнат и близость к центру города. Мы можем использовать СКО, чтобы оценить точность модели, сравнивая прогнозируемые цены с фактическими ценами, которые уже проданы. Если значение СКО будет низким, это будет означать, что модель достаточно точно предсказывает цены на недвижимость.

Таким образом, среднеквадратическая ошибка играет важную роль в оценке и сравнении моделей и методов прогнозирования. Понимание этого показателя поможет вам принимать более информированные решения и улучшать точность ваших предсказательных моделей или методов.

Содержание

  1. Что такое среднеквадратическая ошибка?
  2. Определение и объяснение
  3. Примеры использования

Что такое среднеквадратическая ошибка?

Математически MSE вычисляется как среднее арифметическое квадратов разностей между предсказанием и фактическим значением для каждого наблюдения:

MSE = (1/n) * Σ(yᵢ — ŷᵢ)²

где n – количество наблюдений, yᵢ – фактическое значение, ŷᵢ – предсказанное значение.

Значение MSE всегда положительно. Чем меньше значение MSE, тем лучше модель. Идеальное значение MSE равно 0, что означает, что все предсказанные значения совпадают с фактическими. При увеличении значения MSE модель становится менее точной и имеет большее отклонение от истинных значений.

Среднеквадратическая ошибка широко применяется в различных областях, например, в финансах, экономике, при анализе временных рядов и в других областях, где требуется оценка точности модели.

Пример использования MSE: предположим, что у нас есть модель прогнозирования цен на недвижимость. Мы можем использовать MSE для оценки разницы между предсказаниями модели и реальными ценами на недвижимость. Чем меньше значение MSE, тем точнее модель и лучше она предсказывает реальные цены.

Определение и объяснение

Чтобы вычислить MSE, необходимо выполнить следующие шаги:

  1. Получить набор прогнозируемых значений (y_pred) и фактических значений (y_true).
  2. Вычислить квадратичную разницу между каждым прогнозируемым и фактическим значением. Для этого необходимо вычесть фактическое значение из прогнозируемого значения и возвести результат в квадрат.
  3. Найти среднее значение всех полученных квадратичных разниц. Для этого необходимо просуммировать все квадратичные разницы и разделить сумму на количество значений.

Таким образом, MSE предоставляет нам числовую оценку среднеквадратичной разницы между прогнозируемыми и фактическими значениями. Чем меньше значение MSE, тем более точной является модель или алгоритм. Высокое значение MSE указывает на большую разницу между предсказанными и фактическими значениями, что может говорить о недостаточной точности модели.

Примеры использования

Среднеквадратическая ошибка (СКО) широко используется в различных областях, где требуется оценить точность моделили прогнозировать будущие значения. Ниже приведены некоторые примеры использования СКО:

  1. Прогнозирование погоды: В метеорологии СКО применяется для оценки точности прогнозов погоды. Она сравнивает прогнозируемые и реальные значения параметров погоды, таких как температура, осадки и скорость ветра.
  2. Финансовый анализ: В финансовой сфере СКО используется для оценки точности прогнозов цен на акции или показателей рынка. Например, она может быть использована для определения, насколько сильно прогнозные значения отклоняются от фактических цен.
  3. Машинное обучение: В машинном обучении СКО часто используется как функция потерь, которая указывает на разницу между предсказанными и реальными значениями. Она помогает настраивать параметры модели с целью минимизации ошибки.
  4. Статистический анализ: В статистике СКО применяется для оценки точности подгонки модели к данным. Чем меньше СКО, тем лучше модель объясняет данные и предсказывает будущие значения.
  5. Инженерия и наука: В различных инженерных и научных областях СКО может быть использована для оценки точности измерений, калибровки приборов или контроля качества продукции.

Это лишь некоторые примеры применения среднеквадратической ошибки. В каждой конкретной области она может использоваться с определенными модификациями или в сочетании с другими методами оценки точности.

Понравилась статья? Поделить с друзьями:
  • Среди систем органов найди ошибку
  • Справочный номер ошибки 1020
  • Среднеквадратическая ошибка пример
  • Среднее стандартная ошибка медиана мода
  • Среднеквадратичные отклонения и суммарную ошибку