This shows you the differences between two versions of the page.
Both sides previous revision Previous revision Next revision | Previous revision | ||
courses:data_analysis_and_interpretation:task3 [2019/07/26 15:08] andrey.suchkov [Задание на разработку статистических данных] |
courses:data_analysis_and_interpretation:task3 [2022/12/10 09:08] (current) |
||
---|---|---|---|
Line 22: | Line 22: | ||
\end{pmatrix}, | \end{pmatrix}, | ||
$$ | $$ | ||
- | $r_{ij} = r_{ji}$, $r_{ij} = 0$ при $i = j$. Элементы матрицы можно найти как: | + | $r_{ij} = r_{ji}$, $r_{ii} = 0$. Элементы матрицы можно найти как: |
$$ | $$ | ||
r_{ij}^2 = (\mu_i - \mu_j)^T\Sigma^{-1}(\mu_i - \mu_j), | r_{ij}^2 = (\mu_i - \mu_j)^T\Sigma^{-1}(\mu_i - \mu_j), | ||
Line 34: | Line 34: | ||
//Пошаговый анализ с включением.// В пошаговом анализе дискриминантных функций модель дискриминации строится по шагам. Точнее, на каждом шаге просматриваются все переменные и находится та из них, которая вносит наибольший вклад в различие между совокупностями. Эта переменная должна быть включена в модель на данном шаге, и происходит переход к следующему шагу. | //Пошаговый анализ с включением.// В пошаговом анализе дискриминантных функций модель дискриминации строится по шагам. Точнее, на каждом шаге просматриваются все переменные и находится та из них, которая вносит наибольший вклад в различие между совокупностями. Эта переменная должна быть включена в модель на данном шаге, и происходит переход к следующему шагу. | ||
- | //Пошаговый анализ с исключением.// Можно также двигаться в обратном направлении, в этом случае все переменные будут сначала включены в модель, а затем на каждом шаге будут устраняться переменные, вносящие малый вклад в предсказания. Тогда в качестве результата успешного анализа можно сохранить только "важные" переменные в модели, то есть те переменные, чей вклад в дискриминацию больше остальных. Эта пошаговая процедура "руководствуется" соответствующим значением $F$ для включения и соответствующим значением $F$ для исключения. Значение $F$ статистики для переменной указывает на ее статистическую значимость при дискриминации между совокупностями, то есть, она является мерой вклада переменной в предсказание членства в совокупности. | + | //Пошаговый анализ с исключением.// Можно также двигаться в обратном направлении, в этом случае все переменные будут сначала включены в модель, а затем на каждом шаге будут устраняться переменные, вносящие малый вклад в предсказания. Тогда в качестве результата успешного анализа можно сохранить только "важные" переменные в модели, то есть те переменные, чей вклад в дискриминацию больше остальных. Эта пошаговая процедура <<руководствуется>> соответствующим значением $F$ для включения и соответствующим значением $F$ для исключения. Значение $F$ статистики для переменной указывает на ее статистическую значимость при дискриминации между совокупностями, то есть, она является мерой вклада переменной в предсказание членства в совокупности. |
===== Постановка задачи ===== | ===== Постановка задачи ===== | ||
===== Порядок выполнения работы ===== | ===== Порядок выполнения работы ===== | ||
===== Варианты заданий ===== | ===== Варианты заданий ===== | ||
- | Модель представляет собой набор многомерных векторов $\vec x = (x_1, \dots, x_m)$ , $m = 2, 3$, имеющих заданные вектора математических ожиданий $\mu_i$, $i = 1..M$ и заданные ковариационные матрицы (одинаковые по классам), которые имеют вид $\Sigma = \mathop{\mathrm{diag}}\nolimits\{\sigma_1, \dots, \sigma_m\}$. Компоненты векторов имеют нормальное распределение. Количество классов равно $M = 2, 3$. | + | Модель представляет собой набор многомерных векторов $\vec x = (x_1, \dots, x_m)$ , $m = 2, 3$, имеющих заданные вектора математических ожиданий $\mu_i$, $i = \overline{1..M}$ и заданные ковариационные матрицы (одинаковые по классам), которые имеют вид $\Sigma = \mathop{\mathrm{diag}}\nolimits\{\sigma_1, \dots, \sigma_m\}$. Компоненты векторов имеют нормальное распределение. Количество классов равно $M = 2, 3$. |
^ № варианта ^ Размерность $m$ ^ Объём выборки $N$ по классу ^ Вектора $\mu_i$ ^ Значения $\sigma_i$ ^ Количество классов $M$ ^ | ^ № варианта ^ Размерность $m$ ^ Объём выборки $N$ по классу ^ Вектора $\mu_i$ ^ Значения $\sigma_i$ ^ Количество классов $M$ ^ | ||
| 1 | 2 | 100 | $\mu_1 = (1,\,2)^T \\ \mu_2 = (1,\,-2)^T$ | $\sigma_1 = 1 \\ \sigma_2 = 1$ | 2 | | | 1 | 2 | 100 | $\mu_1 = (1,\,2)^T \\ \mu_2 = (1,\,-2)^T$ | $\sigma_1 = 1 \\ \sigma_2 = 1$ | 2 | |