ФЭНДОМ


2-я комиссия 11 января 2012Править

1 вариант:

  1. Функция распределения и ее свойства. (они хотели видеть 4 свойства)
  2. Устойчивость распределений. Теорема Леви.
  3. Пуассоновские и геометрические случайные суммы. Определения. Связь между ними.
  4. Найти коэффициент эксцесса нормального распределения с нулевым матожиданием и дисперсией равной двум.



2 вариант:

  1. Определение вероятностного пространства.
  2. Определение безграничной делимости. Теорема Хинчина.
  3. Смеси вероятностных распределений. Определение. Идентифицируемость.
  4. Случайные величины $ \ X \sim N(0,1) $ и $ Y = \begin{cases} 1, \quad \frac{1}{2} \\ 3, \quad \frac{1}{4}\\ 5, \quad \frac{1}{4} \end{cases} $. Найти математическое ожидание смеси $ Z~=~XY $.

Зачет 23 декабря 2011Править

1 вариант:

  1. Мат. модели центра случайной величины
  2. Дифференциальная энтропия, свойства некоторых распределений.
  3. Дважды стохастический пуассоновский процесс
  4. Доказать $ \mathbb P (|x-a|<3b)>=\frac{8}{9} $ при $ \mathbb E x=a, \mathbb D x=b^2 $


2 вариант: (Совпал с 4.2)

  1. Определение и свойства ковариации и коэффициента корреляции.
  2. Определение Пуассоновского процесса.
  3. Определение обобщённого процесса Кокса.
  4. Найти дифференциальную энтропию случайной величины, имеющей равномерное случайное распределение на $ [0,2] $.

Зачет 22 декабря 2011 годаПравить

1 вариант:

  1. Вероятностная модель. Адекватность. Стохастическая ситуация.
  2. Сходимость случайных величин.
  3. Информационные свойства Пуассоновского процесса.
  4. Найти дисперсию пуассоновской суммы.

2 вариант:

  1. Определение вероятностного пространства.
  2. Закон больших чисел. Оценка сходимости с помощью ЦПТ(вот это почти у всего 2 варианта на минус).
  3. Случайные суммы и их простейшие свойства.
  4. Найти дифференциальную энтропию показательного распределения с параметром 1.

Зачёт 21 декабря 2011 годаПравить

1 вариант:

  1. Определение энтропии эксперимента
  2. Теорема переноса
  3. Парадокс Бертрана
  4. Доказать: $ |\mathbb E \xi - med\xi|\leqslant\sqrt{\mathbb D \xi} $

2 вариант:

  1. Математические модели разброса с.в.
  2. Основные свойства энтропии(теорема Фадеева тоже к этому относится)
  3. Аналог теоремы Пуассона для случайной суммы индикаторов
  4. Найти дисперсию геометрической случайной суммы $ N \sim Geom(p), \mathbb E \xi_i = a, \mathbb D \xi_i = b^2 $

Зачёт 21 декабря 2010 годаПравить

2 вариант:
1)Вероятностное пространство
2)Закон больших чисел, оценка с помощью ЦПТ
3)Случайная сумма.Опр. и св-ва.
4)Найти диф. энтропию показательного распределения (лямда=1)

1 вариант:
1) Определение вероятностной модели и условия ее применимости
2) Виды сходимостей случайных величин (определения)
3) Информ св-ва Пуассон процесса
4) Задача: найти дисперсию Пуассон случ. суммы(лямда=1) норсв Хi с мат.ожиданием а, дисперсией сигма^2

Другие варианты (2010)Править

Вариант 1.1 (2010 год)

  1. Определение вероятностной модели и условия её применимости.
  2. Виды сходимостей случайных величин.
  3. Информационные свойства пуассоновского процесса.
  4. Задача: найти дисперсию Пуассоновской случайной суммы.

Вариант 1.2 (2010 год)

  1. Определение вероятностного пространства
  2. Закон больших чисел. Оценка сходимости с помощью ЦПТ(вот это почти у всего 2 варианта на минус)
  3. Случайные суммы и их простейшие свойства
  4. Найти дифференциальную энтропию показательного распределения с параметром 1

Вариант 2.1 (2010 год)

  1. Определение случайной величины
  2. ЦПТ, оценка скорости сходимости
  3. Пуассоновские и геометрич. случ. суммы. Определение, связь
  4. Сл.вел. Xi (i = 1, 2) принимает знач. 1 с вер. р и ai (|ai| < 1) с вер. 1-р. Найти расстояние Леви между X1 и X2.

Вариант 2.2 (2010 год)

  1. Определение функции распределения. Основные свойства. (1)
  2. Теорема Пуассона. (7)
  3. Смеси вероятностных распределений. Определение. Идентифицируемость. (16)
  4. Случайная величина принимает значения 1, 4, 5 и 8 с вероятностями 1/2, 1/4, 1/8 и 1/8 соответственно. Найти её энтропию.

Вариант 3.1 (2010 год)

  1. Парадокс Бертрана
  2. Определение энтропии эксперимента
  3. Теорема переноса
  4. Доказать что мат. ожидание |e-med(e)|<=корня из дисперсии

Вариант 3.2 (2010 год)

  1. Математические модели разброса сл. величины
  2. Основные свойства энтропии
  3. Аналог теоремы пуассона для сл. сумм
  4. Найти дисперсию геометрической сл. суммы с заданным мат. ожиданием и дисперсией суммируемых случ. величин.

Вариант 4.1 (2010 год)

  1. Определение независимых событий и независимых случайных величин.
  2. Безграничная делимость распределения. Теорема Хинчина.
  3. ЦПТ для обобщённого процесса Кокса.
  4. $ X_1,\dots $независимые одинаково распределённые случайные величины

Характеристика $ X_1 $ равна $ f(t) $ $ N $ — случайная величина, не зависящая от $ X_1,\dots $ и имеющая пуассоновское распределение с параметром $ \lambda=1 $. Найти характеристическую функцию случайной величины $ (X_1+\dots+X_N) $

Вариант 4.2 (2010 год)

  1. Определение и свойства ковариации и коэффициента корреляции.
  2. Определение Пуассоновского процесса.
  3. Определение обобщённого процесса Кокса.
  4. Найти дифференциальную энтропию случайной величины, имеющей равномерное случайное распределение на [0,2].

Последняя комиссия, февраль 2011Править

1) Построить вероятностную модель для эксперимента: монета подбрасывается до тех пор, пока два раза подряд не выпадет герб (обсуждение).
2) $ S_{N_{\lambda}}=\sum\limits_{i=1}^{N_{\lambda}} X_i $ - пуассоновская случайная сумма. Доказать, что $ \frac{S_N}{\sqrt{\lambda}}\Rightarrow N(0, 1) $ при $ {\lambda} \to \infty $. $ N(0, 1) $ - стандартное нормальное распределение. (обсуждение)
3) Найти дифференциальную энтропию нормального распределения