РУБРИКИ

Шпора: Теория вероятностей

 РЕКОМЕНДУЕМ

Главная

Правоохранительные органы

Предпринимательство

Психология

Радиоэлектроника

Режущий инструмент

Коммуникации и связь

Косметология

Криминалистика

Криминология

Криптология

Информатика

Искусство и культура

Масс-медиа и реклама

Математика

Медицина

Религия и мифология

ПОДПИСКА НА ОБНОВЛЕНИЕ

Рассылка рефератов

ПОИСК

Шпора: Теория вероятностей

Шпора: Теория вероятностей

Основы комбинаторики. Комбинаторика это раздел математики в котором изучается вопрос о том сколько различных комбинаций подчиненных тем или иным условиям можно составить из конечного числа различных элементов. Комбинации отличающиеся друг от друга составом элементов или их порядком называются соединениями различают три вида соединений. Размещениями называются соединения составленные из n-различных элементов по m-элементам, которые отличаются друг от друга либо составом эл-тов либо их порядком. Шпора: Теория вероятностей Перестановки называют соединения составленные из одних и тех же n-элементов, которые отличаются друг от друга только их порядком размещения Шпора: Теория вероятностей Шпора: Теория вероятностей Сочетаниями называются соединения составленные из n-различных элементов по m- элементам, которые отличаются друг от друга хотя бы одним элементом. Шпора: Теория вероятностей Сочетания с повторениями это такие соединения состоящие из n-различных элементов по m-элементам отличающиеся друг от друга или хотя бы одним элементом или тем что хотя бы один элемент входит различное число раз Шпора: Теория вероятностей Правило суммы Если некоторый объект А может быть выбран из совокупности объектов М способами, а объект В N способами, то выбор либо объекта А либо объекта В может быть осуществлен М+N способами. Правило произведения Если объект А может быть выбран из совокупности объектов М способами, а после такого выбора объект В может быть выбран N способами, то пара объесков А и В могут быть выбраны А*В способами. Основные понятия теории вероятностей Событием называется любой исход опыта, различают следующие виды событий: - случайные - достоверные - невозможные Понятие достоверного и невозможного события используется для количественной оценки возможности появления того или иного явления, а с количественной оценкой связана вероятность. События называется несовместными в данном опыте если появление одного из них исключает появление другого. События называется совместными если появление одного из них не исключает появление остальных. Несколько событий образуют полную группу событий если в результате опыта обязательно появится хотя бы одно из них. Если два несовместных события образуют полную группу они называются противоположными События называется равновозможными если появление ни одного из них не является объективно более возможным чем другие. События называются неравновозможными если появление хотя бы одного из них является более возможным чем другие. Случаями называются несовместные равновозможные и образующие полную группу события. Вычисление вероятностей 1. классический способ 2. геометрический 3. статистический Первые два способа называются способами непосредственного подсчета вероятности, а классический основан на подсчете числа опытов благоприятствующих данному событию среди всех его возможных исходах. Основы теории вероятности Суммой событий Аi называется событие С состоящее в появлении события А или события В или их обоих вместе. Суммой события А и В называется событие С заключенное в выполнении хотя бы одного из названых событий. Произведением нескольких событий называется событие заключающееся в совместном выполнении всех этих событий. Теорема умножения вероятностей. Событие А называется зависимым от события В если его вероятность меняется в зависимости от того произошло событие В или нет. Для независимых событий условная и безусловная вероятность совпадают. Вероятность появления двух зависимых событий равна произведению вероятностей одного из них на вероятность другого вычисленную при условии, что первое событие имело место. Р(А*В)=Р(А)*Р(В/А)=Р(В)*Р(В/А) Вероятность произведения нескольких событий равна произведению вероятностей этих событий причем вероятность каждого следующего события вычисляется при условии, что все предыдущие имели место. Р(А1;А2.Аn)=Р(А1)*Р(А2/А1)*. *Р(Аn/А1,А2.Аn-1) Теорема сложения вероятностей совместных событий Вероятность суммы двух совместных событий равна сумме вероятностей этих событий без вероятности их совместного появления. Р(А)+Р(В)=Р(А)+Р(В)-Р(А*В) Вероятность появления хотя бы одного события Вероятность появления события А заключающееся в наступлении хотя бы одного из независимых совокупностей событий .А1,А2.Аn равна разности между единицей и произведением вероятности противоположных событий А1,А2.Аn Р(А)=1-q1*q2*.*qn Формула полной вероятности Пусть событие А может появиться вместе с одним из образующих полную группу попарнонесовместных событий Н1,Н2.Нn называемых гипотезами, тогда вероятность события А вычисляется как сумма произведений вероятностей каждой гипотезы на вероятность события А при этой гипотезе Шпора: Теория вероятностей Формула Бейса Пусть имеется полная группа попарнонесовместных гипотез Н1,Н2 .Нn с известными вероятностями появления. В результате проведения опыта появилось некоторое события А, требуется переоценить вероятности гипотез при условии, что событие А произошло Шпора: Теория вероятностей Повторение опытов Несколько опытов называются независимыми, если вероятность одного или иного из исходов каждого их опытов не зависит от того какие исходы имели другие опыты. Теорема. Если производится n независимых опытов в каждом из которых событие А появляется с одинаковой вероятностью р, причем то тогда вероятность того, что событие А появится ровно m раз определяется по формуле. Формула Бернули Шпора: Теория вероятностей формула Бернули применяется в тех случаях, когда число опытов невелико, а вероятности появления достаточно велики. Если число испытаний n стремится к 0, а вероятность появления события А в каждом из опытов р стремится к 0, то для определения вероятности появления события А ровно m раз применяют формулу Пуассона Шпора: Теория вероятностей a=n*p Если число опытов достаточно велико но не бесконечно, а вероятность появления события А в каждом опыте не стремится к 0, применяют локальную и интегральную теоремы Лапласа Локальная теорема Лапласа. Вероятность того, что в n независимых испытаниях в каждом из которых вероятность появления события А равно р причем 1>р>0, то это событие наступает ровно m раз приблизительно равна Шпора: Теория вероятностей Интегральная теорема Лапласа. Вероятность того, что в n независимых испытаниях в каждом из которых вероятность появления события А равно р, причем 1>р>0, то событие А наступит не менее m1 раз и не более m 2 раза приблизительно равно Шпора: Теория вероятностей Случайные величины и законы их распределения Опытом называется всякое осуществление определенных условий и действий при которых наблюдается изучаемое случайное явление. Опыты можно характеризовать качественно и количественно. Случайной называется величина, которая в результате опыта может принимать то или иное значение., причем заранее не известно какое именно. Случайные величины принято обозначать (X,Y,Z), а соответствующие им значения (x,y,z) Дискретными называются случайные величины принимающие отдельные изолированные друг от друга значения, которые можно переоценить. Непрерывными величины возможные значение которых непрерывно заполняют некоторый диапазон. Законом распределения случайной величины называется всякое соотношение устанавливающее связь между возможными значениями случайных величин и соответствующими им вероятности. Ряд и многоугольник распределения. Простейшей формой закона распределения дискретной величины является ряд распределения.
xx1x2x3
PP1P2P3
Графической интерпретацией ряда распределения является многоугольник распределения. Функция распределения случайной величины. Для непрерывных случайных величин применяют такую форму закона распределения, как функция распределения. Функция распределения случайной величины Х, называется функцией аргумента х, что случайная величина Х принимает любое значение меньшее х (Х<х) F(х)=Р(Х<х) F(х) - иногда называют интегральной функцией распределения или интегральным законом распределения. Функция распределения обладает следующими свойствами: 1. 0<F(х)<1 2. если х1>х2,то F(х1)>F(х2) 3. Шпора: Теория вероятностей функция может быть изображена в виде графика. Для непрерывной величины это будет кривая изменяющееся в пределах от 0 до 1, а для дискретной величины - ступенчатая фигура со скачками. С помощью функции распределения легко находится вероятность попадания величины на участок от α до β Р(α<х<β) рассмотрим 3 события А - α<Х В - α<Х<β С - Х<β С=А+В Р(С)=Р(А)+Р(В) Р(α<х<β)=Р(α)-Р(β) Плотность распределения вероятности непрерывной случайной величины. Плотность распределения вероятности непрерывной случайной величины Х называется функция f(х) равная первой производной от функции распределения F(х) График плотности распределения называется кривой распределения. Основные свойства плотности функции распределения: 1. f(х)>0 2. Шпора: Теория вероятностей Характеристики положения случайной величины. Модой (Мо) случайной величины х называется наиболее вероятное ее значение. Это определение строго относится к дискретным случайным величинам. Для непрерывной величины модой называется такое ее значение для которого ф-ция плотности распределения имеет максимальную величину. Медианой (Ме) случайной величины называется такое ее значение для которого окажется ли случайная величина меньше этого значения. Для непрерывной случайной величины медиана это абсцисса точки в которой площадь под кривой распределяется пополам. Для дискретной случайной величины значение медианы зависит от того четное или нечетное значение случайной величины n=2k+1, то Ме=хк+1 (среднее по порядку значение) Если значение случайных величин четное, т.е n=2k, то Шпора: Теория вероятностей Математическое ожидание случайной величины. Математическим ожиданием случайной величины х (M[x])называется средне взвешенно значение случайной величины причем в качестве весов выступают вероятности появления тех или иных значений. Для дискретной случайной величины Шпора: Теория вероятностей Для непрерывной Шпора: Теория вероятностей С механической точки зрения мат. Ожидание это абсцисса центра тяжести системы точек расположенных по одноименной оси. Размерность мат. Ожидания совпадает с размерностью самой случайной величины. Математическое ожидание случайной величины всегда больше наименьшего значения и меньше наибольшего. Характеристики рассеяния. Дисперсия Дисперсия (D[x]) характеризует рассеивание или разряженность случайной величины около ее математического ожидания. Для дискретныхШпора: Теория вероятностей Для непрерывных Шпора: Теория вероятностей Дисперсия случайной величины всегда величина положительная Размерность дисперсии равна квадрату разности случайной величины Среднеквадратическое (стандартное) отклонение. Шпора: Теория вероятностей Некоторые законы распределения случайных величин. Для дискретных случайных величин - биномиальное распределение и распределение Пуассона Для непрерывных - равномерное показательное, экспоненциальное и нормальное распределение. Биномиальное распределение. Биномиальным называют законы распределения случайной величины Х числа появления некоторого события в n опытах если вероятность р появления события в каждом опыте постоянна Шпора: Теория вероятностей Сумма вероятностей представляют собой бином Ньютона Шпора: Теория вероятностей Для определения числовых характеристик в биномиальное распределение подставить вероятность которая определяется по формуле Бернули. Шпора: Теория вероятностей Шпора: Теория вероятностей При биномиальном распределении дисперсия равна мат. Ожиданию умноженному на вероятность появления события в отдельном опыте. Распределение Пуассона Когда требуется спрогнозировать ожидаемую очередь и разумно сбалансировать число и производительность точек обслуживания и время ожидания в очереди. Пуассоновским называют закон распределения дискретной случайной величины Х числа появления некоторого события в n-независимых опытах если вероятность того, что событие появится ровно m раз определяется по формуле. Шпора: Теория вероятностей a=np n-число проведенных опытов р-вероятность появления события в каждом опыте В теории массового обслуживания параметр пуассоновского распределения определяется по формуле а=λt , где λ - интенсивность потока сообщений t-время Необходимо отметить, что пуассоновское распределение является предельным случаем биномиального, когда испытаний стремится к бесконечности, а вероятность появления события в каждом опыте стремится к 0. Шпора: Теория вероятностей Пуассоновское распределение является единичным распределением для которого такие характеристики как мат. Ожидание и дисперсия совпадают и они равны параметру этого закона распределения а. Закон равномерной плотности Равномерным называется распределение непрерывной случайной величины Х все значения которой лежат на отрезке [a;b] и имеют при этом постоянную плотность распределения Шпора: Теория вероятностей площадь под кривой распределения равна 1 и поэтому с(в-а)=1 Шпора: Теория вероятностей вероятность попадания случайной величины Х на интервал от (α;β) Шпора: Теория вероятностей α=а, если α<а β=в, если β>в основные числовые характеристики закона распределения плотности вычисляются по общим формулам и они равны Шпора: Теория вероятностей Показательное (экспоненциальное распределение) Показательным называют распределение непрерывной случайной величины Х которое описывается следующей дифференциальной функцией Шпора: Теория вероятностей Экспоненциальное распределение для непрерывных случайных величин является аналогом распределения Пуассона для дискретных случайных величин и имеет следующий вид. Шпора: Теория вероятностей вероятность попадания случайной величины Х на интервал (α;β) Шпора: Теория вероятностей Следует отметить, что время безотказной работы удовлетворяется именно показательному закону, а поэтому это понятие часто используется в понятии надежности. Нормальный закон распределения (закон Гаусса) Нормальным называется распределение случайной величины Х если ф-ция плотности распределения Шпора: Теория вероятностей Шпора: Теория вероятностей Полученное выражение через элементарные функции не может быть выражено, такая функция так называемый интеграл вероятности для которой составлены таблицы, чаще всего в качестве такой функции используют Шпора: Теория вероятностей Шпора: Теория вероятностей Часто по условию задачи необходимо определить вероятность попадания случайной величины Х на участок симметричный математическому ожиданию. Шпора: Теория вероятностей Правило трех сигм это правило часто используется для подтверждения или отбрасывания гипотезы о нормальном распределении случайной величины.


© 2010
Частичное или полное использование материалов
запрещено.