Определение вероятности события. Теория вероятности формулы и примеры решения задач

Нравится нам это или нет, но наша жизнь полна всевозможных случайностей, как приятных так и не очень. Поэтому каждому из нас не помешало бы знать, как найти вероятность того или иного события. Это поможет принимать верные решения при любых обстоятельствах, которые связаны с неопределенностью. К примеру, такие знания окажутся весьма кстати при выборе вариантов инвестирования, оценке возможности выигрыша в акции или лотерее, определении реальности достижения личных целей и т. д., и т. п.

Формула теории вероятности

В принципе, изучение данной темы не занимает слишком много времени. Для того чтобы получить ответ на вопрос: "Как найти вероятность какого-либо явления?", нужно разобраться с ключевыми понятиями и запомнить основные принципы, на которых базируется расчёт. Итак, согласно статистике, исследуемые события обозначаются через A1, А2,..., An. У каждого из них есть как благоприятствующие исходы (m), так и общее количество элементарных исходов. К примеру, нас интересует, как найти вероятность того, что на верхней грани кубика окажется четное число очков. Тогда А - это бросок m - выпадение 2, 4 или 6 очков (три благоприятствующих варианта), а n - это все шесть возможных вариантов.

Сама же формула расчета выглядит следующим образом:

С одним исходом все предельно легко. А вот как найти вероятность, если события идут одно за другим? Рассмотрим такой пример: из карточной колоды (36 шт.) показывается одна карта, затем она прячется снова в колоду, и после перемешивания вытаскивается следующая. Как найти вероятность того, что хоть в одном случае была вытащена дама пик? Существует следующее правило: если рассматривается сложное событие, которое можно разделить на несколько несовместимых простых событий, то можно сначала рассчитать результат для каждого из них, а затем сложить их между собой. В нашем случае это будет выглядеть так: 1 / 36 + 1 / 36 = 1 / 18 . А как же быть тогда, когда несколько происходят одновременно? Тогда результаты умножаем! Например, вероятность того, что при одновременном подбрасывании сразу двух монет выпадут две решки, будет равна: ½ * ½ = 0.25.

Теперь возьмем еще более сложный пример. Предположим, мы попали на книжную лотерею, в которой из тридцати билетов десять являются выигрышными. Требуется определить:

  1. Вероятность того, что оба окажутся выигрышными.
  2. Хотя бы один из них принесет приз.
  3. Оба окажутся проигрышными.

Итак, рассмотрим первый случай. Его можно разбить на два события: первый билет будет счастливым, и второй также окажется счастливым. Учтем, что события зависимы, поскольку после каждого вытаскивания общее количество вариантов уменьшается. Получаем:

10 / 30 * 9 / 29 = 0,1034.

Во втором случае понадобится определить вероятность проигрышного билета и учесть, что он может быть как первым по счету, так и вторым: 10 / 30 * 20 / 29 + 20 / 29 * 10 / 30 = 0,4598.

Наконец, третий случай, когда по разыгранной лотерее даже одной книжки получить не получится: 20 / 30 * 19 / 29 = 0,4368.

Теория вероятностей – это раздел математики, изучающий закономерности случайных явлений: случайные события, случайные величины, их свойства и операции над ними.

Долгое время теория вероятностей не имела четкого определения. Оно было сформулировано лишь в 1929 году. Возникновение теории вероятностей как науки относят к средним векам и первым попыткам математического анализа азартных игр (орлянка, кости, рулетка). Французские математики XVII века Блез Паскаль и Пьер Ферма, исследуя прогнозирование выигрыша в азартных играх, открыли первые вероятностные закономерности, возникающие при бросании костей.

Теория вероятности возникла как наука из убеждения, что в основе массовых случайных событий лежат определенные закономерности. Теория вероятности изучает данные закономерности.

Теория вероятностей занимается изучением событий, наступление которых достоверно неизвестно. Она позволяет судить о степени вероятности наступления одних событий по сравнению с другими.

Например: определить однозначно результат выпадения «орла» или «решки» в результате подбрасывания монеты нельзя, но при многократном подбрасывании выпадает примерно одинаковое число «орлов» и «решек», что означает, что вероятность того, что выпадет «орел» или «решка», равна 50%.

Испытанием в этом случае называется реализация определенного комплекса условий, то есть в данном случае подбрасывание монеты. Испытание может воспроизводиться неограниченное количество раз. При этом комплекс условий включает в себя случайные факторы.

Результатом испытания является событие . Событие бывает:

  1. Достоверное (всегда происходит в результате испытания).
  2. Невозможное (никогда не происходит).
  3. Случайное (может произойти или не произойти в результате испытания).

Например, при подбрасывании монеты невозможное событие - монета станет на ребро, случайное событие - выпадение «орла» или «решки». Конкретный результат испытания называется элементарным событием . В результате испытания происходят только элементарные события. Совокупность всех возможных, различных, конкретных исходов испытаний называется пространством элементарных событий .

Основные понятия теории

Вероятность - степень возможности происхождения события. Когда основания для того, чтобы какое-нибудь возможное событие произошло в действительности, перевешивают противоположные основания, то это событие называют вероятным, в противном случае - маловероятным или невероятным.

Случайная величина - это величина, которая в результате испытания может принять то или иное значение, причем неизвестно заранее, какое именно. Например: число на пожарную станцию за сутки, число попадания при 10 выстрелах и т.д.

Случайные величины можно разделить на две категории.

  1. Дискретной случайной величиной называется такая величина, которая в результате испытания может принимать определенные значения с определенной вероятностью, образующие счетное множество (множество, элементы которого могут быть занумерованы). Это множество может быть как конечным, так и бесконечным. Например, количество выстрелов до первого попадания в цель является дискретной случайной величиной, т.к. эта величина может принимать и бесконечное, хотя и счетное количество значений.
  2. Непрерывной случайной величиной называется такая величина, которая может принимать любые значения из некоторого конечного или бесконечного промежутка. Очевидно, что количество возможных значений непрерывной случайной величины бесконечно.

Вероятностное пространство - понятие, введенное А.Н. Колмогоровым в 30-х годах XX века для формализации понятия вероятности, которое дало начало бурному развитию теории вероятностей как строгой математической дисциплине.

Вероятностное пространство - это тройка (иногда обрамляемая угловыми скобками: , где

Это произвольное множество, элементы которого называются элементарными событиями, исходами или точками;
- сигма-алгебра подмножеств , называемых (случайными) событиями;
- вероятностная мера или вероятность, т.е. сигма-аддитивная конечная мера, такая что .

Теорема Муавра-Лапласа - одна из предельных теорем теории вероятностей, установлена Лапласом в 1812 году. Она утверждает, что число успехов при многократном повторении одного и того же случайного эксперимента с двумя возможными исходами приблизительно имеет нормальное распределение. Она позволяет найти приближенное значение вероятности.

Если при каждом из независимых испытаний вероятность появления некоторого случайного события равна () и - число испытаний, в которых фактически наступает, то вероятность справедливости неравенства близка (при больших ) к значению интеграла Лапласа.

Функция распределения в теории вероятностей - функция, характеризующая распределение случайной величины или случайного вектора; вероятность того, что случайная величина X примет значение, меньшее или равное х, где х - произвольное действительное число. При соблюдении известных условий полностью определяет случайную величину.

Математическое ожидание - среднее значение случайной величины (это распределение вероятностей случайной величины, рассматривается в теории вероятностей). В англоязычной литературе обозначается через , в русской - . В статистике часто используют обозначение .

Пусть задано вероятностное пространство и определенная на нем случайная величина . То есть, по определению, - измеримая функция. Тогда, если существует интеграл Лебега от по пространству , то он называется математическим ожиданием, или средним значением и обозначается .

Дисперсия случайной величины - мера разброса данной случайной величины, т. е. ее отклонения от математического ожидания. Обозначается в русской литературе и в зарубежной. В статистике часто употребляется обозначение или . Квадратный корень из дисперсии называется среднеквадратичным отклонением, стандартным отклонением или стандартным разбросом.

Пусть - случайная величина, определенная на некотором вероятностном пространстве. Тогда

где символ обозначает математическое ожидание.

В теории вероятностей два случайных события называются независимыми , если наступление одного из них не изменяет вероятность наступления другого. Аналогично, две случайные величины называют зависимыми , если значение одной из них влияет на вероятность значений другой.

Простейшая форма закона больших чисел – это теорема Бернулли, утверждающая, что если вероятность события одинакова во всех испытаниях, то с увеличением числа испытаний частота события стремится к вероятности события и перестает быть случайной.

Закон больших чисел в теории вероятностей утверждает, что среднее арифметическое конечной выборки из фиксированного распределения близко к теоретическому среднему математическому ожиданию этого распределения. В зависимости от вида сходимости различают слабый закон больших чисел, когда имеет место сходимость по вероятности, и усиленный закон больших чисел, когда имеет место сходимость почти наверняка.

Общий смысл закона больших чисел - совместное действие большого числа одинаковых и независимых случайных факторов приводит к результату, в пределе не зависящему от случая.

На этом свойстве основаны методы оценки вероятности на основе анализа конечной выборки. Наглядным примером является прогноз результатов выборов на основе опроса выборки избирателей.

Центральные предельные теоремы - класс теорем в теории вероятностей, утверждающих, что сумма достаточно большого количества слабо зависимых случайных величин, имеющих примерно одинаковые масштабы (ни одно из слагаемых не доминирует, не вносит в сумму определяющего вклада), имеет распределение, близкое к нормальному.

Так как многие случайные величины в приложениях формируются под влиянием нескольких слабо зависимых случайных факторов, их распределение считают нормальным. При этом должно соблюдаться условие, что ни один из факторов не является доминирующим. Центральные предельные теоремы в этих случаях обосновывают применение нормального распределения.

как онтологическая категория отражает меру возможности возникновения какого-либо сущего в каких-либо условиях. В отличие от математических и логической интерпретации этого понятия онтологическая В. не связывает себя с обязательностью количетвенного выражения. Значение В. раскрывается в контексте понимания детерминизма и характера развития в целом.

Отличное определение

Неполное определение ↓

ВЕРОЯТНОСТЬ

понятие, характеризующее количеств. меру возможности появления нек-рого события при определ. условиях. В науч. познании встречаются три интерпретации В. Классическая концепция В., возникшая из математич. анализа азартных игр и наиболее полно разработанная Б. Паскалем, Я. Бернулли и П. Лапласом, рассматривает В. как отношение числа благоприятствующих случаев к общему числу всех равновозможных. Напр., ири бросании игральной кости, имеющей 6 граней, выпадение каждой из них можно ожидать с В., равной 1/6, т. к. ни одна грань не имеет преимуществ перед другой. Подобная симметричность исходов опыта специально учитывается при организации игр, но сравнительно редко встречается при исследовании объективных событий в науке и практике. Классич. интерпретация В. уступила место статистич. концепции В., в основе к-рой лежат действит. наблюдения появления нек-рого события в ходе длит. опыта при точно фиксированных условиях. Практика подтверждает, что чем чаще происходит событие, тем больше степень объективной возможности его появления, или В. Поэтому статистич. интерпретация В. опирается на понятие относит. частоты, к-рое может быть определено опытным путем. В. как теоретич. понятие никогда не совпадает с эмпирически определяемой частотой, однако во мн. случаях она практически мало отличается от относит. частоты, найденной в результате длит. наблюдений. Многие статистики рассматривают В. как «двойник» относит. частоты, к-рая определяется при статистич. исследовании результатов наблюдений

или экспериментов. Менее реалистичным оказалось определение В. как предела относит. частот массовых событий, или коллективов, предложенное Р. Мизесом. В качестве дальнейшего развития частотного подхода к В. выдвигается диспозиционная, или пропенситивная, интерпретация В. (К. Поппер, Я. Хэккинг, М. Бунге, Т. Сетл). Согласно этой интерпретации, В. характеризует свойство порождающих условий, напр. эксперимент. установки, для получения последовательности массовых случайных событий. Именно такая установка порождает физич. диспозиции, или предрасположенности, В. к-рых может быть проверена с помощью относит. частот.

Статистич. интерпретация В. доминирует в науч. познании, ибо она отражает специфич. характер закономерностей, присущих массовым явлениям случайного характера. Во многих физич., биологич., экономич., демографич. и др. социальных процессах приходится учитывать действие множества случайных факторов, к-рые характеризуются устойчивой частотой. Выявление этой устойчивой частоты и количеств. ее оценка с помощью В. дает возможность вскрыть необходимость, к-рая прокладывает себе путь через совокупное действие множества случайностей. В этом находит свое проявление диалектика превращения случайности в необходимость (см. Ф. Энгельс, в кн.: Маркс К. и Энгельс Ф., Соч., т. 20, с. 535-36).

Логическая, или индуктивная, В. характеризует отношение между посылками и заключением недемонстративного и, в частности, индуктивного рассуждения. В отличие от дедукции, посылки индукции не гарантируют истинности заключения, а лишь делают его в той или иной степени правдоподобным. Это правдоподобие при точно сформулированных посылках иногда можно оценивать с помощью В. Значение этой В. чаще всего определяется посредством сравнит. понятий (больше, меньше или равно), а иногда и численным способом. Логич. интерпретацию часто используют для анализа индуктивных рассуждений и построения различных систем вероятностных логик (Р. Карнап, Р. Джефри). В семантич. концепции логич. В. часто определяется как степень подтверждения одного высказывания другими (напр., гипотезы ее эмпирич. данными) .

В связи с развитием теорий принятия решений и игр все большее распростраиение получает т. н. персоналистская интерпретация В. Хотя В. при этом выражает степень веры субъекта и появление нек-рого события, сами В. должны выбираться с таким расчетом, чтобы удовлетворялись аксиомы исчисления В. Поэтому В. при такой интерпретации выражает не столько степень субъективной, сколько разумной веры. Следовательно, решения, принимаемые на основе такой В., будут рациональными, ибо они не учитывают психологич. особенностей и склонностей субъекта.

С гносеологич. т. зр. различие между статистич., логич. и персоналистской интерпретациями В. состоит в том, что если первая дает характеристику объективным свойствам и отношениям массовых явлений случайного характера, то последние две анализируют особенности субъективной, познават. деятельности людей в условиях неопределенности.

ВЕРОЯТНОСТЬ

одно из важнейших понятий науки, характеризующее особое системное видение мира, его строения, эволюции и познания. Специфика вероятностного взгляда на мир раскрывается через включение в число базовых понятий бытия понятий случайности, независимости и иерархии (идеи уровней в структуре и детерминации систем).

Представления о вероятности зародились еще в древности и относились к характеристике нашего знания, при этом признавалось наличие вероятностного знания, отличающегося от достоверного знания и от ложного. Воздействие идеи вероятности на научное мышление, на развитие познания прямо связано с разработкой теории вероятностей как математической дисциплины. Зарождение математического учения о вероятности относится к 17 в., когда было положено начало разработке ядра понятий, допускающих. количественную (числовую) характеристику и выражающих вероятностную идею.

Интенсивные приложения вероятности к развитию познания приходятся на 2-ю пол. 19- 1-ю пол. 20 в. Вероятность вошла в структуры таких фундаментальных наук о природе, как классическая статистическая физика, генетика, квантовая теория, кибернетика (теория информации). Соответственно вероятность олицетворяет тот этап в развитии науки, который ныне определяется как неклассическая наука. Чтобы раскрыть новизну, особенности вероятностного образа мышления, необходимо исходить из анализа предмета теории вероятностей и оснований ее многочисленных приложений. Теорию вероятностей обычно определяют как математическую дисциплину, изучающую закономерности массовых случайных явлений при определенных условиях. Случайность означает, что в рамках массовости бытие каждого элементарного явления не зависит и не определяется бытием других явлений. В то же время сама массовость явлений обладает устойчивой структурой, содержит определенные регулярности. Массовое явление вполне строго делится на подсистемы, и относительное число элементарных явлений в каждой из подсистем (относительная частота) весьма устойчиво. Эта устойчивость сопоставляется с вероятностью. Массовое явление в целом характеризуется распределением вероятностей, т. е. заданием подсистем и соответствующих им вероятностей. Язык теории вероятностей есть язык вероятностных распределений. Соответственно теорию вероятностей и определяют как абстрактную науку об оперировании распределениями.

Вероятность породила в науке представления о статистических закономерностях и статистических системах. Последние суть системы, образованные из независимых или квазинезависимых сущностей, их структура характеризуется распределениями вероятностей. Но как возможно образование систем из независимых сущностей? Обычно предполагается, что для образования систем, имеющих целостные характеристики, необходимо, чтобы между их элементами существовали достаточно устойчивые связи, которые цементируют системы. Устойчивость статистическим системам придает наличие внешних условий, внешнего окружения, внешних, а не внутренних сил. Само определение вероятности всегда опирается на задание условий образования исходного массового явления. Еще одной важнейшей идеей, характеризующей вероятностную парадигму, является идея иерархии (субординации). Эта идея выражает взаимоотношения между характеристиками отдельных элементов и целостными характеристиками систем: последние как бы надстраиваются над первыми.

Значение вероятностных методов в познании заключается в том, что они позволяют исследовать и теоретически выражать закономерности строения и поведения объектов и систем, имеющих иерархическую, «двухуровневую» структуру.

Анализ природы вероятности опирается на частотную, статистическую ее трактовку. Вместе с тем весьма длительное время в науке господствовало такое понимание вероятности, которое получило название логической, или индуктивной, вероятности. Логическую вероятность интересуют вопросы обоснованности отдельного, индивидуального суждения в определенных условиях. Можно ли оценить степень подтверждения (достоверности, истинности) индуктивного заключения (гипотетического вывода) в количественной форме? В ходе становления теории вероятностей такие вопросы неоднократно обсуждались, и стали говорить о степенях подтверждения гипотетических заключений. Эта мера вероятности определяется имеющейся в распоряжении данного человека информацией, его опытом, воззрениями на мир и психологическим складом ума. Во всех подобных случаях величина вероятности не поддается строгим измерениям и практически лежит вне компетенции теории вероятностей как последовательной математической дисциплины.

Объективная, частотная трактовка вероятности утверждалась в науке со значительными трудностями. Первоначально на понимание природы вероятности оказали сильное воздействие те философско-методологические взгляды, которые были характерны для классической науки. Исторически становление вероятностных методов в физике происходило под определяющим воздействием идей механики: статистические системы трактовались просто как механические. Поскольку соответствующие задачи не решались строгими методами механики, то возникли утверждения, что обращение к вероятностным методам и статистическим закономерностям есть результат неполноты наших знаний. В истории развития классической статистической физики предпринимались многочисленные попытки обосновать ее на основе классической механики, однако все они потерпели неудачу. Основания вероятности состоят в том, что она выражает собою особенности структуры определенного класса систем, иного, чем системы механики: состояние элементов этих систем характеризуется неустойчивостью и особым (не сводящимся к механике) характером взаимодействий.

Вхождение вероятности в познание ведет к отрицанию концепции жесткого детерминизма, к отрицанию базовой модели бытия и познания, выработанных в процессе становления классической науки. Базовые модели, представленные статистическими теориями, носят иной, более общий характер: они включают в себя идеи случайности и независимости. Идея вероятности связана с раскрытием внутренней динамики объектов и систем, которая не может быть всецело определена внешними условиями и обстоятельствами.

Концепция вероятностного видения мира, опирающаяся на абсолютизацию представлений о независимости (как и прежде парадигма жесткой детерминации), в настоящее время выявила свою ограниченность, что наиболее сильно сказывается при переходе современной науки к аналитическим методам исследования сложноорганизованных систем и физико-математических основ явлений самоорганизации.

Отличное определение

Неполное определение ↓

Хотите узнать, какие математические шансы на успех вашей ставки? Тогда для вас есть две хорошие новости. Первая: чтобы посчитать проходимость, не нужно проводить сложные расчеты и тратить большое количество времени. Достаточно воспользоваться простыми формулами, работа с которыми займёт пару минут. Вторая: после прочтения этой статьи вы с лёгкостью сможете рассчитывать вероятность прохода любой вашей сделки.

Чтобы верно определить проходимость, нужно сделать три шага:

  • Рассчитать процент вероятности исхода события по мнению букмекерской конторы;
  • Вычислить вероятность по статистическим данным самостоятельно;
  • Узнать ценность ставки, учитывая обе вероятности.

Рассмотрим подробно каждый из шагов, применяя не только формулы, но и примеры.

Быстрый переход

Подсчёт вероятности, заложенной в букмекерские коэффициенты

Первый шаг – необходимо узнать, с какой вероятностью оценивает шансы на тот или иной исход сам букмекер. Ведь понятно, что кэфы букмекерские конторы не ставят просто так. Для этого пользуемся следующей формулой:

P Б =(1/K)*100%,

где P Б – вероятность исхода по мнению букмекерской конторы;

K – коэффициент БК на исход.

Допустим, на победу лондонского Арсенала в поединке против Баварии коэффициент 4. Это значит, что вероятность его виктории БК расценивают как (1/4)*100%=25%. Или же Джокович играет против Южного. На победу Новака множитель 1.2, его шансы равны (1/1.2)*100%=83%.

Так оценивает шансы на успех каждого игрока и команды сама БК. Осуществив первый шаг, переходим ко второму.

Расчёт вероятности события игроком

Второй пункт нашего плана – собственная оценка вероятности события. Так как мы не можем учесть математически такие параметры как мотивация, игровой тонус, то воспользуемся упрощённой моделью и будем пользоваться только статистикой предыдущих встреч. Для расчёта статистической вероятности исхода применяем формулу:

P И =(УМ/М)*100%,

где P И – вероятность события по мнению игрока;

УМ – количество успешных матчей, в которых такое событие происходило;

М – общее количество матчей.

Чтобы было понятней, приведём примеры. Энди Маррей и Рафаэль Надаль сыграли между собой 14 матчей. В 6 из них был зафиксирован тотал меньше 21 по геймам, в 8 – тотал больше. Необходимо узнать вероятность того, что следующий поединок будет сыгран на тотал больше: (8/14)*100=57%. Валенсия сыграла на Месталье против Атлетико 74 матча, в которых одержала 29 побед. Вероятность победы Валенсии: (29/74)*100%=39%.

И это все мы узнаем только благодаря статистике предыдущих игр! Естественно, что на какую-то новую команду или игрока такую вероятность просчитать не получится, поэтому такая стратегия ставок подойдет только для матчей, в которых соперники встречаются не первый раз. Теперь мы умеем определять букмекерскую и собственную вероятности исходов, и у нас есть все знания, чтобы перейти к последнему шагу.

Определение ценности ставки

Ценность (валуйность) пари и проходимость имеют непосредственную связь: чем выше валуйность, тем выше шанс на проход. Рассчитывается ценность следующим образом:

V= P И *K-100%,

где V – ценность;

P И – вероятность исхода по мнению беттера;

K – коэффициент БК на исход.

Допустим, мы хотим поставить на победу Милана в матче против Ромы и подчитали, что вероятность победы «красно-черных» 45%. Букмекер предлагает нам на это исход коэффициент 2.5. Будет ли такое пари ценным? Проводим расчёты: V=45%*2.5-100%=12.5%. Отлично, перед нами ценная ставка с хорошими шансами на проход.

Возьмём другой случай. Мария Шарапова играет против Петры Квитовой. Мы хотим заключить сделку на победу Марии, вероятность которой по нашим расчетам 60%. Конторы предлагают на этот исход множитель 1.5. Определяем валуйность: V=60%*1.5-100=-10%. Как видим, ценности эта ставка не представляет и от неё следует воздержаться.

Ясно, что каждое событие обладает той или иной степенью возможности своего наступления (своей реализации). Чтобы количественно сравнивать между собой события по степени их возможности, очевидно, нужно с каждым событием связать определенное число, которое тем больше, чем более возможно событие. Такое число называется вероятностью события.

Вероятность события – есть численная мера степени объективной возможности наступления этого события.

Рассмотрим стохастический эксперимент и случайное событие А, наблюдаемое в этом эксперименте. Повторим этот эксперимент n раз и пусть m(A) – число экспериментов, в которых событие А произошло.

Отношение (1.1)

называется относительной частотой события А в проведенной серии экспериментов.

Легко убедиться в справедливости свойств:

если А и В несовместны (АВ= ), то ν(А+В) = ν(А) + ν(В) (1.2)

Относительная частота определяется только после проведения серии экспериментов и, вообще говоря, может меняться от серии к серии. Однако опыт показывает, что во многих случаях при увеличении числа опытов относительная частота приближается к некоторому числу. Этот факт устойчивости относительной частоты неоднократно проверялся и может считаться экспериментально установленным.

Пример 1.19. . Если бросить одну монету, никто не сможет предсказать, какой стороной она упадет кверху. Но если бросить две тонны монет, то каждый скажет, что примерно одна тонна упадет кверху гербом, то есть относительная частота выпадения герба примерно равна 0,5.

Если при увеличении числа опытов относительная частота события ν(А) стремится к некоторому фиксированному числу, то говорят, что событие А статистически устойчиво , а это число называют вероятностью события А.

Вероятностью события А называется некоторое фиксированное число Р(А), к которому стремится относительная частота ν(А) этого события при увеличении числа опытов, то есть,

Это определение называют статистическим определением вероятности .

Рассмотрим некий стохастический эксперимент и пусть пространство его элементарных событий состоит из конечного или бесконечного (но счетного) множества элементарных событий ω 1 , ω 2 , …, ω i , … . предположим, что каждому элементарному событию ω i прописан некоторое число - р i , характеризующее степень возможности появления данного элементарного события и удовлетворяющее следующим свойствам:

Такое число p i называется вероятностью элементарного события ω i .

Пусть теперь А- случайное событие, наблюдаемое в этом опыте, и ему соответствует некоторое множество

В такой постановке вероятностью события А называют сумму вероятностей элементарных событий, благоприятствующих А (входящих в соответствующее множество А):


(1.4)

Введенная таким образом вероятность обладает теми же свойствами, что и относительная частота, а именно:

И если АВ= (А и В несовместны),

то P(А+В) = P(А) + P(В)

Действительно, согласно (1.4)

В последнем соотношении мы воспользовались тем, что ни одно элементарное событие не может благоприятствовать одновременно двум несовместным событиям.

Особо отметим, что теория вероятностей не указывает способов определения р i , их надо искать из соображений практического характера или получать из соответствующего статистического эксперимента.

В качестве примера рассмотрим классическую схему теории вероятностей. Для этого рассмотрим стохастический эксперимент, пространство элементарных событий которого состоит из конечного (n) числа элементов. Предположим дополнительно, что все эти элементарные события равновозможны, то есть вероятности элементарных событий равны p(ω i)=p i =p. Отсюда следует, что

Пример 1.20 . При бросании симметричной монеты выпадение герба и «решки» равновозможны, их вероятности равны 0,5.

Пример 1.21 . При бросании симметричного кубика все грани равновозможны, их вероятности равны 1/6.

Пусть теперь событию А благоприятствует m элементарных событий, их обычно называют исходами, благоприятствующими событию А . Тогда

Получили классическое определение вероятности : вероятность Р(А) события А равна отношению числа исходов, благоприятствующих событию А, к общему числу исходов

Пример 1.22 . В урне лежит m белых шаров и n черных. Чему равна вероятность вытащить белый шар?

Решение . Всего элементарных событий m+n. Они все равновероятны. Благоприятствующих событию А из них m. Следовательно, .

Из определения вероятности вытекают следующие ее свойства:

Свойство 1 . Вероятность достоверного события равна единице.

Действительно, если событие достоверно, то каждый элементарный исход испытания благоприятствует собы­тию. В этом случае т=п, следовательно,

P(A)=m/n=n/n=1. (1.6)

Свойство 2. Вероятность невозможного события равна нулю.

Действительно, если событие невозможно, то ни один из элементарных исходов испытания не благоприятствует событию. В этом случае т = 0, следовательно, P(A)=m/n=0/n=0. (1.7)

Свойство 3. Вероятность случайного события есть положительное число, заключенное между нулем и единицей.

Действительно, случайному событию благоприятствует лишь часть из общего числа элементарных исходов испы­тания. То есть, 0≤m≤n, значит, 0≤m/n≤1, следовательно, вероятность любого события удовлетворяет двойному неравенству 0≤P(A) 1. (1.8)

Сопоставляя определения вероятности (1.5) и относительной частоты (1.1), заключаем: определение вероятности не требует, чтобы испытания производились в действительности; определение же относительной частоты предполагает, что испытания были произведены фактически . Другими словами, вероятность вычисляют до опыта, а относительную частоту - после опыта.

Однако, вычисление вероятности требует наличия предварительной информации о количестве или вероятностях благоприятствующих данному событию элементарных исходов. В случае отсутствия такой предварительной информации для определения вероятности прибегают к эмпирическим данным, то есть, по результатам стохастического эксперимента определяют относительную частоту события.

Пример 1.23 . Отдел технического контроля обнаружил 3 нестандартных детали в партии из 80 случайно отобранных деталей. Относительная частота появления нестандартных деталей r (А) = 3/80.

Пример 1.24 . По цели.произвели 24 выстрела, причем было зарегистрировано 19 попаданий. Относительная частота поражения цели. r (А) =19/24.

Длительные наблюдения показали, что если в одинаковых условиях производят опыты, в каждом из которых число испытаний достаточно велико, то относительная частота обнаруживает свойство устойчивости. Это свойство состоит в том, что в различных опытах относительная частота изменяется мало (тем меньше, чем больше произведено испытаний), колеблясь около некоторого постоянного числа. Оказалось, что это постоянное число можно принять за приближенное значение вероятности.

Подробнее и точнее связь между относительной частотой и вероятностью будет изложена далее. Теперь же проиллюстрируем свойство устойчивости на примерах.

Пример 1.25 . По данным шведской статистики, относительная частота рождения девочек за 1935 г. по месяцам характеризуется сле­дующими числами (числа расположены в порядке следования месяцев, начиная с января): 0,486; 0,489; 0,490; 0.471; 0,478; 0,482; 0.462; 0,484; 0,485; 0,491; 0,482; 0,473

Относительная частота колеблется около числа 0,481, которое можно принять за приближеннее значение вероятности рождения девочек.

Заметим, что статистические данные различных стран дают примерно то же значение относительной частоты.

Пример 1.26. Многократно проводились опыты бросания монеты, в которых подсчитывали число появление «герба». Результаты нескольких опытов приведены в таблице.

ddvor.ru - Одиночество и расставания. Популярные вопросы. Эмоции. Чувства. Личные отношения