Закон великих чисел: відмінності між версіями

Матеріал з Вікіпедії — вільної енциклопедії.
Перейти до навігації Перейти до пошуку
[неперевірена версія][перевірена версія]
Вилучено вміст Додано вміст
м r2.7.1) (робот додав: el:Νόμος των μεγάλων αριθμών
мНемає опису редагування
 
(Не показані 39 проміжних версій 28 користувачів)
Рядок 1: Рядок 1:
[[File:Lawoflargenumbers_uk.svg|Ілюстрація закону великих чисел використовуючи певний перебіг кидань [[Гральні кісточки|кості]]. З тим як кількість кидків збільшується, середнє значення всіх кидків наближується до 3.5. Різні перебіги показуватимуть різні форми кривої у частині, що відображає малу кількість кидків (ліва частина), у частині, що відображає велику кількість кидків (права частина) вони будуть дуже подібні.|thumb|right|400 px]]
'''Закон великих чисел''' в [[Теорія імовірностей|теорії імовірностей]] стверджує, що емпіричне середнє ([[Середнє арифметичне|арифметичне сeреднє]]) скінченної вибірки із фіксованого розподілу близьке до теоретичного середнього ([[математичне сподівання|математичного сподівання]]) цього розподілу. В залежності від виду збіжності розрізняють слабкий закон великих чисел, коли має місце [[збіжність за ймовірністю]], і посилений закон великих чисел, коли має місце [[збіжність майже скрізь]].
{{Основи теорії ймовірностей}}


'''Закон великих чисел''' в [[Теорія імовірностей|теорії імовірностей]] стверджує, що емпіричне середнє ([[Середнє арифметичне|арифметичне середнє]]) великої [[Вибірка|вибірки]] із фіксованого розподілу близьке до теоретичного середнього ([[математичне сподівання|математичного сподівання]]) цього розподілу. В залежності від виду збіжності розрізняють слабкий закон великих чисел, коли маємо [[збіжність за ймовірністю]], і посилений закон великих чисел, коли маємо [[збіжність майже скрізь]].
Завжди знайдеться така кількість випробувань, при якій з будь-якою заданою наперед імовірністю частота появ деякої [[Випадкова подія|події]] буде якзавгодно мало відрізнятися від її імовірності.

Завжди знайдеться така кількість випробувань, при якій з будь-якою заданою наперед імовірністю частота появи деякої [[Випадкова подія|події]] буде як завгодно мало відрізнятися від її імовірності.


== Форми ЗВЧ==
== Форми ЗВЧ==
Рядок 12: Рядок 15:
:<math>\overline{X}_n \, \to \, \mu, \qquad\ \qquad n \to \infty</math>
:<math>\overline{X}_n \, \to \, \mu, \qquad\ \qquad n \to \infty</math>


де ''X''<sub>1</sub>, ''X''<sub>2</sub>, ... </sub> — скінченна послідовність [[Незалежні однаково розподілені випадкові величини|н.о.р.]] випадкові величини зі скінченним математичним сподіванням E(''X''<sub>1</sub>) = E(''X''<sub>2</sub>) = ... = ''µ'' < ∞.
де ''X''<sub>1</sub>, ''X''<sub>2</sub>, ... — скінченна послідовність [[Незалежні однаково розподілені випадкові величини|н.о.р.]] випадкові величини зі скінченним математичним сподіванням E(''X''<sub>1</sub>) = E(''X''<sub>2</sub>) = ... = ''µ'' < ∞.




=== Слабкий закон великих чисел ===
=== Слабкий закон великих чисел ===


Нехай є нескінченна послідовність однаково розподілених і некорельованих [[випадкова величина|випадкових величин]] <math>\{X_i\}_{i=1}^{\infty}</math>, визначених на одному імовірносному просторі <math>(\Omega,\mathcal{F},\mathbb{P})</math>. Їх [[коваріація]] <math>\mathrm{cov}(X_i,X_j) = 0,\; \forall i \not=j</math>. Нехай<math>\mathbb{E}X_i = \mu,\; \forall i\in \mathbb{N}</math>. Позначимо <math>\displaystyle S_n</math> [[вибіркове середнє]] перших <math>\displaystyle n</math> членів:
Нехай є нескінченна послідовність однаково розподілених і [[Кореляція|некорельованих]] [[випадкова величина|випадкових величин]] <math>\{X_i\}_{i=1}^{\infty}</math>, визначених на одному ймовірнісному просторі <math>(\Omega,\mathcal{F},\mathbb{P})</math>. Їх [[коваріація]] <math>\mathrm{cov}(X_i,X_j) = 0,\; \forall i \not=j</math>. Нехай <math>E(X_i) = \mu,\; \forall i\in \mathbb{N}</math>. Позначимо <math>\displaystyle S_n</math> [[вибіркове середнє]] перших <math>\displaystyle n</math> членів:
: <math>S_n = \frac{1}{n} \sum\limits_{i=1}^n X_i,\; n \in \mathbb{N}</math>.
: <math>S_n = \frac{1}{n} \sum\limits_{i=1}^n X_i,\; n \in \mathbb{N}</math>.


Тоді <math>S_n \to^{\!\!\!\!\!\! \mathbb{P}} \mu</math>.
Тоді <math>S_n \to^{\!\!\!\!\!\! \mathbb{P}} \mu</math>.

Це означає, що для будь-якого додатного числа ''ε'',

: <math>
\lim_{n\to\infty}\Pr\!\left(\,|\overline{X}_n-\mu| > \varepsilon\,\right) = 0.
</math>

Інтерпретувати цей результат можна так, що слабкий закон говорить про те, що для будь-якої заданої похибки, не важливо наскільки вона буде малою, для значно великих вибірок буде існувати дуже висока імовірність, що середнє значення для спостережень буде близьким до значення сподівання; так що воно буде знаходитися в межах похибки.

Як уже згадувалося, слабкий закон застосовується для незалежних однаково розподілених випадкових величин, але існують і інші випадки в яких він може застосовуватися. Наприклад, у кожної випадкової величини у вибірці може бути різна дисперсія, але математичне сподівання залишається сталим. Якщо ці дисперсії обмежені, тоді це правило можна застосувати аналогічно як це показав [[Чебишов Пафнутій Львович|Чебишов]] в 1867 році. (Якщо математичні сподівання змінюються, тоді ми можемо застосувати цей закон до середнього відхилення від відповідних значень математичних сподівань. Тоді закон стверджуватиме, що це збігатиметься за імовірністю до нуля.) Насправді, доведення Чебишова буде працювати доки дисперсія середнього для перших ''n'' значень збігатиметься до нуля при ''n'' що прямує до [[Нескінченність|нескінченності]].<ref name=EncMath/> Як приклад, припустимо що кожна випадкова величина у вибірці має [[Нормальний розподіл|розподіл Гауса]] із нульовим середнім значенням, але із дисперсією що дорівнює <math>2n/\log(n+1).</math> На кожному етапі, середнє матиме нормальний розподіл (оскільки це є середнє множини нормально розподілених величин). Дисперсія суми величин дорівнює сумі дисперсій, яка є [[Асимптота|асимптотичною]] до <math>n^2/\log n</math>. Дисперсія середнього в свою чергу буде асимптотичною до <math>1/\log n</math> і прямує до нуля.

Прикладом це закон великих чисел ''не виконується'' [[Розподіл Коші]]. Нехай випадкові числа дорівнюють тангенсу кута, що рівномірно розподілений між значеннями −90° і +90°. [[Медіана (статистика)|Медіана]] дорівнює нулю, але математичне сподівання не існує, і насправді середнє із ''n'' таких величин матиме той самий розподіл, що і одна така величина. Воно не прямує до нуля при тому що ''n'' прямує до нескінченності.

Але існують і приклади, де слабкий закон великих чисел може бути застосований навіть при умові, що математичне сподівання не існує.


=== Посилений закон великих чисел ===
=== Посилений закон великих чисел ===


Нехай є нескінченна послідовність незалежних однаково розподілених випадкових величин <math>\{X_i\}_{i=1}^{\infty}</math>, визначених на одному [[ймовірнісний простір|ймовірнісному просторі]] <math>(\Omega,\mathcal{F},\mathbb{P})</math>. Нехай <math>\mathbb{E}X_i = \mu,\; \forall i\in \mathbb{N}</math>. Позначимо <math>\displaystyle S_n</math> вибіркове среднє перших <math>\displaystyle n</math> членів:
Нехай є нескінченна послідовність незалежних однаково розподілених випадкових величин <math>\{X_i\}_{i=1}^{\infty}</math>, визначених на одному [[ймовірнісний простір|ймовірнісному просторі]] <math>(\Omega,\mathcal{F},\mathbb{P})</math>. Нехай <math>\mathbb{E}X_i = \mu,\; \forall i\in \mathbb{N}</math>. Позначимо <math>\displaystyle S_n</math> вибіркове середнє перших <math>\displaystyle n</math> членів:
: <math>S_n = \frac{1}{n} \sum\limits_{i=1}^n X_i,\; n \in \mathbb{N}</math>.
: <math>S_n = \frac{1}{n} \sum\limits_{i=1}^n X_i,\; n \in \mathbb{N}</math>.


Тоді
Тоді
<math>S_n \to \mu</math> [[майже напевно]].
<math>S_n \to \mu</math> [[майже напевно|майже скрізь]].


== Різниця між слабким і посиленим законами великих чисел ==
== Різниця між слабким і посиленим законами великих чисел ==
Слабкий закон стверджує, що для великого числа ''n'', середнє значення <math style="vertical-align:-.35em">\overline{X}_n</math> правдоподібно є близько до ''μ''. Отже, залишається можливість того, що <math style="vertical-align:-.4em">|\overline{X}_n -\mu| > \varepsilon</math> трапляється нескінченну кількість разів, хоча й на рідкісних інтервалах.
Слабкий закон стверджує, що для великого числа ''n'', середнє значення <math style="vertical-align:-.35em">\overline{X}_n</math> правдоподібно є близько до ''μ''. Отже, залишається можливість того, що <math style="vertical-align:-.4em">|\overline{X}_n -\mu| > \varepsilon</math> трапляється нескінченну кількість разів, хоча й на рідкісних інтервалах.


Посилений закон стверджує що це майже напевно не станеться. Зокрема, це означає що з імовірністю 1, для кожного {{nowrap|''ε'' > 0}} нерівність <math style="vertical-align:-.4em">|\overline{X}_n -\mu| < \varepsilon</math> виконується для всіх достатньо велеких ''n''.<ref>{{harvtxt|Ross|2009}}</ref>
Посилений закон стверджує що це майже напевно не станеться. Зокрема, це означає що з імовірністю 1, для кожного {{nowrap|''ε'' > 0}} нерівність <math style="vertical-align:-.4em">|\overline{X}_n -\mu| < \varepsilon</math> виконується для всіх достатньо великих ''n''.<ref>{{harvtxt|Ross|2009}}</ref>


===ЗВЧ Бореля===
=== ЗВЧ Бореля ===
'''Закон великих чисел Бореля''', на честь [[Еміль Борель|Еміля Бореля]], стверджує, що якщо повторювати [[експеримент]] багато раз за тих самих умов і незалежно від інших спроб, то частота певної події наближено дорівнює ймовірності випадання цієї події в кожному окремому експерименті; чим більша кількість повторень тим краще наближення. Точніше, якщо ''E'' — подія, ''p'' ймовірність цієї події і ''N<sub>n</sub>''(''E'') — число разів коли в експерименті випадає подія ''E'' в ''n'' перших спробах, тоді з ймовірністю 1:
'''Закон великих чисел Бореля''', на честь [[Еміль Борель|Еміля Бореля]], стверджує, що якщо повторювати [[експеримент]] багато раз за тих самих умов і незалежно від інших спроб, то частота певної події наближено дорівнює ймовірності випадання цієї події в кожному окремому експерименті; чим більша кількість повторень тим краще наближення. Точніше, якщо ''E'' — подія, ''p'' ймовірність цієї події і ''N<sub>n</sub>''(''E'') — число разів коли в експерименті випадає подія ''E'' в ''n'' перших спробах, тоді з ймовірністю 1:


: <math> \frac{N_n(E)}{n}\to p\text{ as }n\to\infty.\, </math>
: <math> \frac{N_n(E)}{n}\to p, \ n\to\infty.\, </math>


Ця теорема строго формалізує інтуїтивне поняття ймовірності як граничної частоти випадання події в експерименті. Теорема є частковим випадком інших більш загальних законів великих чисел в теорії ймовірності.
Ця теорема строго формалізує інтуїтивне поняття ймовірності як граничної частоти випадання події в експерименті. Теорема є частковим випадком інших загальніших законів великих чисел в теорії ймовірності.


==Приклади==
== Лiтература ==
Одне підкидання шестигранної гральної кістки може випасти одним із номерів 1, 2, 3, 4, 5, або 6. Кожна з цих подій має однакову [[імовірність]]. Таким чином, математичне сподівання для одного підкидання, буде наступним
: <math> \frac{1+2+3+4+5+6}{6} = 3,5</math>
Відповідно до закону великих чисел, якщо підкинути гральну кістку велику кількість разів, середнє значення отриманих значень (що називають [[Вибіркове середнє|вибірковим середнім]]) скоріше за все буде мати значення близьке до числа 3,5, так що точність цього наближення буде збільшуватися із тим чим більше буде виконано кидків.


Із закону великих чисел слідує, що емпірична імовірність успішної події для вибірки [[Схема Бернуллі|випробувань Бернуллі]] буде збігатися до теоретичної імовірності. Для [[Розподіл Бернуллі|випадкової величини із розподілом Бернуллі]], математичне сподівання дорівнює теоретичній імовірності успішної події, а середнє значення для ''n'' таких величин (за умови що вони є [[Незалежні однаково розподілені випадкові величини|незалежними і однаково розподіленими]]) буде відповідати відносній частоті.
* ''[[Ширяєв Альберт Миколайович|Ширяев А. Н.]]'' Вероятность, — М: Наука. 1989.

* ''[[Чистяков Володимир Павлович|Чистяков В. П.]]'' Курс теории вероятностей, — М., 1982.
Наприклад, [[підкидання монети]] є випробуванням Бернуллі. Якщо монету підкинути один раз, теоретична імовірність випадіння у монети герба буде дорівнювати 1/2. Таким чином, відповідно до закону великих чисел, доля випадання гербів при великій кількості незалежних підкидань монети "повинна" приблизно становити 1/2. Зокрема, доля випадання гербів при ''n'' незалежних підкиданнях [[Майже скрізь|майже певно]] [[Границя числової послідовності|буде збігатися]] до 1/2 при ''n'' що прямує до нескінченності.

==Історія==
Італійський математик [[Джироламо Кардано]] (1501–1576) стверджував без доказів про те, що точність емпіричної статистики поліпшується із збільшенням кількості випробувань.<ref>Mlodinow, L. ''The Drunkard's Walk.'' New York: Random House, 2008. p. 50.</ref> Згодом цей факт формалізували як закон великих чисел. Окрему форму закону великих чисел для бінарної випадкової величини вперше довів [[Якоб Бернуллі]].<ref>Jakob Bernoulli, ''Ars Conjectandi: Usum & Applicationem Praecedentis Doctrinae in Civilibus, Moralibus & Oeconomicis'', 1713, Chapter 4, (Translated into English by Oscar Sheynin)</ref> Йому знадобилося більше 20 років, аби випрацювати достатньо точне математичне доведення, яке він опублікував у своїй праці ''{{нп|Ars Conjectandi||en|Ars Conjectandi}}'' (Мистецтво вгадування) в 1713. Він назвав її "Золотою Теоремою", але згодом вона стала загальновідомою як "'''Теорема Бернулі'''". Не слід плутати її із [[Закон Бернуллі|Законом Бернуллі]], що названий на честь племінника Якоба Бернулі [[Даніель Бернуллі|Даніеля Бернуллі]]. В 1837, [[Сімеон-Дені Пуассон|С.Д. Пуассон]] згодом описав її під назвою "''la loi des grands nombres''" ("Закон великих чисел").<ref>Poisson names the "law of large numbers" (''la loi des grands nombres'') in: S.D. Poisson, ''Probabilité des jugements en matière criminelle et en matière civile, précédées des règles générales du calcul des probabilitiés'' (Paris, France: Bachelier, 1837), [https://books.google.com/books?id=uovoFE3gt2EC&pg=PA7#v=onepage&q&f=false p. 7] {{Webarchive|url=https://web.archive.org/web/20160602170712/https://books.google.com/books?id=uovoFE3gt2EC&pg=PA7#v=onepage&q&f=false |date=2 червня 2016 }}. He attempts a two-part proof of the law on pp. 139–143 and pp. 277 ff.</ref><ref>Hacking, Ian. (1983) "19th-century Cracks in the Concept of Determinism", ''Journal of the History of Ideas'', 44 (3), 455-475 {{jstor|2709176}}</ref> Після чого вона залишилася відома під обома назвами, але назва "Закон великих чисел" вживається частіше.

Після того, як Бернуллі і Пуассон опублікували свої досягнення, над поліпшенням закону працювали і інші математики, до яких належать [[Чебишов Пафнутій Львович|Чебишов]],<ref>{{Cite journal | last1 = Tchebichef | first1 = P. | title = Démonstration élémentaire d'une proposition générale de la théorie des probabilités | doi = 10.1515/crll.1846.33.259 | journal = Journal für die reine und angewandte Mathematik (Crelles Journal) | volume = 1846 | issue = 33 | pages = 259–267 | year = 1846 | pmid = | pmc = }}</ref> [[Марков Андрій Андрійович|Марков]], [[Еміль Борель|Борель]], {{нп|Франческо Паоло Кантеллі|Кантеллі|en|Francesco Paolo Cantelli}}, [[Колмогоров Андрій Миколайович|Колмогоров]] і {{нп|Олександр Хінчін||en|Aleksandr Khinchin}}. Марков показав, що при певних слабших припущеннях цей закон можна застосувати до випадкової величини, що не має скінченної дисперсії, а Хінчін в 1929 показав, що якщо вибірка складається із незалежних однаково розподілених випадкових величин, для виконання слабкого закону великих чисел достатньо того, що існує [[математичне сподівання]].{{sfn|Seneta|2013}}<ref name=EncMath>{{cite web|author1=Yuri Prohorov|authorlink1=Yuri Vasilyevich Prokhorov|title=Law of large numbers|url=https://www.encyclopediaofmath.org/index.php/Law_of_large_numbers|website=Encyclopedia of Mathematics|accessdate=25 липня 2018|archive-date=26 липня 2018|archive-url=https://web.archive.org/web/20180726005946/https://www.encyclopediaofmath.org/index.php/Law_of_large_numbers}}</ref> Ці подальші дослідження призвели до появи двох відомих форм закону великих чисел. Перший називається "слабким" законом, а інший "посиленим" законом, що відповідає двом різним формам [[Границя числової послідовності|наближення]] кумулятивного вибіркового середнього до математичного сподівання; зокрема, виконання посиленого закону передбачає і виконання слабкого.{{sfn|Seneta|2013}}


== Джерела ==
== Джерела ==
* {{Гнєденко.Курс теорії ймовірностей}}
{{Reflist}}
* {{Карташов.Імовірність процеси статистика}}
[[Категорія:Теорія ймовірностей]]
* {{Гіхман.Скороход.Ядренко}}


== Примітки ==
[[ar:قانون الأعداد الكبيرة]]
{{reflist|2}}
[[bg:Закон за големите числа]]

[[cs:Zákon velkých čísel]]
[[Категорія:Теорія ймовірностей]]
[[da:Store tals lov]]
[[Категорія:Теореми статистики]]
[[de:Gesetz der großen Zahlen]]
[[el:Νόμος των μεγάλων αριθμών]]
[[en:Law of large numbers]]
[[eo:Leĝo de grandaj nombroj]]
[[es:Ley de los grandes números]]
[[eu:Zenbaki handien lege]]
[[fa:قانون اعداد بزرگ]]
[[fr:Loi des grands nombres]]
[[he:חוק המספרים הגדולים]]
[[hu:Nagy számok törvénye]]
[[it:Legge dei grandi numeri]]
[[ja:大数の法則]]
[[ko:큰 수의 법칙]]
[[mt:Liġi tan-numri kbar]]
[[nl:Wetten van de grote aantallen]]
[[no:Store talls lov]]
[[pl:Prawo wielkich liczb]]
[[pt:Lei dos grandes números]]
[[ru:Закон больших чисел]]
[[simple:Law of large numbers]]
[[sr:Закон великих бројева]]
[[sv:De stora talens lag]]
[[tr:Büyük sayılar yasası]]
[[ur:کثیر اعداد کا قانون]]
[[vi:Luật số lớn]]
[[zh:大数定律]]

Поточна версія на 16:25, 15 червня 2024

Ілюстрація закону великих чисел використовуючи певний перебіг кидань кості. З тим як кількість кидків збільшується, середнє значення всіх кидків наближується до 3.5. Різні перебіги показуватимуть різні форми кривої у частині, що відображає малу кількість кидків (ліва частина), у частині, що відображає велику кількість кидків (права частина) вони будуть дуже подібні.

Закон великих чисел в теорії імовірностей стверджує, що емпіричне середнє (арифметичне середнє) великої вибірки із фіксованого розподілу близьке до теоретичного середнього (математичного сподівання) цього розподілу. В залежності від виду збіжності розрізняють слабкий закон великих чисел, коли маємо збіжність за ймовірністю, і посилений закон великих чисел, коли маємо збіжність майже скрізь.

Завжди знайдеться така кількість випробувань, при якій з будь-якою заданою наперед імовірністю частота появи деякої події буде як завгодно мало відрізнятися від її імовірності.

Форми ЗВЧ

[ред. | ред. код]

Нижче описано дві версії ЗВЧ: Слабкий закон великих чисел та Посилений закон великих чисел. Обидва закони стверджують, що з певною достовірністю середнє вибірки

прямує до математичного сподівання

де X1, X2, ... — скінченна послідовність н.о.р. випадкові величини зі скінченним математичним сподіванням E(X1) = E(X2) = ... = µ < ∞.

Слабкий закон великих чисел

[ред. | ред. код]

Нехай є нескінченна послідовність однаково розподілених і некорельованих випадкових величин , визначених на одному ймовірнісному просторі . Їх коваріація . Нехай . Позначимо вибіркове середнє перших членів:

.

Тоді .

Це означає, що для будь-якого додатного числа ε,

Інтерпретувати цей результат можна так, що слабкий закон говорить про те, що для будь-якої заданої похибки, не важливо наскільки вона буде малою, для значно великих вибірок буде існувати дуже висока імовірність, що середнє значення для спостережень буде близьким до значення сподівання; так що воно буде знаходитися в межах похибки.

Як уже згадувалося, слабкий закон застосовується для незалежних однаково розподілених випадкових величин, але існують і інші випадки в яких він може застосовуватися. Наприклад, у кожної випадкової величини у вибірці може бути різна дисперсія, але математичне сподівання залишається сталим. Якщо ці дисперсії обмежені, тоді це правило можна застосувати аналогічно як це показав Чебишов в 1867 році. (Якщо математичні сподівання змінюються, тоді ми можемо застосувати цей закон до середнього відхилення від відповідних значень математичних сподівань. Тоді закон стверджуватиме, що це збігатиметься за імовірністю до нуля.) Насправді, доведення Чебишова буде працювати доки дисперсія середнього для перших n значень збігатиметься до нуля при n що прямує до нескінченності.[1] Як приклад, припустимо що кожна випадкова величина у вибірці має розподіл Гауса із нульовим середнім значенням, але із дисперсією що дорівнює На кожному етапі, середнє матиме нормальний розподіл (оскільки це є середнє множини нормально розподілених величин). Дисперсія суми величин дорівнює сумі дисперсій, яка є асимптотичною до . Дисперсія середнього в свою чергу буде асимптотичною до і прямує до нуля.

Прикладом це закон великих чисел не виконується Розподіл Коші. Нехай випадкові числа дорівнюють тангенсу кута, що рівномірно розподілений між значеннями −90° і +90°. Медіана дорівнює нулю, але математичне сподівання не існує, і насправді середнє із n таких величин матиме той самий розподіл, що і одна така величина. Воно не прямує до нуля при тому що n прямує до нескінченності.

Але існують і приклади, де слабкий закон великих чисел може бути застосований навіть при умові, що математичне сподівання не існує.

Посилений закон великих чисел

[ред. | ред. код]

Нехай є нескінченна послідовність незалежних однаково розподілених випадкових величин , визначених на одному ймовірнісному просторі . Нехай . Позначимо вибіркове середнє перших членів:

.

Тоді майже скрізь.

Різниця між слабким і посиленим законами великих чисел

[ред. | ред. код]

Слабкий закон стверджує, що для великого числа n, середнє значення правдоподібно є близько до μ. Отже, залишається можливість того, що трапляється нескінченну кількість разів, хоча й на рідкісних інтервалах.

Посилений закон стверджує що це майже напевно не станеться. Зокрема, це означає що з імовірністю 1, для кожного ε > 0 нерівність виконується для всіх достатньо великих n.[2]

ЗВЧ Бореля

[ред. | ред. код]

Закон великих чисел Бореля, на честь Еміля Бореля, стверджує, що якщо повторювати експеримент багато раз за тих самих умов і незалежно від інших спроб, то частота певної події наближено дорівнює ймовірності випадання цієї події в кожному окремому експерименті; чим більша кількість повторень тим краще наближення. Точніше, якщо E — подія, p ймовірність цієї події і Nn(E) — число разів коли в експерименті випадає подія E в n перших спробах, тоді з ймовірністю 1:

Ця теорема строго формалізує інтуїтивне поняття ймовірності як граничної частоти випадання події в експерименті. Теорема є частковим випадком інших загальніших законів великих чисел в теорії ймовірності.

Приклади

[ред. | ред. код]

Одне підкидання шестигранної гральної кістки може випасти одним із номерів 1, 2, 3, 4, 5, або 6. Кожна з цих подій має однакову імовірність. Таким чином, математичне сподівання для одного підкидання, буде наступним

Відповідно до закону великих чисел, якщо підкинути гральну кістку велику кількість разів, середнє значення отриманих значень (що називають вибірковим середнім) скоріше за все буде мати значення близьке до числа 3,5, так що точність цього наближення буде збільшуватися із тим чим більше буде виконано кидків.

Із закону великих чисел слідує, що емпірична імовірність успішної події для вибірки випробувань Бернуллі буде збігатися до теоретичної імовірності. Для випадкової величини із розподілом Бернуллі, математичне сподівання дорівнює теоретичній імовірності успішної події, а середнє значення для n таких величин (за умови що вони є незалежними і однаково розподіленими) буде відповідати відносній частоті.

Наприклад, підкидання монети є випробуванням Бернуллі. Якщо монету підкинути один раз, теоретична імовірність випадіння у монети герба буде дорівнювати 1/2. Таким чином, відповідно до закону великих чисел, доля випадання гербів при великій кількості незалежних підкидань монети "повинна" приблизно становити 1/2. Зокрема, доля випадання гербів при n незалежних підкиданнях майже певно буде збігатися до 1/2 при n що прямує до нескінченності.

Історія

[ред. | ред. код]

Італійський математик Джироламо Кардано (1501–1576) стверджував без доказів про те, що точність емпіричної статистики поліпшується із збільшенням кількості випробувань.[3] Згодом цей факт формалізували як закон великих чисел. Окрему форму закону великих чисел для бінарної випадкової величини вперше довів Якоб Бернуллі.[4] Йому знадобилося більше 20 років, аби випрацювати достатньо точне математичне доведення, яке він опублікував у своїй праці Ars Conjectandi[en] (Мистецтво вгадування) в 1713. Він назвав її "Золотою Теоремою", але згодом вона стала загальновідомою як "Теорема Бернулі". Не слід плутати її із Законом Бернуллі, що названий на честь племінника Якоба Бернулі Даніеля Бернуллі. В 1837, С.Д. Пуассон згодом описав її під назвою "la loi des grands nombres" ("Закон великих чисел").[5][6] Після чого вона залишилася відома під обома назвами, але назва "Закон великих чисел" вживається частіше.

Після того, як Бернуллі і Пуассон опублікували свої досягнення, над поліпшенням закону працювали і інші математики, до яких належать Чебишов,[7] Марков, Борель, Кантеллі[en], Колмогоров і Олександр Хінчін[en]. Марков показав, що при певних слабших припущеннях цей закон можна застосувати до випадкової величини, що не має скінченної дисперсії, а Хінчін в 1929 показав, що якщо вибірка складається із незалежних однаково розподілених випадкових величин, для виконання слабкого закону великих чисел достатньо того, що існує математичне сподівання.[8][1] Ці подальші дослідження призвели до появи двох відомих форм закону великих чисел. Перший називається "слабким" законом, а інший "посиленим" законом, що відповідає двом різним формам наближення кумулятивного вибіркового середнього до математичного сподівання; зокрема, виконання посиленого закону передбачає і виконання слабкого.[8]

Джерела

[ред. | ред. код]

Примітки

[ред. | ред. код]
  1. а б Yuri Prohorov. Law of large numbers. Encyclopedia of Mathematics. Архів оригіналу за 26 липня 2018. Процитовано 25 липня 2018.
  2. Ross, (2009)
  3. Mlodinow, L. The Drunkard's Walk. New York: Random House, 2008. p. 50.
  4. Jakob Bernoulli, Ars Conjectandi: Usum & Applicationem Praecedentis Doctrinae in Civilibus, Moralibus & Oeconomicis, 1713, Chapter 4, (Translated into English by Oscar Sheynin)
  5. Poisson names the "law of large numbers" (la loi des grands nombres) in: S.D. Poisson, Probabilité des jugements en matière criminelle et en matière civile, précédées des règles générales du calcul des probabilitiés (Paris, France: Bachelier, 1837), p. 7 [Архівовано 2 червня 2016 у Wayback Machine.]. He attempts a two-part proof of the law on pp. 139–143 and pp. 277 ff.
  6. Hacking, Ian. (1983) "19th-century Cracks in the Concept of Determinism", Journal of the History of Ideas, 44 (3), 455-475 JSTOR 2709176
  7. Tchebichef, P. (1846). Démonstration élémentaire d'une proposition générale de la théorie des probabilités. Journal für die reine und angewandte Mathematik (Crelles Journal). 1846 (33): 259—267. doi:10.1515/crll.1846.33.259.
  8. а б Seneta, 2013.