Category: наука

Category was added automatically. Read all entries about "наука".

Мифы о большом взрыве, Олег Верходанов

Никогда не думал, что научная лекция может собрать на ютубе миллион просмотров. И вот она, эта лекция. Ничего не понятно, но очень интересно, просмотрел на одном дыхании. Лектор — виртуоз. Рекомендую к просмотру.

https://www.youtube.com/watch?v=EiUy8aJJKOQ

Четко, с юмором, со списком интересных книг по физике. Походя упоминается известный сериал.

Продолжительность видеоролика: 49 минут 46 секунд. Название: «Мифы о Большом взрыве: как из «ничего» получилось «всё»? Олег Верходанов. Ученые против мифов 12-7». Видеоролик опубликован на ютубе примерно год назад. Название канала: «АНТРОПОГЕНЕЗ РУ».

Лекция проходила в рамках научно-просветительского форума «Ученые против мифов». Это было уже 12-е по счету мероприятие такого рода (первый форум прошел в 2016 году), организованное в частности одним из создателей портала «Антропогенез.Ру», Александром Соколовым (на видео это мужчина с бородой, ведущий форума).

12-й форум проходил в Москве два дня: с 29 февраля по 1 марта 2020 года.

Жаль, но докладчик, Олег Васильевич Верходанов, вскоре после этого (05.04.2020 года) умер от сердечного приступа. Ему было всего лишь 55 лет:
https://ru.wikipedia.org/wiki/Верходанов,_Олег_Васильевич

Построитель графиков функций Desmos

Всё-таки, до чего кайфовая штука!

Задание (цитата):

Составить уравнения касательной и нормали к графику кривой в точке, абсцисса которой равна .

«Как найти уравнение нормали к графику функции в заданной точке?», Александр Емелин

Ход решения задания можно посмотреть по ссылке на сайте Александра. Нужно уметь найти производную указанной в задании функции, а потом подставить ее в две известные формулы касательной и нормали.

В ответе получаются такие уравнения:

— касательная:
— нормаль:

Переносим все три уравнения (изначальное (это верхняя половинка эллипса), касательной и нормали) в построитель графиков «Desmos» (https://www.desmos.com/calculator):


И из скучных математических формул получаем наглядное представление о том, что мы делали в задании:

Красным цветом показан график изначальной функции, зеленым — касательная к изначальному графику в требуемой точке, сереневым — нормаль к изначальному графику и касательной в той же точке.

Всё становится гораздо понятнее, когда формулы можно мгновенно преобразить в рисунок.

Сервис http://www.yotx.ru, кстати, не может строить графики функций, если «игрек» не выражен явно через «икс» (функция, заданная в неявном виде).

Вспоминаю высшую математику

Начал читать вторую главу «Физический уровень» книги Таненбаума про компьютерные сети и тут... ба-бах! Ряды Фурье (в оригинале раздел называется «Анализ Фурье»).

Всегда стараюсь избегать высшую математику в технической литературе, но по достижении определенного уровня, как ни крути, а натыкаешься на нее. При этом мне сразу вспоминаются университетские времена, седовласые профессора с мелом в руках у огромной доски и пыльные толстые тома в библиотеке, навевающие сон.

Высшую математику помню очень плохо, хотя в свое время получал неплохие отметки по этому предмету и в школе, и в университете.

Решил поискать, что есть по этому поводу в интернете. Нашел на хабре статью «Простыми словами о преобразовании Фурье». Цитата оттуда:

Я буду исходить из предположения что читатель понимает что такое интеграл, комплексное число (а так же его модуль и аргумент), свертка функций, плюс хотя бы “на пальцах” представляет себе что такое дельта-функция Дирака.


Кхм... ну да, всё просто (сарказм).

В таких случаях я опускаюсь на уровень ниже, а если и там непонятно, то еще ниже и так далее, пока не станет понятно. Нашел хороший ресурс (автор — Александр Емелин), на котором многие темы высшей математики разъясняются на пальцах:

http://www.mathprofi.ru
Зеркало проекта: http://mathprofi.net
Форум и библиотека проекта: http://mathprofi.com
Паблик проекта: https://vk.com/mathprofiru

Проект существует с 2010 года. Дизайн сайта, конечно, родом из начала нулевых, что отмечает сам автор. С другой стороны, сами материалы отлично читаются, объясняется всё, что только можно, поэтому про устаревший дизайн забываешь очень быстро.

Топология интернета

Вопрос-задание из книги Таненбаума про компьютерные сети к главе 1 «Введение», цитата:

35. Интернет состоит из огромного числа сетей. Их взаимное расположение определяет топологию Интернета. Очень много информации на тему топологии Интернета можно найти на различных веб-сайтах. С помощью поисковых программ найдите соответствующую информацию и напишите краткий отчет по итогам исследования.


Под «поисковыми программами» (в англоязычном оригинале «search engine»), думаю, подразумеваются поисковые системы вроде «Яндекса» и «Google» (я пользовался ими).

Поиск затрудняется тем, что современные поисковые системы, во-первых, выдают результаты без учета регистра букв в слове (в научной среде слово «internet» (с маленькой буквы) часто означает объединение нескольких сетей, построенных по разным технологиям, в одну дословно «междусеть»; таких интернетов в мире огромное количество; глобальный же «Internet» (с большой буквы) в мире только один и это объединение всех сетей в одну общую дословно «Междусеть»; об этом в книге Таненбаума сказано в подразделе 1.2.5. «Объединения сетей»; в русском же языке с 2012 года глобальная «Междусеть» может обозначаться хоть словом «интернет», хоть словом «Интернет», об этом сказано в статье википедии со ссылкой на решение Орфографической комиссии РАН) и, во-вторых, выдают результаты с синонимами (вместо результатов по «топологии интернета» получаем результаты по «сетевой топологии», а это несколько другое). Эти особенности работы поисковых систем либо замалчиваются их создателями, либо выдаются за преимущества (в некоторых случаях они действительно являются преимуществами, но не всегда).

Что мы ищем? В принципе, нас не интересует «топология» как раздел математики, изучающий в общем явление непрерывности, а в частности — свойства пространств, которые остаются неизменными при непрерывных деформациях.

Понятие «сетевая топология» гораздо ближе к тому, что нам требуется. «Сетевая топология» — это взаимное расположение (по-английски «arrangement») элементов сети для передачи данных (коммуникационной сети, телекоммуникационной сети, по-английски «communication network»). Под элементами сети подразумеваются каналы передачи данных, узлы сети и так далее. Однако, в статьях про сетевую топологию обычно рассказывается про различные типы сетевой топологии, использующиеся в ЛВС (локальных сетях): «шина», «звезда», «кольцо» и тому подобное.

https://ru.wikipedia.org/wiki/Сетевая_топология
https://en.wikipedia.org/wiki/Network_topology

Нас же интересует сетевая топология конкретной огромной глобальной сети, объединяющей множество сетей помельче. Это и называется «топологией интернета». На сегодня никто не представляет в точности, какова топология Интернета и в какую сторону она развивается. На эту тему проводится множество исследований, есть множество разных теорий, гипотез, догадок и моделей.

Так как топология интернета постоянно меняется, собираемая информация о топологии интернета всегда имеет конкретную дату, на которую она была собрана. Эта информация представляет собой большие базы данных, файлы с информацией об узлах сети и связях между ними. Сбор такой информации могут осуществлять одни люди (организации), а использовать эту информацию для исследований и других целей могут другие люди (организации).

К примеру, некоторые исследователи заняты составлением так называемых «карт интернета». Карта интернета — это визуализация вышеупомянутых баз данных с информацией о топологии интернета. (Тут следует упомянуть, что под «картой интернета» может подразумеваться карта веб-сайтов, где веб-сайты считаются узлами, а гиперссылки — связями, но в данном посте меня эти понятия и карты не интересуют. Примеры: «Topology of the World Wide Web», «The Internet map» и тому подобное. Так же в данном посте меня не интересуют так называемые «карты уровней интернета», где под уровнями подразумеваются «Видимая сеть» (по-английски «Surface web»), «Глубокая сеть» (по-английски «Deep web»), «Даркнет» (по-английски «Darknet»).)

Статья в википедии по теме картографирования сетей:
https://en.wikipedia.org/wiki/Network_mapping

Наиболее красивые карты интернета, мне кажется, выдает проект «Opte Project»:

http://www.opte.org/the-internet/
https://en.wikipedia.org/wiki/Opte_Project


Карты интернета 2003, 2010 и 2015 годов от проекта «Opte Project»

Оригинальные изображения, уменьшенные размеры которых я здесь вставил, можно посмотреть на сайте проекта. Изображения с сайта, как я понимаю, тоже являются уменьшенными вариантами настоящих оригиналов. Карта 2003 года (с изменениями на 2005 год) используется во многих статьях на сайте википедии. Разными цветами на каждой из карт обозначены разные вещи: на карте 2003 года — разные группы IP-адресов по их принадлежности к разным географическим регионам; на карте 2010 года используется шкала цветов каления металла, где узлы с большим числом соединений отображаются цветом большей температуры; на карте 2015 года — принадлежность интернет-узлов к разным региональным интернет-регистраторам. В будущем авторы планируют сделать эти карты объемными и интерактивными, а также анимировать их, чтобы показать развитие топологии интернета в динамике с течением времени (об этом сказано в разделе «FAQ» сайта проекта).

(Думаю, тут стоит еще упомянуть создание, работу и опубликование результатов работы ботнета «Carna». Кто не знает, «ботнет» — это сеть хостов, зараженных компьютерным вирусом-ботом, выполняющим команды злоумышленника-создателя ботнета. Обычно ботнеты применяют для разных нехороших целей, но в данном случае некий аноним создал ботнет из примерно 420 тысяч устройств, а затем использовал его в научных целях — для так называемой «переписи Интернета 2012 года». В рамках этого поста данная перепись неинтересна, так как она не касается напрямую топологии интернета, а ее результатом явились несколько анимированных карт интернета в виде картинок формата GIF. Статьи в википедии: русская, английская.)

Топология интернета. В целом к этому абзацу более-менее, думаю, понятно, что такое «топология интернета». Как ее изучают? Во-первых, топологию интернета можно изучать на нескольких разных уровнях детализации. Например, на уровне устройств, подключенных к сети (каждое устройство-хост считаем узлом). Уровень повыше, с меньшей детализацией — это уровень роутеров (маршрутизаторов), определяющих пути пакетов данных в сетях (к каждому роутеру может быть подключено множество устройств-хостов, но на этом уровне детализации они игнорируются).

Автономные системы. Уровень автономных систем — это уровень детализации топологии интернета выше уровня роутеров. Дело в том, что интернет состоит из множества сетей, которые принадлежат частным лицам и организациям. Многие из этих физических и юридических лиц не хотят раскрывать устройство принадлежащим им сетей (из-за коммерческой тайны, тайны частной жизни или по другим причинам). Поэтому в большинстве случаев исследователи считают узлом интернета такую вот частную сеть, такой узел интернета называют автономной системой (сокращенно «АС» или по-английски «AS»). Автономная система — система IP-сетей и маршрутизаторов, управляемых одним или несколькими операторами одновременно.

https://ru.wikipedia.org/wiki/Автономная_система_(Интернет)
https://en.wikipedia.org/wiki/Autonomous_system_(Internet)

Я рекомендую очень интересную англоязычную научную статью от 2009 года, которая так и называется «Internet Topology» (авторы: Yihua He, Georgos Siganos, Michalis Faloutsos). ДОИ (цифровой идентификатор объекта) статьи:
https://doi.org/10.1007/978-0-387-30440-3_293

Указанная ссылка приводит на сайт электронной библиотеки немецкого издательства «Springer». Для доступа ко всему документу там обязательна регистрация (и я так и не смог понять, требуется ли там какая-либо оплата, потому что регистрироваться не стал). Скачать эту статью без проблем можно с сайта одного из авторов, профессора Michalis Faloutsos:
http://www.cs.ucr.edu/~michalis/PAPERS/ITopo.pdf

Там сказано, что в большинстве исследований по топологии интернета авторы исследований фокусируются на уровне автономных систем для детализации топологии интернета. Кратко рассказано и проиллюстрировано, что такое «автономные системы» и как они сочетаются с детализацией на уровне роутеров и устройств-хостов, подключенных к роутерам.

Рассказано, что большой прорыв в исследованиях топологии интернета случился в 1999 году, когда Michalis Faloutsos и его два брата открыли, что кажущаяся случайной топология интернета таки следует нескольким степенным законам (по-английски «power law»).

https://ru.wikipedia.org/wiki/Степенной_закон
https://en.wikipedia.org/wiki/Power_law

Следствием этого открытия стало множество работ других исследователей, которые кинулись сначала проверять эту гипотезу, а затем, когда она подтвердилась, использовать степенные законы для проверки существовавших на тот момент моделей развития топологии интернета и создания новых моделей, учитывавших степенные законы.

Для понимания статьи потребуется знакомство с автономными системами (были описаны выше), протоколом BGP (расшифровывается как «Border Gateway Protocol», это основной протокол динамической маршрутизации в интернете), знакомство с англоязычными терминами из теории графов («node» или «vertex» (узел), «edge» (ребро), «degree» (валентность узла), «degree rank» (номер или «ранг» валентности узла при ранжировании узлов в порядке уменьшения валентности) и тому подобных).

https://ru.wikipedia.org/wiki/Border_Gateway_Protocol
https://ru.wikipedia.org/wiki/Теория_графов

Сначала авторы статьи разбирают, какие существуют источники информации о топологии интернета и как получить данные из этих источников. Данные из разных источников могут частично дублировать друг друга, а частично дополнять друг друга. Поэтому необходимо их сравнение. Рассматриваются следующие источники информации: 1) таблицы маршрутизации, составленные по протоколу BGP и хранящиеся на роутерах; 2) результаты работы программы «traceroute» (в операционных системах «Windows» — «tracert», я уже писал об этой программе); 3) базы данных IRR (расшифровывается как «Internet Routing Registry»).

Далее подробно разобраны три степенных закона. Тут потребуется понимание того, что такое «plot» (точечная диаграмма), что такое «log-log plot» (в отличие от прямоугольной системы координат с привычным линейным масштабом величин на обеих осях координат в системе координат с логарифмическим масштабом (то самое «log») на обеих осях координат (поэтому «log-log») соседние единичные отрезки не равны друг другу). Функция, изображающая степенной закон, на диаграмме с обеими осями координат в логарифмической шкале превращается из кривой в прямую. При этом «угловой коэффициент» или «наклон» (по-английски «slope») такой прямой становится степенным показателем (по-английски «exponent») конкретного степенного закона. В подписях под диаграммами фраза вида «Y versus X» означает, что изображена зависимость величины Y от величины X.

Также потребуется понимание, что такое «eigenvalue» (по-русски «собственное значение» или «собственное число») и что такое функция распределения (по-английски «cumulative distribution function», сокращенно «CDF») в теории вероятностей.

https://ru.wikipedia.org/wiki/Собственный_вектор
https://en.wikipedia.org/wiki/Cumulative_distribution_function

Статья завершается рассмотрением различных моделей развития топологии интернета. В том числе генерируемых случайным образом в соответствии с степенными законами и концептуальных. Прилагается здоровенная библиография из 80 источников.

Почему аналоговый сигнал так называется (на примере звука)

Когда людям понадобилось передать на расстояние информацию (данные, сообщение) они придумали несколько способов это сделать. Одним из них стал аналоговый сигнал.

Например, если требуется передать на расстояние информацию о звуке (музыка, песня, человеческая речь), может использоваться аналоговый сигнал.

Что такое звук? Это физический процесс, последовательные уплотнения и разрежения среды (например, воздуха), в которой распространяется звук.


Картинка из статьи про звук в википедии

На картинке слева изображен источник звука, справа — ухо человека. Последовательные уплотнения и разрежения воздуха показаны кусочками серых окружностей (окружностей — потому что звук распространяется от источника звука во все стороны вокруг). При уплотнениях воздуха окружности находятся ближе друг к другу и почти сливаются, а при разрежениях — дальше друг от друга, поэтому в этих местах образуются пробелы. Можно, кстати, заметить, что ближе к источнику звука на картинку попадает бОльшая часть окружностей, поэтому они выглядят более изогнутыми, чем кусочки окружностей, расположенные дальше от источника звука и ближе к уху человека.

Итак, стоит задача передать на расстояние информацию о звуке. Передавать сам звук — не вариант, далеко ли можно докричаться? Поэтому придумали передавать на расстояние не сам звук, а его аналог — некий сигнал, являющийся точным слепком характеристик передаваемого звука.

В качестве такого аналога часто выбирают электрический сигнал. Электрический ток передается на большие расстояния по проводам. Хоть скорость движения носителей электрического заряда (электронов) не очень большая, зато скорость распространения электрического поля, которое инициирует электрический ток, сравнима со скоростью света.

То есть звук преобразуют в переменный электрический ток. Это можно сделать с помощью микрофона.


Схема преобразования звука в переменный электрический ток из статьи о звуке Дениса Дубровского

На рисунке вверху слева с помощью множества точек изображены уплотнения и разрежения воздуха, то есть, собственно, звук. Под этими уплотнениями и разрежениями нарисован график изменения плотности воздуха при передаче звука в воздухе с течением времени. Можно видеть, что этот график похож на идущие друг за другом волны, поэтому уплотнения и разрежения воздуха при передаче звука часто называют звуковыми волнами. Еще процесс уплотнения и разрежения воздуха при передаче звука можно назвать колебаниями плотности воздуха, потому что плотность воздуха колеблется возле некоего среднего значения плотности, поэтому такие уплотнения и разрежения воздуха при передаче звука еще называют звуковыми колебаниями.

На рисунке вверху в центре изображена схема микрофона. Звук воздействует на мембрану, заставляя ее колебаться. Мембрана заставляет колебаться соединенную с ней подвижную катушку (катушка — это провод (проводник), намотанный на цилиндрический каркас), которая находится в постоянном магнитном поле. При таком движении катушки в постоянном магнитном поле в проводнике вызывается переменный электрический ток. На рисунке внизу справа изображен график изменения напряжения индуцируемого в микрофоне электрического тока с течением времени.

Волна на графике справа является аналогом (слепком) волны на графике слева. При преобразовании звука в переменный электрический ток получили аналоговый сигнал в виде этого переменного электрического тока, который и будет передан на расстояние по проводам. На принимающей стороне для получения звука необходимо будет выполнить обратную операцию по преобразованию электрического сигнала в звук.

Выводы. Аналоговый сигнал предназначен для передачи «аналога-слепка» информации (данных, сообщения) в отличие от противопоставляемого ему цифрового сигнала, который предназначен для передачи цифр (чисел), а не «аналога-слепка» данных. Цифровой сигнал передает информацию об информации, но это тема для отдельного поста.

Число хостов в интернете

Вопрос из книги Таненбаума про компьютерные сети к главе 1 «Введение», цитата:

19. Интернет удваивается в размерах приблизительно каждые 18 месяцев. Точное число хостов неизвестно, но один аналитик в 2009 году назвал цифру в 600 млн хостов. Сколько будет хостов в Интернете в 2018-м году? Вы сами верите в это? Поясните свою точку зрения.


Как я уже писал, рассматриваемая пятая редакция книги Таненбаума вышла в 2011 году. Очевидно, что сегодня, в 2020-м году, вопрос про прогноз на 2018-й год является неактуальным. Но мы можем представить, будто находимся в 2009-м году, и просто сделаем математические расчеты на основе заданных условий.

Возможно, что данная задача имеет связь с так называемым «законом Мура», но я не буду тут отвлекаться на историю информационных технологий.

«Удваивается» означает умножение 600 млн хостов каждые 18 месяцев на 2. То есть каждые полтора года 600 млн хостов умножаются на очередную степень двойки:

2009 год: 20 * 600 млн = 600 млн
2009 + 1,5: 21 * 600 млн = 1200 млн
2012 год: 22 * 600 млн = 2400 млн
и так далее.

Между 2009 и 2018 годом прошло 9 лет. 9 лет содержат 6 раз по 1,5 года, а следовательно:

2018 год: 26 * 600 млн = 64 * 600 млн = 38 400 млн.

Это и есть ответ, но мы пойдем немного дальше. Обозначим номер каждой полуторалетки латинской буквой x, а количество хостов латинской буквой y. Тогда для вычисления количества хостов через заданное количество полуторалеток можно использовать такую функцию:

y = 2x * 600 млн.

А если мы хотим знать количество хостов через заданное число лет, а не полуторалеток? Для этого в вышеуказанной функции степень двойки разделим на 1,5. Получится следующая функция:

y = 2x/1,5 * 600 млн.

На первый взгляд выглядит громоздко, но легко ложится в электронные таблицы или в разнообразные системы построения графиков. Всё это, как известно, сегодня можно легко делать онлайн. Вот таблица количества хостов по годам (для вычислений я использовал формулы в электронных таблицах «Google») и график вышеуказанной функции (построен с помощью онлайн-сервиса http://www.yotx.ru, здесь X — количество лет, прошедших с 2009 года, Y — количество хостов в млн):

ГодХосты, млн
2009600,00
2010952,44
20111 511,91
20122 400,00
20133 809,76
20146 047,62
20159 600,00
201615 239,05
201724 190,48
201838 400,00
201960 956,20
202096 761,94

Население нашей планеты на ноябрь 2020 года составляет 7827 млн человек. Если бы на одного человека в интернете приходился бы максимум только один хост, то, очевидно, количество хостов не могло бы превысить количество человек на Земле.

Однако, сейчас, как известно, развивается так называемый «интернет вещей», в рамках которого к интернету подключается чуть ли не любой бытовой прибор или датчик. В результате на одного человека уже может приходиться множество таких вот хостов.

Если начальные условия и допущения задания верны, то на сегодня (2020 год) на каждого человека на нашей планете уже приходится (96 761,94 / 7827 = 12,36) около 12 хостов, подключенных к интернету.

Верю я в это или не верю — это не вопрос науки. Вера — прерогатива религии.

Ошибки передачи, вероятности, среднее

Вопрос из книги Таненбаума про компьютерные сети к главе 1 «Введение», цитата:

15. В некоторых сетях уровень передачи данных обрабатывает ошибки передачи, требуя повторной передачи поврежденных кадров. Если вероятность повреждения кадра равна p, каким будет среднее число попыток, необходимых для передачи кадра, при условии, что подтверждения никогда не теряются?


В оригинале речь идет про «data link layer». Это один из уровней эталонной модели OSI. Мне никогда не нравился перевод названия этого уровня как «уровень передачи данных», потому что все уровни этой модели так или иначе обрабатывают и передают данные. Думаю, более правильный вариант перевода — «канальный уровень», если ориентироваться на слово «link». На этом уровне данные разбиваются на порции, которые называются «кадрами» или «фреймами» (по-английски «frame»).

Ранее уже было задание с вычислением вероятностей, я его разбирал в трех постах:
1. Что такое вероятность
2. Сложение и умножение вероятностей
3. Широковещательная подсеть и вероятности

Как я уже упоминал в тех постах, при вычислении вероятностей сначала нужно разобраться, что из себя представляет случайный эксперимент и определить виды его случайных исходов (случайных событий).

Случайный эксперимент в данном случае я представляю себе так:


Хост-отправитель отправляет кадр и ждет подтверждение получения этого кадра от хоста-получателя. В подтверждении, по идее, должна содержаться либо информация о том, что кадр получен успешно, либо информация о том, что кадр получен поврежденным. То есть в данном эксперименте может быть два случайных исхода (случайных события): кадр получен успешно (неповрежденным), кадр получен поврежденным. Это два несовместных противоположных события. Вероятность получения кадра поврежденным составляет p, а, следовательно, вероятность успешного получения кадра составляет 1 – p.

Для дальнейшего решения задачи нужно изменить содержание эксперимента (при этом изменится число и содержание его исходов). Теперь эксперимент будет состоять из одной или более попыток отправки кадра и закончится этот эксперимент тогда, когда хост-отправитель получит подтверждение об успешном получении кадра (без повреждений). У этого эксперимента может быть бесконечное число случайных исходов: кадр может быть получен успешно при первой попытке передачи, либо при второй попытке передачи, либо при третьей попытке передачи и так далее, до бесконечности.

Немного подумав над этим экспериментом, я для наглядности сравнил его с бросанием обычного игрального шестигранного кубика. Этот кубик бросаем, к примеру, до выпадения двойки. Сколько в среднем для этого понадобится бросков? Интуитивно я сразу написал нужную формулу: нужно единицу разделить на вероятность выпадения двойки в каждом из бросков. Эта вероятность равна 1/6 (выроятность невыпадения двойки равна 5/6). Поэтому для выпадения двойки в среднем понадобится 1 / 1/6 = 6 бросков (столько же, сколько для выпадения любой другой грани кубика).

Переходя от этого примера к нашему эксперименту с передачей кадра, получим, что среднее количество попыток передачи кадра до успешной попытки составит 1 / (1 – p).

Это, конечно, уже готовое решение, но мне было интересно, как это решение можно получить не интуитивно, а более строгим способом.

* * *

Итак, вероятность того, что кадр будет передан успешно с первой попытки составляет 1 – p.

Подсчитаем вероятность того, что кадр будет передан успешно со второй попытки. При этом, очевидно, что в первой попытке кадр передали поврежденным. Вероятность того, что в первой попытке кадр будет передан поврежденным, составляет p. Вероятность того, что во второй попытке кадр будет передан неповрежденным, составляет 1 – p. Какова вероятность того, что в эксперименте, состоящем из двух попыток, в первой попытке кадр будет получен поврежденным, а во второй попытке — неповрежденным? Тут у нас рассматриваются два совместных независимых события, поэтому можно применить умножение вероятностей. Ответ: p * (1 – p).

Подсчитаем вероятность того, что кадр будет передан успешно с третьей попытки. Рассуждая по аналогии с предыдущим абзацем, получим ответ:
p * p * (1 – p)

Подсчитаем вероятность того, что кадр будет передан успешно с k-й попытки. Обобщив формулу из двух предыдущих абзацев, получим ответ:
pk–1(1 – p)

Сумма вероятностей (а мы можем их сложить, так как исходы являются несовместными) всех исходов (кадр будет передан успешно с первой попытки, со второй попытки, с третьей попытки... и так далее) нашего случайного эксперимента должна быть равна единице, исходя из определения вероятности:

(1 – p) + p * (1 – p) + p * p * (1 – p) + ... + pk–1(1 – p) + ... = 1

или математической формулой (в разметке системы верстки «TeX»: \sum_{k=1}^\infty p^{k-1}(1-p)=1, для построения формулы я использовал онлайн-сервис https://www.hostmath.com):


Из алгебры 9-го класса средней школы можно вспомнить, что слагаемые этой суммы представляют собой бесконечную (потому что количество слагаемых бесконечно) убывающую (каждое следующее слагаемое меньше предыдущего) геометрическую прогрессию.

* * *

Чтобы рассуждать дальше, нужно ввести новые понятия из теории вероятностей, о которых в предыдущих постах не рассказывалось.

Источники:
https://mathprofi.com/knigi_i_kursy/teoriya_veroyatnostey/index.html
https://ru.wikipedia.org/wiki/Математическое_ожидание

Случайная величина — это величина, которая в результате случайного эксперимента примет одно и только одно числовое значение, зависящее от случайных факторов и заранее непредсказуемое. В нашем эксперименте случайная величина может принимать значения 1, 2, 3, ... и так далее до бесконечности (это количество попыток передачи кадра до успешной попытки включительно). Случайные величины бывают дискретными (между значениями дискретной случайной величины есть промежутки) и непрерывными. Наша случайная величина — дискретная (к примеру, между значениями 1 и 2 есть значения 1.1, 1.5, 1.9 и так далее и они не являются возможными значениями нашей случайной величины).

Распределение (закон распределения) дискретной случайной величины — это соответствие между возможными значениями этой величины и их вероятностями. К примеру, в нашем случае значению 1 нашей случайной величины соответствует вероятность 1 – p, значению 2 соответствует вероятность p * (1 – p), значению 3 соответствует вероятность p * p * (1 – p) и так далее.

Кстати, такое распределение дискретной случайной величины, какое получилось в нашем эксперименте, называется геометрическим распределением (википедия), так как вероятности из этого распределения, как уже было сказано выше, являются членами геометрической прогрессии. Еще точнее, у нас смещенное геометрическое распределение, так как значения нашей случайной величины начинаются с единицы, а не с нуля.

Математическое ожидание дискретной случайной величины — это среднеожидаемое значение случайной величины при многократном повторении испытаний. В нашем случае это и будет искомое среднее число попыток, необходимых для передачи кадра. Математическое ожидание дискретной случайной величины равно сумме произведений всех ее значений на соответствующие вероятности. Математическое ожидание в русскоязычной литературе обычно обозначают как M(X), а в иностранной литературе — как E(X), где X — это случайная величина. В нашем случае:

M(X) = 1 * (1 – p) + 2 * p * (1 – p) + 3 * p * p * (1 – p) + ... и так далее

или


Из этой формулы как раз и выводится, что в нашем случае M(X) = 1 / (1 – p). Что и требовалось доказать. О том, что математическое ожидание дискретной случайной величины для геометрического распределения равно 1 / (1 – p), сказано и в соответствующей статье википедии.

Как конкретно из последней формулы выводится M(X) = 1 / (1 – p), можно посмотреть в этом источнике:
http://www.cs.sjsu.edu/faculty/pollett/158a.12.07s/Hw1Soln.pdf

Для этого используются свойства арифметико-геометрической прогрессии:
https://en.wikipedia.org/wiki/Arithmetico%E2%80%93geometric_sequence
https://ru.wikipedia.org/wiki/Арифметико-геометрическая_прогрессия

Что такое вероятность

Пост дополнен 1 ноября 2020 г.

О вероятности обычно говорят в контексте некоего эксперимента (опыта), исходом которого является некое событие (или события). Подразумевается, что эксперимент — случайный (это такой эксперимент, результат (исход) которого невозможно точно предсказать). Являющееся исходом случайного эксперимента событие тоже называется случайным.

Источники:
https://ru.wikipedia.org/wiki/Случайный_эксперимент
https://ru.wikipedia.org/wiki/Случайное_событие

Например, бросок обычного шестигранного игрального кубика — это случайный эксперимент. Исходом этого эксперимента может быть одно из шести событий — выпадение единицы, выпадение двойки, выпадение тройки, выпадение четверки, выпадение пятерки, выпадение шестерки.

Вероятность — это количественная оценка возможности наступления случайного события. Это число в интервале от нуля включительно до единицы включительно (также вероятность можно выражать в процентах с помощью умножения этого числа на сто). Часто вероятность обозначают строчной (или прописной) латинской буквой p (P) — возможно, от английского слова «probability» (по-русски «вероятность»). То есть выполняется следующее неравенство:

0 ⩽ p ⩽ 1

Сумма всех вероятностей исходов случайного эксперимента равна единице. Это важное правило, вытекающее из определения вероятности.

Источник:
https://ru.wikipedia.org/wiki/Вероятность

В математике существует целый раздел, который изучает вероятности. Он называется «теория вероятностей».

Источник:
https://ru.wikipedia.org/wiki/Теория_вероятностей

Случайные события, являющиеся возможными исходами случайного эксперимента, бывают равновозможными (равновероятными) и неравновозможными (неравновероятными).

Например, в случае броска обычного шестигранного игрального кубика шесть возможных исходов этого случайного эксперимента являются равновозможными. Это значит, что вероятность каждого исхода броска нашего игрального кубика является одинаковой.

Предположим, мы возьмем кубик, на грани которого ничего не нанесено. На одну из граней этого кубика мы нанесем число 1, а на оставшиеся пять граней нанесем число 2. Начнем случайный эксперимент по броску этого кубика. У нас может быть два исхода: выпадение единицы и выпадение двойки. Однако, двойка, очевидно, будет выпадать чаще. Это и есть пример неравновозможных исходов случайного эксперимента.

Также случайные события, являющиеся возможными исходами случайного эксперимента, бывают совместимыми (совместными) и несовместимыми (несовместными).

Например, в случае броска обычного шестигранного игрального кубика шесть возможных исходов этого случайного эксперимента (выпадение 1, 2, 3, 4, 5 или 6) являются несовместимыми. Это означает, что при одном броске одного нашего кубика не могут одновременно выпасть, к примеру, и единичка, и шестерка.

Хорошо, пусть у нас есть обычный шестигранный игральный кубик. К имеющимся шести возможным исходам (выпадение 1, 2, 3, 4, 5 или 6) мы добавим такие следующие два исхода (события): выпадение четного числа и выпадение нечетного числа. Предположим, при очередном броске нашего кубика выпадет число 3. Таким образом, у нас произошло одновременно два события: выпадение тройки и выпадение нечетного числа. Это и есть пример совместимых исходов (событий).

Для случая равновозможных несовместимых событий вероятность одного такого события можно вычислить делением единицы на общее количество таких событий.

Например, в случае броска обычного шестигранного игрального кубика вероятность выпадения единицы равна 1/6, вероятность выпадения двойки равна 1/6 и так далее. Сумма этих вероятностей, как уже указывалось выше, равна единице:

1/6 + 1/6 + 1/6 + 1/6 + 1/6 + 1/6 = 1

А как же вычисляется вероятность несовместимых событий, которые неравновозможны?

Тут, кстати, вспоминается известный старый анекдот:

Блондинку спросили:
— Какова вероятность того, что, выйдя на улицу, вы встретите динозавра?
— 50 процентов.
— Это как?!
— Ну, или я его встречу, или нет.


Ошибка блондинки в том, что она считает вероятность неравновозможных событий по формуле для равновозможных.

В простых случаях вероятность неравновозможных событий можно вычислить по формулам. Например, в вышеизложенном примере шестигранного игрального кубика (у которого на одну грань нанесено число 1, а на оставшиеся пять граней — число 2), вероятность выпадения единицы равна 1/6, а вероятность выпадения двойки равна 5/6.

В сложных случаях приблизительную вероятность неравновозможных событий можно высчитать с помощью проведения большого количества выполнений эксперимента. Чем больше проведено выполнений эксперимента, тем точнее вычисляется вероятность исходов этого эксперимента. Этот способ называется «частотным (статистическим) определением вероятности».

Кстати, из анекдота про блондинку можно почерпнуть еще, что если в нашем случайном эксперименте есть два противоположных несовместимых исхода (события) и вероятность одного из них равна p, то вероятность второго равна 1 – p.

Кроме вышеперечисленного, случайные события бывают зависимыми и независимыми. Имеется в виду зависимость или независимость от других случайных событий.

Источник:
https://ru.wikipedia.org/wiki/Независимость_(теория_вероятностей)

Например, предположим, что в коробку положили 2 черных шара и 2 белых шара. Эксперимент состоит в выемке одного шара из коробки. Перед выемкой вероятность вынуть белый шар составляет 2/4 = 0,5. Вероятность вынуть черный шар тоже составляет 0,5. Предположим, что после выемки из коробки одного шара он оказался белым. Теперь при следующей выемке вероятность вынуть белый шар равна 1/3, а вероятность вынуть черный шар равна 2/3. Событие выемки белого шара в первом выполнении эксперимента повлияло на вероятности обоих событий (выемка белого шара, выемка черного шара) как исхода второго выполнения эксперимента. То есть эти события зависимы друг от друга.

Другой пример. Предположим, эксперимент состоит в бросании двух обычных шестигранных игральных кубиков. Событие выпадения на первом кубике числа 6 никак не зависит от события выпадения на втором кубике числа 6, сколько бы раз мы ни бросали эти кубики. То есть эти события не зависят друг от друга.

Вывод. В теории вероятностей есть несколько теорем с формулами, которые очень полезны. Например, теорема сложения вероятностей и теорема умножения вероятностей. Однако, не стоит торопиться применять эти формулы. Их применение зачастую ограничено свойствами изучаемых случайных событий. Сначала нужно определить виды случайных событий, как они связаны друг с другом, и только затем можно применять соответствующие формулы, если они подходят для изучаемых событий и экспериментов.

Бумажные книги

Вчера был в нашем провинциальном отделении «Буквоеда» и с трудом удержался от покупки нескольких довольно дорогих книжек по программированию. Неплохой у них там выбор, книжек немного, но в сравнении с другими книжными магазинами гораздо лучше... От покупки остановило соображение, что на ту же сумму я куплю таких книжек в электронном виде в три раза больше. А в электронном виде имеем еще и быстрый поиск по всему тексту...

В итоге я, конечно, куплю и в бумажном варианте, но только те позиции, которые прочту в электронном виде и которые мне при этом понравятся. Всё же, почитать любимый текст на красивой бумаге и с классной обложкой — это свой отдельный, ламповый кайф... Детям этого века, наверное, непонятный и недоступный. Как говорится, берешь в руки — маешь вещь!