Пожалуйста, прочтите новое правило об ограничении использования AI-инструментов. ×

Блог пользователя Yanbar

Автор Yanbar, 3 месяца назад, По-русски

Существует достаточно много доказательств следующего факта: 0.(9) = 1, и почти все их них достаточно просты и понятны, но, как мне кажется, не очень подкованные в математике люди могут усомниться в их достоверности из-за того, что они не очень интуитивны: то возникают там какие-то пределы, то умножение периодических дробей (я понимаю, откуда что берется, и почему все верно работает, но если не разобраться, то может казаться сомнительным). По моему мнению, мое доказательство лишено какой-то практической пользы этого недостатка, поэтому я решил написать о нем. Сначала я напишу интуитивное доказательство рассматриваемого факта, а после предоставлю строгое обоснование его.

И так, интуитивное доказательство. Давайте будем рассматривать, чему равно 0.(9) с точностью до ε (напомню, что это означает, что наш ответ должен отличаться не более чем на ε от правильного), и, постепенно увеличивая точность, будем стремить ε к нулю. При ε = 0.1: 0.(9) <= 1.0(9) с точностью до ε, при ε = 0.01: 0.(9) <= 1.00(9), при ε = 0.0000001: 0.(9) <= 1.0000000(9) (операция сложения периодической дроби и дроби, в десятичной записи которой конечное число цифр, определена нормально, т. к. при таком сложении мы работаем не с бесконечностями, а с обычным сложением конечного числа цифр). Таким образом, понятно, что верхняя граница 0.(9) при улучшения точности не опускается ниже 1, а точнее при стремлении ε к 0 верхняя граница стремиться к 1 СВЕРХУ. Еще раз, при ЛЮБОЙ точности ε: 0.(9) >= 1, а при максимальной точности ε = 0 видно, что 0.(9) превращается в ровно единицу, что и говорит нам, что 0.(9) = 1.

Давайте формализуем и докажем это “ видно ” (довольно скучная и очевидная часть, так что, если понятно, то можно не читать): докажем, что предел функции 0.(9) + x (x принадлежит (0, +∞)), при x стремящимся к нулю, равен 1 через определение предела функции в точке по Коши (ОПРЕДЕЛЕНИЕ: пусть функция f(x) определена в некоторой проколотой окрестности точки x0. Говорят, что предел функции f(x) в точке x=x0 равен числу b, если для всякого ε>0 найдётся такое δ>0, что для всех x из проколотой δ-окрестности точки x0 значения функции лежат в ε-окрестности точки b). Явно предъявим для каждого ε свою δ-окрестность. Для этого необходимо понимание, что наша функция строго возрастающая, т. е. (x1 < x2) => (f(x1) < f(x2)), и все ее значения при x > 0 точно больше (или равны) 1. Получаем, что для δ = (ε : 10) и всех значений из проколотой δ-окрестности (все ее x-ы принадлежат (0, δ]) <= f(δ) < 0.(9) + ε (δ < ε также здесь я принимаю за истину без доказательства, что 0.(9) <= 1), а значит принадлежат ε-окрестности единицы. Значит для любого ε найдется нужная δ, а значит выполнено определение, значит предел доказан.

Полный текст и комментарии »

  • Проголосовать: нравится
  • -20
  • Проголосовать: не нравится

Автор Yanbar, история, 7 месяцев назад, По-русски

Здесь я хотел бы предложить свою модель Нейронной сети (а так же свое виденье ее архитектуры и метод обучения), на которую бы не ушло много времени разработки!, а кф стал бы чуточку приятнее.

Ее назначение и использование

Эта Нейронная сеть должна принимать в себя код нескольких решений (НА ОДНОМ И ТОМ ЖЕ ЯЗЫКЕ ПРОГРАММИРОВАНИЯ) какой-то одной задачи (это количество решений должно быть подобрано экспериментально, но оно может быть не таким уж большим, что-то вроде 5-10), и выдавать рейтинг этой задачи, как можно ближе к тому, что выставляется после раунда формулой. Если это реализовать, то можно будет на основе решений с тестирования раунда, заранее определить сложность задач, и внести корректировки в порядок поставления их на раунде, а также их РАЗБАЛЛОВКИ, что внесет большей справедливости.

Архитектура

За основу этой Нейронной сети, я бы взял сверточную НС по тексту, и поначалу подавать только коды решений, так наша модель сможет точнее акцентировать свое внимание на различных деталях решений, и выдавать более точный прогноз его сложности. Также после тестов такой системы, если она не будет выдавать достаточную точность, можно ввести дополнительный нейрон, в который мы будем подавать индекс задачи на раунде, ведь от этого иногда зависит и сложность задач (такое происходит, когда рядом находятся задачи почти одинаковых сложностей).

Обучение

Эту НС следует обучать на достаточно свежих задачах, для оценки сложности которых использовалась одна (последняя) формула (ведь мы же результат ее пытаемся предсказывать), так нам надо взять по (условно) 5 решений каждой задачи из (условно) последних 5 лет за которые прошло порядка 800 раундов (т. е. 4800 задач), и методом обратного распространения ошибки и градиентного спуска корректировать веса на синапсах.

Полный текст и комментарии »

  • Проголосовать: нравится
  • -15
  • Проголосовать: не нравится