Значение функции находится в промежутке L±1/10 когда х находится в пределах б от с. Мы говорим что в этом пределе аргумента х, значение функции лежит близко к лимиту L.
Этого нам недостаточно (вопрос - недостаточно для чего, я вообще не понял) , поскольку значение функции может прыгать (варьироватся) в промежутке L±1/10 БЕЗ приближения к L.
Вопрос, как сказанное в пункте 2 вообще возможно? Допустим, значение функции стоит в промежутке (L; L+1/10). А как он потом пойдет (упадет) в промежуток (L-1/10; L) не проходя через L? (Не стремясь к L)
Мы можем избежать (временно, на определенные значения) скачка значения функции если примем промежуток значении функции меньше (уменьшаем error). Здесь опять не понял, а как это позволяет функции не прыгать?
Может, я изучаю математику как-то не так? На этот единственный абзац я потратил 3 часа… на 3 примера с графиком про то что лимит не обязательно связан с значением функции я потратил тоже 3 часа… при изучении органики в сентябре 10 класса всё было нормально с английским и возникающие вопросы (большинство) ± решались за относительно небольшое время
Недостаточно точно для математических операций. Нам нужно максимально точное значение.
f(x) jumping around within the interval from L - (1/10) to L + (1/10) without tending toward L.
В этом предложении речь идет не о двух интервалах (L - (1/10); L) и (L; L + (1/10)), а об одном интервале (L - (1/10); L + (1/10)).
Тут не говорится о том, что f(x) не принимает значение L при jumping around.
without tending toward означает, что f(x) не сремится к L, но не “не проходит через”.
Это можно представить на примере, когда значение функции на каком-то расстоянии от L может прекратить стремиться к L. Например, оно стремится к значению L + 1/10000, что при допустимой погрешности ±(1/10) не заметно. Поэтому любого такого значения \delta, которое мы можем записать, как конкретное действительное число не достаточно.
Each time, we find a new \delta-interval about c so that keeping x within that interval satisfies the new error tolerance.
Мы находим все меньшие новые значения \delta, чтобы функция была в интервале допустимой погрешности. Новые значения \epsilon и \delta не “не позволяют функции не прыгать”, а уменьшают погрешность. Это значит, что чем меньше значение \epsilon, тем меньше должно быть значение \delta, чтобы f(x) оставалась в пределах интервала (L - \epsilon; L + \epsilon). Уменьшение \delta уменьшает интервал значений, принимаемый f(x) при x \in(c - \delta; c + \delta).
В математике очень важно понимать точное значение того, что написано. Если есть проблема с пониманием текста советую спросить у кого-нибудь, кто может разьяснить суть написанного. Можно использовать ресурсы на русском языке или посмотреть визуализацию на видео или иллюстрациях.
Хорошее наблюдение, но не все функции непрерывные, то что вы хотите, является свойством даже скорее определением непрерывных функций. Разрывы никто не отменял
На самом деле у вас должно быть хорошая математическая интуиция, ведь из-за своей невнимательности/неопытности вы уже и обдумали непрервывность сами, и даже теорему Вейерштрасса нащупали интуицей, что непрерывные функции не могут в промежутке пробежать, не задев какое-то значение.
Ну, а типа, каких? Что мы пытаемся сделать лишь пунктом 1? Просто указываем расположение кого-то на графике. Даже если бы не было пункта 2, я бы вряд-ли чисто из 1 пункта нашел лимит
Я имел ввиду, если в данном интервале точка будет выше L и ниже L (т.е. я намеренно разделил на два интервала)
Ааа, нене, я не это имел ввиду. Я и в скобках написал (стремится) после проходит
Операций с использованием значения лимита. Обычно нужно найти точное значение лимита, а не интервал, в котором он находится.
Пункт 1 имеет значение в контексте приближенного значения лимита. Для того, чтобы находить точное значение лимита нужно взять значение \delta, которое обеспечит максимальную точность. Радиус 1/10 берется для начала, чтобы показать, что находясь в пределах интервала функция все еще может продолжать колебаться, а значит еще не известно, что она будет стремиться к L внутри интервала. Тут только подводят к идее точного определения лимита.
Да, содержание пункта 1 не достаточно. Догадаться до определения лимита можно с 3 абзаца. Весь этот текст подводит к сути лимита. Эти 3 абзаца расчитаны не на то, что читатель сам додумается до точного определения лимита, на то, что а поймет почему \delta и \epsilon определеныы так, как они определены далее.
Да, значения функции имеют некоторую свободу в таком интервале, как 1/10.
Это вот так получается? Смотрим на весь график и видим что функция по началу стримится к L, значит предел существует. Потом добавляем интервал с эпсилоном=0.1 . Видим, что по началу вроде тоже стримится к L, значит лимит существует. Потом идем к 3 графику, там уже эпсилон равен 0.0001. Вот тут уже, при таком маленьком интервале видно что функция не стремится к L, значит всё таки лимита не существует
Или же ответ не в этом, а в точках реального лимита (одностороннего, но все равно)
Фразу “не заметно” я как-то не понял, но вроде это говорит нам о том что точку при y=L - 0.0001 в первом и втором графике можно брать как лимит функции, потому что наш интервал эпсилон маленький и можно сделать такое приближение? Но тогда, если сделать эпсилон еще меньше, вроде ничего не меняется и мы в любом случае делаем такое приближение. Однако, таких односторонних лимитов то два, так что уже на этой стадии ведь можно сказать что лимита для f(х) при х стремится к а нет. Так что и этот приближенный лимит нам не помогает
Я посмотрел видео 3Blue1Brown, всё понятно и понял само определение лимита с помощью дельта-эпсилон. Ясно, что для любого х±дельта должен найтись такой интервал L±эпсилон, чтобы в этом интервале ПРОСТО были значения функции. Как например я нарисовал в 3 графике. Там, есть маленький промежуток L±эпсилон, однако обе точки рядом с х лежать выше и ниже этого промежутка. То есть это условие существования лимита.
Конечно же я вижу связь, что и в Томасе и в моем случае функция просто перестает стремится к L. Однако, этот вариант (от 3Blue1Brown) мне кажется наиболее адекватным, нежели первые два.
Возьмём функцию f(x) = x. Проверим, будет ли функция стремиться к 1.9999, при x стремящимся к 2. Если брать достаточно большой \epsilon = 0.1, то при условном \delta = 0.05, x \in (1.95; 2.05) \implies |f(x) - 1.9999| < 0.1 выполняется. Можно затем выбрать \epsilon = 0.001 и увидеть, что это условие снова выполняется. Значит ли это, что \lim\limits_{x\to2} f(x) = 1.9999? Очевидно, нет, f(2) = 2. У нас неравенство выполнялось при больших \epsilon, а при маленьких его значениях это оказывается не так.
Когда мы брали \epsilon > 0.0001, можно было сказать, что функция стремилась к тому значению приближённо, с погрешностью этого самого эпсилона. Этот приближенный предел никак не помогает с математической стороны, но автор рассказал о нем, чтобы подвести к определению предела. Ведь если бы мы взяли правильное значение лимита 2, то условие выполняется даже когда мы уменьшаем \epsilon еще больше.
Однако, продолжать уменьшать эпсилон можно бесконечно, а такое мы не можем посчитать физически. Поэтому нужно доказывать, что условие выполняется при любых положительных \epsilon.
Я правильно понял, то есть переставать стремится это не про полное исчезновение прошлого лимита, а про то что при больших ϵ у нас появляется такой лимит самозванец и оказывается что функция и к нему тоже стремится?
А так, всё стало понятно, большое спасибо!