Вы видите копию треда, сохраненную 12 сентября в 17:24.
Скачать тред: только с превью, с превью и прикрепленными файлами.
Второй вариант может долго скачиваться. Файлы будут только в живых или недавно утонувших тредах. Подробнее
Если вам полезен архив М.Двача, пожертвуйте на оплату сервера.
Сегодня я разбирал матрицу Якоби. По этому видео https://www.youtube.com/watch?v=wCZ1VEmVjVo&t=1268s я разбирал механизм матрицы Якоби. Так же я написал скрипт на пайтоне, где сравнил простую трансформацию двухмерного вектора и локально трансформировал эту же точку с помощью матрицы Якоби.
Ночью должен буду разобрать доказательство фундаментальной теоремы исчисления.
>Так же я написал скрипт на пайтоне
А дихлофосом по ебалу не хочешь? решил вести "дневник" про математику - веди про математику.
но я не использовал библиотеки с готовыми формулами. Я с нуля написал код, считай написал математику языком пайтона. Порой, намного лучше, чем писать на тетрадке. А дифференциалы вычислил не численно, а через автоматическое дифференциирование (самая скучная часть)
-> /dr/
Очень интересно, анон, прододжай. И не слушай пучкистов, они сами ни одной программы на хаскеле не написали, а уже думают, что знают теорию категорий.
Анализ: Утром разобрал доказательство фундаментальной теоремы исчисления по этому документу https://math.berkeley.edu/~peyam/Math1ASu11/Handouts/Proof of the FTC.pdf . Был приятно удивлен, что доктор Пейям написал его. Довольно веселый и жизнерадостный математик с каналом на ютабе. Доказательство было в целом легким, но утомительным и пугающим в начале из за множества эпсилонов и дельт. Мне кажется это так со всем анализом.
А вообще удивляет, как анализ насолько интуитивен, что порой доказательства кажутся чересчур излишними. Удивляет как порой даунжинеры могут годами интегрировать и дифференциировать на голой интуиции без строгого понимания анализа.
Задачи:
Линейная алгебра: почитать про дефектные матрицы и придумать пару трансформаций на комплексном векторном пространстве, чтобы прочувствовать комплексные векторные пространства.
Анализ: давно хотел доказать иррациональность простых чисел помимо двух.
>А вообще удивляет, как анализ насолько интуитивен, что порой доказательства кажутся чересчур излишними.
"контрпримеры в анализе" читай.
А что тут доказывать? Алгоритм одинаковый: представляешь в виде отношения, предполагаешь несократимость, возводишь в квадрат, ну ты понел
Еще можно доказывать существование.
Есть множество книг от множества авторов по математике и потеряться в этом множестве очень легко. Всё что меня на данный момент интересует в области математики есть в авторстве от Бурбаки. Поэтому на нём я и остановился пока.
Немного вводных данных - мне 30 лет, я в школе вообще не шарил математику. И вообще учиться я не хотел, хотел только смотреть фильмы, играть в сегу и плойку и читать комиксы. Любил читать журналы всякие.
Общий план такой - теория множеств, математический анализ, алгебра. Думаю всё, всё равно всю математику в моём возрасте осилить нереально.
Теорию множеств Бурбаки удобно читать, когда уже владеешь предметом на худо-бедно приемлемым уровне. У них много доказательств сконструировано с точки зрения эстетики красиво и даже с юмором, но с точки зрения понимания очень трудно за формальными выкладками нащупать руководящую идею, а без этого более менее технически нетривиальные доказательства будут выглядеть как будто свалились с Луны.
>И вообще учиться я не хотел, хотел только смотреть фильмы, играть в сегу и плойку и читать комиксы
same shit
>Думаю всё, всё равно всю математику в моём возрасте осилить нереально.
тоже так думаю
>Тогда начну читать Зорича, там есть параграф по множествам.
Правда Бурбаков после него ты все равно читать не сможешь. А оно и не надо.
1. Колмогоров, Драгалин. Введение в математическую логику.
2. Френкель, Бар-Хиллел. Основания теории множеств.
> Думаю всё, всё равно всю математику в моём возрасте осилить нереально.
Сейчас всю математику ни в каком возрасте осилить нереально.
Да и похуй. На уровне Вербита надо знать только очень узким специалистам конкретно по его теме.
На мой взгляд, чтобы примерно представить, что такое Бурбаки, можно попробовать почитать книги Эдмунда Ландау, «Основы Анализа» и «Введение...». Там, конечно, не про теорию множеств, но тоже очень педантично и занудно. Разница с Бурбаки в масштабах. Тут писал один отбитый немец курс по матану, там писали десятка два в разное время отбитых французов курс по современной на тот момент законченной высшей математике.
Бурбаки (также — общество анонимных бурбаков) — сообщество математиков, предпочитавших работать в тайне от всех. Их список точно не известен, но известно, что они все были французами и носили имя Николя (одно на всех. В те времена математики жили небогато). Исключение составлял только Александр Гротендик (он был еврей, а не француз). Кроме него в сообществе в разное время работали Николя Дьёдонне, Николя Вейль, Николя Тейт, Николя Серр, Николя Ленг и многие другие Николя.
Труды бурбаков
Бурбаки прославились написанием карманного справочника «Вся математика» (Вся математика всего на 400 страницах! Лучшие шпаргалки для студента! Изначально предполагалось продавать это в электричках). По первоначальному замыслу, это должна была быть небольшая книжка, вкратце излагающая все понятия и теоремы математики в строгом сжатом сухом аксиоматическом стиле, без пояснений о значимости той или иной теоремы. Однако после двух лет работы над частью «Теория множеств» (глава «Рекурсия»), бурбаки с удивлением обнаружили, что математика несколько больше, чем им показалось на первый взгляд. Вскоре было исписано уже несколько книг мелким шрифтом, а бурбаки даже ещё не добрались до такого простого и известного понятия, как кольцо многочленов Тейта над R-алгеброй мономорфизмов из пространства многообразий Гротендика в неприводимую группу Вейля размерности 6. Назревал творческий кризис. Было решено всех старперов в возрасте больше 50 лет скормить Ктулху, на их место набрать свежие умы и запретить, наконец, постинг ориссов. Дело пошло быстрее, и вскоре часть 2 «Abstract nonsense» была практически завершена. Однако труду не суждено было быть законченным.
Смерть бурбаков
Неожиданно для всех бурбаки умерли. Все они умерли в один день, один час, одну минуту и одну и ту же секунду. Как показало расследование, в день смерти они как раз собирались опровергнуть теорию вероятностей, сочтя её недостаточно строгой и формализованной. Перед кончиной они оставили записку следующего содержания.
Семейства Канторов, Гильбертов, Нётеров; семейства Картанов, Шевалле, Дьёдонне, Вейлей; семейства Брюа, Диксмье, Самюэлей, Шварцев; семейства Картье, Гротендиков, Мальгранжей, Серров; семейства Демазюров, Дуади, Жиро, Вердье; семейства, фильтрующиеся вправо, семейcтва точных эпиморфизмов, мадемуазель Адель и мадемуазель Идель с прискорбием сообщают о необходимости срочно явиться на Кладбище случайных величин и умереть:
— мсьё Николя Дьёдонне
— мсьё Николя Вейль
— мсьё Николя Тейт
— мсьё Николя Серр
— мсьё Николя Ленг
а так же всех остальных лиц, носящих имя Николя и распивающих спиртные напитки во внеурочное время. Неявившиеся будут представлены к отчислению.
Достоверно известно, что из всех бурбаков остался в живых только Александр Гротендик, возможно потому, что он не был упомянут в этой записке.
Знаменитые открытия бурбаков
- Каждое число больше самого себя. Кроме того, оно меньше самого себя. В частности, ноль является положительным (а также отрицательным) числом.
- Поскольку линия имеет размерность 1, то любое линейное пространство одномерно.
- 57 — не очень большое простое число (принадлежит Гротендику).
Прикрепленная иллюстрация: Бурбаки на Волге.
Бурбаки (также — общество анонимных бурбаков) — сообщество математиков, предпочитавших работать в тайне от всех. Их список точно не известен, но известно, что они все были французами и носили имя Николя (одно на всех. В те времена математики жили небогато). Исключение составлял только Александр Гротендик (он был еврей, а не француз). Кроме него в сообществе в разное время работали Николя Дьёдонне, Николя Вейль, Николя Тейт, Николя Серр, Николя Ленг и многие другие Николя.
Труды бурбаков
Бурбаки прославились написанием карманного справочника «Вся математика» (Вся математика всего на 400 страницах! Лучшие шпаргалки для студента! Изначально предполагалось продавать это в электричках). По первоначальному замыслу, это должна была быть небольшая книжка, вкратце излагающая все понятия и теоремы математики в строгом сжатом сухом аксиоматическом стиле, без пояснений о значимости той или иной теоремы. Однако после двух лет работы над частью «Теория множеств» (глава «Рекурсия»), бурбаки с удивлением обнаружили, что математика несколько больше, чем им показалось на первый взгляд. Вскоре было исписано уже несколько книг мелким шрифтом, а бурбаки даже ещё не добрались до такого простого и известного понятия, как кольцо многочленов Тейта над R-алгеброй мономорфизмов из пространства многообразий Гротендика в неприводимую группу Вейля размерности 6. Назревал творческий кризис. Было решено всех старперов в возрасте больше 50 лет скормить Ктулху, на их место набрать свежие умы и запретить, наконец, постинг ориссов. Дело пошло быстрее, и вскоре часть 2 «Abstract nonsense» была практически завершена. Однако труду не суждено было быть законченным.
Смерть бурбаков
Неожиданно для всех бурбаки умерли. Все они умерли в один день, один час, одну минуту и одну и ту же секунду. Как показало расследование, в день смерти они как раз собирались опровергнуть теорию вероятностей, сочтя её недостаточно строгой и формализованной. Перед кончиной они оставили записку следующего содержания.
Семейства Канторов, Гильбертов, Нётеров; семейства Картанов, Шевалле, Дьёдонне, Вейлей; семейства Брюа, Диксмье, Самюэлей, Шварцев; семейства Картье, Гротендиков, Мальгранжей, Серров; семейства Демазюров, Дуади, Жиро, Вердье; семейства, фильтрующиеся вправо, семейcтва точных эпиморфизмов, мадемуазель Адель и мадемуазель Идель с прискорбием сообщают о необходимости срочно явиться на Кладбище случайных величин и умереть:
— мсьё Николя Дьёдонне
— мсьё Николя Вейль
— мсьё Николя Тейт
— мсьё Николя Серр
— мсьё Николя Ленг
а так же всех остальных лиц, носящих имя Николя и распивающих спиртные напитки во внеурочное время. Неявившиеся будут представлены к отчислению.
Достоверно известно, что из всех бурбаков остался в живых только Александр Гротендик, возможно потому, что он не был упомянут в этой записке.
Знаменитые открытия бурбаков
- Каждое число больше самого себя. Кроме того, оно меньше самого себя. В частности, ноль является положительным (а также отрицательным) числом.
- Поскольку линия имеет размерность 1, то любое линейное пространство одномерно.
- 57 — не очень большое простое число (принадлежит Гротендику).
Прикрепленная иллюстрация: Бурбаки на Волге.
Блин, вот это приколюха смешная, посылай в аншлаг дроботенко срочно пока не увели, нетленка пиздатая, хохма, анекдот, ржака, хахахаха, пацталом, набашорг, админ сцуко креведко))))))))))))))))))))))))))))))))))))))))))))))))))))))))))))))))))))))))))))))))))))))))))))))))))))))))))))))))))))))))))))))))))))))))))))))))))))))))))))))))))))))))))))))))))))))))))))))))))))
Аншлаг давно закрылся же. Собственно, вообще все мемы, обсуждаемые на этой доске, очень старые и мертвые. Бурбаки работал с 1935 по 1967. Шоу Мочидзуки в театрах Ходжа было десять лет назад. Мыши-мутанты состоялись ещё до крымнаша, Рома с тех пор уже успел уйти из математики и дважды сменить ориентацию веру.
Хоть бы про Лор Сен-Раймон пошутили.
У 100% так. "Я обязательно это прочитаю. Вот-вот".
testing
.
Дорогой матемач и мой дневник. Хочу извиниться за мое долгое отсутствие. Меня не было здесь целый месяц.
Хочу уверить вас в том, что я каждый день открывал для себя все новые и новые границы математики и не сидел сложа руки. Перед тем, как рассказать чем я был занят, надо бы адресовать проблему моего долгого отсутствия. Я понял, что порой, некоторые темы в математике не могут быть изучены в течении одного дня и порой нету даже пары слов для дневника под вечер, поэтому я каждый день не смогу его вести. К тому же когда у тебя сильное беспокойство и снова ощущение того, что ты снова ничего не понимаешь, после того как обнаружил совершенно новую картину тех вещей, на которые смотрел, как на крайне очевидные и уже изученные, ты не можешь спокойно вести дневник. В итоге, я буду каждый день писать, к примеру "сегодня я думал думал и не додумал" (не самое интересное чтиво). Несмотря на это, я постараюсь не пропадать на месяца и буду вести два раза в неделю.
Начнем же. Давай сначала обсудим мой прогресс в линале и как раз то, что заставило меня застрять на месяц. А именно билинейные формы, хильбертовы пространства и тензоры.
Я помню, что в последней записи я писал, что хочу попробнее изучить дефектные матрицы. Так уж получилось, что я понял их, но мне нужна была более широкая картина для того, чтобы дойти до конечной цели - жорданова форма в комплексном векторном пространстве. Я решил подробнее изучить хильбертовы пространства и желательно на комплексных числах. Ну как обычно я открыл Акслера, познакомился с аксиомами для определения скалярного произведения и тут я задал один вопрос который открыл мое полное непонимание комплексных векторных пространств. Почему одна из аксиом требует комплексную симметрию (hermitian symmetry) и что за полторалинейные (sesquilinear) и билинейные формы? В итоге я каким то образом ушел в сторону двойственных пространств, тензоров. Изучал я это через один просто прекраснейший плейлист на ютабе и через кучу лекций. Там я познакомился с метрическим тензором. Очень хороший пример билинейной формы. И самое главное оно и ответило почему матрица этой формы симметричная. Потому что значение проекции не должна меняться из за перестановки двух векторов в бил форме. Проекция одного вектора на другой должна быть равной проекции последней на первую. То есть матрица этой формы должна быть симметричной.
Теперь поговорим о бил формах в комплексном вектор пространстве. Мы хотим чтобы оно давало нам скаляр на R. То есть придется куда то приставить операцию сопряжения. А самое главное, сопряжение комплек числа не линейное, поэтому мы жертвуем билинейность на линейность по одному вектору и антилинейность по второму вектору. Так и появляется эрмитова матрица. Для меня это просто большой прорыв. Я как будто расчесал давно зудящую болячку, ведь хотел понять вообще зачем нам эрмитовы матрицы и в конце концов понять аксиому симметричности. А оказалось, что метрическая матрица на комплекс векторном пространстве должна быть эрмитовой. Только так мы получим реальные скаляры и адекватную метрику.
Казалось бы это не должно было занять месяц, но я застрял на тензорном произведении, тензорах, дифферен формах, двойственных пространствах, на вопросе почему билинейная форма должна иметь матричное представление. Все это заняло месяц. Так же я параллельно изучал анализ и комбинаторику. О них сейчас отдельно.
(Если надо могу порекомендовать материалы по которым занимался)
.
Дорогой матемач и мой дневник. Хочу извиниться за мое долгое отсутствие. Меня не было здесь целый месяц.
Хочу уверить вас в том, что я каждый день открывал для себя все новые и новые границы математики и не сидел сложа руки. Перед тем, как рассказать чем я был занят, надо бы адресовать проблему моего долгого отсутствия. Я понял, что порой, некоторые темы в математике не могут быть изучены в течении одного дня и порой нету даже пары слов для дневника под вечер, поэтому я каждый день не смогу его вести. К тому же когда у тебя сильное беспокойство и снова ощущение того, что ты снова ничего не понимаешь, после того как обнаружил совершенно новую картину тех вещей, на которые смотрел, как на крайне очевидные и уже изученные, ты не можешь спокойно вести дневник. В итоге, я буду каждый день писать, к примеру "сегодня я думал думал и не додумал" (не самое интересное чтиво). Несмотря на это, я постараюсь не пропадать на месяца и буду вести два раза в неделю.
Начнем же. Давай сначала обсудим мой прогресс в линале и как раз то, что заставило меня застрять на месяц. А именно билинейные формы, хильбертовы пространства и тензоры.
Я помню, что в последней записи я писал, что хочу попробнее изучить дефектные матрицы. Так уж получилось, что я понял их, но мне нужна была более широкая картина для того, чтобы дойти до конечной цели - жорданова форма в комплексном векторном пространстве. Я решил подробнее изучить хильбертовы пространства и желательно на комплексных числах. Ну как обычно я открыл Акслера, познакомился с аксиомами для определения скалярного произведения и тут я задал один вопрос который открыл мое полное непонимание комплексных векторных пространств. Почему одна из аксиом требует комплексную симметрию (hermitian symmetry) и что за полторалинейные (sesquilinear) и билинейные формы? В итоге я каким то образом ушел в сторону двойственных пространств, тензоров. Изучал я это через один просто прекраснейший плейлист на ютабе и через кучу лекций. Там я познакомился с метрическим тензором. Очень хороший пример билинейной формы. И самое главное оно и ответило почему матрица этой формы симметричная. Потому что значение проекции не должна меняться из за перестановки двух векторов в бил форме. Проекция одного вектора на другой должна быть равной проекции последней на первую. То есть матрица этой формы должна быть симметричной.
Теперь поговорим о бил формах в комплексном вектор пространстве. Мы хотим чтобы оно давало нам скаляр на R. То есть придется куда то приставить операцию сопряжения. А самое главное, сопряжение комплек числа не линейное, поэтому мы жертвуем билинейность на линейность по одному вектору и антилинейность по второму вектору. Так и появляется эрмитова матрица. Для меня это просто большой прорыв. Я как будто расчесал давно зудящую болячку, ведь хотел понять вообще зачем нам эрмитовы матрицы и в конце концов понять аксиому симметричности. А оказалось, что метрическая матрица на комплекс векторном пространстве должна быть эрмитовой. Только так мы получим реальные скаляры и адекватную метрику.
Казалось бы это не должно было занять месяц, но я застрял на тензорном произведении, тензорах, дифферен формах, двойственных пространствах, на вопросе почему билинейная форма должна иметь матричное представление. Все это заняло месяц. Так же я параллельно изучал анализ и комбинаторику. О них сейчас отдельно.
(Если надо могу порекомендовать материалы по которым занимался)
Я очень и очень сильно хотел понять уникальность действительных числе и отличие их от рациональных. Я хотел понять почему построение действительных чисел создает продолжительность (continuity). Мне совершенно не понравилось конструктивное построение действительных чисел через Дедекиндовы сечения и немного понравились аксиоматические построения. Я долго думал об альтернативах. Я наткнулся на видео моего любимого мат ютуб блоггера где он показал, как можно строить дейст числа через ряды коши. И это просто прекрасно. Мы просто берем рациональные числа и добавляем к ним эти самые ряды как числа!. То есть мы буквально дополняем рац числа новым элементом, который заполняет буквально все. Мы принимаем бексконечные процессы как бесконечных процессы, вместо того, чтобы сказать что таки да есть число пи или корень из двух, просто оно действительное. Хотя последнее тоже хороший подход. Я изучал это построение в книге Analysis 1 того самого Терренса Тао. Очень хорошая начальная книга. Я планирую еще перечитать и порешать задачки.
Потом я решил атаковать свое непонимание действ чисел, таким вопросом, можем ли мы делать анализ на рац числах,или какие есть у рац чисел патологии, которые будут мешать нам заниматься анализом. И как оказалось их много. В книге Companion to your analysis, Korner автор дал прекрасный пример патологии. Допустим мы задаем на множестве рац чисел такую функцию y = 2x. Естесн эта функция не задана на корне из двух. Берем всю область опредения рац чисел заключенных между минус корнем из двух и корнем из двух и отдельно после умножения на два добавляем какой нибудь скаляр, ну 5. Можете проверить, это функция продолжительна и дифференцируема на всех точках. Так же, на каждой точке производная равна двум. Казалось бы функция должна монотонна возрастать, но нет, она растет до минус корня из двух падаетб снова растет и снова падает и уже растет до бесконечности. Крайне хороший пример, почему нам нужны действительные числа.
Кстати, я писал в прошлой записи, что хотел понять почему корень из двух не дац число. Ответ простой - два это простое число.
Кмбинаторика:
Вечером читаю по странице этой книги - Enumerative Combinatorics, Richard P. Stanley. Хорошая книга, строгая, но почему то легко читается. Пока не дошел до серьезных реузльтатов, все те же комбинации, перестановки. Задача моего изучения кобминаторики - найти элегантное решение этой задаче (пик). Я решил его черещ включение и исключение но ответ получился настолько уродливым, что считай и не решил. Самое смешное, что задачу "решили" в каком американском сайте по типу ГДЗ, где людям домашки решают за деньги. Стало весело, когда посмотрел на решение, где решающий нарушил наверное все условия задачи. Представил такого типичного туповатого учителя где то в Денвере который дальше школьной комбинаторики не заходил.
Я очень и очень сильно хотел понять уникальность действительных числе и отличие их от рациональных. Я хотел понять почему построение действительных чисел создает продолжительность (continuity). Мне совершенно не понравилось конструктивное построение действительных чисел через Дедекиндовы сечения и немного понравились аксиоматические построения. Я долго думал об альтернативах. Я наткнулся на видео моего любимого мат ютуб блоггера где он показал, как можно строить дейст числа через ряды коши. И это просто прекрасно. Мы просто берем рациональные числа и добавляем к ним эти самые ряды как числа!. То есть мы буквально дополняем рац числа новым элементом, который заполняет буквально все. Мы принимаем бексконечные процессы как бесконечных процессы, вместо того, чтобы сказать что таки да есть число пи или корень из двух, просто оно действительное. Хотя последнее тоже хороший подход. Я изучал это построение в книге Analysis 1 того самого Терренса Тао. Очень хорошая начальная книга. Я планирую еще перечитать и порешать задачки.
Потом я решил атаковать свое непонимание действ чисел, таким вопросом, можем ли мы делать анализ на рац числах,или какие есть у рац чисел патологии, которые будут мешать нам заниматься анализом. И как оказалось их много. В книге Companion to your analysis, Korner автор дал прекрасный пример патологии. Допустим мы задаем на множестве рац чисел такую функцию y = 2x. Естесн эта функция не задана на корне из двух. Берем всю область опредения рац чисел заключенных между минус корнем из двух и корнем из двух и отдельно после умножения на два добавляем какой нибудь скаляр, ну 5. Можете проверить, это функция продолжительна и дифференцируема на всех точках. Так же, на каждой точке производная равна двум. Казалось бы функция должна монотонна возрастать, но нет, она растет до минус корня из двух падаетб снова растет и снова падает и уже растет до бесконечности. Крайне хороший пример, почему нам нужны действительные числа.
Кстати, я писал в прошлой записи, что хотел понять почему корень из двух не дац число. Ответ простой - два это простое число.
Кмбинаторика:
Вечером читаю по странице этой книги - Enumerative Combinatorics, Richard P. Stanley. Хорошая книга, строгая, но почему то легко читается. Пока не дошел до серьезных реузльтатов, все те же комбинации, перестановки. Задача моего изучения кобминаторики - найти элегантное решение этой задаче (пик). Я решил его черещ включение и исключение но ответ получился настолько уродливым, что считай и не решил. Самое смешное, что задачу "решили" в каком американском сайте по типу ГДЗ, где людям домашки решают за деньги. Стало весело, когда посмотрел на решение, где решающий нарушил наверное все условия задачи. Представил такого типичного туповатого учителя где то в Денвере который дальше школьной комбинаторики не заходил.
без труда понимаю техническую литературу по математике. А зорича не пробовал? По моему у русских все же книги по исчислениям хорошие, к примеру линал не очень, но анализ хорошо всегда написан. Зорич к примеру. И кстати, попробуй все же почитать своего ленга. Техническая литература чем хороша, там если со словами разобраться то полет будет хорошим.
ну у меня бывают обсессии, которые если не утолить, то я могу начать с раннего утра и без остановки читать до ночи, чтобы понять кое что. По сути эти обсессии основной стимул. Вот сейчас снова началась обсессия, пытаюсь основательно понять почему иррациональные числа никогда не могут быть выражены в виде периодической десятичной дроби и до этого была обсессия по поводу иррациональных чисел и почему числовые системы могут пораждать ирац числа.
А когда обсессий нет, то по пару часов в день занимаюсь. Вообще у меня крайне хаотичный распорядок. Я просто залезаю в ютуб и надеюсь на рандомные алогритмы. Могу утром навернуть лекцию по диффурам а вечером по комплексные производные посмтреть. Главное правило - понять и насладиться. Естественно эту хаотичность я пытаюсь разбавить парой часов систематического изучения матана. Сейчас я систематически на линале и анализе. Линал я уже почти закончил, осталось Жораднова форма. А анализ еще надо поучить, много там еще.
>пытаюсь основательно понять почему иррациональные числа никогда не могут быть выражены в виде периодической десятичной дроби
Потому что если число может быть выражено в виде периодической десятичной дроби, то это рациональное число, по определению рациональных чисел.
Физфака.
Это сложно представить, но некоторые люди изучают матан просто по фану, как хобби.
Слушай, ОП. Как посоветуешь изучать теорию множеств?
хм хороший вопрос, я уже и сам позабыл откуда у меня знания по теории множеств. Наверное он сложился через множество книг и видео где всегда дается некое ознакомление с теорией множеств. В анализе, теории вероятности, дискретке всегда дается небольшое вступление по теории множеств. Но я лично начинал с книги Столл Роберт Р. "Множества. Логика. Аксиоматические теории". Там первые главы посвящены теории множеств.
Если тебе нужно посоветовать книги по теории множеств, я лучше не рискну и попрошу посоветоваться с анонами в треде для новичков. Хоть мои знания по теории множеств вполне позволяют заниматься линалом и анализом, я все еще изучаю теорию множеств Цермелло Франкеля. Так что я плохо разбираюсь в теории множеств.
капча невалидна
Эхх как же я устал, я снова залез в дебри, а я так этого боялся. В общем был такой вопрос, раз количество определений бесконечно и поддается счету и количество действительных чисел не поддается счету, есть действительные числа которые не имеют определения. Так уж получилось, что в мазоверфлоу есть хорошие ответы, где все это обьясняется и как оказалось реальность намного сложнее и все не так просто. Не все так просто. Чтобы понять ответы на мазоверфлоу нужно разобраться в теории моделей и формальных языках. У меня просто времени нету сейчас чтобы этим заняться, но я обязательно вернусь к этому вопросу.
Пока я просто сделаю пару ментальных затычек, чтобы мысли не донимали голову.
В анализе мы всегда будем работать с счетным бесконечными множествами, поскольку всегда будем сталкиваться с конечными определениями. Я полагаю, когда люди обнаружили действительные числа, они обнаружили бесконечные определения. Так уж получилось, что бесконечные определения не проверяемы и не поддаются счету. Дальше выводы делать не могу. В будущем вернусь к вопросу.
Что значит "определение некоторого действительного числа"?
>> В анализе мы всегда будем работать с счетным бесконечными множествами
realy?
кажется, в одну кучу смешали счетные множества, вычислимые числа, арифметические числа...
глянь что ли Шеня Лекции по мат.логике и теории алгоритмов, если хочешь в это влезть, мат.анализа это не касается примерно никак afaik
Ну всё понятно, очередная таракашка.
То, что он действительно освоил последовательно, проходят стахановскими темпами в МГУ, но я немного утрировал, да.
>>85113
Мне не кажется, что от такого обрывочного знания будет сильная польза или удовлетворение в перспективе.
>>85132
Ок, покидаю всё открытое, чем сам плотно пользовался (много что широко известно, но всегда хорошо иметь в одном месте):
https://vk.com/mathhedgehog
https://youtube.com/c/NAUKA0
https://youtube.com/c/ЛекторийФПМИ
https://youtube.com/channel/UCpi8qkXE7-q3TY19lIgO_Kw
https://m.cs.msu.ru/index.php/s/N6FkcmFbxQkS8z9?path=/
>Мне не кажется, что от такого обрывочного знания будет сильная польза или удовлетворение в перспективе.
Удовлетворение приносит сам процесс.
а ты чего ждал?
ему кажется уже кто-то заметил выше, что никуда он не двинется, обычный неосилятор
Учитывая хильбертов с хермитами а также основную теорему исчисления очень не очень
Ноябрь 9-го, 2022 год. Я пишу свой первый пост в этом году. Мне стыдно, что я не вел целый год свой дневник, но хочу уверить всех, что я не бросал математику, а постоянно изучал его. Я хотел бы столько написать, но...пожалуй ограничусь несколькими вещами.
Представьте, как абсурдно было бы, если плотник прежде чем приниматься за свою работу изучил бы основательно электротехнику и механику, чтобы понимать как работает его инструмент. Так вот этот абсурд и был мой способ изучения математики. Оно отняло у меня столько времени, поскольку я так и не научился говорить нет своему вопросу в голове :"Почему?". Порой я чувствую себя сломленно, подавленно, ведь на этот вопрос я могу тратить время месяцами. Я потратил полгода, чтобы почувствовать, что диагональный метод кантора оправдан. Я лез в теории вычисляемости, изучил доказательство неразрешимости логики первого порядка и сделал много ненужных вещей, чтобы почувствовать, чтобы понять, что такое диагональный метод. Еще более абсурдным действием было то, что я приостановил изучение линейной алгебры осенью 2021 года, просто потому, что некоторые результаты упирались в фундаментальную теорему алгебры, а его доказательство методом анализа мне казалось неэстетичным. Сегодня я более менее удовлетворил свое "Почему?" потому, что все это время я был занят изучением абстрактной алгебры и попыткой понять группы Галуа.
Если не слишком много вдаваться в мою жизнь и осветить прогресс, то я наконец перешел порог и понял, скажем прочуствовал свое первое более менее алгебраическое доказательство ФТА. посредством группа Галуа (другое алгебраическое доказательство посредством симметрических многочленов мне не понравилось).
Вообще все алгебраические доказательства ФТА говорят о некой достаточности комплексного расширения. Но эти способы выразить что такое эта достаточность вся сложность этих доказательств. В общем, единственный вывод который я хотел бы сделать, я считаю каждый человек увлекающийся математикой обязательно должен изучить именно алгебраическое доказательство ФТА. Доказательство ФТА с помощью комплексного анализа, топологии, вещественного анализа и удовлетворенность по поводу этого по мне - кринж и гейство.
Говоря о литературе, я изучал абстрактную алгебру (для доказательство нужно было по группам - теоремы Силова, немножко теории колец и полей) по Contemporary Abstract Algebra by Joseph Gallian и есть такая замечательная книга Fundamental Theorem of Algebra by Fine and Rosenberg которая только посвящена доказательствам ФТА.
В общем за этот месяц я хочу наконец добить линейную алебру и двигаться в сторону матстата. Ну и конечно же, чтобы у вас не было впечатления, что я год потратил на ФТА, я расскажу, что я изучал еще за это время.
Ноябрь 9-го, 2022 год. Я пишу свой первый пост в этом году. Мне стыдно, что я не вел целый год свой дневник, но хочу уверить всех, что я не бросал математику, а постоянно изучал его. Я хотел бы столько написать, но...пожалуй ограничусь несколькими вещами.
Представьте, как абсурдно было бы, если плотник прежде чем приниматься за свою работу изучил бы основательно электротехнику и механику, чтобы понимать как работает его инструмент. Так вот этот абсурд и был мой способ изучения математики. Оно отняло у меня столько времени, поскольку я так и не научился говорить нет своему вопросу в голове :"Почему?". Порой я чувствую себя сломленно, подавленно, ведь на этот вопрос я могу тратить время месяцами. Я потратил полгода, чтобы почувствовать, что диагональный метод кантора оправдан. Я лез в теории вычисляемости, изучил доказательство неразрешимости логики первого порядка и сделал много ненужных вещей, чтобы почувствовать, чтобы понять, что такое диагональный метод. Еще более абсурдным действием было то, что я приостановил изучение линейной алгебры осенью 2021 года, просто потому, что некоторые результаты упирались в фундаментальную теорему алгебры, а его доказательство методом анализа мне казалось неэстетичным. Сегодня я более менее удовлетворил свое "Почему?" потому, что все это время я был занят изучением абстрактной алгебры и попыткой понять группы Галуа.
Если не слишком много вдаваться в мою жизнь и осветить прогресс, то я наконец перешел порог и понял, скажем прочуствовал свое первое более менее алгебраическое доказательство ФТА. посредством группа Галуа (другое алгебраическое доказательство посредством симметрических многочленов мне не понравилось).
Вообще все алгебраические доказательства ФТА говорят о некой достаточности комплексного расширения. Но эти способы выразить что такое эта достаточность вся сложность этих доказательств. В общем, единственный вывод который я хотел бы сделать, я считаю каждый человек увлекающийся математикой обязательно должен изучить именно алгебраическое доказательство ФТА. Доказательство ФТА с помощью комплексного анализа, топологии, вещественного анализа и удовлетворенность по поводу этого по мне - кринж и гейство.
Говоря о литературе, я изучал абстрактную алгебру (для доказательство нужно было по группам - теоремы Силова, немножко теории колец и полей) по Contemporary Abstract Algebra by Joseph Gallian и есть такая замечательная книга Fundamental Theorem of Algebra by Fine and Rosenberg которая только посвящена доказательствам ФТА.
В общем за этот месяц я хочу наконец добить линейную алебру и двигаться в сторону матстата. Ну и конечно же, чтобы у вас не было впечатления, что я год потратил на ФТА, я расскажу, что я изучал еще за это время.
Много чего.
1) Изучить основательно бакалаврский курс вышмата и понять хочу ли я продолжать дальше. Такая вот цель в жизни, чтобы ну...как бы смешно не звучало...сказать себе, что я чего то стою.
2) Получать удовольствие.
3) Применять в своец профессии. Это матстат и прочее.
А у тебя какие цели?
>посредством группа Галуа
Даже в этом доказательстве используется анализ. Конкретно то что любой многочлен нечетной степени имеет вещественный корень. Без анализа/топологии никак, увы.
Ну да, чистого алгебраического нет. В любом доказательстве того, что комплексные числа сами себч алгебраически замыкают мы должны учитывать особенности основного поля.
Ноо я считаю, что анализ лучше свести к минимуму, чтобы узреть, что же происходит там за вуалью.
Что там за боты, на модели математической, сукаблядь?
И хули так хуёво всё рассчитывается, суперкомпами?
Где мои 517 килобаксов, хули ещё не насчитали? А ну рассчитывай их, быстраблять. Адрес моего битхуёвина знаешь.
Дневничок, 25 ноября, 2022 год от рождения Христа
Я этот пост еще недели две хотел написать. В общем, математика как обычно кинула меня на прогиб. Летом 2021 года когда я игрался с матрицами и намеренно придумывал матрицы, у которого не доставало собственных векторов для создания базиса, то я обнаружил, что рано или поздно векторное пространство будет направлено в одно из собственных векторов под действием (А-uI) матрицы. Естественно у меня было желание найти строгое доказательство. Я надолго забил на доказательство и недавно решил вернуться к нему. Мдаа...доказательство существования обобщенных собственных векторов требует знаний теории модулей. После тяжелых курсов по теории групп, полей и колец, я пожалуй отдохну от алгебры и отложу доказательство в ящик на некоторое время. Жаль...зато есть мотивация изучить модули.
>Мдаа...доказательство существования обобщенных собственных векторов требует знаний теории модулей.
нет
Ты про Жорданову форму? Дофига где. В Hoffman&Kunze, например, даже рациональная каноническая форма выводится без всякой теории модулей.
Я всегда воспринимал характеристический многочлен как нечто неоправданное, по крайней мере задавался вопросом почему в многочлен определенный на скалярах, вдруг мы пропихиваем матрицу. Я наверное на год забыл этот вопрос и летом ответил себе на этот вопрос.
Теорема Кэли-Гамильтона Теорема Кэли-Гамильтона Теорема Кэли-Гамильтона Теорема Кэли-Гамильтона Теорема Кэли-Гамильтона
По сути теорема связывает многие вещи между собой. Она помогает ответить нам на первый вопрос - Возможен ли минимальный многочлен для не самых диагонализируемых матриц. Да возможен. Она и является ключевым в доказательстве Жордановы формы тоже.
Так вот к примеру, когда мы приводим матрицу в треугольную форму, то по диагонали матрицы всегда будут собственные значения. Но значит будет повторяемость собственных значений, а что же значит концептуально эта повторяемость, ну если допустить, а точнее исключить всякую геометрическую кратность больше одного для каждого из собственных значений. Это нас должно спустить глубже.
Образ матрицы (А-eI) А - матрица, е - собственное значение не обязано не включать ядро. Почему нет? От этой дихотомии, мы отталкиваемся к двум возможным версиям А
1) Образ не включает ядро - прекрасно, собственное пространство самостоятельно и его комплементарное пространство тоже не зависит от последнего.
2) Образ включает ядро, а значит пространство коллапсируется на одну степень. И все это инвариантное пространство, которое будет сколлапсировано является скажем одной из результатов бесконечной дихотомии. В конце концов степень на которую коллапсирует пронстранство под действием (А-eI) и является алгебраической кратностью.
Все обретает прекрасный ясный геометрический вид. Это ради чего стоит изучать математику, если ты все же решился пойти по технарской специализации. Я как человек, который закрывал в университете (шараге) отвратительный курс по линалу, тогда и представить не мог насколько геометрично на самом деле все. Под геометрией я даже не имею в виду конкретные рисунки или визуал,а просто как бы представление о обьектах, о свойствах, о финукциях между ними. В общем я постараюсь писать посты более подробно вместе с LaTex. Но сейчас глубокая ночь и пожалуй пойду спать.
Кста если кому интересны лекции по теоретическому линалу (ну чистая а не прикладная) на инглише, то советую этот вебсайт, где выпускник кембриджа перфекционистично передал все свои лекции в html. Лекции очень и очень самодостаточные, единственное, что не хватало на мой взгляд это факторных пространств. Без них не все результаты были элегантны.
http://dec41.user.srcf.net/h/IB_M/linear_algebra/
Я всегда воспринимал характеристический многочлен как нечто неоправданное, по крайней мере задавался вопросом почему в многочлен определенный на скалярах, вдруг мы пропихиваем матрицу. Я наверное на год забыл этот вопрос и летом ответил себе на этот вопрос.
Теорема Кэли-Гамильтона Теорема Кэли-Гамильтона Теорема Кэли-Гамильтона Теорема Кэли-Гамильтона Теорема Кэли-Гамильтона
По сути теорема связывает многие вещи между собой. Она помогает ответить нам на первый вопрос - Возможен ли минимальный многочлен для не самых диагонализируемых матриц. Да возможен. Она и является ключевым в доказательстве Жордановы формы тоже.
Так вот к примеру, когда мы приводим матрицу в треугольную форму, то по диагонали матрицы всегда будут собственные значения. Но значит будет повторяемость собственных значений, а что же значит концептуально эта повторяемость, ну если допустить, а точнее исключить всякую геометрическую кратность больше одного для каждого из собственных значений. Это нас должно спустить глубже.
Образ матрицы (А-eI) А - матрица, е - собственное значение не обязано не включать ядро. Почему нет? От этой дихотомии, мы отталкиваемся к двум возможным версиям А
1) Образ не включает ядро - прекрасно, собственное пространство самостоятельно и его комплементарное пространство тоже не зависит от последнего.
2) Образ включает ядро, а значит пространство коллапсируется на одну степень. И все это инвариантное пространство, которое будет сколлапсировано является скажем одной из результатов бесконечной дихотомии. В конце концов степень на которую коллапсирует пронстранство под действием (А-eI) и является алгебраической кратностью.
Все обретает прекрасный ясный геометрический вид. Это ради чего стоит изучать математику, если ты все же решился пойти по технарской специализации. Я как человек, который закрывал в университете (шараге) отвратительный курс по линалу, тогда и представить не мог насколько геометрично на самом деле все. Под геометрией я даже не имею в виду конкретные рисунки или визуал,а просто как бы представление о обьектах, о свойствах, о финукциях между ними. В общем я постараюсь писать посты более подробно вместе с LaTex. Но сейчас глубокая ночь и пожалуй пойду спать.
Кста если кому интересны лекции по теоретическому линалу (ну чистая а не прикладная) на инглише, то советую этот вебсайт, где выпускник кембриджа перфекционистично передал все свои лекции в html. Лекции очень и очень самодостаточные, единственное, что не хватало на мой взгляд это факторных пространств. Без них не все результаты были элегантны.
http://dec41.user.srcf.net/h/IB_M/linear_algebra/
кстати, знай, что ты уебище
>Я всегда воспринимал характеристический многочлен как нечто неоправданное, по крайней мере задавался вопросом почему в многочлен определенный на скалярах, вдруг мы пропихиваем матрицу.
Просто потому, что матрица сама с собой коммутирует. Поэтому можно обращаться со степенями матрицы, как со скалярами
Если у тебя n-мерное пространство, то n степеней матрицы вместе с единичной должны быть линейно зависимы, отсюда и полином
Вот и всё. Куда проще, чем ты написал
Из твоего ответа же совершенно не понятно, отчего вообще рассматривать характеристический многочлен изначально, и почему мы пропихиваем матрицу; он отвечает на важные вопросы, но не на этот
Неа, я не про то, что почему мы можем строить многочлены из матриц. Я к примеру вполне понял существование минимального многочлена (тоже матричного многочлена если что). Но я никогда не понимал, как многочлен (скалярный) который получаем во время взятия определителя (determinant) потом может быть превращен в матричный многочлен. Ведь согласись это не оправданно? Почему это характеристичный многочлен вдруг является множителем минимального многочлена матрицы.
Поэтому, все вопросы о комплексным операторах ранг или поздно приведут к теореме Кэли Гамильтона - существование общих собственных векторов, Жордановых цепей и тд и тп. Просто в моем посте я хотел написать, как много всего начинается с этой теоремы.
> Но я никогда не понимал, как многочлен (скалярный) который получаем во время взятия определителя (determinant) потом может быть превращен в матричный многочлен. Ведь согласись это не оправданно?
Пуатешь причину и следствие. Можешь почитать, как это всё развивалось исторически.
>Просто в моем посте я хотел написать, как много всего начинается с этой теоремы.
Ну в учебниках разве что.
>Почему это характеристичный многочлен вдруг является множителем минимального многочлена матрицы.
В модуле над кольцом это в общем случае неверно.
Но если ты для себя что-то прояснил, то это хорошо. Каждый по разному приходит к пониманию. Но для меня это как объяснять то, что можно показатели степени складывать при умножении тем, что это гомоморфизм групп. Шило на мыло, причина-то не в этом, это мы просто ярлыки вешаем, чтобы удобно разъясняться было.
>Пуатешь причину и следствие. Можешь почитать, как это всё развивалось исторически.
Ну вот, что ж тогда причина и следствие? Я полагаю истоически люди обнаружили характеристичный многочлен, а потом, чтобы все это обьяснить придумали все эти матричные многочлены. Так? >>100093
>В модуле над кольцом это в общем случае неверно.
Кхем, вообще на модулях вообще много, что неверно, что верно о векторных пространстввах. Кстати вопрос - я сейчас хочу после линала пойти в сторону матстата и диффуров. Диффуры нужны для стохастисеского исчисления. Ну и вот, стоит ли мне не забрасывать алгебру. Вот я сейчас прочитал курс лекций по группам, кольцам и полям, но там есть еще модули. Стоит ли заканчивать?
> Но для меня это как объяснять то, что можно показатели степени складывать при умножении тем, что это гомоморфизм групп.
Я вот так вот расмышляю)) как раз точно и емко пояснил, чем я маюсь.
>Кста если кому интересны лекции по теоретическому линалу
Открыл параграф с определителем и сразу закрыл.
Открой Булдырева-Павлова, там линала на 150 страниц с внешними степенями, притом даже школьник всё усвоит.
Ну тоже так себе, определение внешней степени через полилинейные формы это meh, но всё же получше, да.
Внешнюю степень можно ввести на любом векторном пространстве, в частности на двойственном. Всё равно никуда от этого ты не уйдёшь, если задача - ввести определитель. Если ты думаешь, что можно, то где-то там за ширмой всё равно это есть.
Я к тому, что лучше всё же через универсальное свойство вводить
>определение внешней степени через полилинейные формы
>лучше всё же через универсальное свойство вводить
Универсальное свойство это определение через полилинейные формы и есть, просто на категорном языке.
У тебя алюффи головного мозга, пытаешься о чём-то спорить, но сам не понимаешь, о чём.
По-твоему, это хорошие определения?
И я не про категорный язык, а просто про то, что любая полилинейная форма пропускается через тензорное произведение
Что именно не так с этими определениями?
Первое определение - буквально определение координат. В книге чётко разделяется сам объект и его координаты, на картинке тебе обясняют, как получить координаты.
Или ты наслушался местных бурбакистов и теперь думаешь, что координаты вообще использовать нельзя?
Тоже самое со второй пикчей, что тут не так? Здесб даже координат не упоминают.
Я вообще что-то не понимаю твоей неприязни к Булдыреву-Павлову. Это, наверное, один из немногих русскоязычных учебников по линалу, которые выходят за рамки стандартного дроча на матрицы и "по гауссу".
Даже больше того, многие определения тут грамотно вводятся. Например, сопряжённый оператор это не просто транспонированная матрица, а эндоморфизм на сопряжённом пространстве, индуцированный изначальным эндоморфизмом.
И что-то непонятно, почему мы говорили про определители, а картинку определения определителя ты что-то забыл, и перешёл придираться к другим определениям. Ну вот тебе картинка, что не так? Неужели такой подход хуже, чем по формулке? Даже про внешнюю степень упоминают.
И, наверное, не знаешь, но этот учебник используется в 1-ом семестре 1-ого курса прикладных математиков. Которые пару месяцев назад в носу ковыряли за партой гуманитарной школы. Если ты unironically думаешь, что нужно сразу же говорить про универсальные свойства, то тебе нужно оглядеться на свой информационный пузырь.
>Это, наверное, один из немногих русскоязычных учебников по линалу, которые выходят за рамки стандартного дроча на матрицы и "по гауссу".
Я пытался найти английские нулевые учебники линала с внешним произведением, так и не нашёл.
Так что Б-П самый лучший для начала.
>Это, наверное, один из немногих русскоязычных учебников по линалу, которые выходят за рамки стандартного дроча на матрицы и "по гауссу".
А Шилов?
Так вот, прошло много времени с последнего поста, не так много конечно как мое годичное отсутствие. За это время, накопилось очень много мыслей о которых хотелось написать, но конечно хотелось сделать все это красиво с латексом и картиночками, но получается все как всегда.
Мне стало легче. В определенном смысле слова. Математика наука сложная, но я начал ощущать как я прошел то самое загадочное плато в которое я не верил, поскольку посты по типу: "Самый лучший способ изучать математику это начать ее изучать", "Станет легче, меньше жалуйся, больше решай и доказывай" вселяли лишь тоску и хотелось все быстро, да еще вдобавок к этому было постоянное чувство невесомости. Теперь же под ногами ощущается некая твердь, я помаленьку начал ее прощупывать, хоть я до сих пор стою не твердо на нем. Я уже год не пишу в треде для новичков посты по типу "А как понять есть ли у меня талант?", "Есть железобетонные гарантии?", "Как можно изучить математику за месяц?", "Какое PV моих инвестиций?", А как, А как. Я не знаю как. Я не знаю есть ли у меня талант, что будет в будущем, свяжу ли я жизнь с математикой будущее, заработаю ли я на нем миллиарды, найду ли я тян через математику (лол, я видел такой пост). Да и никогда не узнаю. Она стала привычкой, частью быта. Утро начинает с небольшого доказательства, поездка в автобусе сопровождается ручкой и бумагой. Я бы даже сказал, что математика в своем роде стала побегом, эскапизмом. Жизнь у меня сейчас не великолепная. Все нелепо и подавляюще сложно. Все это на время забывается в потоке теорем и доказательств. Одним словом, могу сказать, что все станет немного легче. Я прошел это плато и я даже не знаю есть ли у меня к математике предрасположенность. Помешало ли отсутствтие ответов на эти вопросы ей заниматься? да нет. И больше не помешает. Просто это я все пишу поскольку я уже устал читать посты в треде для новичков, где залетыши пытаеются выпросить у местных какие то гарантии на усилия. Я ведь сам таким страдал.
Теперь об ошибках молодого профана. Мне тут часто говорили одну простую вещь. Решай как можно больше задач. Честно у меня к математике был изначально гуманитарный подход. Я быстро пробегался по теоремам и изучал доказательства. Прогресс у меня был очень медленный. Сейчас все стало идти намного быстрее. Я порой даже не читаю материал и сразу иду к задачам. Потом уже по ходу изучаю материал. Пугает то, что насколько проницательны авторы мат книг, насколько они тщательно ткут задачи к матариалу. Вы можете смело довериться этим очень умным и самое главное понимающим людям.
Теперь же математика без трюкачеств. Когда я задумываюсь почему я ударился в чистую математику, хотя многие мои вопросы лежали в ее прикладной части я понимаю, что я терпеть не могу трюки. Я ненавидел просто калькулюс из-за этого. Поэтому я ударился в вещественный анализ. Только потом мне мысленно легче стало брать даже самые элементарные интегралы. Я терпеть не мог операцию транспозиции, биреш такой матрицу и поворачиваеш, опана. Нет, так не пойдет. Да я хочу изучить двойственные пространства, билинейные трансформации, двойственные преобразования индуцированные линейным преобразованием. Потом мне станет легче брать и крутит матрицу вокруг ее диагонали. Я понял, что мое понимание и интерес к математике мотивирует структурирование, наполненность, структуры. Поэтому меня кстати бесят программисты, а именно кодеры, хотя я мог бы сейчас заниматься питоном или джавой и забыть математику, но нет. Не могу.
Так вот, прошло много времени с последнего поста, не так много конечно как мое годичное отсутствие. За это время, накопилось очень много мыслей о которых хотелось написать, но конечно хотелось сделать все это красиво с латексом и картиночками, но получается все как всегда.
Мне стало легче. В определенном смысле слова. Математика наука сложная, но я начал ощущать как я прошел то самое загадочное плато в которое я не верил, поскольку посты по типу: "Самый лучший способ изучать математику это начать ее изучать", "Станет легче, меньше жалуйся, больше решай и доказывай" вселяли лишь тоску и хотелось все быстро, да еще вдобавок к этому было постоянное чувство невесомости. Теперь же под ногами ощущается некая твердь, я помаленьку начал ее прощупывать, хоть я до сих пор стою не твердо на нем. Я уже год не пишу в треде для новичков посты по типу "А как понять есть ли у меня талант?", "Есть железобетонные гарантии?", "Как можно изучить математику за месяц?", "Какое PV моих инвестиций?", А как, А как. Я не знаю как. Я не знаю есть ли у меня талант, что будет в будущем, свяжу ли я жизнь с математикой будущее, заработаю ли я на нем миллиарды, найду ли я тян через математику (лол, я видел такой пост). Да и никогда не узнаю. Она стала привычкой, частью быта. Утро начинает с небольшого доказательства, поездка в автобусе сопровождается ручкой и бумагой. Я бы даже сказал, что математика в своем роде стала побегом, эскапизмом. Жизнь у меня сейчас не великолепная. Все нелепо и подавляюще сложно. Все это на время забывается в потоке теорем и доказательств. Одним словом, могу сказать, что все станет немного легче. Я прошел это плато и я даже не знаю есть ли у меня к математике предрасположенность. Помешало ли отсутствтие ответов на эти вопросы ей заниматься? да нет. И больше не помешает. Просто это я все пишу поскольку я уже устал читать посты в треде для новичков, где залетыши пытаеются выпросить у местных какие то гарантии на усилия. Я ведь сам таким страдал.
Теперь об ошибках молодого профана. Мне тут часто говорили одну простую вещь. Решай как можно больше задач. Честно у меня к математике был изначально гуманитарный подход. Я быстро пробегался по теоремам и изучал доказательства. Прогресс у меня был очень медленный. Сейчас все стало идти намного быстрее. Я порой даже не читаю материал и сразу иду к задачам. Потом уже по ходу изучаю материал. Пугает то, что насколько проницательны авторы мат книг, насколько они тщательно ткут задачи к матариалу. Вы можете смело довериться этим очень умным и самое главное понимающим людям.
Теперь же математика без трюкачеств. Когда я задумываюсь почему я ударился в чистую математику, хотя многие мои вопросы лежали в ее прикладной части я понимаю, что я терпеть не могу трюки. Я ненавидел просто калькулюс из-за этого. Поэтому я ударился в вещественный анализ. Только потом мне мысленно легче стало брать даже самые элементарные интегралы. Я терпеть не мог операцию транспозиции, биреш такой матрицу и поворачиваеш, опана. Нет, так не пойдет. Да я хочу изучить двойственные пространства, билинейные трансформации, двойственные преобразования индуцированные линейным преобразованием. Потом мне станет легче брать и крутит матрицу вокруг ее диагонали. Я понял, что мое понимание и интерес к математике мотивирует структурирование, наполненность, структуры. Поэтому меня кстати бесят программисты, а именно кодеры, хотя я мог бы сейчас заниматься питоном или джавой и забыть математику, но нет. Не могу.
В общем, теория групп. В течении года я сам не заметил, как часто заглядывал в эту теорию и прошелся по базовому курсу. Самые базовые группы - группы перестановок, группы матриц, абелевы группы. Завершающим пока что гвоздем стали теоремы Силова. Как найду время хочу осилить группы Галуа на конечных полях. Ну пока что все. Я не вижу сейчас каких мостов которые бы толкали мое любопытство в эту теорию. Ну говорят, что теория групп цветет в физике. Ну посмотрим, планы пройтись по физике в далеком будущем имеются.
Анализ, я хотел еще осенью написать пост о том, как я изучал ряды функций. Там сходимости, тесты, ряды тейлора. У меня все еще вопрос конечно, стоит ли теперь пройти более сложный курс по анализу. В фочане постоянно упоминают Рудина. Тут тоже есть свои культовые авторы. Но я скажу так, теория множеств и вещественный анализ это так нужно. Оно просто везде и псоле этих курсов уже не теряешься в других областях. Сейчас планы есть пройти более сложный учебник с рядами Фурье и пройтись по теории меры. Недавно узнал про стохастический анализ и загорелся его изучением. Но он базируется на диффурах, теории меры и анализе.
Линал и матстат. Ну сколько бы я не говорил, что я закончил его, я всегда возвращаюсь. Дело в том, что я вообще начал его изучение в связи с матстатом. В нем есть случайные векторы, расщепления на спектры, разложения матриц. В общем бездонный предмет. Сейчас я изучаю спектральную теорию и полярное разложение.
>Я пытался найти английские нулевые учебники линала с внешним произведением
ну и отлично, что их там нет я, правда, уверен, что такие учебники есть. Внешнее произведение есть в любом учебники по многообразиям, с которых, собственно, и начинается уже более-менее нормальное изучение математики
Вчерашнему школьнику узнавать про внешнее произведение совершенно необязательно, пусть сначала разберёт, что такое векторное пространство
> Я не вижу сейчас каких мостов которые бы толкали мое любопытство в эту теорию.
Теория групп, как теория, она не то, чтобы изолированная, но достаточно узко-специализированная (ну там в сравнении с гомологиями или теорией колец/модулей). Какую-нибудь теорему Силова ты применишь 0-1 раз за весь типичный курс пхд чистой математики.
Красота и важность групп (в физике особенно, но и в математике тоже) - в теории представлений. Так что копай туда.
Группы Галуа логичней начинать читать с бесконечных полей, как они исторически и появились.
Остальную простыню не читал, лучше вместо математики учись выражать свои мысли более ёмко.
>>100736
>Вчерашнему школьнику узнавать про внешнее произведение совершенно необязательно
Булдырев-Павлов расчитан на математика, прикладного или чистого. Как школьник, ты уже должен наесться кастрированной алгебры Гиббcа-Хевисайда классу так к 9-ому. В 16 лет типичный абитуриент пьёт, курит, и ебётся, но внешняя алгебра - это чересчур.
указанные имена мне неизвестны, но если кастрированный алгебры ты уже наелся, можешь переходить к известным талмудам, названными обычно "Общая алгебра" или просто "Алгебра", в них и про внешнее произведение, и про всё остальное ты всё узнаешь
>Группы Галуа логичней начинать читать с бесконечных полей, как они исторически и появились.
Да уже. Там все заканчивается на доказательстве невозможности общего решения многочленов пятой степени. На счет теории представлений я запомню, спасибо.
>Остальную простыню не читал, лучше вместо математики учись выражать свои мысли более ёмко.
Это дневник алле? Можешь не читать простыню если хочешь. Жизнь не математика, она не емка, а прозаична.
Что-то долго. Группы за неделю осиливаются. Теоремы Силова в целом не особо нужны.
Теория множеств нужна только самая простая: операции над множествами, счётность, несчётность R. Даже Кантор-Бернштейн вначале не особо нужен. В общем всё что нужно дают в предысловии учебников анализа.
>>100736
>>100738
Тем же Кантором-Бернштейном кормят на первом же занятии. А это гораздо сложнее, чем внешнее произведение. Да и нет в этом ничего сложного, наоборот, довольно архаично-геометрически его можно ввести, типа "вы ведь помните, как греки считали, что A - это длина, AxA это площадь, AxAxA это объем", или мотивировать тем, что 2 вектора на плоскости независимы, если площадь параллелограмма натянутого на них не нулевая. Ввести форму S(u,v) и исследовать её свойства.
В общем, думал себе заняться спокойной матстатом, но...я осознал, что снова у меня есть пробелы которые я не могу игнорировать и нужно их восполнить. Я давно хотел уже пройти хардкорный такой курс по теории меры и вероятности и также интегралу лебега.
Что ж, материалы по которым я занимаюсь.
Durret, Probability: Measure and Examples. Когда то я наткнулся на форчане на пик. Я все же учусь на финансиста. Картинка естественно меметична, особенно как автор пытается выдать эти три книги как дорогу к господству на рынке финансовых активов. Но все же я вспомнил о ней и решил восполнить знания по мере лебега, сигма алгебрам и тд. Зубов на освоение Billingsley: Measure and Probability у меня никогда не хватит. Очень обьемная книга, но в идеале будь я щас школьником, то просто ради удовольствия штудировал бы его.
Серия лекций https://cemapre.iseg.ulisboa.pt/~jldias/tppe/main.pdf
Она больше нужна, чтобы более глубже ознакомиться с именно теорией меры вне контекста вероятности. В нем есть теорема Каратеодори, которым я занимался наверное неделю.
Мой прогресс, пока остановился на измерим;ых функциях, простых функциях и теореме каратеодори. От последнего я малость офигел, но все же осилил доказательство. Вообще, теория меры очень интуитивна, но ее формализация наверное одна из самых абстрактных. Особенно тяжело мне далось хотя бы итнуитивно понять определение множества измеримых подмножеств. Множество $A$ измеримо если
$\mu^{}(E) = \mu^{}(E \cap A) + \mu^{}(E \cap A^{c}$
где $\mu^{} - внешняя мера$
$E - любое измеримое или неизмеримое множество принадлежащее \Omega$
Так вот, доказательство казалось немотивированным просто из-за определения измеримого множества. Но оно работает. Скажем так, если мы разобьем любое E с помощью $A$ и $A^{c}$ то внешняя мера попросту не поменяется между двумя фрагментами E, поскольку A прекрасно измеримо, то есть $\mu(A) = \mu^{*}(A)$. По крайней мере я понял так.
Хочется также оставить единстенный коммент на причину почему теория меры сложна. Дело в том, что любая область математики изучается на мере нахождения и описания структур которые имеют нужные свойства И также на основе структур которые противоречат нужным свойствам. Так вот, впринципе изучая математику и не вдаваясь с теорию множества и ее аксиоматику, ты никогда не встретишь неизмеримые множества, функции и тд. То есть теорию меры очень сложно прочувствовать. Она порой кажется настолько очевидной, что не понимаешь к чему вся эта громоздкая формализация и доказательства. Кажется потому, что очень тяжело привести пример неизмеримого множества.
В общем, думал себе заняться спокойной матстатом, но...я осознал, что снова у меня есть пробелы которые я не могу игнорировать и нужно их восполнить. Я давно хотел уже пройти хардкорный такой курс по теории меры и вероятности и также интегралу лебега.
Что ж, материалы по которым я занимаюсь.
Durret, Probability: Measure and Examples. Когда то я наткнулся на форчане на пик. Я все же учусь на финансиста. Картинка естественно меметична, особенно как автор пытается выдать эти три книги как дорогу к господству на рынке финансовых активов. Но все же я вспомнил о ней и решил восполнить знания по мере лебега, сигма алгебрам и тд. Зубов на освоение Billingsley: Measure and Probability у меня никогда не хватит. Очень обьемная книга, но в идеале будь я щас школьником, то просто ради удовольствия штудировал бы его.
Серия лекций https://cemapre.iseg.ulisboa.pt/~jldias/tppe/main.pdf
Она больше нужна, чтобы более глубже ознакомиться с именно теорией меры вне контекста вероятности. В нем есть теорема Каратеодори, которым я занимался наверное неделю.
Мой прогресс, пока остановился на измерим;ых функциях, простых функциях и теореме каратеодори. От последнего я малость офигел, но все же осилил доказательство. Вообще, теория меры очень интуитивна, но ее формализация наверное одна из самых абстрактных. Особенно тяжело мне далось хотя бы итнуитивно понять определение множества измеримых подмножеств. Множество $A$ измеримо если
$\mu^{}(E) = \mu^{}(E \cap A) + \mu^{}(E \cap A^{c}$
где $\mu^{} - внешняя мера$
$E - любое измеримое или неизмеримое множество принадлежащее \Omega$
Так вот, доказательство казалось немотивированным просто из-за определения измеримого множества. Но оно работает. Скажем так, если мы разобьем любое E с помощью $A$ и $A^{c}$ то внешняя мера попросту не поменяется между двумя фрагментами E, поскольку A прекрасно измеримо, то есть $\mu(A) = \mu^{*}(A)$. По крайней мере я понял так.
Хочется также оставить единстенный коммент на причину почему теория меры сложна. Дело в том, что любая область математики изучается на мере нахождения и описания структур которые имеют нужные свойства И также на основе структур которые противоречат нужным свойствам. Так вот, впринципе изучая математику и не вдаваясь с теорию множества и ее аксиоматику, ты никогда не встретишь неизмеримые множества, функции и тд. То есть теорию меры очень сложно прочувствовать. Она порой кажется настолько очевидной, что не понимаешь к чему вся эта громоздкая формализация и доказательства. Кажется потому, что очень тяжело привести пример неизмеримого множества.
Что ж, материалы по которым я занимаюсь.
Durret, Probability: Measure and Examples. Когда то я наткнулся на форчане на пик. Я все же учусь на финансиста. Картинка естественно меметична, особенно как автор пытается выдать эти три книги как дорогу к господству на рынке финансовых активов. Но все же я вспомнил о ней и решил восполнить знания по мере лебега, сигма алгебрам и тд. Зубов на освоение Billingsley: Measure and Probability у меня никогда не хватит. Очень обьемная книга, но в идеале будь я щас школьником, то просто ради удовольствия штудировал бы его.
Серия лекций https://cemapre.iseg.ulisboa.pt/~jldias/tppe/main.pdf
Она больше нужна, чтобы более глубже ознакомиться с именно теорией меры вне контекста вероятности. В нем есть теорема Каратеодори, которым я занимался наверное неделю.
Мой прогресс, пока остановился на измеримых функциях, простых функциях и теореме каратеодори. От последнего я малость офигел, но все же осилил доказательство. Вообще, теория меры очень интуитивна, но ее формализация наверное одна из самых абстрактных. Особенно тяжело мне далось хотя бы итнуитивно понять определение множества измеримых подмножеств. Множество A измеримо если
$\mu^{\star}(E) = \mu^{\star}(E \cap A) + \mu^{\star}(E \cap A^{c})$
где $\mu^{\star}$ - внешняя мера
E - любое измеримое или неизмеримое множество принадлежащее $\Omega$
Так вот, доказательство казалось немотивированным просто из−за определения измеримого множества. Но оно работает. Скажем так, если мы разобьем любое E с помощью $A и A^{c}$ то внешняя мера попросту не поменяется в сумме двух фрагментов E,поскольку A прекрасно измеримо,то есть $\mu(A) = \mu^{*}(A)$. По крайней мере я понял так.
Хочется также оставить единстенный коммент на причину почему теория меры сложна лично для меня. Дело в том, что любая область математики изучается рл мере нахождения и описания структур которые имеют нужные свойства И также на основе структур которые противоречат нужным свойствам. Так вот, впринципе изучая математику и не вдаваясь в теорию множества и ее аксиоматику, ты никогда не встретишь неизмеримые множества, функции и тд. То есть теорию меры очень сложно прочувствовать. Она порой кажется настолько очевидной, что не понимаешь к чему вся эта громоздкая формализация и доказательства. Ведь очень тяжело привести пример неизмеримого множества.
Что ж, материалы по которым я занимаюсь.
Durret, Probability: Measure and Examples. Когда то я наткнулся на форчане на пик. Я все же учусь на финансиста. Картинка естественно меметична, особенно как автор пытается выдать эти три книги как дорогу к господству на рынке финансовых активов. Но все же я вспомнил о ней и решил восполнить знания по мере лебега, сигма алгебрам и тд. Зубов на освоение Billingsley: Measure and Probability у меня никогда не хватит. Очень обьемная книга, но в идеале будь я щас школьником, то просто ради удовольствия штудировал бы его.
Серия лекций https://cemapre.iseg.ulisboa.pt/~jldias/tppe/main.pdf
Она больше нужна, чтобы более глубже ознакомиться с именно теорией меры вне контекста вероятности. В нем есть теорема Каратеодори, которым я занимался наверное неделю.
Мой прогресс, пока остановился на измеримых функциях, простых функциях и теореме каратеодори. От последнего я малость офигел, но все же осилил доказательство. Вообще, теория меры очень интуитивна, но ее формализация наверное одна из самых абстрактных. Особенно тяжело мне далось хотя бы итнуитивно понять определение множества измеримых подмножеств. Множество A измеримо если
$\mu^{\star}(E) = \mu^{\star}(E \cap A) + \mu^{\star}(E \cap A^{c})$
где $\mu^{\star}$ - внешняя мера
E - любое измеримое или неизмеримое множество принадлежащее $\Omega$
Так вот, доказательство казалось немотивированным просто из−за определения измеримого множества. Но оно работает. Скажем так, если мы разобьем любое E с помощью $A и A^{c}$ то внешняя мера попросту не поменяется в сумме двух фрагментов E,поскольку A прекрасно измеримо,то есть $\mu(A) = \mu^{*}(A)$. По крайней мере я понял так.
Хочется также оставить единстенный коммент на причину почему теория меры сложна лично для меня. Дело в том, что любая область математики изучается рл мере нахождения и описания структур которые имеют нужные свойства И также на основе структур которые противоречат нужным свойствам. Так вот, впринципе изучая математику и не вдаваясь в теорию множества и ее аксиоматику, ты никогда не встретишь неизмеримые множества, функции и тд. То есть теорию меры очень сложно прочувствовать. Она порой кажется настолько очевидной, что не понимаешь к чему вся эта громоздкая формализация и доказательства. Ведь очень тяжело привести пример неизмеримого множества.
Если мы расматриваем внешнюю меру лебега на R, то эта мера суббадитивна для непересекающихся множеств, что просто дико.
То есть существуют два подмножества A и B которые не пересекаются но
$m^{\star}(A \cup B) < m^{\star}(A) + m^{\star}(B) $
Вся эта сложность и абстрактность возникает просто из-а патологических множеств, которые в практическом применении анализа не встречаются. Как то все это грустно.
В течении трех месяц есть список вещей в которых я должен разобраться.
1) Азы выпуклого анализа. Трансформация Легендра и его связь с неравенствами в анализе. Дело в том, что мы можем гарантировать неравенста в анализе если хотя бы представим что функции преобразуются через выпуклую функцию.
2) Л п пространства. Я уже разобрал все основные неравенства и метрики. Остается ознакомиться с доказательствами теоретических результатов, сходимостями на этих пространствах. Это нужно будет для теории вероятности. Многие результаты там там касаются о сходимости в Л2 пространстве.
3) Комплексное интегрирование и ряды фурье. Уже разобрал доказательства плотности множества периодичных функций во множестве гладких интегрируемых функций. Осталось ознакомиться с применением рядом фурье для вероятностных распределений, в особенности хотелось бы прочувствовать доказательства Центральных предельных теорем.
4)Общие линейные модели. Нужно для статистических методов. Курс линейной алгебры пройден до внешнего произведения. Осталось теперь увидеть применение матричной алгебры в статистике.
5) Достаточные статистики и семейство экспоненциальная распределений. Я мог бы спокойно скипнуть эту часть, но просто хотелось бы понять как вообще естественно возникают экспоненциальные распределения. Загвоздка в том, что полный ответ уходит корнями в теорию информацию, в функцию энтропии. Экспоненцальные распределения каким то образом то ли минимизируют или позывашют его. Как бы то ни было соваться в теорию информации ближайший год я не собираюсь. Честно устал заниматься несистематизированно.
После прохождения всех поставленных целей, могу потихоьнку изучать функан. Но пока основной упор на теорвер (стохастические процессы) и статистику.
Аве!
>Это, наверное, один из немногих русскоязычных учебников по линалу, которые выходят за рамки стандартного дроча на матрицы и "по гауссу".
Ну это вообще пушка. Даже в условном Винберге такого нет.
*дроча на матрицы и "по гауссу"
Ну я просто его в пример привёл как один из самых известных. Можно ещё на Кострикина посмотреть.
Анонче, вбей "учебник по линейной алгебре" в гугл и покликай на учебники и методички.
>inb4 "это не считается потому что..."
Я не спорю, что бывают и другие, хуёвые, но я ведь привёл не какие-то обскурные, а самые известные. Туда обычно ещё добавляют Гельфанда, Халмоша и Беклемишева (вот он матричный, да).
> а самые известные
Ну для чистых математиков может быть. А так даже в примате нередко страдают матричной хуйнёй, что уж говорить про инженеров-социолухов. Хотя матричная хуйня не нужна ни одним, ни другим, ни третьим.
То есть очевидно, что о E[X|Y] следует думать как о E[X|сигма алгебра порожденная Y]. Но все равно непонятно. Для меня лично более интуитивно в курсе стохастическим процессов думать наоборот. Мне кажется куда лучше сначало объяснить фильтрацию на сигма алгебре и только потом уже начать говорить о условном мат ожидании.
Просто в начале как обычно, УМО (условное мат ожидание) преподносится как некая абстракная мистическая функция, которая обладает ключевым свойством.
∫_A X dP = ∫_A E[X|Y] dP
где A просто элемент сигма алгебры порожденной Y/ Конечно же можзно просто поступить как чистый математик и абстрагироваться. Не спорю это нормально и со временем необходимо. И также верно что УМО это не сколь функция а семейство функций удовлетворяющих этому ключевому свойству. УМО это семейство черных коробок о которых много не стоит задумываться.
Но куда ведь легче просто обьяснить через фильтрацию. По мере продвижения по нашему фильтру мы представляем случилось ли событие A. Если случилось то самое лучшее, что мы можем подумать о значении X относительно сигма алгебры это интгреал X относительно условной вероятности если A произошло - иначе говоря усредненное значение X по новой условной мере. Двигаемся дальше по фильтру. Наш A теперь стал сложнее и теперь он сам содержить подмножества. Где же могло оказаться теперь наше значение? Если в подмножестве B то самое лучшее это интеграл X по B с еще новой мерой. И УМО это функция которая выдает нам самое опитмальное значение по мере продвижения по фильтру.
Мне кажется так представляет УМО более интуитивно.
Какая ирония. Условный экономист\социолог интуитивно понимает условное матожидание, не зная теорбазы вообще, а надмозгу с /math/ нужны фильтрации и сигма-алгебры, да и то он вроде как интуитивно понял, а вроде как и нет.
Это один-в-один как рассуждать про проективные резольвенты, когомологии, пучки, и схемы, но не знать простейших фактов про пересечение кубик.
не знаю, когда я учился по специальности «прикладная математика», никто из нас условное мат. ожидание не понимал
я и сейчас не понимаю, да и забыл уже полностью (после окончания курса никогда к нему не возвращался)
Так ОП вроде бы сам околоэкономист
1) К примеру. Как доказать неравенство Коши Шварца для функций условных ожиданий.
Есть две переменные $X(\omega)$ и $Y(\omega)$. В общем от одной реализации эксперимента $\omega$ мы получаем два скаляра $X(\omega)$ и $Y(\omega)$(рассуждаю как физик лол, скаляр).
Если есть некоторая сигма алгебра G которая может входить или быть равной сигма алгебре которая хотя бы порождена X и Y, то мы можем определить следующие стохастические переменные E(X|G) и E(Y|G).
Тогда спрашивается, работает ли неравенство Коши Шварца на этих функциях. То есть конечно же, эти функции G-измеримы (вроде бы? preimage всегда элемент G).Казалось бы должны. Но вот кое что особенно интересно. Мы же не можем говорить о неравенстве Коши Шварца в вакууме. Значит есть некое метрическое пространство?
В нашем случае давайте рассмотрим интересное пространство $L^2 (G), G \belongs F$ которое просто является множеством G-измеримых функций у которых на этой сигме алгебре конечное мат ожидание или по сути интеграл. В чем особенность этого пространства? Ну переменная E(X|G) является проекцией X на это пространство. Она минимизирует "расстояние" между X и элементами $L^2 (G)$. А что конкретно минимизирует? Мат ожидание. Существует такая функция Y в $L^2 (G)$ которое является наиболее близким в кавычках к X, минимизируя E|XY|.
Но раз мы определили Гильбертово пространство $L^2 (G), G \belongs F$ и метрику E|XY|, то неравенство Коши просто следует автоматом. Не вижу смысла его доказывать.
$E(XY|G)^2 = \int_{\Omega} X(\omega) Y(\omega) \mu(\d\omega) \le \int_{\Omega} X(\omega)^{2} \mu(\d\omega) \int_{\Omega Y(\omega)^{2} \mu(\d\omega)$
Вообще куда интересней когда мы начинаем использовать функции условных мат ожиданий в Max Likelihood расчетах.
1) К примеру. Как доказать неравенство Коши Шварца для функций условных ожиданий.
Есть две переменные $X(\omega)$ и $Y(\omega)$. В общем от одной реализации эксперимента $\omega$ мы получаем два скаляра $X(\omega)$ и $Y(\omega)$(рассуждаю как физик лол, скаляр).
Если есть некоторая сигма алгебра G которая может входить или быть равной сигма алгебре которая хотя бы порождена X и Y, то мы можем определить следующие стохастические переменные E(X|G) и E(Y|G).
Тогда спрашивается, работает ли неравенство Коши Шварца на этих функциях. То есть конечно же, эти функции G-измеримы (вроде бы? preimage всегда элемент G).Казалось бы должны. Но вот кое что особенно интересно. Мы же не можем говорить о неравенстве Коши Шварца в вакууме. Значит есть некое метрическое пространство?
В нашем случае давайте рассмотрим интересное пространство $L^2 (G), G \subseteq F$ которое просто является множеством G-измеримых функций у которых на этой сигме алгебре конечное мат ожидание или по сути интеграл. В чем особенность этого пространства? Ну переменная E(X|G) является проекцией X на это пространство. Она минимизирует "расстояние" между X и элементами $L^2 (G)$. А что конкретно минимизирует? Мат ожидание. Существует такая функция Y в $L^2 (G)$ которое является наиболее близким в кавычках к X, минимизируя E|XY|.
Но раз мы определили Гильбертово пространство $L^2 (G), G \subseteq F$ и метрику E|XY|, то неравенство Коши просто следует автоматом. Не вижу смысла его доказывать.
$E(XY|G)^2 = \int_{\Omega} X(\omega) Y(\omega) \mu(\mathrm{d}\omega) \leq \int_{\Omega} X(\omega)^{2} \mu(\mathrm{d}\omega) \times \int_{\Omega} Y(\omega)^{2} \mu(\mathrm{d}\omega)
$
Вообще куда интересней когда мы начинаем использовать функции условных мат ожиданий в Max Likelihood расчетах.
E(E(X|F1)|F2) =/= E(E(X|F2)|F1)
Прелставим что у нас есть две сигма алгебры где одна является подмножеством второго, F1 \subset F2.
Меня очень озадачивает следующее равенство E[E[X|F1]|F2] = [E[X|F1]
Если мы "подгоним" переменную Х к F1, то мы получим F1-измеримую функцию чей интеграл по событиям F1 равны интегралу X по тем же событиям. Но если мы возьмем и подгоним E(X|F1) под F2 то верно то что
$\int_{A \in F_{2}} E[E[X|F1]|F2] \mu(\mathrm{d}\omega) = \int_{A \in F_{2}}E[X|F1] \mu(\mathrm{d}\omega)$
Значит кандидатом для E[E[X|F1]|F2] может быть сама E[X|F1]. Но меня волнует вопрос - почему не E[X|F2]?
Я полагаю, просто потому что мы не можем восстановить функцию из более тривиальной сигма алгебры. То есть грубо говоря, если у нас есть функция определенная на F1, мы не можем определить значения для дополнительным событий в F2. Поэтому мы не можем восстановить E[X|F2], подогнав E[X|F1] под F2.
Теперь после того как я буквально на ваших глазах как то оправдал E[E[X|F1]|F2] = [E[X|F1], я могу еще доавить что след равенство тоже верно E[E[X|F2]|F1] = [E[X|F1].
Так вот рассмотрим задачу
Give an example on Ω = {a, b, c} in which
E(E(X|F1)|F2) =/= E(E(X|F2)|F1)
пусть X выдает числа от 1 до 3 буквам a,b,c.
Грубо говоря надо создать по хитрому две сигма алгебры чтобы равенство невыполнялось. Равенство выше по крайней мере выполняется если либо $F1 \subseteq F2$ либо $F2 \subseteq F1$.
То есть несмотря даже на отдельные вероятонсти элементов пространства элементарных исходов, мы можем создать
F1 = [ {null}, {a}, {b,c}, {a,b,c} ]
F2 = [ {null}, {b}, {a,c}, {a,b,c} ]
Таким образом следующее неправда относительно наших алгебр $F1 \subseteq F2$ либо $F2 \subseteq F1$.
E(X|F1) это по сути функция которая при реализации {b,c} выдает усредненное значение по новой мере.
E(X|F2) это по сути функция которая при реализации {ф,c} выдает усредненное значение по новой мере.
E(E(X|F1)|F2) =/= E(E(X|F2)|F1)
Прелставим что у нас есть две сигма алгебры где одна является подмножеством второго, F1 \subset F2.
Меня очень озадачивает следующее равенство E[E[X|F1]|F2] = [E[X|F1]
Если мы "подгоним" переменную Х к F1, то мы получим F1-измеримую функцию чей интеграл по событиям F1 равны интегралу X по тем же событиям. Но если мы возьмем и подгоним E(X|F1) под F2 то верно то что
$\int_{A \in F_{2}} E[E[X|F1]|F2] \mu(\mathrm{d}\omega) = \int_{A \in F_{2}}E[X|F1] \mu(\mathrm{d}\omega)$
Значит кандидатом для E[E[X|F1]|F2] может быть сама E[X|F1]. Но меня волнует вопрос - почему не E[X|F2]?
Я полагаю, просто потому что мы не можем восстановить функцию из более тривиальной сигма алгебры. То есть грубо говоря, если у нас есть функция определенная на F1, мы не можем определить значения для дополнительным событий в F2. Поэтому мы не можем восстановить E[X|F2], подогнав E[X|F1] под F2.
Теперь после того как я буквально на ваших глазах как то оправдал E[E[X|F1]|F2] = [E[X|F1], я могу еще доавить что след равенство тоже верно E[E[X|F2]|F1] = [E[X|F1].
Так вот рассмотрим задачу
Give an example on Ω = {a, b, c} in which
E(E(X|F1)|F2) =/= E(E(X|F2)|F1)
пусть X выдает числа от 1 до 3 буквам a,b,c.
Грубо говоря надо создать по хитрому две сигма алгебры чтобы равенство невыполнялось. Равенство выше по крайней мере выполняется если либо $F1 \subseteq F2$ либо $F2 \subseteq F1$.
То есть несмотря даже на отдельные вероятонсти элементов пространства элементарных исходов, мы можем создать
F1 = [ {null}, {a}, {b,c}, {a,b,c} ]
F2 = [ {null}, {b}, {a,c}, {a,b,c} ]
Таким образом следующее неправда относительно наших алгебр $F1 \subseteq F2$ либо $F2 \subseteq F1$.
E(X|F1) это по сути функция которая при реализации {b,c} выдает усредненное значение по новой мере.
E(X|F2) это по сути функция которая при реализации {ф,c} выдает усредненное значение по новой мере.
Коши-Буняковского т.е.? она же в любом евклидовом прострастве делается, какие ещё сигма алгебры
или для них она какая-то другая? судя по тому, что ты пишешь интегралы от произведения функций, собственно, та же самая
А ну да Коши Буняковского, это же вроде так называется на русском. Приношу извинения.
>она же в любом евклидовом прострастве делается, какие ещё сигма алгебры
Получается автор хотел, чтобы смогли увидеть множество всех фукнций на сигма алгебре с конечным мат ожиданием как пространство с метрикой. И отсюда и вытекает неравенство. Казалось бы банально, все еще не понимаю, что автор хочет от меня. Что бы я рассматривал все это в виде пространства? Хорошо, тогда я понимаю.
>она же в любом евклидовом прострастве делается,
и не только
Я тоже не понял, что ты хотел. Или автор, кто там написал
> и не только
К-Б это неравенство, в котором есть скалярное произведение,
и оно выполнено на всех пространствах со скалярным произведением. Так что здесь тоже не понял, где оно может ещё быть
>Так что здесь тоже не понял, где оно может ещё быть
Ну на пространстве L^2(F), где F это сигма алгебра.
Пространство L^2 гильбертово - частный случай евклидового пространства
К-Б никакого отношения к специфике L^2 не имеет
имеет, сам проверь. К тому же с евкидово пространство частный случай гильбертова прострнаства. С чего бы неравенству невыполняться на нем.
под евклидовом пространством я понимаю произвольное векторное пространство со скалярным произведением. Гильбертово пространство есть его частный случай. Для К-Б нужна только структура евклидового пространства (векторного со скал. произв.) Никакие интегралы из L^2 не нужны, К-Б устанавливается алгебраически для общего евкл. пр-ва
>под евклидовом пространством я понимаю произвольное векторное пространство со скалярным произведением. Гильбертово пространство есть его частный случай.
нет
как раз таки евклидово пространство частный случай гильбертова. Гильбертово пространство это любое пространство со скалряным произведением. Если поле на векторном пространстве является R и мы навязываем на нем стандартную метрику, то мы получаем евлидово пространство, что частный случай гильбертова пространства.
> Для К-Б нужна только структура евклидового пространства (векторного со скал. произв.)
Это не правда. Нужно просто скалярное произведение и вообще любая структура. К примеру множества всех многочленов. Стоит нам на этом множестве определить метрику через интеграл, то сразу следует неравенство коши буняковского. Также это неравенство можно доказать вообще в пространстве всех измеримых функций.
Скалярное произведение — это всегда операция на векторном пространстве, иначе как ты определишь линейность операции. Множество всех многочленов образует векторное пространство.
мимо
>. Множество всех многочленов образует векторное пространство.
Я не спорю. Но по скольку мы определили на нем inner product (скалярное произведение) теперь это гильбертово пространство. Но это никак не евклидово пространство.
*умножать на скаляр
Я вообще не об этом. Проблема в том, что человек выше не понимает почему я доказываю неравенство Коши Буняковского на Л два пространстве. Л 2 как пространство определенное на сигме алгебре это гильбертово пространство и на нем выполняются такие неравенства как неравенство йенсена, Холдера, КБ, минковского и так далее.
> по скольку мы определили на нем inner product (скалярное произведение) теперь это гильбертово пространство
Для гильбертова еще нужно пополнение, хотя для К-Б пополнение не нужно
Под евклидовом пространством я понимаю то, что тебе может быть знакомо как inner product space. Я объяснял уже
> Проблема в том, что человек выше не понимает почему я доказываю неравенство Коши Буняковского на Л два пространстве
Действительно не понимаю. Т.е. доказывать ты его можешь хоть для многочленов, но оно верно и в самом общем случае, когда все включенные в него понятия определены (скал. произведение, векторное пространство)
Наверное автор книги хотел чтобы я показал, что это все таки пространство, а значит и неравенство выполняется.
Тебе виднее. Детали в том посте я не читал
>Под евклидовом пространством я понимаю то, что тебе может быть знакомо как inner product space. Я объяснял уже
Это неправильное понимание. Inner product space не переводится как евклидово.
>Для гильбертова еще нужно пополнение, хотя для К-Б пополнение не нужно
Да на счет пополнения, оно доказывается для L^2(F)
Беру слова назад, да оно так и переводится. Прошу прощения. Все правильно. Просто тот парень значит был удивлен почему нужно доказывать очевидное. Ну как я обьяснял, полагаю автор просто хотел чтобы я доказал что все фкнкции на сигма алгебре с конечными EX^2 является гильбертовым пространством.
Скорее предгильбертовым, ты же не доказывал, наверное, полноту для выполнения К-Б (она и не нужна).
да не нужна, но она доказана автором.
Вопрос - что вообще значит содержать инормацию о чем то в контексте теорвера? Сам факт того, что я как то подсознательно старался игнорировать этот простой вопрос привел к тому, что мат определение достаточной статистики мне долго казалось непонятной.
Давайте, начнем с более менее простого. Если есть два события A и B, и они независимы, то они обычно не содержат информацию друг о друге. К примеру событие того, что буря на марсе произойдет в 12 часов 12 августа, скорее всего ничего не говорит о включении лампы в это же время в кафе под моим домом. То есть независимость событий говорит об отсутствии информации. Это можно обобщить с событий на сигма алгебры и стохаст. переменные.
ЧТо есть обратная ситуация независимости? Логично, что зависимость. Если мы рассмотрим две события A и В то условная вероятность P(A|B) и есть та информация об А когда мы знаем про B. Конечно если мы обобщим это до стохаст переменных, то информация это условное распределение плотности P(X=x|Y=y).
В таком случае, что значит создать статистику содержащую всю информацию выборки о параметре? Поскольку проблема в том, что вне контекста байесовкой теории вероятности невозможно говорить о априорном распределении параметра, мы как бы не можем создать функцию плотности P(x1...xn|theta). Но есть выход. Если мы собственно зафиксируем точки выборки в совместном распределении, то у нас есть семейство распределений и по нему мы как бы можем проводить некоторую оптимизацию, к примеру метод максимального правдоподобия ка вариант. Но если мы найдем функцию плотности P(x1...xn|t) где t это некая статистика, то мы получим валидную функцию плотности которая также может зависеть от параметра. То есть есть семейство распределений по которму мы снова можем сделать оптимизацию. Но а что если найти загадочную статистику T для которой P(x1...xn|theta) больше не зависит от параметра? Тогда получается что T как бы забрал вместе с собой всю информацию о параметре и функция условной вероятности P(x1...xn|t) как информация о выборке после того мы узнали про статистику, больше не содержит инфомацию о параметре. Условное вероятностное распределение выборки независимо от распределения параметра.
Теперь начинается собственно математика. Нужно конечно доказать множество теорем который гарантируют или отрицают существование такой статистки при каких то условиях, теоремы о свойствах таких статистик, теоремы о том как по хорошему находить такие статистики. Об этом смыса уже нет тут рассказывать поскольку это очевидные такие вот "инженерные" теоремы которые понятны после того как мы поняли в чем проблема. Это уже о вопросе как, а не почему.
Ну вот давайте решим пару задач и после поговорим о экспоненциальной семье распределений.
Покажем, что n-я порядковая статистика из случайной выборки размера n из равномерного распределения с плотностью вероятности f(x; θ) = 1/θ, 0 < x < θ, 0 < θ < ∞, в остальных случаях - ноль, является достаточной статистикой для параметра θ. Затем обобщим этот результат, рассмотрев плотность вероятности f(x; θ) = Q(θ)M(x), 0 < x < θ, 0 < θ < ∞, в остальных случаях - ноль. Здесь, конечно, интеграл от M(x) dx от 0 до θ равен 1/Q(θ).
Чтобы доказать что некая статистика T достаточна, нужно просто доказать что фукциональная форма P(x1,...xn|t= xn) не зависит от theta.
P(x1,...xn|t= xn) всегда имеет форму $\frac{f(x1, \theta)...f(xn, \theta)}{f_{T}(t, \theta)}$
Нужно найти форму $f_{T}(t, \theta)$.
$P[t \leq y | y \in (0, \theta)] = P[все xi \leq y] = P^{n}[x \leq y] = (\int_{0}^{y} \frac{1}{\theta}\mathrm{d}x)^{n} = \frac{y^{n}}{\theta^{n}} = F_{T}(y)$ где y просто фиктивная переменная
$F^{'}(t) = f_{T}(t, \theta) = n \frac{t^{n-1}}{\theta^{n}} $
$\frac{f(x1, \theta)...f(xn, \theta)}{f_{T}(t, \theta)} = \frac{ \frac{1}{\theta^{n}} }{n \frac{y^{n-1}}{\theta^{n}}} = \frac{1}{n y^{n-1}}$
Функция условной вероятной плотности никак не зависит от параметра а значит n-я порядковая статистика достаточна, но она не уникальна. Это статистика умноженная на число больше одного но меньше $\frac{\theta}{t}$ вполне является достаточной тоже.
Теперь надо доказать общий случай f(x; θ) = Q(θ)M(x). Если мы посмотрим на требование для M(x), то поймем что Q(θ) и M(x) должны быть положительными функциями.
Совместная функция распределения выглядит (Q(θ)M(x))^n мы можем факторизовать его на две положительные функции при условии что M(x) никак не зависит от theta. Я полагаю математически то как выраженна эта функция это подразуемвается. Тогда по критерию Фишера Неймана можно сказать, что n-ая порядковая статистика достаточна.
Вопрос - что вообще значит содержать инормацию о чем то в контексте теорвера? Сам факт того, что я как то подсознательно старался игнорировать этот простой вопрос привел к тому, что мат определение достаточной статистики мне долго казалось непонятной.
Давайте, начнем с более менее простого. Если есть два события A и B, и они независимы, то они обычно не содержат информацию друг о друге. К примеру событие того, что буря на марсе произойдет в 12 часов 12 августа, скорее всего ничего не говорит о включении лампы в это же время в кафе под моим домом. То есть независимость событий говорит об отсутствии информации. Это можно обобщить с событий на сигма алгебры и стохаст. переменные.
ЧТо есть обратная ситуация независимости? Логично, что зависимость. Если мы рассмотрим две события A и В то условная вероятность P(A|B) и есть та информация об А когда мы знаем про B. Конечно если мы обобщим это до стохаст переменных, то информация это условное распределение плотности P(X=x|Y=y).
В таком случае, что значит создать статистику содержащую всю информацию выборки о параметре? Поскольку проблема в том, что вне контекста байесовкой теории вероятности невозможно говорить о априорном распределении параметра, мы как бы не можем создать функцию плотности P(x1...xn|theta). Но есть выход. Если мы собственно зафиксируем точки выборки в совместном распределении, то у нас есть семейство распределений и по нему мы как бы можем проводить некоторую оптимизацию, к примеру метод максимального правдоподобия ка вариант. Но если мы найдем функцию плотности P(x1...xn|t) где t это некая статистика, то мы получим валидную функцию плотности которая также может зависеть от параметра. То есть есть семейство распределений по которму мы снова можем сделать оптимизацию. Но а что если найти загадочную статистику T для которой P(x1...xn|theta) больше не зависит от параметра? Тогда получается что T как бы забрал вместе с собой всю информацию о параметре и функция условной вероятности P(x1...xn|t) как информация о выборке после того мы узнали про статистику, больше не содержит инфомацию о параметре. Условное вероятностное распределение выборки независимо от распределения параметра.
Теперь начинается собственно математика. Нужно конечно доказать множество теорем который гарантируют или отрицают существование такой статистки при каких то условиях, теоремы о свойствах таких статистик, теоремы о том как по хорошему находить такие статистики. Об этом смыса уже нет тут рассказывать поскольку это очевидные такие вот "инженерные" теоремы которые понятны после того как мы поняли в чем проблема. Это уже о вопросе как, а не почему.
Ну вот давайте решим пару задач и после поговорим о экспоненциальной семье распределений.
Покажем, что n-я порядковая статистика из случайной выборки размера n из равномерного распределения с плотностью вероятности f(x; θ) = 1/θ, 0 < x < θ, 0 < θ < ∞, в остальных случаях - ноль, является достаточной статистикой для параметра θ. Затем обобщим этот результат, рассмотрев плотность вероятности f(x; θ) = Q(θ)M(x), 0 < x < θ, 0 < θ < ∞, в остальных случаях - ноль. Здесь, конечно, интеграл от M(x) dx от 0 до θ равен 1/Q(θ).
Чтобы доказать что некая статистика T достаточна, нужно просто доказать что фукциональная форма P(x1,...xn|t= xn) не зависит от theta.
P(x1,...xn|t= xn) всегда имеет форму $\frac{f(x1, \theta)...f(xn, \theta)}{f_{T}(t, \theta)}$
Нужно найти форму $f_{T}(t, \theta)$.
$P[t \leq y | y \in (0, \theta)] = P[все xi \leq y] = P^{n}[x \leq y] = (\int_{0}^{y} \frac{1}{\theta}\mathrm{d}x)^{n} = \frac{y^{n}}{\theta^{n}} = F_{T}(y)$ где y просто фиктивная переменная
$F^{'}(t) = f_{T}(t, \theta) = n \frac{t^{n-1}}{\theta^{n}} $
$\frac{f(x1, \theta)...f(xn, \theta)}{f_{T}(t, \theta)} = \frac{ \frac{1}{\theta^{n}} }{n \frac{y^{n-1}}{\theta^{n}}} = \frac{1}{n y^{n-1}}$
Функция условной вероятной плотности никак не зависит от параметра а значит n-я порядковая статистика достаточна, но она не уникальна. Это статистика умноженная на число больше одного но меньше $\frac{\theta}{t}$ вполне является достаточной тоже.
Теперь надо доказать общий случай f(x; θ) = Q(θ)M(x). Если мы посмотрим на требование для M(x), то поймем что Q(θ) и M(x) должны быть положительными функциями.
Совместная функция распределения выглядит (Q(θ)M(x))^n мы можем факторизовать его на две положительные функции при условии что M(x) никак не зависит от theta. Я полагаю математически то как выраженна эта функция это подразуемвается. Тогда по критерию Фишера Неймана можно сказать, что n-ая порядковая статистика достаточна.
Совместная функция распределения выглядит (Q(θ)M(x))^n мы можем факторизовать его на две положительные функции при условии что M(x) никак не зависит от theta. Я полагаю математически то как выраженна эта функция это подразуемвается. Тогда по критерию Фишера Неймана можно сказать, что n-ая порядковая статистика достаточна.
Вы видите копию треда, сохраненную 12 сентября в 17:24.
Скачать тред: только с превью, с превью и прикрепленными файлами.
Второй вариант может долго скачиваться. Файлы будут только в живых или недавно утонувших тредах. Подробнее
Если вам полезен архив М.Двача, пожертвуйте на оплату сервера.