Двач.hk не отвечает.
Вы видите копию треда, сохраненную 12 сентября в 00:46.
Скачать тред: только с превью, с превью и прикрепленными файлами.
Второй вариант может долго скачиваться. Файлы будут только в живых или недавно утонувших тредах. Подробнее
Если вам полезен архив М.Двача, пожертвуйте на оплату сервера.
Вы видите копию треда, сохраненную 12 сентября в 00:46.
Скачать тред: только с превью, с превью и прикрепленными файлами.
Второй вариант может долго скачиваться. Файлы будут только в живых или недавно утонувших тредах. Подробнее
Если вам полезен архив М.Двача, пожертвуйте на оплату сервера.
421 Кб, 500x210
Этот тред не для петушков из ШАДа /pr, а для серьезных людей и сочувствующих.
Здесь мы переобучаемся, оптимизируем негладкие функционалы, выбираем из двух стульев по Байесу, голосуем за Ланжевена против Гамильтона, ходим в китайские рестораны по олимпиадным талонам для столовой ГЗ и гоняем AIXI на Ломоносове.
Здесь мы переобучаемся, оптимизируем негладкие функционалы, выбираем из двух стульев по Байесу, голосуем за Ланжевена против Гамильтона, ходим в китайские рестораны по олимпиадным талонам для столовой ГЗ и гоняем AIXI на Ломоносове.
>>2238
Первокультурная доска просто. Статистику либо не знают, либо презирают, либо всё вместе.
Первокультурная доска просто. Статистику либо не знают, либо презирают, либо всё вместе.
>>2242
Ну теорию вероятности уже начали учить - пора и за статистику браться!
Ну теорию вероятности уже начали учить - пора и за статистику браться!
>>2603
А чего обсуждать то? Вот читаю Вапника, наконец-то все это машинное обучение приобрело для меня хоть какой-то смысл.
А чего обсуждать то? Вот читаю Вапника, наконец-то все это машинное обучение приобрело для меня хоть какой-то смысл.
>>2926
Молодец, в верном направлении движешься.
Потом можешь переходить к PAC и PAC-байесовским оценкам.
С Вапником проблема в том, что его теория мало что может предложить для сложных моделей вроде тех же нейросетей (с бесконечной VC-размерностью).
Молодец, в верном направлении движешься.
Потом можешь переходить к PAC и PAC-байесовским оценкам.
С Вапником проблема в том, что его теория мало что может предложить для сложных моделей вроде тех же нейросетей (с бесконечной VC-размерностью).
>>2961
Где ты видел нейросеть с бесконечной VC-размерностью?
>вроде тех же нейросетей (с бесконечной VC-размерностью).
Где ты видел нейросеть с бесконечной VC-размерностью?
>>2966
Да, я обосрался, для обычных перцептронов она конечная, но все равно размерность большая (квадратично зависит от числа весов), поэтому VC-оценки не особо применимы на практике.
Да, я обосрался, для обычных перцептронов она конечная, но все равно размерность большая (квадратично зависит от числа весов), поэтому VC-оценки не особо применимы на практике.
>>3010
Statistical Learning Theory
Statistical Learning Theory
О, хороший тред. Интересует машинное обучение, подскажите как мне быть. Куда идти после школы?
Сам читаю сицп + Basic- Math (Serge Lang), потом выучу нормальный язык и примусь за алгоритмы кормена + дискретку, потом машинное обучение. В правильном направлении двигаюсь?
Сам читаю сицп + Basic- Math (Serge Lang), потом выучу нормальный язык и примусь за алгоритмы кормена + дискретку, потом машинное обучение. В правильном направлении двигаюсь?
>>3093
А мне нравится сильно, не когда бы не подумал что столько классных решений проблем можно придумать используя простой синтаксис. Все таки дочитаю до конца.
>sicp не нужен
А мне нравится сильно, не когда бы не подумал что столько классных решений проблем можно придумать используя простой синтаксис. Все таки дочитаю до конца.
>>3097
ну это хорошая книжка, но не принципиальная.
ну это хорошая книжка, но не принципиальная.
1,1 Мб, 1214x1206
Мои мысли - мои скакуны. По порядку, без математической строгости:
1. Впервые взялся за написание рекомендательной системы. Какие я вижу трудности впереди? Со всеми пользователями не сравнишься, надо делать кластеризацию, чтобы рекомендации прилетали только из ближайших для юзера кластеров. Вообще тут веет асинхронными ветрами Scala/Spark: batching, streaming, persistent data structures.
2. Продолжая тему маркетинга - прочел статью про bayesian bandits, может дойдет дело до применения заместо A/B тестирования.
3. Последние 2 года постоянно подтягиваю то алгебру(по Кострикину и листкам) то тервер с матстатом(Чернова, Райгородский).
4. Посматриваю в сторону gtx 1080 на замену gtx 960, с которой успел погастролировать на 2 работах (Deep Learning 4 NLP). Чувствую, она быстро окупится.
1. Впервые взялся за написание рекомендательной системы. Какие я вижу трудности впереди? Со всеми пользователями не сравнишься, надо делать кластеризацию, чтобы рекомендации прилетали только из ближайших для юзера кластеров. Вообще тут веет асинхронными ветрами Scala/Spark: batching, streaming, persistent data structures.
2. Продолжая тему маркетинга - прочел статью про bayesian bandits, может дойдет дело до применения заместо A/B тестирования.
3. Последние 2 года постоянно подтягиваю то алгебру(по Кострикину и листкам) то тервер с матстатом(Чернова, Райгородский).
4. Посматриваю в сторону gtx 1080 на замену gtx 960, с которой успел погастролировать на 2 работах (Deep Learning 4 NLP). Чувствую, она быстро окупится.
>>3086
В долгосрочной перспективе будет лучше, если ты просто хорошо выучишь линал, матан, тервер, матстат, оптимизацию - вот такие примерно вещи.
В машинном обучении SICP пригодится с очень маленькой вероятностью.
Придется мимикрировать под питоно-питуха и обмазываться tensorflow.
Хотя некоторые вещи из дискретной математики вполне могут пригодиться.
В долгосрочной перспективе будет лучше, если ты просто хорошо выучишь линал, матан, тервер, матстат, оптимизацию - вот такие примерно вещи.
В машинном обучении SICP пригодится с очень маленькой вероятностью.
Придется мимикрировать под питоно-питуха и обмазываться tensorflow.
Хотя некоторые вещи из дискретной математики вполне могут пригодиться.
>>3237
Все хорошо, но давайте с вашими ветрами все-таки в /pr.
По существу: если ты делаешь SVD, то в определенном смысле ты уже кластеризуешь пользователей (даже какие-то статьи на эту тему есть). То есть, поверх этого, наверное, можно сделать некоторую кластеризацию, но не то что бы обязательно.
О бандитах давайте поговорим.
Все хорошо, но давайте с вашими ветрами все-таки в /pr.
По существу: если ты делаешь SVD, то в определенном смысле ты уже кластеризуешь пользователей (даже какие-то статьи на эту тему есть). То есть, поверх этого, наверное, можно сделать некоторую кластеризацию, но не то что бы обязательно.
О бандитах давайте поговорим.
>>3245
Не надо говорить о бандитах, это немцы в свое время вбросили, чтобы американцы и англичане мозги себе ломали, а не занимались решением действительно актуальных военных проблем.
Не надо говорить о бандитах, это немцы в свое время вбросили, чтобы американцы и англичане мозги себе ломали, а не занимались решением действительно актуальных военных проблем.
21 Кб, 298x247
>>3302
А как конкретно предполагалось применять бандитов на войне?
А как конкретно предполагалось применять бандитов на войне?
70 Кб, 650x483
>>3302
Дмитрий Петрович, залогиньтесь.
Дмитрий Петрович, залогиньтесь.
Кто на НИПС едет, защеканы?
Аноны, как найти вероятность (А и Б) или (А и В) или (Б и В)
Помогите
Помогите
>>3086
Да, только математику параллельно со всем, не стоит ждать пока выучишь всю нужную математику перед тем как программировать, тем более что в МО/ML будут всплывать темы наверняка, которых нет в базовых курсах.
Да, только математику параллельно со всем, не стоит ждать пока выучишь всю нужную математику перед тем как программировать, тем более что в МО/ML будут всплывать темы наверняка, которых нет в базовых курсах.
>>3943
наверни Феллера для начала
наверни Феллера для начала
>>4329
Судя по каггле, норм посоны-машинообучатели знают 3 вещи:
1. Лес это круто.
2. Сеточки это заебись.
3. Если почему-то пункты один и 2 не сработали, надо бустить.
Мера (вероятность)? Ну, это число от 0 до 1. Если много, радуешься. Если мало, растишь лес/обучаешь сеточку дальше.
Судя по каггле, норм посоны-машинообучатели знают 3 вещи:
1. Лес это круто.
2. Сеточки это заебись.
3. Если почему-то пункты один и 2 не сработали, надо бустить.
Мера (вероятность)? Ну, это число от 0 до 1. Если много, радуешься. Если мало, растишь лес/обучаешь сеточку дальше.
>>4329
Да как-то плохо)
Да как-то плохо)
Посоветуйте книжку по статистике, чтоб много примеров решения задач было, а то чет сухая теория не воспринимается
>>4379
Заходишь на амазон, вбиваешь в поиске elementary statistics.
Заходишь на амазон, вбиваешь в поиске elementary statistics.
>>4344
Ну привет, пришелей из 2013го. Вот вроде хотел подъебнуть, да только обосрался ты жиденько. На деле сейчас на каггле норм поцаны все знают уже давно, что первым нужно использовать xgboost, остальное по желанию, если в ансамблю добавть, чтобы результат на полпроцентика улучшить.
Ну привет, пришелей из 2013го. Вот вроде хотел подъебнуть, да только обосрался ты жиденько. На деле сейчас на каггле норм поцаны все знают уже давно, что первым нужно использовать xgboost, остальное по желанию, если в ансамблю добавть, чтобы результат на полпроцентика улучшить.
Поясните за импульсные нейронные сети.
>>4694
Ну математик на правах уберменша может перекатиться в любую плебейскую прикладнуху если захочет. Вот обратно конечно не так, плак-плак. Вот я и интересуюсь, как насчёт ваших этих обучений дело обстоит.
Ну математик на правах уберменша может перекатиться в любую плебейскую прикладнуху если захочет. Вот обратно конечно не так, плак-плак. Вот я и интересуюсь, как насчёт ваших этих обучений дело обстоит.
>>4725
Можно зарабатывать очень прилично, но для этого, конечно, надо продемонстрировать некие результаты. Так что тут все зависит от тебя.
Правда вангую, что от рутинной хуйни, которую делает большинство дата-сатанистов, тебя довольно быстро начнет мутить. Поэтому лучше идти в ресерч.
Можно зарабатывать очень прилично, но для этого, конечно, надо продемонстрировать некие результаты. Так что тут все зависит от тебя.
Правда вангую, что от рутинной хуйни, которую делает большинство дата-сатанистов, тебя довольно быстро начнет мутить. Поэтому лучше идти в ресерч.
>>4725
Прикладнуха разная бывает. Зачем тебе, мамкину уберменшу, сантехника уровня import tensorflow as tf? Отрасти бороду да форкни какие-нибудь ML-проекты на гитхабе на предмет улучшения алгоритмов или даже запиливания своих идей на этот счет. Вкатишься в тусовку, а там глядишь в какой-нибудь гугл брейн возьмут.
Прикладнуха разная бывает. Зачем тебе, мамкину уберменшу, сантехника уровня import tensorflow as tf? Отрасти бороду да форкни какие-нибудь ML-проекты на гитхабе на предмет улучшения алгоритмов или даже запиливания своих идей на этот счет. Вкатишься в тусовку, а там глядишь в какой-нибудь гугл брейн возьмут.
>>5058
Как только ты начинаешь "запиливать свои идеи на этот счет", это и есть ресерч. Но если заниматься им на нормальном уровне осознанности, то довольно быстро понимаешь, что это обезьянний подход - что-то там делать вместе со всеми остальными на гитхабе. Допускаю, что это может иметь достаточно высокий практически выхлоп, но мы ж тут все типа математики, нам же нужны красивые задачи.
Как только ты начинаешь "запиливать свои идеи на этот счет", это и есть ресерч. Но если заниматься им на нормальном уровне осознанности, то довольно быстро понимаешь, что это обезьянний подход - что-то там делать вместе со всеми остальными на гитхабе. Допускаю, что это может иметь достаточно высокий практически выхлоп, но мы ж тут все типа математики, нам же нужны красивые задачи.
Может тут кто знает, какая кафедра на мехмате лучше всего подходит под это дело?>>2126 (OP)
вот зычное выступление любоцкого про persistent homology
https://www.youtube.com/watch?v=1wtq5A7VMsA
у меня встал
https://www.youtube.com/watch?v=1wtq5A7VMsA
у меня встал
>>5988
классный видос
классный видос
>>2126 (OP)
Зачем машоб нужен? Почему его так часто упоминают?
Зачем машоб нужен? Почему его так часто упоминают?
Поднимаю трупик.
А по RL есть что-нибудь строго математическое почитать?
А по RL есть что-нибудь строго математическое почитать?
>>52917
Потому что на нем бабло делают. Нет обмана, если ты сам во всем разобрался и себе запилил AI, ты тогда понимаешь, как всё работает. Если ты пользователь AI, то конечно тебе коммерческий разработчик любую хуйню может говорить, что это "на самом деле интеллект! он думает!", лишь бы ты пользовался его сервисом.
Потому что на нем бабло делают. Нет обмана, если ты сам во всем разобрался и себе запилил AI, ты тогда понимаешь, как всё работает. Если ты пользователь AI, то конечно тебе коммерческий разработчик любую хуйню может говорить, что это "на самом деле интеллект! он думает!", лишь бы ты пользовался его сервисом.
>>53078
Ну да, раньше ведь под ИИ совсем другое понимали, сильный
ИИ, а теперь понятия подменили, опустили так сказать планку и впаривают ИИ, который вовсе не тот самый ИИ.
Ну да, раньше ведь под ИИ совсем другое понимали, сильный
ИИ, а теперь понятия подменили, опустили так сказать планку и впаривают ИИ, который вовсе не тот самый ИИ.
>>53081
Развитой социализм.
Развитой социализм.
>>2126 (OP)
Почему стастистики очень не любят всех этих машинно обучателей?
Почему стастистики очень не любят всех этих машинно обучателей?
>>53282
Почему не любят? Я такого не наблюдал.
Почему не любят? Я такого не наблюдал.
а есть ок онлайн курсы по оптимизации/дискретке, где нормально так разжевывают? Можно и даже желательно - в бурже. Спасибо.
>>55039
есть хорошие лекции у MIT
есть хорошие лекции у MIT
>>4565
Дай телегу
Дай телегу
>>2126 (OP)
блин а я только хотел дочитать про аль хоризми книгу и потом начать смотреть курсы шада, что бы вкатиться в яндекс помощником младшего джуниор старжера ручного тетсирования чистки унитаза в который ходят по малой и большой нужде настоящие программисты.
А оказывается шад почему то тут не любят.
Так а в чем с ним проблема?
блин а я только хотел дочитать про аль хоризми книгу и потом начать смотреть курсы шада, что бы вкатиться в яндекс помощником младшего джуниор старжера ручного тетсирования чистки унитаза в который ходят по малой и большой нужде настоящие программисты.
А оказывается шад почему то тут не любят.
Так а в чем с ним проблема?
>>63215
При чём тут "проблема" или "не любят"? Просто это не по теме доски, с тем же успехом мы могли бы тут обсуждать авиаучилища или курсы сварщиков.
При чём тут "проблема" или "не любят"? Просто это не по теме доски, с тем же успехом мы могли бы тут обсуждать авиаучилища или курсы сварщиков.
Кто здесь?
>>63631
Ну я пишу же, я думаю написано одно, а имеется ввиду количество.
Ну я пишу же, я думаю написано одно, а имеется ввиду количество.
>>64083
Да ну, там прямо пхд по математике защищаются? Я не очень в кусе статистики, но после беглого взгляда на программу шада сложилось впечатление, что это что-то вроде профильного бакалавриата, только без общих предметов.
Да ну, там прямо пхд по математике защищаются? Я не очень в кусе статистики, но после беглого взгляда на программу шада сложилось впечатление, что это что-то вроде профильного бакалавриата, только без общих предметов.
Двач.hk не отвечает.
Вы видите копию треда, сохраненную 12 сентября в 00:46.
Скачать тред: только с превью, с превью и прикрепленными файлами.
Второй вариант может долго скачиваться. Файлы будут только в живых или недавно утонувших тредах. Подробнее
Если вам полезен архив М.Двача, пожертвуйте на оплату сервера.
Вы видите копию треда, сохраненную 12 сентября в 00:46.
Скачать тред: только с превью, с превью и прикрепленными файлами.
Второй вариант может долго скачиваться. Файлы будут только в живых или недавно утонувших тредах. Подробнее
Если вам полезен архив М.Двача, пожертвуйте на оплату сервера.