Этого треда уже нет.
Это копия, сохраненная 19 сентября 2018 года.

Скачать тред: только с превью, с превью и прикрепленными файлами.
Второй вариант может долго скачиваться. Файлы будут только в живых или недавно утонувших тредах. Подробнее

Если вам полезен архив М.Двача, пожертвуйте на оплату сервера.
НЕЙРОНОЧКИ И МАШОБ ТРЕД №?.6 /ai/ 1226323 В конец треда | Веб
Очередной тред про хипстерские технологии, которые не работают.
Продолжаем выяснять, кто двигает ноуку: толпы смузихлёбов или фундаментальные деды.

FAQ:
Я ничего не понимаю, что делать? Либо в тупую import slesarplow as sp по туториалам, либо идти изучать математику курсы MIT тебе в помощь. Не нужно засирать тред вопросами типа "что такое сигма?".
Какая математика используется? В основном линейная алгебра, теорвер и матстат, базовый матан calculus многих переменных.
Что почитать для вкатывания? http://www.deeplearningbook.org/
В чем практиковаться нубу? http://www.deeplearning.net/tutorial/ | https://www.hackerrank.com/domains/ai | https://github.com/pytorch/examples
Где набрать первый самостоятельный опыт? https://www.kaggle.com/ | http://mltrainings.ru/ | https://www.general-ai-challenge.org/
Где работать? https://www.indeed.com/q-deep-learning-jobs.html
Где узнать последние новости? https://www.reddit.com/r/MachineLearning/ | http://www.datatau.com/ На реддите также есть хороший ФЭК для вкатывающихся
Где посмотреть последние статьи? http://www.arxiv-sanity.com/
Где ещё можно поговорить про анализ данных? http://ods.ai/
Нужно ли покупать видеокарту/дорогой пека? Если хочешь просто пощупать нейроночки или сделать курсовую, то можно обойтись облаком. Иначе выгоднее вложиться в 1080Ti или Titan X.

Список дедовских книг для серьёзных людей:
Trevor Hastie et al. "The Elements of Statistical Learning"
Vladimir N. Vapnik "The Nature of Statistical Learning Theory"
Christopher M. Bishop "Pattern Recognition and Machine Learning"
Взять можно тут: http://libgen.io/

Напоминание ньюфагам: персептроны и прочий мусор середины прошлого века действительно не работают на серьёзных задачах.

Архивач:
http://arhivach.cf/thread/340653/
http://arhivach.cf/thread/355442/
http://arhivach.cf/thread/360889/
http://arhivach.cf/thread/366809/
http://arhivach.cf/thread/368934/

Там же можно найти треды 2016-2017 гг. по поиску "machine learning" и "НЕЙРОНОЧКИ & МАШОБЧИК"

Предыдущий тред: >>1209084 (OP)
2 1226345
3 пик мемный
3 1226379
Антоны, чем хайповая Рекурсивная Кортикальная нейросеть лучше, чем автоэнкодер? Он ведь тоже делит картинку на части и ищет закономерности.
Или у них вся суть в особой архитектуре?
4 1226386
>>26379

>Рекурсивная Кортикальная нейросеть


че
5 1226387
6 1226389
>>26387
Блять, как криво работает вставка.
http://science.sciencemag.org/content/358/6368/eaag2612.full
sage 7 1226398
>>26389
Статья за пейволом, иди нахуй.
8 1226410
>>26389
А, Vicarious, это NTM-образная штука. Ничоси, они в Science опубликовались. При чем тут автоэнкодер не знаю, "делит картинку на части и ищет закономерности" это какое-то абсурдно-примитивное описание работы автоэнкодера. На таком уровне ничем, наверное, не отличается. Еще они оба компьютерные программы.
9 1226413
>>26398

>40018


>не иметь подписочки на сцыенс


Плеб, плис.
10 1226415
Sci-hub отменили?
sage 11 1226421
>>26413

> 2018


> считать приемлемым ограничивать доступ к научным статьям

12 1226442
>>26421
Да я тоже ни за что не плачу в интернете, лол
13 1226448
>>26410
Эм, а что за NTM?

>При чем тут автоэнкодер не знаю, "делит картинку на части и ищет закономерности" это какое-то абсурдно-примитивное описание работы автоэнкодера.


Это к тому, что я не особо понял, как оно работает и из описания сразу вспомнил про автоэнкодер, мне показалось, что принцип работы похожий. А описание такое, потому что у меня некоторые проблемы с формулированием мыслей, извините.
14 1226450
Правительство выделяет деньги на развитие науки и благополучно распиливает налоги на исследованиях которые никого не интересуют.
@
Почему это правительство должно платить авторам статей, в которых кто-то заинтересован и хочет прочесть? Мы что, коммунисты?
15 1226456
>>26450
Деньги за доступ к статье получают издательства (картельный сговор), а не авторы.
И если уж деньги на науку идут народные (налоги), то и результаты должны быть доступны этому самому народу.
16 1226458
Как добавить количество скрытых слоев? Скрытые слои - это количество итераций скрытого слоя?
17 1226462
>>26458
Это размерность симплициальной резольвенты.
18 1226464
>>26462
абеленизацию берем?
19 1226466
>>26464
Только если сначала тензорно умнажаешь
Untitled.png12 Кб, 645x386
20 1226467
Каким графиком выравнивать output значения?
У меня пикрелейтед. Что скажете?
21 1226468
>>26466
умножил, получил гомологии группы G
22 1226474
>>26448
HTM, я описался. Hierarchical Temporal Memory. Это старая модель, которую эти люди разрабатывают многие годы, основана на некоторых идеях о том, как может быть устроен неокортекс (область мозга). Авторы и их последователи считают, что это потенциально более интересное направление, чем, например, нейроночки. Мнение это оспаривается многими интернетными экспертами. Основная причина сомнений была в том, что преимущества модели не были продемонстрированы на практике.
Ну вот теперь они сделали эту штуку с капчей. Стоит признать, это довольно круто, хотя тест все равно синтетический, в то время как изначально предполагалось, что модель как бы будет более терпима к шумным real-world данным.
У меня отношение скорее скептическое. Еще у них постоянные попытки коммерциализировать это, какие-то непонятки с оупенсорсом - вроде бы они всегда выкладывают не самые крутые и последние наработки, кароч мутновато.

Если ты прочел только основную статью в саенсе, то неудивительно, что ничего не понял. В таких журналах основной текст это скорее что-то вроде расширенного абстракта. Вся суть статьи, технические детали и описания в supplementary materials. Читай их, может станет понятнее.
23 1226475
>>26456
Они и доступны. Полтинничек заплати и читай себе. Или тебе еще бесплатный интернет, компьютер предоставить?
24 1226491
>>26475
Ты хуйни не неси. Сейчас бы копротивляться за шекели (((правооблядайтеров))), которые в науке вообще посторонние паразиты и проходимцы, стригущие бабло с исследователей, читателей и со всех остальных, до кого могут дотянуться своими загребущими ручонками.
25 1226493
>>26491
Бвахаха, полюбуйтесь на этого копротивленца, который как обычно не имеет ни малейшего представления, о чем говорит. Их кто-то под дулом автомата заставляет в Саенс статью посылать? Вон у них целый вебсайт есть, выкладывайте туда, или на гитхаб вообще бесплатно для всех. Посылай на конфу, там тебе найдут пару студней сделать пир ревью. Но нет, поди ж ты, они шлют в саенс, сами себе враги, наверное.
26 1226518
>>26493

>Саенс


Вангую, эту парашу никто не читает, там только публикуют.
27 1226560
8 часов, 6 тысяч эпох - много для обучения однослойной сети?
28 1226610
>>26560
Если ты ищешь бозон хиггса для ЦЕРН, то еще может быть в пределах нормы, а если это какой-то ирис или мнист, то ты где-то накосячила.
29 1226767
Покажите выходные значения из правильно обученной нейронки с активацией 0-1. Они должны быть ближе к 1 или к 0?
30 1226771
>>26767
Что такое активация 0-1? Если у тебя функция активации возвращает только 0 или 1, то выходным значением может быть только 0 или 1, никаких ближе или дальше. Но в этом есть смысл только если ты работаешь с простой задачей вроде XOR.
В любом случае, какой лейбл у входящих данных, такой должен быть и выход. Если у тебя one-hot encoding, то на выходе бери то у чего значение ближе к 1.
31 1226938
http://www.deeplearningbook.org/
А эта книга - это уровень введения семестровый или чуть больше этого?
32 1226939
>>26398
sci-hub же есть лол
33 1226945
>>26938
Это полный курс. Там очень много материала, включая довольно новые модели, изложено довольно плотно местами. За семестр с нуля ты точно не сможешь все прочитать с пониманием, за год тоже вряд ли.
34 1226946
>>26945
Отлично. Спасибо. Просто чтобы понимать корреляцию между объемом текста и сроком обучения
35 1226950
Да что с вами всеми не так? Все вопросы в треде формулируются каким-то дебилом или стремящейся нейронкой. Научитесь выражать свои мысли и пользоваться поисковиками, может вы потому и не можете ничего найти что гугол понять вас не может.
>>26938
Что такое уровень введения семестровый? Это очень хорошая книга, с объяснением теории от начал математики до обзора базовых моделей, на которых стоит машобчик, включая модные и свежие. Ты можешь осилить ее за семестр, но фактически пройдешься по верхам, а впереди тебя будет ожидать имплиментация всего этого счастья (вот тут начинается реальное понимание), практические проблемы, попытки в свой пет-проджект, боль, унижения и годы (да, это не веб-макакинг, быстрого вкатывания не существует) тяжелой работы и чтения пейперов. Если тебе это нужно для того чтобы зарабатывать на хайпе, то я с удовольствием посмотрю на твои мучения, а если тебя увлекает тема, то ты бы не задавал тупых вопросов и не рассчитывал быстро проскочить.
36 1226952
Вы были ошибкой и ваши родители вас не хотели.
37 1226971
Нужен Демидович по нейроночкостроению.
38 1227026
That $35 that scientific journals charge you to read a paper goes 100% to the publisher, 0% to the authors. If you just email us to ask for our papers, we are allowed to send them to you for free, and we will be genuinely delighted to do so.

https://twitter.com/hwitteman/status/1015049411276300289
39 1227071
Насколько реалистично чтобы разные модели, например, простая многослойная нейроночка и рандом форест, классифицировали по примерно одинаковым фичам? Тоесть, если есть 100 фич, то топовые feature importance будут у одинаковых 10 в разном порядке.
40 1227080
На выходной нейрон [1] (индекс с нуля начинается) всегда приходят значения многократно выше (~ в 40 раз) чем на все остальные. Как следствие - он умирает сразу. Что делать?
41 1227081
Однослойная сеть. Как увеличить количество слоев?

Начало цикла,
форвард,
бэк,
сохранение веса.

Больше одного слоя - это форвард и бэк в цикл for взять?
42 1227087
>>27080
Gradient clipping?
43 1227088
>>27081
Да. И размерности увеличить.
44 1227098
>>27087
Спасибо.
45 1227119
>>27071
как ты у нейронки получишь feature importance? мне кажется, можно визуализировать, интерпретировать и тд, но прям фичи не получишь
47 1227210
>>27119
Таки взял натренированную сеть и скармливаю ей один датасет той же размерности, но в каждой итерации заменяю один столбик на его среднее значение, тоесть убираю фичу и смотрю на результат. Рокет саенс.
48 1227218
>>27147
Симуляции? Поди марковские цепи с монте Карло дрочат.
49 1227229
>>27147
Вот удивили то!
ничоси.jpg24 Кб, 520x369
50 1227413
51 1227765
В статьи все еще вставляют псевдокод или уже можно листинги на питоне?
52 1227792
>>27765
Код кладешь на гитхаб, в статью ссылку. Псевдокод в тексте тоже приемлемо.
53 1227806
Перепробовал разное количество слоев, разные функции активации. Она не работает. Что не так?
54 1227812
>>27806
Обучать не пробовал?
55 1227816
А что вообще такое Data Science?
56 1227818
>>27816
Нейроночки
57 1228080
>>27816

>А что вообще такое Data Science?


Мартышка к старости слаба мозгами стала;
А у людей она слыхала,
Что это зло еще не так большой руки:
Лишь надо применить нейронОчки.

Все модные нейронОчки себе она достала;
Вертит нейронОчки и так и сяк:
То тренирует их, то стопицот слоев нанижет,
То их в ансамбль соберет, а то полижет;
НейронОчки не действуют никак.

"Тьфу пропасть! — говорит она, — и тот дурак,
Кто на ютубе смотрит врак:
Всё про нейронОчки индусы мне налгали;
А проку на-волос нет в них".
Мартышка тут с досады и с печали
Делитом так хватила их,
Что только файлы засверкали.
58 1228261
Есть ли смысл делать гридсерч с N эпохами и кросс-валидацией k-fold из тренировочного сета, а затем выбирать лучший эстиматор и обучать его до early stopping или N*10 эпох, с валидацией на предварительно отделенном валидационном наборе?
59 1228385
>>28261
Гридсерч чего? Гиперпараметров? Нет. Например, ты learning rate так выберешь слишком большой, а он за собой потянет все остальные гиперпараметры.
60 1228388
>>28385
Гиперпараметров. А если вынести learning rate и через callback кераса уменьшать автоматически?
61 1228392
>>28388
Learning rate это лишь самый очевидный пример. Все остальное тоже будет неоптимально в общем случае. Гарантий нет.
62 1228429
True positive rate это то же самое что и recall?
63 1228518
>>28392

> Все остальное тоже будет неоптимально в общем случае. Гарантий нет.


Потому что нейроночки это машоб курильщика. Подрочить вприсядку с бубном, авось сойдется.
64 1228519
>>28518
Тоесть, другие модели так можно тюнить? Или ты просто стриггерился на нейроночки?
65 1228520
>>28518
Что лучше?
66 1228522
Я разобрал каждый шаг. Теперь не понимаю ещё больше. Не конволюшен сеть с фидфорвардом для предикшена да-не. Зачем делать скаляр на входе? А как ещё? Если скармливать не картинку, а какие-то данные, то как тогда делают? Тоже что-ли просто умножают все?
67 1228545
Мне нужен список сопоставлений. Например: "как найти тян" разбивалось на слова и лексемы и классифицировалась. Есть же что-то что отделит "как найти" - вопрос, "тян" - женщина? Как это делают?
68 1228565
Как найти причину почему сеть не может? Доходим до 20%
69 1228652
>>28545
Морфологический разбор речи? Вроде учат в школе.
70 1228656
Поясните что такое lesswrong и что они делают. Все чаще замечаю пиар на дваче. Они вроде хотят сделать йобаИИ, по этому здесь и спросил.
71 1228680
>>28656
Юдковский растекается мыслями по поводу того как работает человеческое сознание и полагает что его выводы делают понимание интеллекта lesswrong, большинство статей оттуда или обозревают и систематизируют выводы из когнитивистики, или не несут никакой пользы и абсолютно гуманитарны, а из того что представляет интерес получилось собрать годный фанфик по Гарри Поттеру, который этот самый lesswrong и распиарил. Для тех кто не может в английский есть перевод статей.
И в любом случае ты ошибся тредом.
72 1228717
Где прочесть про дисперсию из мат. статистики?

Я не могу понять, в чём её смысл? А именно почему разность между очередным значением и средним значением возводится в квадрат, а не берется по модулю? И что мне показывает полученное значение дисперсии? И почему процедура получения дисперсии именно такая?
73 1228727
>>28717
Можно брать и по модулю, это просто другое определение расстояния в пространстве(метрики). Просто квадраты сильнее "штрафуют" за отдаление от среднего значения.
74 1228728
http://www.machinelearning.ru/wiki/images/6/6d/Voron-ML-1.pdf

Ребята, хорошее введение в машинное обучение?
75 1228736
Вот я какой раз уже вижу тут гениев, которые лезут содомировать нейроночки, при этом понятия не имеют, что такое сигма, дисперсия итд азы. Вот просто по аналогии - много ли можно понять у какого-нибудь Достоевского, не зная русского даже не языка, а алфавита?.. По теорверу есть очень годный учебник Вентцель.
>>28717

> Я не могу понять, в чём её смысл?


Разброс значений случайной величины.
76 1228738
>>28736

>Вот просто по аналогии - много ли можно понять у какого-нибудь Достоевского, не зная русского даже не языка, а алфавита?..


Да
77 1228739
>>28736

>учебник Вентцель.


576 стр лол
Надо с более простых вещей начинать, чтобы не пугать человека. Каких-нибудь вводных курсов по теорверу ВШЭ или МГУ более чем достаточно.
78 1228742
>>28728
Ты же понимаешь что русских ноунеймов никто читать не будет? Может и хорошее, но можно просто взять http://www.deeplearningbook.org/
79 1228749
>>28728

> Ребята, хорошее введение в машинное обучение?


Воронцов штоле? Лол, навернешь у него вариационного исчисления с первой страницы без объяснений что вообще происходит.
80 1228769
>>28727

>Просто квадраты сильнее "штрафуют" за отдаление от среднего значения.


Спасибо за ответ. Я бы понял такое объяснение в случае не с дисперсией, а, например, с квадратичной функцией потерь, что там надо оштрафовать то, что сильно отклонилось от правильного ответа. Но вот с дисперсией - нет. Не пойму за что штрафовать? Зачем? Не могу осилить понимание механизма, который делает дисперсию правильной именно с квадратом, а не с модулем.

>>28736
Благодарю за ответ.

>По теорверу есть очень годный учебник Вентцель.


Так то теор.вер., а я про мат. статистику хотел узнать. В теор. вере. формула дисперсии в другая, чем в учебниках мат. статистики. Например, в теор. вере ряд распределения дан с величинами и вероятностями. А мат. статистике просто ряд со значениями.

Вентцель просто дает формулу, вот формула дисперсии, пользуйтесь. А почему квадрат, а не модуль там не говорится.

>Разброс значений случайной величины.


Не могу смысл найти, разброс можно было бы и модулем померить, а тут квадрат.
81 1228776
>>28749

>вариационного исчисления


Первый семестр теормеха
82 1228961
>>28776
Не все учились в лицеях.
83 1228995
>>26323 (OP)
Есть у коо полные ответы на Pattern Recognition and Machine Learning?
84 1229044
У меня на все нейроны одинаковый bias, одна и та же функция активации. Так никто не делает что ли? Каждому нейрону свой коэффициент? Зачем?
85 1229045
>>29044
Каждому слою нейронов нужен свой bias, почитай что это такое прежде чем использовать. В каждом треде этот вопрос, пора его в шапку.
86 1229053
>>27210
Ок, ступил, хотя это больше для мниста, тогда высокая вероятность, если это не какое-нибудь умножение или другая хитрая корреляция, но это ты и сам знаешь
87 1229059
>>29045
Картинка, из нее скаляр * количество слоев + смещение и активация тангенсом. Я на выходе имею четкое отделение одного от другого. Зачем разный bias, если если я уже контрастно отделил одни числа от других? Смысл честно говоря не пойму.
88 1229082
>>29059
Проблема в том, что науканы не пытаются понять, что делает нейронка. Они рассуждают примерно так: "Ну кароч нейрон что-то делает, хуйзнает, но мы его аппроксимируем линейной функцией, чтобы сильно не напрягаться. Поэтому у нас два параметра для обучения - вес и bias. А чтобы херни на выходе не получалось, мы края обрежем нелинейностью - сигмоид, тангенс, ReLU, похуй ваще, сами разбиратесь, нам это неинтересно."
89 1229088
>>28656
Ты спрашиваешь про MIRI. Они там какие-то формулы придумывают, чтобы оценивать злобность/дружественность ии, или может просто деньги пилят.
90 1229089
>>29082

> Они рассуждают примерно так: "Ну кароч нейрон что-то делает, хуйзнает, но мы его аппроксимируем линейной функцией, чтобы сильно не напрягаться.


Это ты так рассуждаешь, мань. Полно работ по биологическим аспектам нейрона, начиная с того же Розенблатта и Маккаллока с Питтсом. Вместо того, чтобы тут кукарекать, ознакомился бы.
91 1229098
>>29089

>работ по биологическим аспектам нейрона


А самолет изобрели зоологи
92 1229099
>>29098
и делают его из перьев
93 1229101
>>29098

> А самолет изобрели зоологи


Тебя зоологи изобрели, судя по всему. Хоть бы с историей идей машоба ознакомился, прежде чем срать здесь.
94 1229107
>>29101

>прежде чем срать здесь.


Смешно шутишь.
Насрал тебе на голову, кстати.
Маняматика нинужна, ЖС лучший и единственный язык, Путин - президент мира.
95 1229152
>>29101
Что делает первый слой свертки в ResNet?
96 1229166
>>29101

>Тебя зоологи изобрели, судя по всему.


Орнул
97 1229175
>>29089

>Розенблатта и Маккаллока с Питтсом.


И чо и чо, как успехи у пасанчиков, соснуле?
98 1229183
>>29089

>Это ты так рассуждаешь, мань. Полно работ по биологическим аспектам нейрона, начиная с того же Розенблатта и Маккаллока с Питтсом. Вместо того, чтобы тут кукарекать, ознакомился бы.



Это где относительно недавно глиальные клетки начали изучать и только десяток лет назад поняли, что это не просто балластный жирок?

А котематики уже кококок кучу моделей абстрактного говна нахуярили по мотивам старых исследований.
99 1229186
Надо математику выучить от самого начала...
100 1229188
>>29186

>от самого начала...


И до самого конца
101 1229189
>>29183

Кстати, у маняматиков на теме открытий в области нейроглии тут же обосратушки-перепрятушки и новые охуительные истории пошли, внезапные откровения озарили, бгг:

https://hal.inria.fr/hal-01221226/document
102 1229190
>>29183

>Это где относительно недавно глиальные клетки начали изучать и только десяток лет назад поняли, что это не просто балластный жирок?


Кстати, а почему вся эта ученая пиздобратия считает, что мышление происходит в мозгу?
103 1229192
>>29190

Да хуй его знает. У них самих из инструментов познания - только жидорептилоидные маняматика, да манялогика, которые им время от времени подгоняют. А потом отвлекают внимание на этих лошар, дескать они агенты зога. Лошары они слепошарые. Вот маняматики те да - чистые рептилии. Того же Перельмана вспомнить, как он способ управления миром по его словам открыл.
104 1229196
>>29192

>них самих из инструментов познания


Есть же интроспекция - йога для бедных.
105 1229197
>>29196

>Есть же интроспекция - йога для бедных.



Тоже в плену формальной и неформальной логик.
106 1229200
>>29188
Это не обязательно.
107 1229212
>>29197
Намного эффективней, чем хуярить мышь током и смотреть какие там у ней участки мозга закоротило, ну это физиологи допустим, а маняматики, какие у них эксперементы? Если они пытаются в аналогию мозга, то почему они не наблюдают за его работой? Откуда они понапиздили всюе эти нейроны и перцептроны?
108 1229276
>>27210
>>29053
но, хотя я и ступил, но это же не дает тебе фича импотанс в прям уж чистом виде, с тем же успехом можно просто смотреть веса первого слоя, как в простой регрессии
http://explained.ai/rf-importance/index.html
109 1229278
>>29190
не знаю, зачем я тебе отвечаю, но потому что есть (и очень много) экспериментальных данных, как люди теряют способность к разным аспектам мышления при травмах головного мозга, и это просто из самых базовых объяснений
110 1229283
>>26323 (OP)
и предлагаю из названия следующего треда убрать слово "НЕЙРОНОЧКИ", оставить только машинное обучение
111 1229286
>>29283

> предлагаю из названия следующего треда убрать слово "НЕЙРОНОЧКИ"


Изначально его там и не было. Это позже петросянство началось. Диплернинхбук из этой же области, абсолютно непригодные для начинающего объяснения как работают те же сверточные сети.
112 1229293
>>29278

>теряют способность к разным аспектам мышления


Это хуяня, а не объяснение. Если ты у радио выбросишь пару деталей, оно начинает хуево работать, но это не значит, что радиостанция находится внутри него. Веятного объяснения того, что мозг является мыслительным органом нет.
113 1229296
>>29293

>Веятного объяснения того, что мозг является мыслительным органом нет.


В человеке мыслит душа, а не мозг
114 1229298
>>29293
Но мозг - не радио.
115 1229300
>>29298
Алсо, да покормил.
116 1229301
>>29298

>Но мозг - не радио.


Ты скозал?
117 1229304
>>29301
Да, я. Ты сперва докажи, что он радио, а потом поговорим. Если радио посадить в среду с изолированным внешним сигналом, то оно нихуя работать не будет, а человек будет.
Да, я поговорю с шизиком.
118 1229305
>>29304

> Ты сперва докажи


Нет, это уж ты докпжи, что там происходят мыслительные процессы.

>изолированным внешним сигналом


Кто тебе про электромагнитные волны говорил, мань?
119 1229310
>>29305
Активность нейронов, зависимость восприятия и мышлительных процессов от различных дефектов в строении нейронов. Других доказательств нет и пока кто-либо не предоставит другие, то все будут считать, что вычисления проходят в мозге.
1531383722184880479.png91 Кб, 400x411
120 1229314
>>29310

>Других доказательств нет


>то все будут считать, что вычисления проходят в мозге.


Обожаю современную науку
121 1229316
>>29314
А ты можешь предположить что-то лучше?
122 1229318
>>29316
Могу предложить только одно - перестать матанопетухам наебывать людей. Вся эта нейронная билиберда чистый маркетинг, не имеющий отношения ни к мозгу ни к живым существам.
123 1229319
>>29318

>Вся эта нейронная билиберда чистый маркетинг, не имеющий отношения ни к мозгу ни к живым существам.


Докажи
124 1229320
Аноны, кто-нибудь работал с Keras?
Как там подготовить свои данные,
то есть не скачивать готовое https://keras.io/datasets/ ,
а подготовить свои текстовые данные,

собираюсь заниматься анализом текстов с помощью построения RNN с LSTM, не понимаю как вообще организовать папку с данными, где есть данные и лейблы,
в документации ничего об этом не нашел, там пишут, мол качайте готовое, для вас быдла уже все сделано
125 1229324
>>29319

>Докажи


Кампутервижин, НЛП, аутономусвехиклс, все это не работает.
126 1229329
>>29324
И? Это не является доказательством.
127 1229335
>>29329

>Это не является доказательством


Тоесть, когда ученые столько лет лепят пули из говна, а они не стреляют, нужны еще какие то доказательства?
128 1229337
>>29335
Да.
129 1229339
>>29337
Например?
130 1229342
>>29339
Другая теория, которая бы смогла опровергнуть современные взгляды.
131 1229344
>>29342
Пока ее не появится, вы будете делать пули из говна?
132 1229345
133 1229351
>>29320
Не совсем понятен вопрос. Упрощая - все данные это таблицы (и ты можешь невозбранно ручками скачать много таблиц ну хотя бы с kaggle). Это может быть база данных, а может быть csv файл, но это таблица с текстовыми данными. Если хочешь работать с текстами, создавай файл text.csv в котором первый столбик заполняй... текстом, это твои Х, а второй столбик лейблами, это твои Y, затем с помощью например pandas read csv ты загружаешь эту таблицу в программу, и например через train_test_split из библиотеки sklearn получаешь точно такие же массивы тренировочных и тестовых данных которым тебя уже приучил керас.
Картинки (и любые другие данные) обрабатываются абсолютно таким же образом, ты берешь файл картинки, делаешь из него строку или двухмерный массив со значениями пикселей от 0 до 255 (в черно-белом варианте) или трехмерный от 0 до 255 для каждого цвета rgb (спойлер, их три), хотя конечно я тебя никак не ограничивая и ты можешь представить картинку как побитовую запись файла или его хеш или как тебе приспичит, это дата саенс, детка. Запиши все это в первый столбик таблицы, а лейблы во второй и все. Дата саенс это не распознавание негров на однообразных данных, это обработка и анализ данных так чтобы из них начало получаться что-то стоящее, а использовать можно хоть линейную регрессию или деревья, деревья вообще тащат а XGB топчик. Перестань бояться данных, они твои бро.
134 1229382
Как обучать свою внутреннюю нейроночку?
135 1229386
>>29382
Скармливай данные и лейблы, все. У нее годная архитектура, может научиться хоть лисьим хвостом управлять, хоть языком смотреть.
136 1229397
>>29382
Поощряй за успехи, давай пиздюлей за ошибки.
137 1229450
>>29351
хочу вот так же сделать, но со своими данными,
https://pastebin.com/bUXeqqaE
вот только не могу понять как их готовить

>sklearn


>pandas


можно ли как-то то же самое сделать через спарк и керас?
мне именно с ними надо работать,
ну типа спарком можно как-то обработать сырые данные и дать их на растерзание питоновскому скрипту, потестить разные параметры сети и разные архитектуры,
а потом самую удачную переписать на нативной спарковской библиотеке MLlib на Scala,
у меня такой план
138 1229468
>>29450
Ты можешь это сделать через стандартную библиотеку питона, но зачем? Я тебе про идею, ты мне про инструменты. Это не веб-макакинг где нужно учить новые фреймворки каждые два года, pandas и все что входит в scipy это стандарт, к тому же, тебе всего пара функций нужна оттуда - сперва ты обрабатываешь данные, а потом используешь спарк, керас и что угодно, это два разных процесса в большинстве случаев. Керас просто не предназначен для препроцессинга на таком уровне, он упрощает какие-то специфические моменты в работе со строками и изображениями, но уже после того как по ним прошлись pandas или sklearn.
Кажется, тебе сперва нужно вообще разобраться с тем что такое данные и что такое эти ваши нейроночки, если у тебя нет представления о том что такое X_train.
139 1229479
>>29468
хорошо,
а как придумать лейблы, если я собираюсь анализировать серверные логи,
например, "ERROR", "INFO" и "WARN" это хорошие лейблы?
140 1229483
>>29479
0, 1 и 2 это хорошие лейблы. Начни с http://www.deeplearningbook.org/
141 1229488
>>29483
хорошо,
спасибо
142 1229489
>>29483

> 0, 1 и 2 это хорошие лейблы. Начни с http://www.deeplearningbook.org/


В диплернинхбук такое пишут? Хорошие лейблы это н-р "1 из N", https://en.wikipedia.org/wiki/Constant-weight_code А 0 1 и 2 будут просто непрерывными значениями как при регрессии.
143 1229490
>>29489
One-hot encoding тоже один из стандартных метов и в диплернинхбук о нем пишут.
144 1229528
Почему не могут замутить нейронку, с помощью которой модно было бы говорить с животными?
Мне бы пригодилось, еще диплом сдавать и общаться с "преподавателями" в вузеке
145 1229639
Почему часто в статьях приводятся результаты для валидационного сета? Всмысле, есть резон следить за показателями пока проводятся эксперименты чтобы отловить какие-то косяки, но в качестве результатов эта информация кажется бесполезной.
146 1229644
>>29639

> Почему часто в статьях приводятся результаты для валидационного сета?


Потому что они показывают, что модель правильно обучена и может обобщать, т.к работает на данных, не использовавшихся в обучении.
147 1229649
>>29320
Ну потому что Keras таки для нейронных сетей, а методов препоцессинга в нем не много. Тебе лучше почитать про то, как готовить данные к ML в целом и как лучше векторизовать тексты в конкретной задаче, почитать про numpy, sklearn, pandas, попробовать чей-нибудь простое типа tf-idf и прочего, а потом открыть для себя doc2vec, word2vec, language models и прочее.
Мимо-нлпшник
148 1229653
Систему переустанавливал. Не занимался этим день.
Давайте с начала. Нужно получить да или нет ответ. На вход делаем цифры в каком-либо виде. Для контрастности добавляем смещение, активацией выравниваем. Цифры будут разделены на две группы. Зачем делать слои, менять learning rate и разные активации на каждом слое? Или вы получаете больше чем да-нет?
149 1229683
>>29653
Да-нет это бинарная классификация. Есть классификация с множественными классами, есть регрессия, есть аппроксимация плотности распределения, априори неизвестной. В зависимости от задачи делается датасет и подбирается подходящий алгоритм, пусть хоть нейроночки эти ваши. Хотя я абсолютно уверен, что если задача не в том что бы негров распознать или котиков под Пикассо разрисовать, можно не изьебываться с сотнями слоёв, достаточно простой SVM.
150 1229794
Обойдите уже гугл капчу, я заебался эти машинки целыми минутами выбирать блять это пиздец. Хорошо хоть здесь есть нормальная капча.
151 1229816
>>29794
Был же скрипт, который в гуглокапче включал аудио вариант и использовал для его распознавания сервис самого гугла.
152 1229817
>>29816
Они включили йобазащиту, когда просто банят и не дают ввести капчу
153 1229826
>>29528

>21 век


>не умеет общаться представителями своего вида


Какие тебе нейроночки, ты же сам животное, лол
154 1229853
Почему не сделают вокалоида как гугл мужика? И наоборот
155 1229873
>>29649

>Мимо-нлпшник


Привет, ты тот анон с дисером? Как успехи?
156 1229895
>>29644
Это показывают данные из тестового набора, а валидационный таки использовался... ну... для валидации по ходу обучения.
157 1229912
Почему в ёлу нельзя вставить большую картинку инпут? Эксепшен вылетает.
158 1229963
>>29895
потому что эти статьи неправильные, а их модели оверфитнутые, но никто не проверяет же
159 1229979
>>29963
Нет, в статьях идут таблицы и графики средних результов и тестов, и валидаций.
160 1230119
А расскажите, где нищему студенту можно взять сервер, чтобы там можно было установить все нужные библиотеки и погонять на нем нейронки? Зимой на месяц брал триал Azure, не разобрался, как получить студенческий доступ, и забил после окончания бесплатного доступа. Есть какие-то фри решения? Огромные вычислительные мощности не нужны.
161 1230122
>>30119
Ты профнепригоден, если даже со студентческой халявой разобраться не можешь
162 1230126
>>30122
Там попросили номер карты, я ввел, потом сообразил, что вообще-то могу получить студенческий доступ, создал новый аккаунт, а карту перепривязать не удалось.
163 1230156
>>30126
Ну напиши им в техподдержку
164 1230253
Я знаю что старые алгоритмы вроде деревьев продолжают усовершенствовать всякими ансамблями, а что с генетическими алгоритмами? Они мертвы или просто потерялись за хайпом нейроночек?
165 1230259
>>30253
Их отдельные энтузиасты пилят понемногу. https://journal.r-project.org/archive/2017/RJ-2017-008/ например. Не думаю, что тема мертва, там ещё есть куда расти и вообще, сама идея ГА (эволюционные методы оптимизации) интересна.
166 1231293
Прочел вот этот пост https://habr.com/post/334380/. В разделе про автоматическое дифференцирование, показывается, как вместе со значением функции сразу вычисляется градиент, без backprop-а. Однако затем есть пример, где вызывается backward. Зачем, если градиент параллельно считается?
167 1231300
>>31293
Ты не понял, что там написано. Не расстраивайся, просто описание слишком поверхностное.

>вместе со значением функции сразу вычисляется градиент


Не вычисляется градиент, а строится граф для его вычисления. Т.е. символьно вычисляется выражение. Потом этот граф нужно исполнить, чтобы вычислить значение.
168 1231548
Программа делает кое-что. Из программы приходит снимок экрана и что программа сделала. Это нужно засунуть в нейронку которая будет анализировать качество действий. Что мне нужно? Классификация?
169 1231551
>>31548
Deep reinforcement learning. Даже во всякие арканоиды и понги учат играть эти ваши гейроночки.
170 1231691
В Украине можно PhD получить?
171 1231711
>>31691
Получай.
172 1231743
>>28769

>Не могу осилить понимание механизма, который делает дисперсию правильной именно с квадратом, а не с модулем.


Дисперия случайной величины x есть по определению: Var x = E(x-Ex)^{2}, где E - оператор взятия среднего значения( математического ожидания) Предположим, мы считаем, что корректней определять дисперсия через модуль, т.е: Var x = E|x-Ex|. Раскрываем модуль: если x > Ex тогда |x - Ex| = x - Ex и наша новая "дисперсия" равна нулю, если x < Ex то тогда |x - Ex| = Ex - x, и наша дисперсия снова тождественно равна нулю. Таким образом наше определение, очевидно, несостоятельно.
173 1231781
>>30253

>что с генетическими алгоритмами?


Идешь сюда: http://gecco2018.uma.es/proceedings/gecco18_papers_toc.html
И качаешь свежие статьи с недавней конфы.
user: gecco2018
password: kyoto

В целом на чисто ml-задачах GP сосет. Самый модный алгоритм epsilon-lexicase selection на задачах регрессии работает в 6-20 раз дольше, чем xgboost и дает, как пишут в их бенчмарках https://github.com/EpistasisLab/regression-benchmark чуть лучший результат.

Однако, что это за бенчмарки? Максимальный размер датасета на котором они тестировались был 1000 наблюдений на 100 признаках.

В общем пока представляет интерес только для соревновательного стекинга.
174 1231788
>>31743

>Предположим, мы считаем, что корректней определять дисперсия через модуль


Ты только что стандартное отклонение
175 1231801
>>26323 (OP)

>В основном линейная алгебра, теорвер и матстат, базовый матан calculus многих переменных.


At first i was like:

>HOLY SHEEEET THESE WORDS ARE TOO COMPLICATED


But then i:

>бля, я же по всему этому получил отлично в экономическом универе и даже через десяток лет всё помню и знаю большую часть


Тру стори, анончик. Как-то хожу сразу в нужные треды, а вот решил почитать и охуел изначально, чот трудна. И ушёл дальше. Вспомнил, что в шапке какой-то мемас есть и решил его понять. Прочитал ещё раз и охуел с того, что я же реально это всё великолепно освоил в универе.
Это ведь действительно глаза боятся, а руки делают.
Ещё один повод начинать кекать с моих одногрупников, которые "блееее, нахуй мне ваша матеша, она нинужна в иканомике" или "фу, ебучий эксель, КТО ИМ ВООБЩЕ ПОЛЬЗУЕТСЯ в экономике?". А теперь эти шакалы за 20к бумажки перекладывают в пыльных некондиционируемых офисах на самом деле, больше половины сидит по местным управлениям миллионника, а остальные съебали в другие страны, ведь направление было блатным и всех куда надо пристроили, только одна тян залетела от хуй пойми кого и в семью играет, ну и я, долбоёб, в кодерство ударился.
176 1231803
>>31781
Только в современных соревнованиях обычно миллионы примеров.
177 1231852
>>31801
А я не умею в квадратные уравнения.
178 1231856
>>31781
поцеловала в щечку
179 1232136
>>26323 (OP)
Ну почему я не учил математику в школе и не пошел на математическую специальность в вуз? Так хочется вкатиться в датасаенс, но не умею в английский и математику. Что делать, братцы?
180 1232143
>>32136
Увы, скорее всего, поезд ушел. Английский выучить не должно быть серьезным препятствием, можешь начать с него. Все равно пригодится.
181 1232170
>>26560

>однослойной сети


>2к18

182 1232171
>>29045
На самом деле каждому нейрону свой биас, деб.
183 1232173
>>30253
Это совершенно разные понятия. Нейроночки используют деревья как данные и иногда генетические как внутренние алгоритмы.
184 1232184
>>32171
Одинаковый для всего слоя.
185 1232185
>>32184
Почему?
186 1232186
>>32173
Это все алгоритмы машоба, ньюфаг, про деревья читай random forest (и прочие леса) и всякие xgboost (и прочие ансамбли). ГА внезапно тоже могут в машоб, просто очень медленно.
187 1232195
>>32186
Я прекрасно понимаю что это. Это совершенно разные понятия, которые к тому же относятся к машобу.
forman.jpg61 Кб, 720x951
188 1232246
>>32173

>используют деревья как данные

189 1232441
>>27026
Какая-то чушь. Иначе бы рыночек давно бы порешал такие журнальчики.
190 1232448
>>32441

> Какая-то чушь. Иначе бы рыночек давно бы порешал такие журнальчики.


Без публикаций в таких журнальчиках не сделаешь карьеры, вот и все. (((Владельцы))) таких журнальчиков настолько ушлые, что сами давно порешали рыночек.
191 1232466
>>32136
Двачую, хотя английский это ерунда.
192 1232492
>>32136
Если не секрет, то почему хочется вкатиться?
Меня, например, возбуждает история тян из штатов:
Есть сеть супермаркетов, Таргет (читай Лента), которая работает по картам покупателей. И вот, эта тян ~16 лет закупалась там постоянно и всё было заебись. Пока в один день её на почту (физическую) не начали приходить скидки на всякие памперсы и детскую еду. Батя этой тян впал в ярость берсерка от такой ошибки и начал бегать по судам. Таргет по итогу извинился бабками. И что же вышло в итоге? Тян и была беременной, сама этого не знала даже.
Бигдата Таргета сравнила её со всеми беременными тян и сопоставила изменения в её покупках с теми изменениями, которые делают беременные тян, и выдала такую рекламу.
Если у тебя от такой истории не встал писюн, то нахуй тебе бигдата и датасайенс, братишка?
193 1232502
>>32441

> ВРЁТИ

194 1232510
>>32246
Чё не так?
195 1232528
>>32492
Она в Фейсбуке писала, она Гуглила. Ее запросы были отданы в ФБР. ФБР являясь американской организацией приняло решение защитить своего гражданина и оказать помощь в рождении ребенка и прислало на почту уведомление. Это очередной раз подтверждает превосходство Америки.
196 1232580
Как вкатиться в вашу хуйню по фасту? Матан немного знаю, если что подзабуду, то легко перечитаю, линал тоже помню. Заебал вебмакакинг, хочу нормальными вещами заниматься.
197 1232581
>>32580
Самый быстрый вариант, ведущий к успеху, - PhD в Стэндфорде.
image.png1,4 Мб, 1399x764
198 1232582
>>32580

>Как вкатиться в вашу хуйню по фасту


>Заебал вебмакакинг, хочу нормальными вещами заниматься

199 1232586
>>32582
>>32581
Так, значит я ваших матерей ебал, зелёные. Жду нормальных анонов.
200 1232591
>>32580
Добавьте в шапку:
- работать без профильного PhD или хотя бы магистратуры получится только в стартапах на три человека, один из которых почитал про нейронки и решил что бывший веб-макака с этим справится.
- если считаешь что достаточно хорошо знаешь матан и после своих смузи-фреймворков без проблем вкатишься, открываешь http://www.arxiv-sanity.com/ и читаешь первые три-четыре статьи, это самое читаемое по машинлернингу типа ваших хабров и.. и того что там еще похоже на хабры. Никакой черезмерной сложности, это как раз ровный средний уровень, наслаждайся.
- если не знаешь английского то ты просто не нужен, у тебя нет шансов ни в науке, ни в средней работке, ни в личной жизни и твои родители тебя ненавидят.
- быстрое вкатывание это два года магистратуры, на диване это два года имплементации готовых алгоритмов, чтения статей и хотя бы одного большого пет-проекта
- если ты не публикуешься, ты зафейлил свое вкатывание
201 1232619
>>32591
- шапку почти никто не читает
- чем она больше, тем меньше вероятность ее прочтения
- человек, не обладающий навыками/заслугами, которые ты упомянул, прочитав твой текст, не уйдет отсюда с окейфейсом. Наоборот, он будет долго нудеть о своей уникальной биографии и о том какой он обучаемый, умный и вообще молодец, а все остальные дураки, упрашивая кого-нибудь согласиться что именно в его случае ПхД не нужно и он может уже посылать резюме в гугл брейн и дипмайнд
202 1232634
>>32619
Меня оскорбляет то что ты упомянул только проекты Гугла. Тред это безопасная зона в которой запрещены акты микроагрессии, извинись и мы продолжим нормальное дружественное общение в располагающей обстановке.
203 1232636
бамп
204 1232638
>>32634
Но дипмайнд это компания группы alphabet, а не гугла.
205 1232639
>>32638
Так толсто что даже бодипозитивно.
206 1232735
>>32441
даже за нипс нужно платить оргвзнос
207 1232923
>>32591
Не слушайте этого дауна, любой человек, закончивший ПМИ легко освоит абсолютно всё, что нужно за полгода максимум.
208 1232963
>>32923
О, малыш, но ведь просто прочесть недостаточно, нужно еще и применить. А требование к PhD обязательное со стороны работодателя.
209 1233003
>>28656
Это НЕ культ.
210 1233007
На сколько сложно распознавать порно и эротический контент, одевать людей из него в паранджу?
211 1233009
>>33007
Ну или в общем в закрытую одежду
212 1233048
>>33007

> На сколько сложно распознавать порно и эротический контент


Легко, ютюб уже лет десять это делает.

> одевать людей из него в паранджу?


Тоже не сложно.
213 1233058
>>33048
На ютубе же толпа индусов распознает, не?
214 1233067
>>33058
Не.
215 1233304
>>33048

>Тоже не сложно


Сложно.
216 1233312
>>33304
Кому как.
217 1233388
Говорят машобчик это ковыряние даты вилкой, а потом перебор всех подходящих алгоритмов и их параметров, это правда?
218 1233426
>>33388
Всё так.
i.jpeg71 Кб, 800x550
219 1233483
Какой сейчас примерный порог вхождения в отрасадь машинного обучения?
Все время ленты предлагают мне курсы, курсы бесплатные открываемые не самыми плохими университетами, или открытые по госпрограммам.
То есть отрасаль реально востребованная - специалистов не хватает.
Пытаюсь найти инфу о пороге вхождения - курсы курсы курсы.
Обрисуйте ситуацию возможно ли если я не доктор математтческих наук?
220 1233491
>>33483

>обрисуйте


Открываешь хх.ру или другой сайт, где рабов покупают, и обрисовываешь себе до умопомрачения.
221 1233492
Анализ успешности компании и прогнозирование дальше. Как все параметры на вход представить? В одну строчку все цифры сделать или как-то иначе?
222 1233499
>>33491

> спросил про порог вхождения



> предлагает посмотреть на хх



Што?
223 1233508
>>33499
Порог вхождения на 4ом оп-пике, если задача именно разобраться в машобчике. Если речь о трудоустройстве, то да, тебе на хх.
224 1233514
>>33426
Зачем тогда таким заниматься?
225 1233523
>>33514
Практические профиты потому что. Ты аутист штоле?
image.png8 Кб, 268x103
226 1233530
Блять, понабрали формул из статфизики и в жопы долбятся и еще заумными словами их называют.
227 1233535
>>33523
Кому? Тому кто занимается или тому кто нанял раба?
228 1233537
>>33312
всем сложно, нужно отделить от бэкграунда - это уже не очень просто. А учитывая все многообразие поз и того, как ткань будет вести себя в динамике, и вовсе невозможно на данный момент.
229 1233562
Требуют знать немного, платят много, но опыт от 6 лет
https://hh.ru/vacancy/26616968
230 1233569
>>33562

>Требуют знать немного


>платят много


=)
231 1233581
>>26323 (OP)

>>3


Вот за что люблю /pr так это за то что здесь картиночки смешнее чем в /b

В программировании ничего не понимаю
232 1233636
Есть reinforcement нейронка, которая выучила все варианты развития события. Она не угадывает, а просто берет данные из веса и делает как делала в прошлый раз. В чем ошибка? Если ей чуть-чуть энвайромент изменить, она просто будет заново переучиваться. Как сделать чтобы она думала что делает?
sage 233 1233637
>>33636
Это просто перемещение матриц, там нечему думать.
234 1233647
>>33637
Предикшен в чем заключается? Из лучших весов выбираем лучший и его делаем? Мне нужно чтобы нейронка действие вперёд предугадывала.
235 1233689
>>33636
Регуляризации навернуть
236 1233691
>>26560
Количество эпох оценивается по количественным параметрам на training и validation множествах. Скоро всего ты уже 7 часов 59 минут как тупо переобучаешь.
237 1233709
привет датасантисты как правильно инициализировать веса для L1 регуляризации?
я думаю нужно просто часть из них зарандомить гауссовым распределением а остальные оставить нулями если
238 1233735
Как в lgbm указать количество итераций на котором стопить?
И как бы его получше определить?
Или лучше early_stopping_rounds использовать с кросс-валидацией?
А насколько имеет смысл что-то типо бустинга делать: пусть у нас есть выборка X размера N, тогда построим X_train выбрав N элементов из X с повторениями и в X_valid возьмём всё что не попало в X_train (или как-то по другому??) и будем учить на таких парах это всё K (какое выбрать?) раз.
Где почитать ответы на такое?
239 1233739
Кстати накидайте примеров использования какой-то нетривиальной математики _на практике_ в машобе
А то на кэгле даже доверительный интервал никто не построит никогда нахуя вы советуете тогда тут гамалогии учить?
мимо перекатывающийся студент-математик расстроенный тем что зря учил всю эту парашу
240 1233785
>>33739
Нетривиальной математики даже в статьях почти не используется, что уж про кагл. Там про другое вообще.
Попробуй сам поучаствовать в кагле, чтобы понять что там да как.
241 1233788
>>33785
Ды нет это понятно (то есть видно даже из моего очень скромного опыта), что почти никогда к математике никто не обращается. Хотелось бы поглядеть на исключения, как раз.
Если математику в статьях минимально я видел, то на кагле вообще нет.
242 1233796
>>33788

>Если математику в статьях минимально я видел


Там математика как сюжет в порнухе.
243 1233798
>>33788
Гугли manifold hypothesis и далее
244 1233852
>>33735
slowfix:бутстрапинга
245 1233875
>>33739

>нетривиальной математики


>_на практике_


Дефайн "нетривиальная математика".
246 1233890
>>33875
а зачем? это же не натуральные числа кто может ответить на вопрос тот поймет
247 1233922
>>33739

> нахуя вы советуете тогда тут гамалогии учить?


Кто тебе тут советует гамалогии учить? Наоборот, все пишут что третьего оп-пика достаточно.

> Кстати накидайте примеров использования какой-то нетривиальной математики _на практике_ в машобе


Вапник же. И вообще теория статистического обучения. Ну если вариационное исчисление для тебя достаточно нетривиально. В машобе сложнее ничего нет.
248 1234133
>>33922
Чот не видел где там необходимо вариационное исчисление (ну или может максимум эйлер-лагранж), но это я наверное глупый.
А я же спрашивал на кэгле/в реальных проектах где посмотреть, что прям вот VC размерность чего-то посчитали и помогло..
Кстати в статьях видел и гамалогии и случайные матрицы, но это конечно экзотика.
250 1234154
>>33735
LightGBM is a gradient boosting framework
конечно, с кросс-валидацией (или чуть раньше)
1280px-Bufobufo03-clean[1].jpg137 Кб, 1280x853
251 1234351
Сколько по времени займет вкат в датасаенс на уровне макаки?
Собственно застревать в этом не собираюсь, надо всего лишь решить одну задачу - распознать зеленых жаб на фотографии. Эти зеленые пидоры неплохо маскируются, однако их надо отыскать любыми средствами.
С чего начать? Что учить? Знания математики - на считал производные в 11 классе, больше ничего не знаю
252 1234357
>>34351
Скачай керас и посмотри получасовой тутор. Готово.
253 1234439
Где книг по TF на русском?
sage 254 1234446
>>34439
На nobrain.dk хорошие переводы были.
255 1234452
>>34439

> на русском


Уже мог бы выучить английский.
256 1234492
>>29190
А где тогда?
257 1234495
>>29293
Манясигнал управляющий мозгом по определению материально взаимодействует с миром, иначе бы он не управлял мозгом. Таких взаимодействий не найдено.
258 1234512
>>34495

>материально взаимодействует с миром


Кокие ваши доказательства?
259 1234513
>>34492
В тонком эенергетическом мире
260 1234514
>>34512
Не взаимодействуют, значит не управляют, значит источник - мозг.
261 1234515
>>34513
Не влияет на материальный мир. Если влияет - не является тонким, а является частью материального.
262 1234516
>>34515

>Если влияет - не является тонким, а является частью материального.


Расскажи ка дружочек мне про электрон из чего он состоит и к какому миру он относится
sage 263 1234517
>>34516
Заводи отдельный тред в другом разделе.
264 1234520
>>34517
Нетъ
265 1234524
>>34520
Школопидора ответ.
266 1234527
Вот я репорчу шизиков и всех, с ними разговаривающих, и ты так делай.
267 1234528
>>34524
Азазаза
268 1234529
>>34527
Ты бы лучше ИИ тянку зделол, ну или симулятор школотрона из 3б
269 1234675
>>32591
Где можно получить профильное PhD в РФ?

>inb4: нигде

270 1234733
>>34675
Занимаются кое-где. На ВМК МГУ есть кафедры. Но главный вопрос тут: зачем? Такое ПхД ты вряд ли потом сможешь использовать. Да и у нас не платят же за него.
271 1234771
>>34675

>PhD


Нахуй тебе быть Доктором Философии, ебанат?
272 1234785
>>34675
Получить профильное PhD в РФ можно выехав из РФ пока есть такая возможность. В прошлых тредах уже разжевали что это проще чем кажется и люди готовы пихать тебе деньги в карманы чтобы ты потратил часть своей жизни на исследования которые отнимет у тебя гугол и пейсбук.
>>34771
Приходи сюда когда закончишь школу.
273 1234794
>>34785

>Приходи сюда когда закончишь школу.


Закончил тебе за щеку, держи карман шире, а то деньги пихать не будут, прохфесор пхилософии
274 1234854
запускаю lgbm как-то так:
https://pastebin.com/cvJeNKUV
и она все равно мне на каждом шагу выдает скор.
то есть вопрос том как правильно использовать verbose
и еще как скормить lgbm'овский датасет в fit?
275 1234855
>>34854
запустил и оно вообще у меня не останавливается, натаскивается на validation_bin почему-то
276 1234863
>>34855
Лан с последним это уже я накосячил
277 1234869
>>34863
и с verbose'ом тоже разобрался: почему-то надо указывать train'у аргумент verbose_eval, но почему он игнорирует значение в параметрах -- я не понимаю.
Остается только вопрос о том как скармливать lgm.Dataset fit'у
278 1234894
хочу купить видеокарту , но бюджет ограничен 26к понятно что gtx1080 отпадает остановился пока на 1060 https://market.yandex.ru/product/1729164449?track=tabs и https://market.yandex.ru/product/14141262?show-uid=325388165329143107616003&nid=55314&glfilter=4878792:13994072&glfilter=7893318:152863&context=search
чо скажете? стоит ли вообще экономить на памяти?
сколько по времени на такой карте будет тренироваться сетка с 4000 входами приблизительно при архитектуре допустим 4000/500/1
279 1234902
>>34894

>стоит ли вообще экономить на памяти?


Нет. Будет ли тренироваться 4 часа или 8 часов - это в принципе похуй, один хуй будешь на ночь ставить, но если памяти нет, то ее нет.
280 1234909
>>34902
всмысле если память кончится процесс прервется?
или что ты имел ввиду?
281 1234914
>>34909
Нейронке требуется память под параметры самой себя и под параметры оптимизатора. Интересные архитектуры просто в твои три гигабайта не помесятятся.
282 1234922
283 1234937
>>34922
<З ?
284 1234949
Зачем в tf нужно отдельно инициализировать переменные? Мы же и так указываем значения, которыми их надо инициализировать. Почему бы автоматически эти значения не записывать при создании сессии?
285 1235006
В какой идти вуз, чтобы потом в машоб вкатиться
самый тупой вопрос в этом треде
286 1235017
>>35006
В Стэндфорд.
287 1235026
Я уже писал сюд с вопросом, но теперь я уже лучше владею материалом и готов к конструктивной беседе.

Как можно организовать обучение нейронки "в рантайме"?
Например работает какое-то приложение на сервере и выдает какие-то логи, а нейронка бы их хавала определенной порцией и предсказывала бы, ведут ли потенциально эти логи к какой-нибудь фатальной ошибке типа "out of memory" или к ошибке типа "null pointer exception",
если да, то будут предприниматься какие-нибудь действия (например придет электическое письмо дяде сисадмину)
предсказывать будет какой-нибудь простой классификатор типа наив бейс или рандом форест или svm, но он вроде самый долгий,
второй вариант, что предсказывает какая-нибудь RNN, но с дип лернингом я пока не знаком,
насколько по вашему эта идея может взлететь?Как бы вы реализвовывали?

У меня такая реализация,
пока что я лишь присматриваюсь к нужному алгоритму, играю с логами и пишу методы, что б их парсить, весь ML реализован на Питоне с использованием библиотеки sklearn, а так же других стандартных библиотек,
парсинг логов и вытаскивание из них полезной информации целиком сделан с помощью регулярок и питоновской библиотеки re.Пишу в jupyter notebook на питоне 3.7

Можно анализировать лог, как естественный язык, есть набор тестовых логов, которые ведут к определенным ошибкам, к примеру: "out of memory" , "null pointer exception".
Проходимся по логу препроцессингом: убираем все знаки препинания;
потом идет Stemming - сокращаем слова до минимума, что бы осталась самая суть, (responsible, responsibility итд превращаются в response),
далее по тексту проходимся алгоритмом tfidf и превращаем текст в числовой вектор, это готовые features для классификатора, заранее берем от них 10% для тестирования, на выходе имеем 2 питоновских list
features_training и features_test
target это вектор, где единичка обозначает соответствующую ошибку,к которой ведет лог, нулевой вектор - нет ошибок

Думаю ни для кого здесь не секрет, что всем алгоритмам классификаторам пофиг на содержание текста, их интересует только частота появления определенного слова и наличие как можно большего количества тренировочных данных, больше того, наличие большого количества хороших данных это более внушительный залог успеха, нежели совершенность алгоритма,

Пока что проблема с подготовкой данных,
какую часть лога лучше брать для features ? Само сообщение лога или целиком строчку с таймстемпом,
Пример лога:

2017-03-14 22:43:14,405 FATAL [org.springframework.web.context.support.XmlWebApplicationContext]-[localhost-startStop-1] Refreshing Root WebApplicationContext: startup date [Tue Mar 14 22:43:14 UTC 2017]; root of context hierarchy
2017-03-14 22:43:14,476 INFO [org.springframework.beans.factory.xml.XmlBeanDefinitionReader]-[localhost-startStop-1] Loading XML bean definitions from Serv
2017-03-14 22:43:14,476 INFO [org.springframework.beans.factory.xml.XmlBeanDefinitionReader]-[localhost-startStop-1] Here is a multiline
log entry with another entry after
2017-03-14 22:43:14,476 INFO [org.springframework.beans.factory.xml.XmlBeanDefinitionReader]-[localhost-startStop-1] Here is a multiline
log entry with no entries after
2017-03-14 22:43:14,476 INFO [org.springframework.beans.factory.xml.XmlBeanDefinitionReader]-[localhost-startStop-1] Here is a multiline
log entry with no entries after
2012-02-02 12:47:03,227 ERROR [com.api.bg.sample] - Exception in unTech:::[Ljava.lang.StackTraceElement;@6ed322
java.io.IOException: Not in GZIP format
at java.util.zip.GZIPInputStream.readHeader(Unknown Source)
at java.util.zip.GZIPInputStream.<init>(Unknown Source)
at java.util.zip.GZIPInputStream.<init>(Unknown Source)
at com.api.bg.sample.unGZIP(sample.java:191)
at com.api.bg.sample.main(sample.java:69)

Пока что пишу классификатор на "плохое"(ведущее потенциально к скорой ошибке) и "хорошее" (нейтральные логи, которые не ведут к потенциальной ошибке)
соответсвенно target это вектор [0] - хорошо [1]- плохо (есть ошибка)
287 1235026
Я уже писал сюд с вопросом, но теперь я уже лучше владею материалом и готов к конструктивной беседе.

Как можно организовать обучение нейронки "в рантайме"?
Например работает какое-то приложение на сервере и выдает какие-то логи, а нейронка бы их хавала определенной порцией и предсказывала бы, ведут ли потенциально эти логи к какой-нибудь фатальной ошибке типа "out of memory" или к ошибке типа "null pointer exception",
если да, то будут предприниматься какие-нибудь действия (например придет электическое письмо дяде сисадмину)
предсказывать будет какой-нибудь простой классификатор типа наив бейс или рандом форест или svm, но он вроде самый долгий,
второй вариант, что предсказывает какая-нибудь RNN, но с дип лернингом я пока не знаком,
насколько по вашему эта идея может взлететь?Как бы вы реализвовывали?

У меня такая реализация,
пока что я лишь присматриваюсь к нужному алгоритму, играю с логами и пишу методы, что б их парсить, весь ML реализован на Питоне с использованием библиотеки sklearn, а так же других стандартных библиотек,
парсинг логов и вытаскивание из них полезной информации целиком сделан с помощью регулярок и питоновской библиотеки re.Пишу в jupyter notebook на питоне 3.7

Можно анализировать лог, как естественный язык, есть набор тестовых логов, которые ведут к определенным ошибкам, к примеру: "out of memory" , "null pointer exception".
Проходимся по логу препроцессингом: убираем все знаки препинания;
потом идет Stemming - сокращаем слова до минимума, что бы осталась самая суть, (responsible, responsibility итд превращаются в response),
далее по тексту проходимся алгоритмом tfidf и превращаем текст в числовой вектор, это готовые features для классификатора, заранее берем от них 10% для тестирования, на выходе имеем 2 питоновских list
features_training и features_test
target это вектор, где единичка обозначает соответствующую ошибку,к которой ведет лог, нулевой вектор - нет ошибок

Думаю ни для кого здесь не секрет, что всем алгоритмам классификаторам пофиг на содержание текста, их интересует только частота появления определенного слова и наличие как можно большего количества тренировочных данных, больше того, наличие большого количества хороших данных это более внушительный залог успеха, нежели совершенность алгоритма,

Пока что проблема с подготовкой данных,
какую часть лога лучше брать для features ? Само сообщение лога или целиком строчку с таймстемпом,
Пример лога:

2017-03-14 22:43:14,405 FATAL [org.springframework.web.context.support.XmlWebApplicationContext]-[localhost-startStop-1] Refreshing Root WebApplicationContext: startup date [Tue Mar 14 22:43:14 UTC 2017]; root of context hierarchy
2017-03-14 22:43:14,476 INFO [org.springframework.beans.factory.xml.XmlBeanDefinitionReader]-[localhost-startStop-1] Loading XML bean definitions from Serv
2017-03-14 22:43:14,476 INFO [org.springframework.beans.factory.xml.XmlBeanDefinitionReader]-[localhost-startStop-1] Here is a multiline
log entry with another entry after
2017-03-14 22:43:14,476 INFO [org.springframework.beans.factory.xml.XmlBeanDefinitionReader]-[localhost-startStop-1] Here is a multiline
log entry with no entries after
2017-03-14 22:43:14,476 INFO [org.springframework.beans.factory.xml.XmlBeanDefinitionReader]-[localhost-startStop-1] Here is a multiline
log entry with no entries after
2012-02-02 12:47:03,227 ERROR [com.api.bg.sample] - Exception in unTech:::[Ljava.lang.StackTraceElement;@6ed322
java.io.IOException: Not in GZIP format
at java.util.zip.GZIPInputStream.readHeader(Unknown Source)
at java.util.zip.GZIPInputStream.<init>(Unknown Source)
at java.util.zip.GZIPInputStream.<init>(Unknown Source)
at com.api.bg.sample.unGZIP(sample.java:191)
at com.api.bg.sample.main(sample.java:69)

Пока что пишу классификатор на "плохое"(ведущее потенциально к скорой ошибке) и "хорошее" (нейтральные логи, которые не ведут к потенциальной ошибке)
соответсвенно target это вектор [0] - хорошо [1]- плохо (есть ошибка)
288 1235061
>>34675
В Украине.
289 1235068
>>35006
Учись дистанционно, интернет же тебе дан.
290 1235071
>>35026

>Например работает какое-то приложение на сервере и выдает какие-то логи, а нейронка бы их хавала определенной порцией и предсказывала бы, ведут ли потенциально эти логи к какой-нибудь фатальной ошибке типа "out of memory" или к ошибке типа "null pointer exception"


А где здесь обучение в рантайме? Берешь тонну логов с заведомо известным итогом, обучаешь сетку. Пока она работает, копишь новые логи.
Можно либо каждый раз обучать с нуля либо, если данных ну реально дохуя, дообучать (я бы не стал), во втором случае возможно придется сделать некоторые трюки типа рандомизации весов или пилообразной кривой learning rate, чтобы нейронка вышла из локального минимума (а-ля алгоритм имитации отжига), но этого будет достаточно.

>Пока что проблема с подготовкой данных, какую часть лога лучше брать для features ?


Если у тебя дипленинг, скармливай текст целиком, нейронка разберется. Я бы взял сверточную нейронку, которая бы анализировала, допустим, 16 кб логов, и так скользящим окном и делала бы предсказания. Дешево, сердито и никаких RNN. А стэммингам-хуеммингам она сама научится.
291 1235078
>>35071
Даже интересно, сможет ли оно что-то предсказать. Задача вообще-то нетривиальная, т.к. обычно искать нужно не какие-то конкретные паттерны, а всевозможные отклонения от нормы.
292 1235081
>>35078
sklearn.ensemble.IsolationForest
293 1235086
>>35078

>сможет ли оно что-то предсказать


Нет
294 1235106
>>35078
Если ты сможешь объяснить за день алкоголику-бомжу, что делать, то сможет. Если не сможешь объяснить студенту мехмата за неделю, то не сможет. Вилка где-то такая.
295 1235109
Че котаны, как там ваши нийронки, что нового, кокие достижения?
297 1235116
>>35114

>http://www.fast.ai/2018/07/02/adam-weight-decay/


Нахуй мне эти графики и проценты? Давай рабочую и наглядную йобу, что бы ого го го
298 1235120
>>35116
Когда выпустим дам
299 1235126
>>35120

>Когда выпустим дам


Я уже хочу автономный автомобиль и ИИ не уебище Алису
300 1235132
>>35126
Пока рынок не отобьет затраты, не дождешься. Мы тоже не все разработки в открытый доступ выкладываем, все равно конкурентов нет
301 1235191
Как подготовить фоточку к текст рекогнишену?
Юзаю openCV.
Не могу отделить нормально текст от фона для того чтобы заюзать бинаризацию, они сливаются. Пробовал контрасты всякие, насыщение етц, но тогда текст слишком сильно кораптит и иногда ocr просто рандомные значения выдает, к тому же "13" и "15" сливаются в одну циферку. Алсо фотка оч чувствительна к качеству, любой блик или тень к хуям вся портит.
пикчу перед обработкой обрезаю
302 1235194
>>35191
Не надо ничего подготавливать. Больше данных, больше свёрток и сеть и так будет твои картинки распознавать
303 1235199
>>35191
13 и 15 ты точно не отделишь. Сложный текст. Почитай статьи, как капчи распознают, может поможет.
304 1235228
>>35191
Нейроночкой придется делать. Но датасет как ты будешь набирать я не знаю. Даже 10000 фоток (довольно маленькая выборка) ты помрешь делать.
image.png178 Кб, 322x384
305 1235230
>>35194

>Не надо ничего подготавливать. Больше данных, больше свёрток и сеть и так будет твои картинки распознавать

306 1235231
>>35191
Ищи паттерны цвета какие-нибудь. Блять. Это банальная арифметика, нахуя ты это спрашиваешь.
308 1235246
>>35239
Спс, няша
309 1235473
>>35191
Индусам и китайцам отдай вместо капчи.
310 1235865
Кто может подсказать ресурс, где разбираются решение задач, можно на английском
311 1235866
Кто может подсказать ресурс, где разбираются решение задач, можно на английском
312 1235892
Что скажете насчет книг:
Deep Learning (Adaptive Computation and Machine Learning)
и
Hands-On Machine Learning with Scikit-Learn and TensorFlow: Concepts, Tools, and Techniques to Build Intelligent Systems
313 1236854
Геймдев или нейроночки?
314 1236898
>>36854
Гейроночки.
315 1236924
Ононы, не стукайте за даунские вопросы:
1) Есть ли Русская версии книги диплернинг.орг?
2) Нужно ли изучать основы программирования для работы с МЛ?там же на пайтоне и я пытался в него вкатится на днях-понял чуть менее, чем нихуя(алгоритмы, теории графов и т.д.)
316 1236958
>>36924
Без английского тебе ловить все равно нечего, учи его сначала. Программировать нужно.
317 1236983
>>35068
А как математику учить?
318 1237018
>>36983
Как и программирование
319 1237051
>>36958
Нужно начинать с основ программирования и только потом переходить в МЛ? Или просто начать читать эту книгу и кодить без фундаментальных основ программирования?
320 1237073
>>37051
Да не нужно там программирование. Нужный объём за неделю осилишь, если не торопиться. Диплернинхбук - говно из жопы, попробуй сам почитать нраву про сверточные сети и убедиться, что авторы пишут хуйню, непонятную начинающему.
321 1237087

>а можно без английского языка?


>а можно без математики?


>а можно без программирования?


>а можно не умея читать?


>а можно будучи идиотом?


>а можно обезьяне?


>а можно камню?


Да можно, можно. Если кто спросит - говорите, что я разрешил.
322 1237116
>>37073
А что не говно в таком случае?
323 1237117
>>37087
Ебать, я как бы интересуюсь, а не собираюсь не делать лишнюю работу
324 1237145
>>37073
Ниасилил и осуждаю, нужно чтобы в картиночках.
325 1237147
Если прорешал конкретную математику сложно будет вкатиться?
326 1237185
Если в свёрточку классификации в гуглопоиске закинуть изображение с комбинироваными признаками каких-то классов, то она может выдать такое же пересечение этих классов, но только с другими признаками. То есть сами признаки игнорируются, а соотносятся элементы классов. Это баг или фича?
327 1237368
>>37185
Ничо не понял.
328 1237374
Че это за х....??))) идите лучше телак ебите))
orig875dea678d47dc92bbc45589f6ef232e.png22 Кб, 326x322
329 1237498
Пора уже учебник по математике выпускать
330 1237502
Почему никто не советует cs231n или fast.ai? Всё разжевывают же и практических заданий хватает
331 1237546
Вот вы смеетесь, а на хабре новость: "Windows 10 использует технологию машинного обучения для определения возможности апдейта".
То есть по активности юзера винда пытается определить, отошел он поссать, или ушел домой, а значит можно скачать апдейт и перезагрузиться.
332 1237551
>>37546

>хабре


тамошнее хомячье и не такое напишет
334 1237593
>>37571

>К чему тут снобизм?


Потому что хабр для макак и переводчиков.
335 1237597
>>37571

>How many times have you been immersed in a captivating virtual experience and…


>


> Wanted to take a quick peek at someone nearby?


> Wanted to reach for a drink, your phone or a keyboard?


> Needed to find a surface to set down your controllers?


>


>In the past you probably fumbled about or removed your headset, which can be clumsy if you have controllers in your hands.


Помогите определить уровень аутизма.
336 1237676
Существуют ли алгоритмы пригодные для генерации бредотекста кроме цепей маркова и charrnn/wordrnn?
337 1237702
>>37676
Любая плохообученая RNN с текстом.
338 1237759
>>37502
С 231cs'a неслабо рвется жопа от первых двух домашних заданий. Датасаентисту из пиков в шапке нахуй не усралось писать свертки/полносвязные слои на нумпае
339 1237770
>>37676

>бредотекста


Если бредоязык типа англопараши то да, на нормальных флективных языках соснешь.
340 1237855
Курсы от Яндекса по МО на Курсере за 5к/месяц норм тема?
341 1237857
>>37855
Будешь дрочить ненужную теорию, полезных знаний не получишь. Меня заебало на половине, дропнул.
342 1237946
>>37855
заявление на фин. помощь подай
343 1237996
>>37855
Отдавая деньги Яндексу ты финансируешь войну в Сирии.
344 1238062
Накидайте годных МЛ блогов
только чтоб не какой-то индус рассказывал как он на tf курс биткойна предсказывает, а чтоб с рокетсаенсом
345 1238074
Добавте в шапку треда ссылку на книгу: "Нейронный сети. Эволюция"(2018) http://turbobit.net/vjcsw97ck7wx.html
В этой книге очень наглядно и ПО ПРОСТОМУ все объясняется.
sage 346 1238083
>>38074

> http://turbobit.net/vjcsw97ck7wx.html


> В этой книге очень наглядно и ПО ПРОСТОМУ все объясняется.


Иди на каких-нибудь других даунах свои гроши зарабатывай. Зарепортил.
347 1238084
>>38083
Еблан?
Что бы там зарабатывать нужны многотысячные скачивания. Больше источников я не нашел если найдешь лучший источник то выкладывай.
И сьеби школьник.
sage 348 1238089
>>38084
Съебал тебе за щеку.
349 1238095
>>38062
Попробуй http://www.arxiv-sanity.com/
>>38074

> http://turbobit.net


Ты путешественник во времени?
350 1238917
Между прочим, >>38074 книжка правда довольно годная для самых начинающих. Матчасть, куча наглядных картинок + код на пистоне с нуля для всего. Перцептроны, градиентный спуск, бэкпропагейшн сначала, затем сверточные сети (объяснение гораздо более наглядное и простое, чем в вашем какашечном диплернинхбуке). Алсо, тут многие и английского не знают, так там все даже на русском. Так что да, как затравка для вкатывания и понимания что вообще к чему, я бы рекомендовал. Если смущает быдлообменник турбрбит, перезалил на рыгхост http://rgho.st/6zR5RKKlK
351 1238990
>>38917

>вашем какашечном диплернинхбуке


))

>многие и английского не знают


Ну и пусть нахуй идут, чего уж надрываться.

>ргхост


Здоровья брату.
352 1239148
>>26323 (OP)
А сколько платят?

Добавьте вопрос в фак, а то хз стоит ли вообще тратить время на изучение.
sage 353 1239158
>>39148
Тем, кто задаёт такие вопросы - не платят.
354 1239421
>>39148
2 дошика в час что по моему мнению овердохуя
355 1239425
>>39421
24 дошика буду зарабатывать каждый день. Вот это да.
356 1239789
>>38917
Спасибо
357 1240865
where can I find last russian papers?
358 1240869
>>40865
Если бумага опубликована только на русском, это значит, что он никому не нужна
359 1240873
>>40869
Это значит ноухау, а неработоспособное масмедио говно пишут на английском, да.
360 1240889
>>40873
Ути какой милый ватничек!
потрепал за щечку
Ничего, английский очень простой язык и ты обязательно сможешь однажды его выучить чтобы читать статьи для больших мальчиков, а не переводы на хабре.
361 1240892
>>40889

>Ничего, английский очень простой язык и ты обязательно


Я достаточно знаю это говно что бы читать техлитературу, а так же вполне очевидно что никто из копетооиздов не будет рассказывать о своих наработках, а вот пиздануть хуйни это да, большие мальчики любят жрать говно.
362 1240972
>>40865
Сколтех вроде что-то публикует. Я видел только на английском. У Ветрова были статьи на русском точно.
363 1240980
>>40972

>Я видел


Что ты еще видел, расскажи, оч интересно?
364 1241011
>>40972

>Сколтех


>Ветров Дмитрий Петрович


>Руководитель группы Баейсовских методов >кафедры ММП ВМК

365 1241089
>>40892

> а так же вполне очевидно что никто из копетооиздов не будет рассказывать о своих наработках,


Какое же ты быдло. Маня, очнись, гугл тебе наработки сливает нахаляву, слесарьплов тот же. Забирай, пользуйся. Но тебе проще ныть, оправдывая свое биомусорство грязноштанными мантрами про плохих капиталистов. Петух, сука.
366 1241116
>>40980
Деньги мне плати, тогда расскажу.
>>41011
Долбоёбина, ты не думаешь, что это перечисление разных чуваков?
367 1241120
>>41116

> Деньги мне плати, тогда расскажу.


> англоязычные капиталисты ничего не могут, только щедрые русские постят ноу-хау

368 1241153
>>41089

>Маня, очнись, гугл тебе наработки сливает нахаляву, слесарьплов тот же.


Кококо, кудахкудах, ФайндФейс провел шершавым по нейроноблядям и съебал в закат, а гугля выкладывает неработоспособную хуйну и зоонаблюдает как петушня пытается слепить из говна пулю, впаривая им потихонечку курсики.
369 1241154
Копетолизды соснуле ИТТ
370 1241187
371 1241219
>>41187

>Фашингтон


Нужен апрув от местных патриотов.
Всё ето во введении диплёрненбуха написано
372 1241309
https://en.wikipedia.org/wiki/Euphonia_(device)

ВО! Сделаете такое в электронном виде?
373 1241317
>>41219
Заапрувел тебе за щеку, доляр возмешь в корыте.
374 1241324
>>41317
Какой ты злой. Водка закончилась?
375 1241341
>>41324

>Водка закончилась?


Послал за ней автономный автомобиль на нейронках, но он не отличил дерево от дороги и самовыпилился.
376 1241364
Почему еще никто не написал гайда как вкатиться в математику со школьного уровня? Что в какой последовательности читать, что решать, и так далее.
377 1241442
>>41364

>гайда как вкатиться в математику со школьного уровня?


Нейронодибилы ИТТ еще сами вкатываются
378 1241447
>>41364
Что там непонятного? Выучи определение пучка и вперед "Что такое математика". Когда зазубришь определение единицы и некоторые другие бурбакизмы, тогда обращайся в этот тред. Картофан не нужен.
379 1241449
>>41447
Я хотел программу вербицкого предложить, но ты меня опередил
380 1241458
>>41364
Давно уже пора делать учебник математики с йобами и мемасами. Но интерактивный, чтобы адаптировался под ученика с помощью слесарьплова. Дополнительно прикрутить всякие там Coq и демидовичи.
381 1241462
>>41458
Теоремы будем писать в виде будапешт-тредов
382 1241468
>>41458
Применим Бенедикта Камбербэтча.
383 1241484
>>41447

>бурбакизмы


>баребухами


Фикс
384 1241489
>>41484
Ты же даже падеж неправильно поставил. Обучайся лучше.
385 1241495
>>41489
патралил лалку, кек
386 1241550
Компания OpenAI, основанная Илоном Маском в 2015 году намерена устроить состязание с использованием ботов Dota 2 во время The International 2018. Сегодня же можно посмотреть показательный матч между ИИ и пятью топовыми игроками — прошлыми профи, кастерами и аналитиками. Прямой эфир стартует сегодня в 22:30 по Москве.

https://shazoo.ru/2018/08/05/68631/strim-ii-protiv-topovyh-igrokov-v-dota-2
387 1241553
>>40889

>этот студентик гордящийся просмотром сериалов в оригинале


Ну а ты, если поднажмёшь, сможешь выучить и другие языки когда-нибудь, тогда может получится избавиться от своей болезни неофита.
388 1241587
>>41458
Кто за?
389 1241717
>>41587
Здесь люди которые шарят и в мемесах и в математике?
390 1241723
>>41550
разъебал их!!!!!!
391 1241787
>>41717
Конечно.
392 1241863
Как считается mean для векторов и почему так важно что бы он был равен нулю?
Что такое equal variance??
Во второй раз просматриваю эти лекции, но понимание не приходит
https://classroom.udacity.com/courses/ud730/lessons/6370362152/concepts/63798118400923
393 1241866
>>41863

>второй раз просматриваю


Начинай смотреть со второго сезона
394 1241893
>>41863
Вся матчасть нужная для нейроночек есть на русском, любые совковые учебники подойдут, нихуя в этом калкулусе не изменилось со времён Фихтенгольца, как и в основах теорвера со времён Вентцель. Интеграл он и в Африке интеграл, как и теорема Байеса. Читайте хотя бы самые азы на русском, ничего плохого в этом нет. Потом хоть лекции эти понятны будут, если они вообще нужны.
395 1241901
>>41893

>совковые учебники подойдут,


например?
396 1241912
>>41901
Фихтенгольц, Вентцель.
397 1241918
>>41912
Шульц, Кац, Розенцвайг, Мутерперель
399 1241927
>>41919
Ненужное говно
400 1241985
Лучше делайте новый учебник математики. В какое спортлото могу обратиться с таким предложением?
401 1241992
http://math-cs.spbu.ru/courses/video/
Просто внимательно смотрите эти лекции, и найдите где-нибудь задания по математике. Лучшее, что есть их русскоязычного сегмента.
402 1241998
>>41985
Тебе мало сотен имеющихся учебников?
На крайний случай есть https://www.khanacademy.org/math/calculus-home
403 1242001
>>41998
Мы создадим идеальный учебник математики для нашей эпохи.
404 1242004
>>42001

>Мы


Ты
405 1242005
>>41985

>Лучше делайте новый учебник математики


Бытует мнение, что без сапога в жопе вуза математике научиться будет очень сложно. В вузе тебя ебут и ты вынужден чем-то заниматься, а на самообразовании в математике далеко не уедешь, особенно если с нуля начинаешь.
406 1242010
>>42001
А для "нашей эпохи" без видео и мемасиков совсем никак? В любом случае, на что рассчитывают вкатывальщики в нейроночки и датасаенс если не могут осилить обычные учебники по математике?
407 1242015
>>42010

> без видео


Ну почему, я выше скинул лекции СПБГУ по математике. Если смотреть их и еще заниматься по учебникам, то, может, что-то и получится.
408 1242023
>>42015
Перефразирую, "нашей эпохе" обязательно учиться по видео и мемасикам? По пейперам тоже будете видяшки ждать на ютубе? Вообще, это внезапно похоже на бизнес-идею, поднять канал где милая рыжая "датасаентисточка" с двумя курсами английской филологии будет поставленным голосом пересказывать санити и рисовать заранее подготовленные нефотогеничными бородачами иллюстрации.
409 1242025
>>42023

>где милая рыжая "датасаентисточка"


Вроде такой курс был у мфти, там тяночка вела датасаенс.
Ну вообще да, желательно учиться по книгам, но в довесок можно и серьезные лекции смотреть.
410 1242028
>>42001

>нашей эпохи


Это которая "нихуя не знаю, ничего не умею, со сраковерфлоу код копирую"? Удачи, ага.
Давно пора вернуть пту, чтобы загонять туда в край охуевших современных холопов я б сам пошёл в пту, если бы там качественно готовили, лол
>>42023
Уже ведь вроде есть канал с названием типа "пейпорс ин файв минетс", где какой-то индус разжёвывает всякое популярное говнецо.
411 1242030
>>42028

> какой-то индус


Поэтому я о нем и не знаю. Ниша свободна.
412 1242032
>>42028
ПТУ - это кстати очень годная тема, потому что 90% людей высшее образование совсем не нужно.
414 1242037
>>42033
Там скорее обзорные популярные видео уровня "Анализ данных и машинное обучение простыми словами"
415 1242039
>>42037
Так ведь это то, о чем мечтают напомоечники ИТТ: смареть про машобчик без матеши.
416 1242041
Учебник будет интерактивным и расширит идею 4 фотокарточки с ОП-сообщения.
417 1242044
>>42032

>90% людей


100% людей, вышка для пидоров-говноедов
418 1242047
>>42044
Ну есть же разные врачи, физики-ядерщики, йоба-инженеры и математики, которые придумывают новые дата саенсы.
А остальным не нужна, да.
419 1242050
>>42010
Совсем никак. Современное поколение даже не умеет толково завязывать шнурки и определять время по аналоговым часам. Нужно адаптировать и повышать уровень образования.
420 1242051
>>42030
Ты о нём не знаешь, потому что хуёво гуглишь.
А вот вроде и он: >>42033
>>42037
Не, как раз уровень запросов обитателей треда. Вроде и пейпор разбирает, а вроде и нихуя думать не надо.
>>42032
Ага. В современном виде тем более. В России
421 1242095
>>42041

> Учебник будет интерактивным и расширит идею 4 фотокарточки с ОП-сообщения.


Так расширь её сам, начни с себя. Вот лично я рисовал сигму и интеграл, которые туда потом добавили. Возьми нарисуй что-нибудь ещё.
422 1242116
Нахуя вам матеша
Для дипленинга ничего кроме градиента и перемножения матриц знать не надо!
пруф что это не так
423 1242117
>>42116
Нормы/метрики?
424 1242122
>>42117
Лалки/мемасики
425 1242123
Анончи, кто пробывал треананально сверточный анус с бустингом? Негров распознает?
426 1242125
>>42116
Да, только при устройстве на работу требуют Master Degree, а то и PhD в области математики/computer science.
Я вот например в computer vision хочу, там вот почему-то нужно намного больше, чем матрицы и градиент
427 1242127
>>42117
лол ну чтоб прочитать на вики определение нормированного пространства не нужно 5 лет брать интегралы на мехмате
428 1242128
>>42127
Как будто бы на матмехе берут 5 лет интегралы
429 1242131
>>42127
а что такое пространство?
430 1242132
>>42128
не вполне знаком с программой матмеха, но полагаю что еще года 3 надрачивают концепты еще более далёкие от машоба чем счёт интегралов
431 1242134
>>42132
Суть в том, что на матмехе легче найти людей, которые интересуются машобом.
Ну и, учась на обычного программиста, ты, скорее всего, даже ту жалкую математику для машоба не осилишь
432 1242136
>>42131
ну тык открываешь на вики страничку про нормированные пространства, оттуда идёшь на страничку про векторные
В интуиции это всё уже у нас есть, нужно просто прочитать про то, как это называют окружающие
И таких понятий, совершенно элементарных, не так много, причем можно по ходу обучения мл'ю их познавать, видя примеры и зачем это надо
433 1242139
>>42134
это так, да
434 1242148
Здесь вообще обсуждают что-то кроме метамашобчика?
435 1242150
>>42148
Можем обсудить то что родители хотят чтобы я бросил науку, начал кодить всякие игры-сайтики и нашел обычную тяночку.
436 1242152
>>42150
Так скажи им, что ты уже знаком с дядей йобой, который по совместительству завкафедрой и он тебя берет на работу.
Нет, ну а что, говори, что будешь преподом работать
437 1242157
>>42152
Они оба преподавали и говорят что это для ноулайферов.
438 1242159
>>42157
Бля, такого я не ожидал
Ну говори, что любишь спокойную работу. Скажи, что будешь до 80 лет работать в вузе, в то время как твои сверстники умрут в 40-50 лет, работая на заводе или где-нибудь программистами
439 1242175
>>42136
У тебя есть вышка, только честно?
440 1242177
>>42159
Сын папиного друга закончил на химика, кажется, а теперь успешный кодер за 300кк/c, а дочь маминой подруги отучилась на филологии, после чего стала эйчаром, теперь спокойно живет с кучей свободного времени и хорошей зарплатой. А я отучился на программиста и внезапно не в айти - больная тема для всей семьи, знакомые смеются.
441 1242180
442 1242182
>>42180
Ну так твоё мнение не репрезентативно, для человека, который толком математикой не занимался, начать вики по математике листать будет проблематично. Это тебе всё очевидно, другим не очень
443 1242186
>>42182
Само собой
Но читать все тома зорича тоже плохое решение
Курс по матеше для МЛ должен составлять какую-то очень-очень малую часть от того, что запихивают в вузиках.
444 1242187
>>42186
И такой вполне под силу должно быть осилить даже без прессинга вузовского
только сомневаюсь что он существует
445 1242206
>>42187
Прессинга никакого нет, есть просто семинары и программа и 4 года.
446 1242207
>>42206
Это не прессинг, а мотивация к обучению.
Ну вот покажите мне персонажа, который полностью самостоятельно поднял математику со школьного уровня и хоть как-то вкатился?
447 1242216
придумал вам еще одну схему!
Идешь в вузик первый курс адово ботаешь всё, заводишь знакомства и готовишься к поступлению в ШАД
После поступления в ШАД дропаешь вузик
+Матешка
+Связи
+Бумажка для работодателя
+Сэкономленное на философии и диффурах время
448 1242219
>>42216
А где ты жить будешь?
449 1242225
>>42216

>первый курс адово ботаешь всё


Если ты какой-нибудь сверхразумист с айсикью > 180, то может и осилишь.
Обычные люди идут в шад, когда уже учатся в аспирантуре/магистратуре
image.png125 Кб, 1024x649
450 1242226
>>42216
В вузик меня не взяли.
451 1242230
>>42226
Выше скидывали лекции спбгу, там высший матан с нуля объясняется
452 1242233
>>42216
Залез в вики. А разве в ШАД учат машобу? Вроде там статистика и бигдата только.
453 1242235
>>42233

>А разве в ШАД учат машобу?


Там анализ данных есть.
Но вообще можно и машоб после шада.
454 1242236
>>42230
Я предпочитаю выписывать темы из википедии и смотреть объяснения на ютубе, они меня расслабляют и успокаивают.
455 1242237
>>42235
Области очень похожие и во многом пересекаются, но это разные вещи.
456 1242238
>>42236
Так эти лекции на ютубе есть, лол.
Просто например для человека, который ни разу ничего не слышал про множества, функции и прочий высший матан, будет гораздо проще и легче начать с каких-нибудь лекций, которые его заинтересуют, а потом уже можно и книжечки начать ботать.
457 1242244
458 1242246
>>42244
Ну расскажи, как ты учил математику. имея только знания школы?
459 1242248
>>42233
а что такое маш об а что такое анализ данных
460 1242249
>>42248
машоб - это всего лишь подмножество датасаенса
461 1242250
>>42249
Гораздо более перспективное и полезное подмножество чем весь остальной датасаенс, лол.
462 1242251
>>42249
судя по программе там вполне есть маш об
и одноименный курс и дип ленинги и т.п.
463 1242269
>>42251
Машоб там читают два сема, читает Воронцов даже видео есть, а у местного анона галлюцинации
464 1242275
>>42225

>Если ты какой-нибудь сверхразумист с айсикью > 180


Но машинное обучение же для таких, разве нет? ага, очень сложно подгонять параметры

>Обычные люди идут в шад, когда уже учатся в аспирантуре/магистратуре


Мне казалось, там большинство студентов идут после 2 курса ФИВТ или ФКН или т.п.
465 1242282
>>42246
Так-то в хорошей (даже не математической) школе в мат. классе дают пределы через епсилон-дельта, производную и интеграл.
Я, например, первый курс вообще хуи пинал. В СПбГУ
мимо
466 1242283
Мне кажется что линейная регрессия и прямые пропорциональности слишком просты чтобы быть реальными и это наебалово для тупых обезьян, которые не могут в настоящую вселенскую математику.
467 1242284
Математика нужна тем, кто хочет создать йобаИИ.
468 1242287
>>42283
Просто ты не в курсах, что на предикторы можно навесить пространство функций и это тоже будет линейной регрессией
469 1242293
>>42283
Большая часть машоба - 19-ый век максимум.
470 1242294
>>42287

>на предикторы можно навесить пространство функций и это тоже будет линейной регрессие


Пруфы
471 1242296
>>42293
Основные теоремы из 20-го, алё.
472 1242297
>>42294
Ты дурак или прикидываешься?
473 1242300
>>42284
ну йобаИИ без phd не создать и тут дело больше в среде чем в математике
474 1242302
>>42297
В таком случае тут от регрессии вообще нихуя не остаётся. Это вообще перестаёт быть каким-либо решением или аппроксимацией.
475 1242304
>>42302
С чего ты взял? вот у тебя функция квадратично зависит от предиктора, твой ход?
476 1242307
>>42304
Ты уже определись она зависит или нет.
изображение.png626 Кб, 800x450
477 1242314
>>42216

>схема


Пикрил.

>Диффуры


Что такого в диффурах? Хотя если негров предсказывать, то не нужны, да.
478 1242315
>>42150

>родители хотят чтобы я бросил науку


Говори что машоб не имеет к науке отношения.
479 1242320
>>42283
Поэтому непараметрическая статистика - выбор мужиков!
480 1242322
>>42177
Какое-то окно в круга элиты этот ваш двач.
482 1242342
Чет не нашел как в тенсорфлоу через си-апи сохранить переменные - веса сети. Есть варианты?
483 1242343
>>42342
Он их сам в model dir сохраняет в види чекпоинтов. Бери последний. Потом сохраняй в frozen graph
484 1242444
Обойдите уже гуглокапчу, мне надоело это говно вводить.
485 1242506
>>28769
Квадрат - гладкая функция, везде дифференцируема, а модуль - нет, у него особая точка в нуле. Иногда удобнее работать с функциями, которые можно продифференцировать.
486 1242513
>>28717
если брать квадрат то получается как бы скалярное произведение
на пространстве случайных величин с нулевым мат ожиданием
отсюда имеем некоторые приятности
487 1242515
>>42513
точнее если E[X] = E[Y] = 0, то скалярное произведение у нас <X, Y> = E[XY]
и тогда дисперсия Var[X] это |X|^2 в этом гильбертовом пространстве
В частности независимые случайные величины будут ортогональны и мы получим Var[X + Y] = Var[X] + Var[Y] в таком случае, что приятно и полезно
488 1242516
>>42515
fix:В частности -> например
489 1242517
Как проверить модель на оверфит?
Допустим, я получил оптимальные гиперпараметры с помощью чего-либо. Далее проверяю качество обученной на трейнинг датасете модели на валидационном наборе, и если оно хуёвое, то что? Пытаюсь упростить модель или перейти к другой?
490 1242518
>>42517
Пиздос. Это основы, которые в любой книге в той или иной степени подробности описаны. Иди ищи сам.
491 1242529
>>42517

> Как проверить модель на оверфит?


Очень низкая или нулевая ошибка на обучающие сете и очень большая на тестовом.
492 1242538
>>42529
это какой-то уж очень вырожденный случай
Я бы на кросс валидации посчитал скор, если есть возможность и если скор на кросс валидации будет значительно отличаться от скора на тесте, то да оверфит
Ну или можно смотреть на скор на трейне/тесте в зависимости от итерации обучения и когда скор на тесте пойдет вверх, то мы начинаем переобучаться
Это из каких-то наивных соображений если
493 1242623
первый тред:
коко нужно ли мотимотеко?

последний тред, 2 года спустя:
коко нужно ли мотимотеко?
как проверить модель на оверфит?
494 1242626
>>42623
И что ты этим хотел сказать?
495 1242633
>>42623
Через полгода:
Что такое оверфиттинг?
Через год:
Где скачать нейронные сети?
496 1242635
>>42538

> и когда скор на тесте пойдет вверх, то мы начинаем переобучаться


Ты наверно хотел написать "вниз". Да, такая идея, иногда чуть сложнее используется. А вообще читай книжки. Даже в самом простом гайде для конченных дебилов это написано.
497 1242669
>>28717
Потому что матожидание это минимизация именно квадратичного момента E[(x-С)^2], т.е. С=Ex это такое С при котором для данных x величина минимальна.
Если ты возьмёшь абсолютный первый момент вместо второго E[abs(x-С)], то ты обнаружишь что он минимизируется уже в медиане, а не в среднем.
Поэтому, если ты берёшь матожидание в качестве параметра для оценки "среднего", то к нему логичнее брать именно среднеквадратичное отклонение.
498 1242732
>>42343
а через C-api вообще реально обучать и сохранять чекпоинты?
499 1242739
Продублирую сюда.
Помогите с пандас.
У меня есть датафрейм и я хочу в некоторых его столбцах поменять НА на среднее по этому столбцу, допустим. Среднее у меня вычисляет функция MyMean почему же тогда не работает такой код?
https://pastebin.com/ECAnZtkP
500 1242740
>>42739
Зачем тебе отдельный метод для вычисления среднего по столбцу? Ты ебанутый?
501 1242741
>>42740
А что не так?
Ну вообще две причины есть для этого, а скорее даже три.
Я хочу попрактиковаться в таком синтаксисе.
Я не знал, как mean обходится с пропущенными значениями.
Моя функция работает с датафреймом, а mean с массивом.
502 1242746
>>42739
Делай по каждому столбцу отдельно. ДФ и нампи массив это не одно и то же, например типы данных у столбцов будут разные. Такие операции со всем ДФ это не пандас-вей.
503 1242747
>>42746

>Делай по каждому столбцу отдельно


В смысле циклом проходится? Эх, а я хотел каким-нибудь питоновским изъебом воспользоваться.
Т.е. ты советуешь брать по столбцу, считать среднее и заменять?
И можешь пояснить насчет разницы между датафремом и масивом нумпай. Если я вытащу первый столбец, то это же будет массив нумпай или все же это будет дата фрейм? Т.е. я не очень понимаю, с чем я в итоге должен работать, чтобы следовать пандас-вей.
504 1242757
505 1242780
>>42747
Да, циклом. Там делов на одну строчку больше по сравнению с твоим кодом.
ДФ это набор столбцов. Каждый столбец это т.н. Series. Чтобы преобразовать это в массив нампи, нужно использовать поле values.
Padas-way это преобразование датафреймов как таблиц, наподобие реляционной БД. Там для этого есть индексы, всевозможные join и groupby.
506 1242782
>>42780
Последний вопрос, можно?
А в чем смысл этих values, если я могу обратиться через iloc допустим и индекс и получу то же самое число?
507 1242786
>>42782
Через iloc ты можешь получить либо скаляр, т.е. одно число, строку и т.п., либо опять же пандасовские типы DataFrame или Series. values преобразовывает все в типы numpy.
Еще один тонкий момент, который не упоминается в доках: любой доступ к ДФ на порядки медленнее доступа к массивам нампи. Так что часто не имеет смысла пользоваться пандас, если тебе не нужны его специфические вещи. Если у тебя там просто матрица в ДФ, лучше взять от нее values и работать с массивом.
508 1243318
>>40865
You mean "latest"?
Тред утонул или удален.
Это копия, сохраненная 19 сентября 2018 года.

Скачать тред: только с превью, с превью и прикрепленными файлами.
Второй вариант может долго скачиваться. Файлы будут только в живых или недавно утонувших тредах. Подробнее

Если вам полезен архив М.Двача, пожертвуйте на оплату сервера.
« /pr/В начало тредаВеб-версияНастройки
/a//b//mu//s//vg/Все доски