Двач.hk не отвечает.
Вы видите копию треда, сохраненную 27 ноября 2018 года.

Скачать тред: только с превью, с превью и прикрепленными файлами.
Второй вариант может долго скачиваться. Файлы будут только в живых или недавно утонувших тредах. Подробнее

Если вам полезен архив М.Двача, пожертвуйте на оплату сервера.
НЕЙРОНОЧКИ И МАШОБ ТРЕД №?.9 /ai/ 1267390 В конец треда | Веб
Очередной тред про хипстерские технологии, которые не работают.
Продолжаем спрашивать очевидные вещи, о которых знает любой индус, прочитавший хоть одну книгу по машобу.

FAQ:
Я ничего не понимаю, что делать? Либо в тупую import slesarplow as sp по туториалам, либо идти изучать математику курсы MIT тебе в помощь. Не нужно засирать тред вопросами типа "что такое сигма?".
Какая математика используется? В основном линейная алгебра, теорвер и матстат, базовый матан calculus многих переменных.
Что почитать для вкатывания? http://www.deeplearningbook.org/
В чем практиковаться нубу? http://www.deeplearning.net/tutorial/ | https://www.hackerrank.com/domains/ai | https://github.com/pytorch/examples
Где набрать первый самостоятельный опыт? https://www.kaggle.com/ | http://mltrainings.ru/
Где работать? https://www.indeed.com/q-deep-learning-jobs.html
Где узнать последние новости? https://www.reddit.com/r/MachineLearning/ | http://www.datatau.com/ На реддите также есть хороший ФЭК для вкатывающихся
Где посмотреть последние статьи? http://www.arxiv-sanity.com/
Где ещё можно поговорить про анализ данных? http://ods.ai/
Нужно ли покупать видеокарту/дорогой пека? Если хочешь просто пощупать нейроночки или сделать курсовую, то можно обойтись облаком. Иначе выгоднее вложиться в 1080Ti или Titan X.

Список дедовских книг для серьёзных людей:
Trevor Hastie et al. "The Elements of Statistical Learning"
Vladimir N. Vapnik "The Nature of Statistical Learning Theory"
Christopher M. Bishop "Pattern Recognition and Machine Learning"
Взять можно тут: http://libgen.io/

Напоминание ньюфагам: персептроны и прочий мусор середины прошлого века действительно не работают на серьёзных задачах.

Архивач:
http://arhivach.cf/thread/389248/
Остальные в предыдущих тредах

Там же можно найти треды 2016-2017 гг. по поиску "machine learning" и "НЕЙРОНОЧКИ & МАШОБЧИК"

Предыдущий тред: >>1252855 (OP)
2 1267458
Можно ли научить машину ТРИЗу и заставить изобретать?
3 1267466
>>67458

> ТРИЗ


Совковое наебалово. Много ты знаешь изобретений, созданных этим методом?
4 1267468
>>67458
Плати мне биткоин и решим вопрос.
5 1267471
>>67466
Большинство советских технологий, если верить автору.
6 1267476
>>67468
Давай кошелек.
7 1267495
Умный анон, поясни нормальным крайне доступным языком, что такое "эффективность оценки", а так же "асимптотическая эффективность"? Результаты гугла и вики для меня нечитаемы.

тупой анон
8 1267506
Привет. в прошлом писал про тексты и прочий генсим.
В общем обучил я значит по вишневскому модель, запрашиваю мост_симилар к слову "время". А он мне говорит:
[('скорой', 0.9968923926353455), ('The', 0.9966970682144165), ('Мерседес-Бенц', 0.9962846636772156)]

Он ахуел?
9 1267534
>>67506
у тебя данных-то сколько? если меньше 500 мб, то уменьшай размерность вектора и хотя бы делай .lower() на своих "Мерседес-Бенц". И насколько у тебя данных различаются? Если обучаешь на какой-нибудь ерунде типа дваче, то у тебя половина сообщений будет одинаковыми, смело можешь делать set и набирать еще данных.
10 1267537
>>67495
Это нечеткий петух использует умные слова для того, чтобы сказать, что нейронки требуют много данных для обучения (много примеров одного и того же класса), что на самом деле является проблемой. Но он, конечно же, не учитывает всякие тренды на zero-shot learning и one-shot learning, так как он из машоба видел только курс индуса на ютубе.
11 1267582
>>67537

> нейронки требуют много данных для обучения (много примеров одного и того же класса), что на самом деле является проблемой.


Это ты понимаешь, уже хорошо. Но это не проблема, это суть ваших нейроночек. Они могут обрабатывать данные только так, квадратно-гнездовым способом, при том что примерно 85-90% данных вообще не нужны например для построения решающего правила, классифицирующего классы, т.к в этом случае роль играют только примеры, находящиеся на границах классов. Когда речь об игрушечном примере с десятком точек, разницы нет. Но когда нужен классификатор негров, построенный на многогигабайтном датасете, вот тут и получается, что без топовых видюх нихуя не сделать. И не надо говорить, что SVM распознает негров хуже, это алгоритм из прошлого века, его нужно сравнивать с перцептроном, а не с ганами. Речь о самих подходах к проблеме.
12 1267586
>>67495
Эффективность грит, что твоя оценка самая пиздатая. Асимптотическая эффективность используется, чтобы ты вообще хоть какую-то оценку получил, а то эффективная оценка может и не существовать.
13 1267595
>>67458
Можно, если сможешь научить нейронку решать конечную проблему физического противоречия. Только вот не сможешь же.
14 1267673
>>67534
https://m.habr.com/post/343704/ по этому тутору делал, спасибо попробую сегодня покурить по обрывкам инфы от тебя какой то мануал. Слушай а может ты что то подкинешь мне чтобы я не блуждал в этих дебрях информации в интернете, на английском тоже сойдёт.
На вишневском учил, сама модель 20метров вроде встала, хочу научить её стилизировать моё сухое говно под говно с которого тякут тянки, не баду ради, а копирайтинга для
15 1267679
>>67673
Тянки текут с ганов и имейджпроцессинга.
16 1267687
>>67679
Да нет, они от красивого текста про еблю и чувства лубов и все такое., тякут) хотя тут знаешь все от человека зависит, толи он нихера в представить не может и ему картинку нужно показать, либо написать и дать прочитать чтобы его нейронка в голове сама нарисовала картинку)
17 1267715
>>67582

Как хорошо, когда ты во всем разобрался и всё уже знаешь до конца.

Теперь иди нахуй.
18 1267723
>>67687
https://habr.com/post/326380/

думаю, тебе стоит попробовать готовые эмбеддинги с http://rusvectores.org/
эмбеддинги сами по себе мало дают
19 1267765
>>67715
А что ты подгорел-то, мань? Я разве что-то не так сказал? Я понимаю, что проще нести хуйню и кукарекать про нечёткого петуха, чем признать, что петух тут только ты. И сам нихуя не понимаешь в том, про что несешь
20 1267777
>>67723
Тееекс, бнадеюсь ты тот анон что это мне кидал в телеге, бтв ещё раз спасибо, долго обрабатываю статейки я эти своим мозгом.
Статья кайфовая и она в принципе решает всю проблему оьощнаяенную ранее: " рерайтинг", но там модель общая, а я хочу эдакого романтика сделать, так что обучать свою модель все равно придётся. Но для того чтобы обеспечить себя можно замутить такую штуку и рерайтить всякий информационный мусор о здоровье, крипту валютах, беременностях и прочем... Какой кайфовый мир, ааааах!
21 1267784
>>67777
Ну и фантазёр пиздос. Уроки то сделал?
22 1267806
Здарова пачаны. Объясните плиз гуманитарию насколько вообще все эти ваши нейроночки близки к созданию искусственного разума и возможно ли это в принципе?
И насколько правдив этот видос?
https://www.youtube.com/watch?v=WbUJZJz9cag
23 1267808
>>67806
Ни секундой не близки. Гугл напиздел, что создаст уже к 2020-му. Сейчас нет даже зародыша.
24 1267810
>>67806

>возможно ли это в принципе



Ну ты же думаешь как-то?
25 1267815
>>67808

Думаю как continuous learning осилят - дело максимум 10 лет
26 1267820
>>67815
Окей. Когда реализуют абстрактную концепцию хуя с горы, тогда то и заживём!
27 1267848
>>67815

> continuous learning


Очередная хипстерская поебень под смузи?
29 1267878
>>67777
нет, не он, но вот еще одна ссылка
https://www.robinsloan.com/voyages-in-sentence-space/
1.png13 Кб, 950x67
30 1267898
>>67876

>Gopnik


Вот вообще ничего нового не прочитал. Всю эту хуйню из года в год одни сойбои переписывают у других. А толку хуй.
31 1267899
>>67876
Лол. Полнейшая хуита. Как HTM, придумали говно и славят себя что такое изобрели, а сойбои им верят.
15375222710340.png23 Кб, 301x194
32 1267985
Как с помощью keras реализовать то, что на картинке?

from keras.models import Sequential
from keras.layers import Dense
model = Sequential()
model.add(Dense(8, input_dim = 3, kernel_initializer = "random_uniform"))

Так? Как указать количество нейронов в выходном слое?
33 1268091
>>67390 (OP)
Фолды здесь?
34 1268093
Есть ли в треде успешные kaggle-господа? Делитесь историями. Насколько сложно было вкатиться, какие проффиты поимели
35 1268094
Вот задачка для нейроночников: есть фильм, требуется в видеопотоке выделить героев и подписать, как кого зовут, информацию взять из аудиодорожки. Как решать будете?
36 1268112
>>68094
Возьму нейросеть точеную, на пике посажу.
38 1268242
>>67899
Что не так с htm?
39 1268261
>>68242
Не нужно.
40 1268279
>>68261
А можешь подробнее?
я пока не особо лез в нейроночки, но читал про htm и показалась интересной
41 1268281
>>67723
А скажи, как мне подкрячить к гензиму? Вот качаю я значит самую большую модель с русвектора, качается чудо в архиве, в архиве 7 файлов что мне грузить
в gensim.models.KeyedVectors.load_word2vec_format
М?

Кстати теперь
мостсимилар "Стол"
[('губами', 0.9999538660049438), ('цветы', 0.9999417066574097), ('комнаты', 0.9999401569366455)]
42 1268312
>>67985
Бамп.
43 1268441
>>68312
Ты уже два дня не можешь посмотреть документацию, туториал, блог, любой пример? Ты понимаешь, что ты спрашиваешь буквально хеллоу ворлд от кераса? Даже не физзбазз, хеллоу ворлд? Ты безнадежен, бросай это дело сейчас, пока не слил впустую годы своей жизни.
44 1268504
Посмотрел на ютубе новинки, прямо магия ИРЛ, вау.

Какой бэкграунд нужен для вката? если прямо ноль, то что учить ДО?

Деньги не интересны, интересно смочь в магию.
45 1268536
>>68504
Новинки? Ссылки можешь привести?
46 1268539
>>68504
Питон, матан класса до 9-10 и всё.
48 1268561
Можно ли научиться скорочтению с помощью приложений на анроид?
49 1268639
>>68561
Нет, конечно.
50 1268662
>>68441
Хочешь верь, хочешь нет, но нигде нет туториала в виде:
код - его визуальное представление.
Везде просто дается несколько строчек, которые с нуля непонятно, как интерпретировать.
51 1268836
>>68662
Есть подобные вещи...
52 1268871
>>68662
Бросай это говно. Оно не для тебя.
Deep learning specialization на Coursera
53 1269061
Аноны, не могли бы вы ответить на пару вопросов

Дико доставляет сама тема, хочу вкатиться.

Но так же интересно, реально ли устроиться куда-то?
В моём городе от силы вакансии 3-4, с "перезвоним позже" могут спокойно все продинамить.
Или все же, думать о каком-то своем стартапе

Второй вопрос:
Как понять, когда ты готов к трудоустройству?

Бонус-вопрос:
Какой нужен опыт для работы, опыт той же веб макаки пойдет?
54 1269094
>>68281
Отлично,
@Хочешь поверяй, хочешь нет, но везде нет туториала в миндале:
идентификатор - его фотограмметрический понятие.
Всюду просто достаётся немного строк, которые с нуля неизвестно, как эксплицировать.@
Просто превосходно
55 1269150
И все же, поясните за htm
56 1269165
>>69150
Негров распознает пока плохо.
57 1269179
>>67390 (OP)
Котаны, пытаюсь научить bvlc_googlenet видеть хуи, сделал 85к итераций, а до сих пор повсюду глаза какие-то выдаёт. Хуёв если что 160 штук, один хуй = одна категория. Может итераций мало, или датасет слишком маленький?
58 1269191
>>69179

>один хуй = одна категория


Ну и мудак. Делай в одну категорию все хуи. Пиздец, ты хоть основы понимаешь?
59 1269194
>>69191
Я так и хотел сделать с самого начала, но на хабре начитался что стоит в разные категории хуи раскидывать. Давно уже вкатываюсь в нейроночки, писал перцептрон без сторонних библиотек, но пока-что всю эту ебаторию со слоями не совсем понимаю. Обучаю нейронку на хуяих и параллельно читаю про их проектирование.

Та самая статья на хабре: https://habr.com/company/io/blog/264757/
60 1269332
>>67537
>>67495
Спасибо за ответы
61 1269334
>>69194
На Хабре сидят в основном унтеры всякие. Хотя переводчики классные бывают, уверен они имеют какой-то профит.
sage 62 1269345
Че вы только картиночки дрочите давайте про тексты говорить
>>68662
>>69094
Это же шидеврвальна!
e3.jpg985 Кб, 2260x1864
63 1269382
>>69179
Сначала тебе нужно нейронку дообучить распознавать хуи. Достаточно двух категорий - хуй/не хуй. Хуев чем больше - тем лучше. 160 штук маловато.
Когда сетку дотренируешь, и она будет хуи хорошо классифицировать - тогда можно deepdream натравливать.
64 1269400
>>68279

Не слушай этих манек, читай научные бумаги лучше
Sage 65 1269404
Это чтобы хуетреды банить сразу же?
66 1269407
>>69334

>На Хабре сидят в основном унтеры всякие


то ли дело двощь
67 1269411
>>69407
но двоще всё знают про хуи
68 1269443
Сап, аноны. Есть какие-либо статьи/гайды с подробным описанием библиотек pandas и scikit-learn, кроме документавции?
69 1269448
>>69407
одно другого не исключает же
70 1269482
Объясните, когда нейронка обучается, она задействует память?
Она же должна как-то "запомнить" "правильные" варианты, верно?
Если да, то как много для этого в среднем требуется памяти?
Сколько в среднем весит сама нейронка?
71 1269494
>>69482
Пятистрочный файл несколько КБ, либа на несколько МБ и матрицы весов максимум один ГБ.
72 1269498
>>69494
Охуеть, почему так мало?
А если в сети пара тысяч нейронов, это сильно повлияет на задействованную память?
Где-то вообще можно почитать про вот такие вещи без жёсткого матана?
73 1269514
>>69498

А что тебя удивляет? Там в каждом нейроне одна функция + куча весов по 8 байт каждый. Некоторые даже человеческий мозг оценивают в несколько Тб, так что он вполне может влезть тебе на винт, вопрос в архитектуре
74 1269519
>>69498
Пара тысяч это хуйня. В нормальной бывает и миллионами.
75 1269539
>>69514
>>69519
Просто, я всегда на мозг смотрел как на архитектуру с огромнейшим объёмом памяти.
Тогда задам закономерный вопрос : почему никто не хранит информацию в нейросетях?
76 1269542
И да, почему нужна такая мощная видеокарта?
77 1269547
>>69539
Потому что это ебланизм. Всё равно что хранить информацию закодированную числами, то есть так как она в компьютере и хранится.
>>69542
Потому что вычисления охуенные.
78 1269572
>>69539

А ты попробуй вспомнить то что видел, например, 3 года назад 21 марта в 1080p
79 1269589
>>69542

> И да, почему нужна такая мощная видеокарта?


Чтобы ты (((нвидии))) продажи поднимал.
80 1269597
>>69382
То есть, лучше самому модель запилить? Или лучше дальше googlenet ебаться?
82 1269617
>>69572
То есть, хочешь сказать эта информация безвозвратно удалена мозгом?
83 1269634
>>69617

Скорее упакована в говно, и оставлено только то, что связано с эмоциональным откликом/важно, а какой-нибудь генерик день тебе будет сложно вспомнить
84 1269636
>>69597
Гугли fine-tuning что ли. Рано ты за рисование хуев взялся.
85 1269646
>>67390 (OP)
Анонче, привет!
Запилил модельку, посчитал RMSE и всё такое. Теперь пытаюсь как-то анализировать результаты работы модельки. Типа на каких объектах модель выдала хуевые результаты, на каких - хорошие. Не уверен, что есть какие-то там алгоритмы для этого, но могли бы покидать хороших материалов анализа по результатам работы модели?
Надеюсь, понятно изложил мысль. Я хуй. Спасибо
86 1269660
>>69636
Спасибо, погуглю. Надо же какую-то цель ставить и пытаться её достичь. Так проще учиться.
87 1269788
Посоны а проясните про рекомендательные системы (напр для магаза).
Насколько я понимаю обычно составляется матрица юзер - покупки, уменьшается размерность, например, svd разложением а потом юзеру предлагается то что покупали похожие на него юзеры.
А если есть еще какая-то инфа про пользователей, типа там возраста и длины члена то как-нибудь можно эту инфу использовать?
Буду благодарен за линк на алгоритм / статью
88 1269846
>>69788
Статистику уровня "если купил шмурдяк три семерки и цветы, то купит и гондоны" можно посчитать напрямую, алгоритмы типа apriori, eclat итп из области association rule mining. Естественно, в такие модели можно добавить и длину члена и все что угодно.
89 1270749
Посоны, а как граф запихать в нейронку?
15052567699061.jpg94 Кб, 1056x704
90 1270763
Посоны, посоветуйте годный гайд по решающим деревьям, хотеть полное объяснение как разбиваются объекты, почему и т.д желательно с доказательствами.
91 1270878
Когда нейроночки смогут в генерализацию (CIFAR-10 на CIFAR-10 хотя бы), контекст (овцы, покрашенные в оранжевый цвет распознаются, как цветы, лол), sample efficiency и устойчивость к адверсариальным атакам? А то создаётся нехорошее впечатление, что текущее направление это тупик и нет никаких идей, куда идти дальше.
92 1270885
>>70878
Ты когда-нибудь руководил людьми? Я тебе расскажу: они тупые и ленивые. Делают ровно столько, чтобы избежать пиздюлей - ни больше, ни меньше. Нет угрозы пиздюлей - нет работы. Инициативы от них не дождешься.
При чем тут нейроночки? Подумой.
93 1270891
>>70885
Двачую, люди слишком тупые и никчёмный чтобы делать то, что лучше них.
94 1270926
>>70878

> создаётся нехорошее впечатление, что текущее направление это тупик и нет никаких идей, куда идти дальше.


Ещё в 60х умным людям было понятно, что это тупик.
95 1270933
>>70878

Тупик, тупик, можешь не вкатываться
96 1270973
Сап, программач. Хочу накатать свою нейросеть, чтобы вылечить себя от одиночества и безделья. Умею в питон и дата сайнс. Какие курсы посоветуете? Хочу прям полностью сам написать, без всяких датафлоу.
97 1270980
>>70973
Впрочем, извиняюсь, что в шапку не заглянул
98 1270982
>>70973
Самому написать полносвязку можно за один вечер по памяти, если ты и правда знаешь питон и датасаенс.
99 1270984
>>70973

>одиночества


Ты с ней под пледиком няшиться собрался, что ли?
100 1270993
Объясните дебилу, в чем же прогресс в многослойном обучении случился в 2012 году, если алгоритм не поменялся(тот же бэкпроп). Просто кто-то из ученых внушил себе и другим, что бэкпроп не будет работать после 3-ех слоев и все затормозилось?
42dd01790b8865fb388ea078c3e4d380.jpg45 Кб, 800x533
101 1271006
Кто то писал самообучающегося бота для покеррум параш, как успехи?
Стоит ли пробовать ради экспириенса, или неблагодарная херня?
102 1271009
>>71006
Бля, надо попробовать.
103 1271013
>>71009
Можешь не надеяться поднять триллиарды на покеррумах, боты сразу баняться банально по аномальному винрейту.
Но как задачка для практики правда интересна.

МимоСпрашивающий.
104 1271015
>>70973
https://neuralnet.info/chapter/персептроны/
Смотри примерно с середины главы, там есть "прям полностью"
105 1271016
>>71013
Аномальный винрейт всмысле высокий?
106 1271017
>>71013
Вообще если честно я умнее, чём ты подумал. Я подниму, я знаю как.
107 1271029
Скиньте АПИ для покеррумов. Жрать не на что.
108 1271032
>>70993

Есть мнение что мощности подтянулись и пересеклись с объемами данных (хотя до сих пор на моей пеке сет дрочится часов 20)
109 1271040
>>70993
Прогресс случился ещё в 80х, с появлением ленетов. И у Лекуна вроде что-то было про это, почему ничего не выйдет если взять простой перцептрон с кучей слоёв. Никто никому ничего не внушал, можешь сам проверить в керасе или ещё где, как будет работать перцептрон с хотя бы парой десятков слоёв.
110 1271115
>>71040

> простой перцептрон


Это там где функция активации - знак?
У сверточных почему все нормально?
sage 111 1271129
>>71115

>У сверточных почему все нормально?


Потому что фичи детектят лучше. В обычном перцептроне картинка, например, полностью рассматривается, а в перцептроне со свёрточными слоями по ней ходит окошко, которое вытаскивает нужное.
112 1271176
>>71129
Так так и пиши, что полносвязную сеть хер настроишь после 3-ех слоев, а придумали настраивать сверточные.
113 1271218
Кто-нибудь может встречал проекты по генерации CSS с картинки? То есть берём самое банальное, есть скриншот с одним элементом, например кнопка, нужно сгенерировать стили этой кнопки по скрину.
На сколько вообще это сложно сделать? в нейронках полный 0, но готов разобраться
114 1271233
>>71218
Был же проект jpg2html, нейроночка по картинке писала код. Гугли.
Моча тут есть вообще? Почему >>71231 (Del) хуйлопана не банят?
115 1271509
116 1271596
Как заставить линейную регрессию работать?
1. Масштабировать признаки.
2. Убрать выбросы. (а как их найти?)
3. С помощью Lasso поудалять лишние признаки.
4. Применить всякие функции к признакам и к целевой переменной (а как понять, какие?).
А ещё какие способы есть? (этих не хватает)
117 1271632
>>71596
Провериться на гетероскедастичность и мб бороться с ней, использовать другую модель, ???
118 1271633
>>71596
ISLR читай. Там очень много про линейную и не только регрессию с кучей примеров что и как.
119 1271656
Сап двач помоги. У меня есть ноут офк без гпу и т.д. я хотел бы с потренировать модель для обджект детектиона есть ли какая то возможность сделать это бесплатно?
120 1271659
>>71656
Можешь модель уменьшить, там рост ресурсов по оси точности экспоненциальный. Объект детектор можешь на своём ноутбуке запускать.
121 1271660
>>71656
google colab
122 1271984
Привет. Сосач посоветуй годный гайд про desicion tree regression. Чтобы там объяснялись всякие оптимизации и в итоге можно было запилить свое дерево.
123 1272072
>>71984
Смотри, берёшь формулу из Вики, мапишь её на признаки, а затем сортируеешь. Это три строчки, а дерево уже вырастил.
124 1272087
>>71596
Покажи пример данных, где этого не хватает.
128 1272445
>>67390 (OP)
Че на четвёртой картинке в формуле Байеса за черточка такая между P(йоба1|йоба2) чо там значит |
sage 129 1272447
>>72445
Условная вероятность. Зная, что это формула Байеса, немного странно спрашивать такое
130 1272449
>>72087
Я думаю, мои данные -- не такой пример.
Но не знаю, не взлетает. А в каком порядке применять 1, 2, 3, 4? И как 2 и 4 можно реализовать?
131 1272482
>>72447
Не понял. Что | делает?
133 1272584
>>67390 (OP)

>персептроны и прочий мусор


Чиво блять? А из чего нейронки состоят, типа из перцетрона жи. Чо за хуйня, чо тогда в нейронках то используют?
134 1272587
>>72584
Из пучков. Даже математика это наука о пучках.
image.png45 Кб, 275x183
135 1272588
>>72587
Ну давай расскажи чо это за хрень такая тогда из чего они состоят?
137 1272595
>>72591

>https://ru.wikipedia.org/wiki/Пучок_(математика)


и где там хоть одно слово про нейросети а?
138 1272616
>>72072
Хуйня там на вики, относительно разумное описание тут
https://cran.r-project.org/web/packages/partykit/vignettes/ctree.pdf
139 1272623
>>70885

>Ты когда-нибудь руководил людьми работающими за статичную ставку


Пофиксил, а то думаю что тут не так.
140 1272626
>>72595
эй пучки я жду ваших ответов, как связан пучков и нейроночки?
141 1272690
>>72627 (Del)
ну бле, чо вы такие трудные.
Поясняйте давайте, у вас тхред нейроночки называются, а вы мне про пучки свои, чо за хуйня, переименовывайтесь в пучковый тхред тогда, либо поясняйте.
142 1272708
>>72690
Тебя троллят, нейроночки пока математикой плохо описаны.

Пучки - это кусок топологии, про связь нейроночек и топологии написано в этом треде на реддите.

https://www.reddit.com/r/MachineLearning/comments/5jfaox/d_what_are_current_relations_between_algebraic/

Если интересно, в Deep Learning book есть немного про многообразия и их связь с нейроночками, но популярным эвристикам там посвящено раз в 10 больше страниц.
144 1272718
>>72708

>Тебя троллят


вот пидоры двачерские.

Спасибо анон, хотя бы один адекват в треде.

обоссал перекатывателя за такое говно в шапке
145 1272727
>>72708

> Тебя троллят, нейроночки пока математикой плохо описаны.


Опять ты на связь выходишь, мудило? Не отрицаю того, что с пучками это ещё один местный опущ без мозгов. Что там математикой не описано, мань? Полторы формулы, которые и представляют собой нейроночку? Или что?
146 1272732
>>72727
а я понял, тут у вас завелся поехавший мотиматик в тхреде бугуртящий со своего бесполезного диплома, пытающийся свои говнотеории приложить туда куда они ниразу не вписываются. Понятнинько.
sage 147 1272740
>>72584
Это добавлено, потому что несколько тредов назад мелькали объебосы, которые брали голый перцептрон и орали, что "почему-то" ничего не работает.
>>72718

>говно в шапке


Малолетний дебил, у нас доска тут немного не /math/, а /pr/. В конечном итоге заходящий сюда хочет не диссертацию защитить, а разобраться в хипстерских технологиях, для которых математика инструмент, а не самоцель.
15368398129820.jpg10 Кб, 276x183
148 1272744
>>72732
Скорее типичная жертва маркетинга, верующая что нынешний хайп со сверточными сетями - это вершина развития машоба, хипстеры с индусней пророки, а их пейперы ниочем под смузи - святое писание. А все, что было до этого - устаревшее неактуальное говно.
149 1272746
>>72744
почему другие методы не используют в коммерции, если они лучше сверточных сетей?
150 1272750
>>72740
Но в шапке правда говно из жопы. Диплернинхбук ниочем и изложение там для новичков не пригодное, ебут митеньку на десятки страниц с многоэтажными формулами там, где все можно парой картинок объяснить. И одновременно забыли весьма неплохую именно для вкатывальщиков книгу на русском, где все, в т.ч и диплернинх поясняется не только на словах и картинках, но и на готовом коде с нуля.
151 1272754
>>72727
>>72740

господи, да что с вами не так, откуда вы беретесь? полторы формулы бэкпропогейшена не отвечают на вопрос, почему нейроночки работают.

например, список вопросов, на которые жду от вас ответа.

почему дропаут дает лучше результат (сто раз уже "доказали", но не в совсем формальном виде)
почему attention работает лучше lstm на длинных последовательностях, а lstm на коротких (если это так)?
почему работает (или не работает super-convergence), или это вообще выдуманный концепт?
152 1272755
>>72740

>немного не /math/


А зачем тогда в шапке писать, что нейроночки это чистая пучковая математика?
153 1272757
>>72754

> почему нейроночки работают


Нука докажи и покажи почему нейроночки работают? Давай ты ответы лучше, что там мотиматика твоя доказала, кроме бекпропердолейшена.
154 1272762
>>72754

> полторы формулы бэкпропогейшена не отвечают на вопрос, почему нейроночки работают.


Потому что ты их не понимаешь?
155 1272768
>>72762
Их никто не понимает.
156 1272771
>>72757
например,
Зачем нужно это обоснование? Казалось бы, дропаут и так отлично работает.
Одно важное следствие состоит в том, что изначально доля выбрасываемых ней-
ронов в дропауте была фиксированным числом. Но теперь, когда мы переформули-
ровали обучение с дропаутом в виде максимизации вариационной нижней оценки,
мы без проблем можем оптимизировать долю дропаута тоже: для этого достаточ-
но просто зафиксировать остальные веса и максимизировать ту же самую оцен-
ку по доле дропаута! Более того, мы теперь можем подбирать ее индивидуально:
для каждого слоя, для каждого нейрона, даже для каждой связи между нейронами.
Этот метод получил название вариационный дропаут (variational dropout) [279].
Изначальная процедура дропаута таких вольностей совершенно не предусматри-
вала, из нее не было понятно, как можно автоматически настраивать вероятность
дропаута. При этом никакого страха переобучиться нет — мы не меняем априор-
ное распределение, просто все точнее и точнее приближаем апостериорное. Более
того, выяснилось, что вариационный дропаут добавляет разреженности в глубо-
кие нейронные сети, то есть обнуляет подавляющее большинство весов [374]; этот
результат, кстати, был получен в России, в лаборатории Дмитрия Ветрова
sage 157 1272775
>>72750

>диплернинх


>на русском


>на готовом коде с нуля


И тут ты такой даёшь ссылку на эту хуйню.
158 1272782
>>72775

> И тут ты такой даёшь ссылку на эту хуйню.


Вроде в прошлом треде было, я её даже на рыгхост заливал.
>>72768

> Их никто не понимает.


Школьничество твоё заебало с тобой вместе. Не говори про всех, говори про себя. Ничего кроме аппроксимации функций в нейроночках не было, нет и не будет.
159 1272791
>>72782
Неа, нет ничего. Ни в прошлом, ни в позапрошлом.
160 1272793
>>72782
Двочую >>72791, кого ты наёбываешь?
161 1272941
Планирую делать диплом распознавание меланомы по фоткам, планирую юзать тензерфлоу. Какие подводные? Нормальная тема или лучше свапнуть?
162 1272958
>>72941
из подводных только датасет для обучения. Сможешь ли ты раздобыть достаточное количество размеченных фоток?
163 1272968
>>72941
Тема ок, довольно хайповая. Такие проекты уже есть, ищи. Что не мешает тебе сделать свой, но как выше верно заметили, нужны большие объемы данных.
164 1272990
>>72771
кстати поясните как попасть к нему в лабу, какие цели и подводные
165 1272996
>>67390 (OP)
Пацаны! я ток щас понял что МАШОБ это МАШинное ОБучение! Ехууууууууууууууууу!!! ЯЯ до этого гуглил слово машоб, но мне выдавало в поиске только ссылки на эти треды. А теперь до меня дошло! уууууу вы на американских горках!
мимо учим джаву в шараге
166 1272997
>>72782
Ссылочка-то таки будет или нет? А то гуглится только Николенко и др., где те же "многоэтажные формулы", есть код реализации на слесарьплове который так-то для игрушечных примеров можно тупо по поиску на гитхабе найти, не говоря о том, что его даже сами создатели фреймворков пишут, но охват меньше, чем в диплёрненхбуке.
167 1272998
>>72754

> откуда вы беретесь?


С первого курса, вестимо. Пердун какой-нибудь с кафедры формулу накидал на доске, состоящую из суммирований по индексам - всё, значит "объяснено".
168 1273003
Господа, что нужно иметь, чтобы устроиться по нейронкам в какую-либо контору?
КТН нужон?
169 1273011
>>73003
Мне больше интересно реально ли вкатиться после курсов типо Нетологии или Гикбрейнса без диплома бакалавра или магистра? Вышка есть но она инженерная и вуз шаражный.
170 1273038
>>73003
Об этом тебе расскажут в какой-либо конторе.
171 1273046
Помогите вспомнить название фреймворка для (не глубокого): написано на крестах и куде, распределенные вычисления во все щели. Позиционируется как альтернатива спарку - у них в вики на гитхабе приводились таблицы сравнения бенчмарков.

Видел это чудо где-то год-полтора назад, сейчас не могу найти, все время натыкаюсь на mxnet.
172 1273050
>>73046
Thrill, Caffe? хз, если честно, мутноватое описание.

посмотри ещё тут https://github.com/topics/distributed-computing?l=c++
173 1273081
Скиньте почитать про самые новые оптимизаторы
174 1273087
>>73081
Пацаны грят, новые оптимизаторы это опиум для народа. В плане обобщения и всяких новых моделей, РЛ и т.п. СГД с моментумом рулит.
175 1273205
>>73046

Vowpal Wabbit ?
176 1273207
>>73011

Нет конечно
177 1273212
>>73205
еще пока гуглил про DyNet вспомнил, хотел его попробовать, но не попробовал
https://skymind.ai/wiki/comparison-frameworks-dl4j-tensorflow-pytorch#dynet
178 1273444
Где про VAE почитать достаточно подробно
Оригинальная статья что-то не заходит
179 1273451
>>73444
У Кингмы в диссере отдельный раздел его енкодеру посвящён. Не ебу, правда, насколько он подробнее оригинальной статьи.
https://www.dropbox.com/s/v6ua3d9yt44vgb3/cover_and_thesis.pdf?dl=0
180 1273825
>>67390 (OP)

Так нейродвочаны, кароч я вкатываюсь, так шо сильно не пиздите, можете обоссать максимум.
Я вот читал кароч про нейроночки, анга смотрел, он там мне дич какую то втирал с мотиматикой, даже яндекса шад глянул, там еще больше дичи матиматической.
А на днях меня осенило, надо всеголишь взять какие нибудь данные, табличку, где есть какие то значения и взять другую табличку в которой каждая строка соотвествует строке из таблички с данными исходными. И запустить какой нибуть змеиный скрипт, это все прогонять через себя. И на выходе иметь готовую нейросеть, в которую можно скармливать данные по типу тех что были в таблице первоначальной.
Ну там еще тип нейрона выбрать всякие там сигмы и тд.

Так это, а чо так сложно преподают то? Во всяких шадах и на курсере, кучу матиматики, зачем? Свои всякие боесы, рисуют графики с точечками, между которых линии проводят. В чем смысол? Ведь можно этим ограничится, ну или вначале хотя бы это показать, что бы было понятно зачем это все.
Sage 181 1273859
182 1273864
>>73859
Ну ты чиво? Вроди нормально же общались
183 1273870
>>73825

Ебани курс A-Z hands on deep learning удемишный (на торрентах есть), там вообще без математики объясняют основные архитектуры и как на фреймворках дрочить, а матешу отдельными ссылками на доп материалы - можно уже потом ПОГРУЖАТЬСЯ в меру своих сил, если захочется.
184 1273874
>>73825
Потому что этим ебланам математическая дичь всё равно что обычная дичь. Они её понимают, а люди нет.
185 1273880
>>73874

> Потому что этим ебланам математическая дичь всё равно что обычная дичь. Они её понимают, а люди нет.


Как раз ровно наоборот - люди математику понимают, а ебланы нет. В чем и разница между человеком и всякой хуйней.
186 1273889
>>73880
Фанатик плес. Куча говнотермином обозначающих простые вещи, это для говноедов, которые строят из себя илитку. Нормальными людьми такое говно явно не назвать.
187 1273917
>>73889
Нормальным, как и вообще человеком не назвать говно вроде тебя, ты заебал уже своим кукареканьем, не можешь в математику - просто сьеби из треда про математику. Это же так просто, а, говно?
188 1273921
>>73917

>пук


Довен походу читать не умеет, ладно читай по слогам это тред про нейронки.
189 1273924
>>73921
Это тред про машоб, сука.
190 1273927
когда вы уже перестанете кормить неосиляторов производных
191 1273952
>>73927
Производные не нужны.
192 1273953
Кстати правда не могу допереть, разве f'(x) = F(x) | F = f' ?
194 1273989
>>73952
плюсую
просто перебираю коэфы в нейронке и беру потом лучшую из всех
195 1273995
>>73927

Двачую, давно пора банить наду этих гуманитарных пидорах.
196 1274039
>>70878
Вот тогда и поговорим/вы находитесь здесь.тхт
197 1274044
>>71176
Почему, используй relu и residual связи и настроишь, если точнее, нужно решить проблему затухающего градиента. Суть сверточных в другом, у них by design есть инвариантность к сдвигу твоих данных. Практически любые данные так устроены - от изображений до биржевых графиков, поэтому и сверточные везде.
198 1274045
>>71596

> Убрать выбросы. (а как их найти?)


Посмотри с помощью PCA на свои данные под разными углами, может увидишь чё.
199 1274046
Да просто надо говорить сразу что без фунтдаментального математического, IT, физического образования в машоб не пустят. И не давать надежду шаражникам. Зачем эти сраные курсы плодить и давать надежду, факультеты целые по ИИ, спецухи яндекса. Зачем? Надо фильтр там вводить и даунов не пускать.
200 1274058
>>74046

Потому что машоб можно использовать и без матеши же
201 1274065
>>73825
Потому что сделал ты свою табличку, скормил рандомной нейросети, а нейросеть не работает так, как ты хочешь. И все, конец истории, так как в математику ты не можешь.
202 1274093
>>74046

> физического образования


Физика-то зачем? Может быть, ещё и химию до кучи?
203 1274121
>>74093
Биологическое. Нейронки же
204 1274141
отделите этих метавкатывальщиков уже в отдельный тред как с маттредами сделали
205 1274149
Правда ли что все эти ваши машобы это просто старая добрая статистика?
206 1274157
W tensorflow/core/framework/op_kernel.cc:1275] OP_REQUIRES failed at ctc_loss_op.cc:166 : Invalid argument: Not enough time for target transition sequence (required: 36, available: 6)0You can turn this error into a warning by using the flag ignore_longer_outputs_than_inputs

ЧЯДНТ? Каждый раз в генераторе проверяю размерность, и всегда 36, в т.ч. на той итерации, когда эта ошибка вылетает.
Где этот флаг, блядь, искать?
207 1274234
>>74157
почитай доку про ignore_longer_outputs_than_inputs=True
208 1274249
>>74149

> Правда ли что все эти ваши машобы это просто старая добрая статистика?


Новые методы в статистике, если точнее.
209 1274270
>>74261 (Del)
Но зато ты при этом знаешь математику, что, согласись, гораздо круче первого варианта.
210 1274285
>>74261 (Del)
Если можешь, ты начинаешь ее улучшать, пока она не начинает работать так, как ты хочешь.
211 1274320
>>74310 (Del)
Ну тогда и поговорим.тхт
212 1274333
>>74270

>гораздо круче


Мам ну скажи, что я маладец, ну маам ведь я не зря потратил 4 года в вузике дроча концпекты, заместо поёбывания тян, ну скажи ему, ну мааам.
ты молодец серожа, ты у мамы самый лучший.
213 1274346
>>74333
Ты считаешь, что если бы дрочил конспекты, мог бы в математику, но ты выбрал поебывать тян, и поэтому в математику не можешь. На самом деле не так. Ты не можешь в математику, потому что от рождения дебил, и дрочка конспектов тебе никак бы не помогла.
214 1274357
>>74346

>потому что от рождения дебил


Найс манямирок, а ты в нем избранный математикой.
215 1274381
>>74065

Тюнинг и вперед
216 1274382
>>74149

Правда ли что вся наша реальность это старая добрая математика. Что сказать-то хотел?
217 1274402
>>74346
Удваиваю, есть просто люди дебилы, мне читали матешу на первом высшем 2 курса, после универа я нихуя не знал ее, мне читали матешу на втором высшем чуть больше года, + спец разделы, и результат такой же.
218 1274404
>>74402

>мне читали матешу


>мне читали матешу


Ты не находишь, что проблема в том что тебе читали, а не ты сам читал? Просто тебе она нахуй не нужна была, вот ты и нихуя не понял. Хотя чо это я, нравится считать себя дебилом, на здоровье.
219 1274410
Какое мнение анона про курсы Яндекса на Курсере?
Реально вкатиться вообще в ML если матан и тервер видел 5 лет назад в универе.
Какой уровень нужен?

С питоном вот все норм
220 1274421
>>74410

>мнение


Курсы - говно для даунов. Берёшь книжку, берёшь задачу, дрочишь.
221 1274432
>>74410
Если техническое образование, то можешь придти просто пропёрдывать стул, научат.
222 1274448
>>74440 (Del)
Срать не снимая свитера.
223 1274449
>>74440 (Del)

>чему?


Учиться, ебана рот, ты шо, с деревни7
224 1274465
>>74432
Куда придти?
225 1274486
>>74410
мне помогло на первых парах сориентироваться, потом будет легче самому разбираться
всю необходимую математику там пояснят
226 1274534
Пацаны, пошли ICO делать по децентрализованной площадке для машоба. Я уже набросал чё будем разрабатывать. В ближайшее время whitepaper соберу и картинки сделаю. Смогу визитку наверстать.
227 1274583
>>74534
анусы вы себе будете разрабатывать
228 1274586
>>74583
швятое дело!
229 1274667
>>67390 (OP)
В pandas считал столбец. Там значения типа
350 02.08
351 02.01
352 02.02
353 0
354 0
355 0

Length=..., dtype=object.

Но при этом в строках 353,354, 355 значения int
type(df.ix[353]['col1'])
<class 'int'>

Pandas при смешанных данных в столбце всегда старается определить тип ? По идее, если хотя бы в одной ячейке не число, весь столбец должен считаться нечисловым, ведь его просто так нельзя сложить
sum (df['A'])
TypeError: unsupported operand type(s) for +: 'int' and 'str'
230 1274673
Сканирую спрос - есть интерес у кого-то поучаствовать в проектах по сабжу в области крипты? В том числе для получения опыта и самообучения, возможен гешефт при хороших результатах. Если будут отзывы, то можно будет конкретней говорить.
231 1274675
>>74673
Какой гешефт то? Как-то далеко ходишь. Выкладывай чего у тебя в мыслях.
232 1274678
>>74432
Техническое, бывает разное, машиностроительный инженер тоже техническое, химик тоже техническое, разное бывает понимаешь?
233 1274682
>>74675
Нужно спроектировать систему, которая сможет анализировать рыночную котировку (колебания цены крипты) в лайв тайме, предварительно обучившись на исторических данных и совершенствуясь по ходу дела, находить определенные закономерности и на их основе выносить решения (торговые рекомендации). Гешефт денежный, епт.
234 1274683
>>74678
Работадателю плевать
235 1274687
>>74682
Лол, ну удачи тебе. Ты хоть какие-то принципы анализа рынка знаешь или решил что тебе прям напишут нейронку, которая на основе скалярного значения во времени предугадывать курс будет? Лол. Как же тебя легко наебать, жалко что мне лень.
236 1274729
Допусти у меня есть входной вектор x. Но признаки имеют разную важность, например x1 всегда очень важен, это главный признак, а вот x бывает действительно важен только раз в год да и то в определённом значении, то есть не всмысле когда он больше или меньше. Я думал, а почему функция вычисления входа в нейрон вообще линейная? Разве она не должна как-то быть нелинейной?
15384616811450.gif58 Кб, 220x221
237 1274780
>>74682

> Нужно спроектировать систему, которая сможет анализировать рыночную котировку (колебания цены крипты) в лайв тайме, предварительно обучившись на исторических данных и совершенствуясь по ходу дела, находить определенные закономерности и на их основе выносить решения (торговые рекомендации).


Это нерешаемо для курсов валют. Там полный пиздец, если честно. С одной стороны, там точно не гауссово распределение вероятности, т.е не чистый рандом, что легко видеть по экспоненте Ляпунова или сечению Пуанкаре, с другой стороны - выявить имеющееся распределение не получается. С нейроночками в этой теме точно делать нечего. Может быть, какие-то хаотические аттракторы или что-то в этом роде дрочить, но простой закономерности, которую можно выявить на исторических данных, там нет. Ни MCMC, нихуя там результатов не даёт, я что только не пробовал.
238 1274793
>>74780
Дело в том, что валютные котировки могут иметь совершенно другие механизмы движения, чем в крипте, поскольку крипта торгуется совсем недавно по историческим меркам, рынок очень молод и соответственно, логически, в нем должно быть гораздо больше каких-то рыночных неэффективностей, паттерн которых можно определить и работать с ним. У тех же манипуляторов там значительно более топорные схемы и методы. Никто не говорил, что это легко, конечно же.
239 1274824
>>74780

Такенс завещал, что аттрактор всегда можно извлечь из временных рядов.
240 1274826
Пусть есть модель f(x), которая выдаёт число в интервале [0,1] по которому мы, если оно >1/2 причисляем объект к первому классу если, если <1/2 ко второму. Кто-нибудь интересовался свойствами разделяющей поверхности f(x)=1/2? Типо если это нейронка или ядерный свм, например, какие ограничения на (ко)гамалогии и ввести какой-нибудь порядок на них и говорить, что эта модель сложнее той если её разделяющая поверхность может иметь более сложные гамалогии?
Другой вопрос. Вот в бишопе, например, для линейной регрессии очень хорошо написано откуда она берется такая какая есть, а можно ли такой же байесовский вывод получить для нейроночек?
241 1274856
Немножк (совсем) офтопик, но реально не знаю где спросить пока что, поэтому под спойлером

Перечитал статью на хакере (опять), а там типичная проблема для россии

>Сотрудники «Газпрома» посетовали на низкий уровень информационной безопасности и заявили, что это не их дело, поскольку они руководствуются требованиями и правилами, которые устанавливает ФСБ. Круг замкнулся, стало понятно, что эту монолитную систему «информационной безответственности» не пробить.



Тоже самое когда-то заметил у себя дома, когда родители искали пульт от телевизора. Никто не хочет брать ответственность за то что проебал этот пульт и не положил на место, всё скидывает на других.
Откуда это взялось, как оно могло появиться? Что это за вид рака?
Сейчас вспомнил что в прошлом треде речь зашла про синдром корсакова. Посты оттуда ниже, на всякий случай. Может у кого-то есть идеи как это может быть связано, и где спрашивать про этот вид зацикленного рака, это же платиновый вопрос (где-то)

>>1263147 >>1263177

>>Полное удаление гиппокампа делает невозможным формирование новых воспоминаний, что убедительно продемонстрировал случай с пациентом H.M. Нарушения в работе гиппокампа могут привести к синдрому Корсакова, который так же сводится к невозможности фиксировать текущие события, при сохранении старой памяти.



>Конфабуляции (лат. confabulari — болтать, рассказывать) — ложные воспоминания – когда больной не может вспомнить события из своего прошлого и заменяет их вымышленными являются одним из самых характерных симптомов корсаковского психоза.


>Конфабуляции у некоторых пациентов носят постоянный характер. Они всё время придумывают новых персонажей, детально рассказывают происходившие с ними истории и т.д., заменяя таким образом забытые воспоминания на вымышленные.


>При этом важно учитывать тот факт, что больные не лгут – они действительно считают данные воспоминания реальными.



242 1274872
>>74687
Я тож нихуя не знаю, но мне платят деньги на работе за то что я такую ебалу пишу
243 1274882
>>74872
Какую? Всмысле по скалярному значению курс предсказывать? Сколько там коэфицент угадывания? 50% хотябы есть? Какое у тебя образование?
244 1274908
>>74824

> Такенс завещал, что аттрактор всегда можно извлечь из временных рядов.


Тоже думаю, что нужно копать в сторону нелинейной динамики, хаоса и всего такого.
>>74793
Ну и где взять исторические данные по крипте? Я давно ещё пробовал кластеризовать криптовалюты по их динамике роста и падения по пересечению плюсов и минусов за последние час, день, неделю итд, чтобы отделить годноту от хуеты, но там тоже не так все просто, что-то может взлететь на 100-1000% снихуя и наоборот. Но вообще наверное да, крипта это свободный рынок, который обычными способами не зарегулировать. Может быть, там все более предсказуемо.
245 1274922
>>74908

>пробовал кластеризовать


Поделить по k-mean ты имеешь ввиду?
246 1274925
Аноны, есть прикладная задача по анализу данных (около 100к записей), в экселе смог найти зависимость, хотелось бы продвинуться дальше и обучить модель, но в питоне не силен.

Данные выглядят как набор фич и вознаграждение от -1 до +3, нужно добиться устойчивого дохода.

Есть кто за нефть порешает ?
247 1274929
>>74922

> Поделить по k-mean ты имеешь ввиду?


Не, я пробовал картами Кохонена, SOM. Но прямые значения кластеризовать смысла нет, нужны дельты, т.е изменения + какие-то рыночные показатели типа скользящих средних, индикатора Ишимоку итд, все же это можно посчитать и добавить в вектор текущего состояния валюты. Если человек в этих индикаторах что-то видит, то и алгоритм увидит не хуже, главное данные правильно представить.
>>74925

> Данные выглядят как набор фич и вознаграждение от -1 до +3, нужно добиться устойчивого дохода.


Если реально есть зависимость, то твоя задача - аппроксимация функции от нескольких переменных y = f(x), где набор фич это х а значения от -1 до +3 это у. SVM вполне достаточно. Давай данные, посмотрим.
248 1274958
>>74929
Держи...

https://ru.files.fm/u/ffxn8uks
пароль стандартный 2ch.hk

В таблице уже применен фильтр, результат ручного анализа, то есть максимальная сумма 2 profit, но меня беспокоят просадки на графике (на второй вкладке).

Что можно еще придумать в моем случае, чтобы улучшить результат или избежать таких просадок ?
249 1274959
Ну как, перекатились уже на PyTorch? Или как лохи на Tensorflow сидите?
250 1275011
>>74872
И что, приносишь сверхприбыли компании?
251 1275027
>>74961 (Del)
пиздец ты хохотач
252 1275034
>>74826
а вот это совсем поехавший
253 1275043
>>75034
ну лол баркоды же считают, мало ли какая хуйня зайдет
um (2).png605 Кб, 2000x1292
254 1275064
>>74958
Что-то лейблы не пропечатываются... Но походу зависимость есть, вон там примеры с близким по размеру профитом рядом кластеризуются.
255 1275072
>>75069 (Del)
Мань, хуй соси.
256 1275097
>>75064

Ну судя по графику на второй книге - зависимость очень неплохая, а что-нибудь из этих данных можно еще вытянуть?

Не совсем понимаю, что на этих полях отображено...
257 1275187
>>74906 (Del)
нейроночки до такой степени интерпретируемы, показываешь, что у тебя от таких-то входных значений, большие веса (фича импотанс) на последнем слое, получаешь профиты
258 1275225
>>75203 (Del)
тренируешь регрессию стохастическим градиентным спуском или рандом форест какой-нибудь, получаешь другие веса. Не?
Добавляешь новые данные и все идет по пизде. Не? машоб вообще не имеет смысла на данных из другого домена

Объяснить - это показать, почему модель приняла такое решение. Почти все машоб модели являются стохастическими, и следовательно у двух одинаковых моделей, натренированных на одинаковых данных будут разные веса.
259 1275229
260 1275426
Прочитал книгу автора Ту, сейчас начну читать книгу автора Фу.
Sage 261 1275474
262 1275484
Хм
263 1275553
>>74780

>там точно не гауссово распределение вероятности, т.е не чистый рандом


Да ты заебал, пёс, твой "чистый рандом" на каждом шаге (то что random walk называется по-человечески) это равномерное распределение, а не гауссово. Стандартный курс прошёл для начала, хотя бы.
264 1275780
>>75553
яб сказал лучше случайный процесс и суть не столько в равномерности сколько в независимости X_s, X_t
265 1275834
Няши, как вкотиться в нейроночки? Я понимаю принципы, даже немного математики, но вот как именно взять и написать сеть которая будет что-то делать - не могу. Я пытался искать полноценные гайду, но везде одно говно. Не подкините чего-нибудь для питона? Чтобы с нуля и до обучения, а если будет материал как готовить датасеты и обучать по ним - вообще буду благодарен.
266 1275837
>>75834
Если на русском, то в stepic.org есть курс по нейронным сетям. Если на английском, то там дохуя норм гайдов есть.
267 1275849
>>75837
Можно и на английском. Думал на курсере хорошо все по этапам разложили, но нет, там вообще в матан ушли. Читал еще кучи других гайды, по TF, керасу, но везде либо уходят в теорию либо предлогают просто копировать код и учиться на готовых датасетах. Ну ок, скопировал я, все работает, а как это на реальную задачу то перенести?..
268 1275883
>>75780
Ну мартингейл, которого он постоянно тут вспоминает всё-таки при равномерном распределении применяют.
269 1275915
А есть просто сборник best practices где-нибудь по теме того как структуру сети выбирать под конкретные задачи?
270 1275941
>>75915
Узнаешь, как твоя задача называешься, и гуглишь со "yobification state of art".
Sage 271 1275978
272 1276088
>>75849
нет никакого смысла читать про тф и керас без сильной базы
273 1276097
>>76088
В чем заключается сильность базы? Некоторые аутисты думают, что запилив на каком-то левом языке бэкпропагейшен вручную, что они будут знать что-то большее об обучении нейронок. Это не так. А изучать математику тф и керас не мешают, лучше всего делать это одновременно.
274 1276162
>>76097
двачую
запилил все эти бэкпропы в cs231n никак не помогло их лучше понять
лучше бы всякие архитектуры на торче реализовывал бы
275 1276185
>>76162
Нужно сначала базу, потом практику делать. Без базы ты будешь по туториалам кнопки тыкать, не представляя как работает шайтан-машина, что она может, и почему надо делать так, а не иначе. Глупые ошибки будешь делать, и не поймешь в чем дело.
276 1276218
>>76185
Что есть база? Математические функции? Я просто не очень понимаю, мне забить на все и просто учить матан, или же все-такие можно как-то без этого обойтись?
277 1276224
>>76218
ну если во время прохождения базовых курсов по нейроночкам ты не справляешься с матаном то да учить ту маленькую частичку матана
278 1276255
>>76218

>как-то без этого обойтись?


Да, пихвовекторизацией.
279 1276261
>>76185

>по туториалам кнопки тыкать, не представляя как работает шайтан-машина, что она может, и почему надо делать так, а не иначе


А что, есть кто-то, кто представляет, как работает шайтан-машина, что она может, и почему надо делать так, а не иначе? Примеры в студию.
280 1276270
>>76261

>А что, есть кто-то, кто представляет, как работает шайтан-машина, что она может, и почему надо делать так, а не иначе?


Крутишь пимпочки до упора, если не работает, значит сам виноват, матиматически там все должно работать111
281 1276341
С конкурентным обучением с подкреплением мне хватит 10000 итераций? Неделя реальных вычислений. Данные приходят и обрабатываются в течение 1 минуты.
282 1276411
Если в керасе ошибка всегда нулевая, и выход целевой функции (CTC) почти всегда одинаковый (циферки немного отличаются, но декодируются всегда в один неверный набор символов) - то где я наговнокодил? Learning rate крутить пробовал, оптимизаторы менял, не помогает.
Сеть - CRNN, текст с картинок распознаю.
283 1276414
>>76411
Метрику меняй
284 1276437
>>76414
Не сильно помогло
Я каждую эпоху проверяю сеть на одних и тех же данных (тренировочных, чтоб наверняка) и каждую эпоху сеть у меня текст распознает одинаково неправильно, будто так и должно быть. И выход функции ошибки без декодирования почти не отличается.
Предполагаю, что косяк где-то в реализации CTC, хоть и писал все на базе чужого кода с гитхаба.
Learning rate менял с 0.0001 до 100 - ничего не меняется
285 1276438
>>76437
ну, где-то наговнокодил, без самого кода тебе только ванга поможет
286 1276448
>>76438
Как-то так, как мне кажется, косяки где-то здесь.
Впервые с рекуррентными что-то пробую, до этого только сверточные писал, может чего-то очевидного не сделал
287 1276466
>>76261
Не понимать можно на разных уровнях. Я, тот анон, и твоя мама - это три разных уровня непонимания. Лучше быть на моем.
288 1276467
>>76411
Дропаут добавь и побольше
289 1276468
>>76448
Слишком муторно. Упрощай до одного ЛСТМ-юнита, который должен просто копировать предыдущий вход.
290 1276469
>>76448
Если у тебя лосс сразу на дне, вряд ли ошибка в валидации, скорее имеет место дикий оверфит, а сетка со дна выбираться не желает, а ты накосячил или с регуляризацией, или с инициализацией, типа оставил дефолтные нули вместо шума
Screenshot3.png11 Кб, 962x105
291 1276492
>>76469
Не на дне, после добавления других метрик увидел это
Так что переобучения нет, да и с инициализацией все нормально.
С реализацией CTC и моими лэйблами, наверное, что-то не так (я просто унитарно кодирую строчку текста, заполненную пробелами до необходимой длины)
292 1276496

>>>1276448


С ЛСТМ все нормально. Сначала пару слоев свертки делаю, разбавляя макспулингом и нормализацией, потом один полносвязный, бидирективный ЛСТМ и СТС-алгоритм в конце.
В out со второго скрина у меня пробелы почему-то минус единицами заполнились, хотя у меня все лэйблы просто по индексам разбиты, наверное в этом проблема.
Попробую другую сетку с гитхаба под свой генератор адаптировать, ибо сам в этих заебах с СТС (типа iy_pred = iy_pred[:, 2:, :] такой строчки) не шарю.
293 1276499
>>76468
>>76496
Это сюда
294 1276521
>>74958
Аноны, помогите задачу решить за вознаграждение, что можно сделать и сколько это будет стоить ?
295 1276546
Сап аноны, как много людей тут действительно получают деньги за нейронки?
Работаете на кого или же пилите свой проект?

Мимо вкатывальщик
296 1276548
>>76546

>Работаете на кого


Na SkyNet
297 1276577
>>76546
Я работаю на Roko's Basilisk.
298 1276584
>>76577
Блять. Да ну нахуй. Наконец-то я могу харкнуть кому-то связаному с таким дерьмософтом в лицо. Хррр-ха-пфу
299 1276598
>>76577

>Roko's Basilisk


Это что?
>>76584

>с таким дерьмософтом


Разъясняй
300 1276660
Как нейронную сеть научить работать с графами?
Просто изначально научились запускать на картинках фиксированного размера, потом - на картинках произвольного размера. Научились применять для анализа последовательностей произвольной длины. А что с графами?
301 1276667
>>76660

>графами


Монте Кристами?
302 1276842
>>76521

>что можно сделать и сколько это будет стоить ?


Скорее всего, много чего можно. Какая строка там конкретно выход? Профит 1 или профит 2?
303 1276971
>>76842
профит2, нужно, чтобы сумма вознаграждений профит2 была максимальной и не было просадок по графику (как на книге2).

Можно поиграться штрифтами фильтрами и увидеть, как все там меняется.
По сути можно построить прибыльную стратегию и на профит1, если так получится.
304 1277088
>>76521
Ты задачу сначала сформулируй. Пока ты высрал эксель с какими-то колонками цифр.
305 1277189
>>76660
https://habr.com/company/ods/blog/418727/
делаешь эмбеддинг, засовываешь в нейронку
306 1277238
>>77189

>habr.com


Лол
307 1277256
>>77238

>2ch.hk


Лал
308 1277263
>>77256
Спасибо за ваш комментарий, посасал бы вам писю и дал в жопу.
309 1277285
"10 лекций по распознаванию" (Шлезингер, Главач) уже устарели?
310 1277357
Сап. Есть RNN на GRU 4 слоя по 1500 нейронов. Добавлять ли дропаут? Подозреваю на таком конфиге будет больше вреда чем пользы.
311 1277379
>>77357
Хм... попробовать и посмотреть самому? Да не, бред какой-то.
312 1277462
Может кто-то объяснить как обучают рекурентные сети? А то я посчитал сколько маленькую лстмку проитерировать бэкпропогэйшеном. Получилось около 2 триллионов итераций слоёв на один вход.
313 1277490
>>77413 (Del)
Без датасета? Совсем ебнаулись уже
314 1277545
>>77379
Я обучал сетку три недели на 1080ti. Предлагаешь ещё пару месяцев потратить на файн тюнинг?

Ладн, вопрос попроще. Начиная с какого количества скрытых слоев бесполезен дропаут?
315 1277559
>>77545
тебе надо было сначала фаинтьюнить сетку на подвыборке, а потом уже тренировать три недели, дропаут (и вообще регуляризация) нужен при переобучении. Если у тебе трейн и валидейшен лосс не расходятся, то можно и без дропаута. если валидейшен выходит на плато, а трейн продолжать падать - добавляешь регуляризацию.
от Гудфелоу 2-7
316 1277631
>>77559

>дропаут (и вообще регуляризация) нужен при переобучении.


Не только, дропаут вполне может помогать от high bias тоже, он ведь помогает от корреляции между нейронами, и, соответственно, делает параметры более эффективными.
317 1277633
>>77545

>Начиная с какого количества скрытых слоев бесполезен дропаут?


Дропаут бесполезен, когда у тебя другой регуляризации полно - batch normalization, weight decay и т. д. А если ее вообще нет, то он полезен.

>Я обучал сетку три недели на 1080ti. Предлагаешь ещё пару месяцев потратить на файн тюнинг?


Ну это явно хуевая стратегия исследований. Я бы отладил всё на малой части датасета (добился оверфита, регуляризовал, затем подобрал гиперпараметры), чтобы обучение шло час маскимум, потом плавно бы увеличивал датасет с корректировкой гиперпараметров, останавливаясь сильно рано (как правило удачные параметры сразу проявляют себя), и только затем уже хуячил максимальный датасет. А три недели с 1080ti это пиздец как рискованно и бессмысленно.
318 1277693
>>77633
На чём запускаешь сетку?
319 1277766
Дайте маленький датасет для лстмки. Насколько зашкварно писать лстмку на чистом питоне?
320 1277774
>>77766
А что именно ты пишешь на "чистом питоне"? Саму математику? Ещё какой зашквар, питон не для того предназначен.
321 1277783
За keras.backend.ctc_decode() кто-нибудь пояснить может?
Почему она возвращает разные значения при одних и тех же входах?
322 1277785
>>77783
Вернее значения разных размерностей, фикс
323 1277789
Почему веса для нейронок не подбирают брутфорсом? Это же более эфективный алгоритм. В 10 тысяч раз быстрее иногда, чем бэкпропогэйшн.
324 1277792
>>77774
Не ебу, у меня летает
325 1277795
>>77789
Ну да, функцию от сотен тысяч переменных же проще перебором минимизировать, ага.
Теорию оптимизации тоже дауны какие-то придумали, можно же перебирать просто, в 10 тысяч раз эффективнее
326 1277798
>>77795
Твоя оптимизация подразумевает возведение количества ввычислений в степень колличества слоёв. Лучше перебором. Или дедовским отжигом.
327 1277799
>>77795
Попробуй меня остановить.
328 1277801
Если серьезно, недавно показали, что случайный поиск или ГА может быть на порядки быстрее РЛ на многих задачах.
329 1277805
>>77798
Да, все так и делают
330 1277810
>>77801
Зачем доказывать, если и так видно, что там почти бесконечные рекурсии с квинтилионами вычислений.
331 1277813
>>77801

> на многих задачах


на нейронках в т.ч?
332 1277838
Скоро можно будет макачить нейроночки не отходя от мейлача: https://youtu.be/9NcBqjAMNjQ
333 1277855
На сях нейрончики есть?
334 1277859
>>77693
У меня два 1080ti на двух пеках, на одном как правило запускаю расчет на подольше, на втором ставлю эксперименты, чтобы к окончанию работы "длинной" видюхи у меня был набор улучшений для новой итерации.
335 1277862
Нахуя так много сложных формул и выебонов, если всё можно и так реализовать на уровне школьной математики?
336 1277863
>>77798

>Твоя оптимизация подразумевает возведение количества ввычислений в степень колличества слоёв. Лучше перебором.


Все наоборот. Бэкпропагейшен относительно любого числа параметров - это вычисление символьно взятой производной, то есть обратный проход не сильно медленнее прямого, только памяти требует больше для хранения промежуточных производный, а вот случайный поиск плох как экспонента от числа измерений, в твоем случае - от числа параметров. ГА не сильно лучше.
При этом для многомерных функций проблема застревания в локальном минимуме почти не стоит - чем больше измерений, тем меньше вероятность существования минимума в точке (для функции N переменных производные по N параметрам должны быть равны нулю одновременно - это очень маловероятно). Поэтому для нейронок только бэкпроп.
РЛ же это отдельная история, это не только нейронка, но и йоба со всеми этими Q, какими-то графами-хуяфами тыр пыр восемь дыр. Там вполне ГА могут быть эффективнее в каких-то местах, почему нет.
337 1277865
>>77863
На рекурентные посмотри, блять, на каждой итерации слоя нужно отправляться в первую итерацию, прогонять нейронку назад до инпута, двигаться дальше, прогонять на один слой ниже, затем отправлятьсч к началу, снова прогонять нейронку, затем спускаться на слой ниже и прогонять ещё раз, и так пока каждый пример не прогонит каждый слой, в котором ещё опять прогоняется каждый младший слой. То есть тут не экспонента, тут нахуй больше чем экспонента.
338 1277867
Подалуйста, объясните мне градиентный спуск. Умоляю.
339 1277874
>>77867
На русском в Stepic.org есть курс по нейронным сетям, там про градиентный спуск объясняют.
340 1277875
>>77865
Ты хуйню какую-то несешь, похоже не понимаешь что-то. Рекуррентные сети разворачиваются в feed-forward, соответственно становятся сложнее пропорционально заглядыванию назад в прошло.
341 1277878
>>77875
Они заглядывают назад в прошлое и там ещё раз разворачиваются, а дальше они попадают в ещё один слой, заглядывают ещё в прошлое и разворачиваюися там. Это рекурсия.
342 1277880
>>77878
Бобер, выдыхай
343 1277881
>>77880
Чего? Ты слился?
344 1277941
>>67985
from keras.models import Sequential
from keras.layers import Dense

model = Sequential()

model.add(Dense(3, input_shape = (3,), activation="sigmoid")
model.add(Dense(4, activation="sigmoid")
model.add(Dense(1, activation="sigmoid")
345 1278035
>>77798

>Лучше перебором


Ага, в 500000-мерном пространстве. Долбоёб? Долбоёб.
346 1278420
>>69572
Порашу скроллил. Тхреды пра хахлов и спидорах.
347 1278653
>>77789
На подбирании весов ИИ не построить...
348 1278706
Нюфаг вкатился. Это пиздец, этот питон с кучу анальных зависимостей порвал мою жопу в клочья. Я просто не могу накатить ебаный tenserflow потому что меня требуют установить еще дохуя модулей которые сука имеют вложенные в себя модули которые надо тоже блять установить, я уже утонул и погряз в ебучих ошибках, почему блять в ебаном питоне все зависимости не устанавливаются сразу?ЭТО ПИЗДЕЦ БЛЯТЬ. Ладно, попробовал все сначала, накатил анаконду, обмазался cuda-парашей от нвидии, установил еще какую-то хуйню. Что в итоге? Ни-ху-я, сыпятся ошибки: у вас отвалился модуль_нейм - пройдите нахуй.Вообщем ,реквестирую 100% ГАЙД по накату тенсерфлоу на win10 x64 и всяких yolo/keras/rccn сверху. Буду очень благодарен.
349 1278711
>>78706
pip install tensorflow
Не благодари.
350 1278712
>>78706

>win10 x64


>yolo/keras/rccn/tensorflow


>нихуя не работает


привыкай
351 1278732
>>78706

> реквестирую 100% ГАЙД по накату тенсерфлоу на win10 x64 и всяких yolo/keras/rccn сверху. Буду очень благодарен.


На шиндошс оно не работает. Ставь бубунту, там в 3 команды все нужное ставится, гайдов полно.
Вообще, гениальная идея использовать пистон. Кривая хуета с гигабайтом зависимостей в качестве враппера.
352 1278758
>>78711
Не работает.
>>78712
Но как-то же скрепа зубами пердолят все это дело на шинде? Помогите, хочу деплоить нейроночки.
>>78732
Пендосы как-то устанавливают же, но их гайды не первой свежести и уже нихуя не ставится так как должно.
А что еще использовать? Из выбора только питон и плюсы. Плюсы сложно + избыточно на данном этапе моих хотелок.
353 1278759
>>78758

>Но как-то же скрепа зубами пердолят все это дело на шинде? Помогите, хочу деплоить нейроночки.


Нет, конечно. Линух или мак в большинстве случаев.
354 1278763
>>78759
Понятно. Придется учить плюсы. Зайду сюда через лет 5.
355 1278767
>>78763
Нахуя тебе винда-то?
356 1278770
>>78758

>Не работает.


Что пишет?
357 1278803
>>78706

>win10


У меня на это говно анаконда не устанавливалась, так что в конце концов я обратно на 7 перешёл и не жалею.
358 1278823
>>78758

>Но как-то же скрепа зубами пердолят все это дело на шинде?


Слесарьплов - из того софта, с которым совладать на глинуксе в разы проще, чем на винде.
>>78763

>Понятно. Придется учить плюсы.


Нахуя? Убунту поставить не сложнее чем винду.
359 1278986
Хочу сделать BOW+SIFT+SVM классификатор для промышленной системы машинного зрения, какие могут быть подводные камни при большой размерности словаря и частично похожих изображения, насколько этого вообще может быть стабильно?
360 1279005
>>78986

>промышленной системы машинного зрения,


Лол
361 1279007
>>78986

>какие могут быть подводные камни


Ну как бы это нулевые годы, а сейчас используют нейронки, у них точность выше.
362 1279037
>>79007

>у них точность выше


Они с повышенной точностью нераспознают?
363 1279060
>>78763
Есть язык R.
364 1279087
>>78763
тензорфлоу есть даже на джаву, джаваскрипт и пхп, хотя я не думаю, что там легче будет, так как нужно установить MICROSOFT C++ REDISTIBUTABLES 2006 4.0 NET
15386869455910.png355 Кб, 1024x834
365 1279114
>>79060

> Есть язык R.


Есть. Но хипстеры ж засмеют на коворкингах.
366 1279132
>>79114
Картинка хуйня.
367 1279141
>>79114
Что за бабочка?
368 1279142
>>79141
И корона какая-то
369 1279182
>>79037
Чтоу, говорите по-русски
370 1279189
>>79060
Ну и зачем мне он?

>>79087
Считаю всех js мартышек за нелюдей. И сам на этой параше никогда писать ничего не буду.
371 1279194
>>79141
Perl 6
372 1279195
>>79189

>мартышек за нелюдей


Как и нейродибилов
373 1279230
>>79132

> Картинка хуйня.


Ну да, там больше половины хуйни с верхней части должно быть внизу. Пистон особенно.
374 1279231
>>79230
Главное, что внизу должна быть твоя фотка
375 1279253
>>79189
судя по тому, что ты не осилил установить питон под виндоуз, ты ни на чем писать не будешь
376 1279287
>>78706
Берёшь готовый docker image и без задних мыслей работаешь.
377 1279309
Кому тут надо было нейронки на сях под винду
https://github.com/Tyill/skynet
Автор, правда, выглядит не вполне адекватным
378 1279348
А что такое dropout?
sage 379 1279363
>>79348
Это когда тебя заёбывает математика и ты из универа отчисляешься.
380 1279367
>>79363
Очень смешно. Продолжай.
381 1279376
>>79367
Что ты хочешь сверх определения из википедии? Даже на русском страничка есть.
382 1279381
>>79376
>>79376
Что это такое в нейронках? И как это работает. Можно на пальцах объяснить
383 1279384
>>79381
Рандомый вес умножается на ноль с какой-то вероятностью. Это создает шум который помогает обучению
384 1279390
>>79384
А я почитал вот на вики говорят убирают нейроны, а не связи, ведь если вес умножить на ноль то связь уберется. А а вероятнсть, она по распределению бернулия? Как это по распределинию бернули вероятность сделать?
385 1279398
>>79390

>А я почитал вот на вики говорят убирают нейроны, а не связи


Не знаю, что в tf, что в керасе убирают именно связи. Нейрон тащем-то это множество связей в слое (например в случае полносвязного слоя это строка матрицы), так делать тоже можно, но я смысла от этого не вижу.

>А а вероятнсть, она по распределению бернулия?


Наверное, не задумывался. Очевидно, что может быть либо 0 либо 1 с какой-то вероятность, наверное это может называться как-то, но тебе должно быть похуй, потому что лично тебе это ничего не дает.

>Как это по распределинию бернули вероятность сделать?


Вызвать numpy.random.binomial для n=1.
386 1279406
>>79398
>>79398

>Вызвать numpy.random.binomial для n=1.


А разве так не приблизительно половина связей отвалится?
387 1279409
>>79406
Только если p=0.5. Но вообще дропаут 0.5 это норма.
388 1279414
>>79409

>p=0.5


А как выбирают, или это оптыным путем? Или есть какие то факторы? И применять его на проверке сети, или во время обучения
389 1279415
Кстати а как понимают что сеть переобучена?
390 1279440
>>79414
Те, у кого железа мало, вынуждены опытным путем, те, у кого много, перебирают разные варианты, пока не заработает.

>И применять его на проверке сети, или во время обучения


Это хуевый вопрос, он значит, что ты полез в нейронки, не освоив классический машоб хотя бы на уровне линейной регрессии. Регуляризация применяется во

Первым делом изучаешь основы машоба, а именно что делать в случае overfit и underfit в случае банальной линейной регрессии, посмотришь графики и получишь интуицию, что это такое. Там тебе скажут, что датасет нужно делить на 2 части, training и validation.
В случае классического машоба примерно в отношении от 10 к 3 до 10 к 1, в случае нейронок, в котором датасеты огромные, сойдет и 100 к 1 и 1000 к 1. Цель - validation выборка она как соцопрос, не обязана быть супербольшой, но должна иметь адекватную статистическую погрешность, на 140 миллионную страну 1000 случайных людей достаточно, тут примерно так же.

Далее тренировать на training, затем приодически проверять на training и validation.
В итоге, периодически ты будешь получать 2 числа, loss на training и на validation. И эти числа могут быть чисто математически:
1. Равны
2. Validation loss больше training loss
3. Validation loss меньше training loss

Когда они равны, это значит, что у тебя нейронка одинаково реагирует на данные, которые не видела и на те, которые видела. Это хорошо. Если при этом ты не добился нужного тебе качества работы, это недообученная сеть, нужно обучать дальше. Если же ты обучаешь уже долго, а качество все равно низкое, тебе нужно усложнять нейронку, можно убрать регуляризацию, хотя добавить ее тоже может помочь. Также может помочь более грамотно инициализировать слои. Например, предобучить нейронку на каких-то других похожих данных, которых много, далее инициализировать нижние слои шумом. А еще, например, U-Netы и прочие сетки с апсэмплингом страдают от checkerboard artifacts и это лечится инициализацией. Таких вещей много, они копятся в голове с опытом.

Если validation loss больше training loss, нейронка лучше реагирует на те данные, которые видела. Это плохо - значит, она разучивает тренируемые данные, а не учится обобщать. Есть два решения этой хуйни - больше данных, и совершенно точно нужно добавить регуляризацию. А вот модель усложнять точно не нужно.

Если же validation loss меньше training loss, у тебя какая-то хуйня с делением датасета на validation и training множества.

Соответственно, как видишь, в двух случаях регуляризация помогает. Поэтому имеет смысл впилить ее сразу. Дропаут - это один из способов регуляризации. Он удобен тем, что у него есть 1 простой параметр, собственно вероятность дропаута. Поэтому его легко настраивать, чтобы получить нужный уровень. Есть и другие способы.

Дальше начинается долгий цикл работы. Зависит все от количества у тебя видюх. Если их мало, нужно экономить ресурсы, если много, можно перебрать все возможные гиперпараметры простым случайным перебором.

Берешь датасет, и делаешь в нем такую подвыборку, что сетка тренируется за комфртное время. Например, за час. Добиваешься на таком мелком датасете оверфита. Как добился, борешься с ним, оставляя общее качество работы - добавляешь регуляризацию, если совсем вилы, можно увеличить свой датасет из отложенного. В конце концов ты или добьешься своей цели, или упрешься в андерфит. Борешься уже с ним, пока не добешься оверфита, уже не на новом уровне. Когда добился приемлемой работы и знаешь разброс гиперпараметров, настраиваешь автообучение с помощью скрипта типа https://github.com/shibuiwilliam/keras_gpyopt, врубаешь полный датасет и едешь бухать на неделю. Желательно на AWS, сразу на десятке инстансов.. Зависит от того, сколько у твоего клиента денег. Как-то так.
390 1279440
>>79414
Те, у кого железа мало, вынуждены опытным путем, те, у кого много, перебирают разные варианты, пока не заработает.

>И применять его на проверке сети, или во время обучения


Это хуевый вопрос, он значит, что ты полез в нейронки, не освоив классический машоб хотя бы на уровне линейной регрессии. Регуляризация применяется во

Первым делом изучаешь основы машоба, а именно что делать в случае overfit и underfit в случае банальной линейной регрессии, посмотришь графики и получишь интуицию, что это такое. Там тебе скажут, что датасет нужно делить на 2 части, training и validation.
В случае классического машоба примерно в отношении от 10 к 3 до 10 к 1, в случае нейронок, в котором датасеты огромные, сойдет и 100 к 1 и 1000 к 1. Цель - validation выборка она как соцопрос, не обязана быть супербольшой, но должна иметь адекватную статистическую погрешность, на 140 миллионную страну 1000 случайных людей достаточно, тут примерно так же.

Далее тренировать на training, затем приодически проверять на training и validation.
В итоге, периодически ты будешь получать 2 числа, loss на training и на validation. И эти числа могут быть чисто математически:
1. Равны
2. Validation loss больше training loss
3. Validation loss меньше training loss

Когда они равны, это значит, что у тебя нейронка одинаково реагирует на данные, которые не видела и на те, которые видела. Это хорошо. Если при этом ты не добился нужного тебе качества работы, это недообученная сеть, нужно обучать дальше. Если же ты обучаешь уже долго, а качество все равно низкое, тебе нужно усложнять нейронку, можно убрать регуляризацию, хотя добавить ее тоже может помочь. Также может помочь более грамотно инициализировать слои. Например, предобучить нейронку на каких-то других похожих данных, которых много, далее инициализировать нижние слои шумом. А еще, например, U-Netы и прочие сетки с апсэмплингом страдают от checkerboard artifacts и это лечится инициализацией. Таких вещей много, они копятся в голове с опытом.

Если validation loss больше training loss, нейронка лучше реагирует на те данные, которые видела. Это плохо - значит, она разучивает тренируемые данные, а не учится обобщать. Есть два решения этой хуйни - больше данных, и совершенно точно нужно добавить регуляризацию. А вот модель усложнять точно не нужно.

Если же validation loss меньше training loss, у тебя какая-то хуйня с делением датасета на validation и training множества.

Соответственно, как видишь, в двух случаях регуляризация помогает. Поэтому имеет смысл впилить ее сразу. Дропаут - это один из способов регуляризации. Он удобен тем, что у него есть 1 простой параметр, собственно вероятность дропаута. Поэтому его легко настраивать, чтобы получить нужный уровень. Есть и другие способы.

Дальше начинается долгий цикл работы. Зависит все от количества у тебя видюх. Если их мало, нужно экономить ресурсы, если много, можно перебрать все возможные гиперпараметры простым случайным перебором.

Берешь датасет, и делаешь в нем такую подвыборку, что сетка тренируется за комфртное время. Например, за час. Добиваешься на таком мелком датасете оверфита. Как добился, борешься с ним, оставляя общее качество работы - добавляешь регуляризацию, если совсем вилы, можно увеличить свой датасет из отложенного. В конце концов ты или добьешься своей цели, или упрешься в андерфит. Борешься уже с ним, пока не добешься оверфита, уже не на новом уровне. Когда добился приемлемой работы и знаешь разброс гиперпараметров, настраиваешь автообучение с помощью скрипта типа https://github.com/shibuiwilliam/keras_gpyopt, врубаешь полный датасет и едешь бухать на неделю. Желательно на AWS, сразу на десятке инстансов.. Зависит от того, сколько у твоего клиента денег. Как-то так.
391 1279482
>>79440

>Регуляризация применяется во


Ты не дописал тут что то?

>training и validation.


Это типо на чем тренируешь и на чем проверяешь сеть?

>loss на training и на validation.


loss это типа неправильные срабатывания сети?
А какой приемлемый проент неправильных срабатываний обычно?

>гиперпараметров


Не понял что это такое.
392 1279485
>>79482
Ну ты ведь нихуя не знаешь. Иди учи теорию.
393 1279490
>>79485
Дак я поэтому и спрашиваю тут.
394 1279509
>>79253
Накатить питон и накатить питон с тенсорфлоу и кучей анальных фреймов с работой на гпу это разные вещи.

бтв мартыхан порвался
395 1279515
>>79482

>Ты не дописал тут что то?


Скорее не стер. Ниже там все расписано.

>Это типо на чем тренируешь и на чем проверяешь сеть?


Да.

>loss это типа неправильные срабатывания сети?


Нет, это accuracy, если ты про классификаторы. Loss это то, что оптимизрует оптимизатор. Почитай про линейную регрессию и как ее сделать с помощью градиентного спуска. Нейронка чуть сложнее, но принципиально не отличается.

>Не понял что это такое.


Это параметры, влияние которых на градиент loss'а ты вычислить не можешь. Например, потому что они дискретные, или потому что дохуя шумят, или потому что они выстро вырождаются в хуйню какую-нибудь. Поэтому в процессе обучения ты не можешь их подкрутить, только выбрать перед обучением и обучать дальше. Параметр p у дропаута как раз такой.
396 1279521
>>79515

>линейную регрессию и как ее сделать с помощью градиентного спуска.


Я читал, там шарик катится вниз с горки, и ищет самую глубокую яму. Лос это радиус, вокруг шарика, куда он в следующее место покатиться?
397 1279536
>>79521
Нет, это сам рельеф
398 1279550
>>79536
А тоесть лос влияет на глубины сильность выпуклости и сложность рельефа?
399 1279555
>>79550
Лосс это и есть рельеф
400 1279559
Двач, хелп. При копировании текста происходит какая то ошибка, когда вставляю текст на выходе получаются неизвестные символы, как это фиксить?
401 1279569
А почему сети углубляют, а не расширяют?
402 1279572
>>79569
Интересный кстати вопрос, потому что читал как-то что в исходя из времени на реакцию и скорость распространения нервных импульсов, мозг в глубине успевает на 10-12 что ли слоев пройти всего. Это про всякие задачки на реакцию конечно только, побежать на звук выстрела например.
403 1279590
>>79572
Ага все хотят дип лернинг, но почему никто не делает width лернинг или как нибудь так, типа в ширину учить
404 1279598
>>79569
Потому что эквивалентная нейронка с меньшим числом слоев должна быть экспоненциально более широка. То есть глубина позволяет кодировать очень сложные функции малой кровью.
>>79572
Мозг интересен не реакцией на безусловные рефлексы, а долговременными процессами.
405 1279600
>>79598
Память-предсказание.
406 1279621
>>79600
Я не об этом. Та же визуальная кора - рекуррентная нейронка, первая реакция идет да, 10-12 слоев, но потом сигнал зацикливается и формирует уже более сложные структуры. Поэтому мозг глубокий, вообще альтернативы глубине нет.
407 1279631
>>79621

>рекуррентная нейронка


А расскажи про такой тип нейронок. В чем смысл обратной связи? Она не впадает в бесконечный цикл вычисления? Их используют не только для визуальных распознований? Вес обратной связи так же обучением настраивается вместе с основными весами или поотдельности? У нейрона в рекуретной сети два выхода? для обратной связи и прямой связи или это один и тот же выход? Для них тоже дропаут работает и бэкпропом их обучают или как то по другому?
408 1279634
>>79631
Нахуя кто-то будет тебе это рассказывать, если ты можешь просто проследовать в википедию и уже нормально прийти спросить что не понятно?
409 1279635
>>79598

> эквивалентная нейронка с меньшим числом слоев должна быть экспоненциально более широка


Но разве она не будет проще в обучении? Ведь широкая нейронка будет проще в обучении, нужно будет добавлять дополнитьный нейрон, если сеть не может обучиться нормально.
410 1279636
>>79634
Я тебя не заставляю, не нравится не отвечай, кто захочет ответит. Я вроде нормально спросил, в принципе можно с такой логикой тред выпилить и заместо него закрепить пост, с ссылкой на вики.
411 1279646
>>79635
Ты похоже не понимаешь слово "экспоненциально", от которого любой программист бежит, как только видит.
Тебе чтобы заменить двуслойную нейронку однослойной, нужно exp(2) больше параметров. А десятислойную exp(10) больше параметров. exp(10) это 22026, если что. То есть если у тебя десятислойная сетка весит мегабайт и обучится на CPU, то однослойный аналог будет весить 22 гигабайта и не влезет в 1080 Ti. Обучаться же он тоже будет вечность. Однослойный аналог resnet с 700 слоями же будет иметь 1.0142320547350045e+304 больше параметров, то есть не влезет в видимую вселенную, в которой все 1e80 атомов.
Я бы посчитал для 1000 слоев, но в дабл оно уже не влезает, а подключать бигнамбер библиотеки мне влом.
412 1279650
>>79590
Прочитай пару книг про алгоритмы и этот вопрос у тебя отпадет.
413 1279651
>>79631

>В чем смысл обратной связи?


Увеличить глубину до бесконечной

>Она не впадает в бесконечный цикл вычисления?


Впадает

>Их используют не только для визуальных распознований?


В основом для обработки последовательностей произвольной длины.

>Вес обратной связи так же обучением настраивается вместе с основными весами или поотдельности?


Этого в определнии нет. Главное, что выход соединен со входом. Сами рекуррентные нейронки сейчас сложные, читай про LSTM

>Для них тоже дропаут работает и бэкпропом их обучают или как то по другому?


Дропаут работает. Про бэкпроп почитай про backpropagation in time. Если кратко, то рекуррентную нейронку разворачивают в нерекуррентную с конечной глубиной, и обучают уже ее.
414 1279658
>>79598

> Мозг интересен не реакцией на безусловные рефлексы, а долговременными процессами.


Почитай что ли про рефлексы прежде чем умничать. В последний раз когда я проверял уши не были к спинному мозгу напрямую подключены.
415 1279663
>>79658
Хочешь хамить, а не общаться - проследуй нахуй.
416 1279674
>>79651

>Впадает


Так она тогда никогда результат не даст же? Будет постоянно добавлять входные связи прибавлять или я что то не так понимаю? Или это что то наподобие операционного усилителя?

>заменить двуслойную нейронку однослойной


Круто, спасибо за объяснение, все понятно.
417 1279678
>>79674

>Или это что то наподобие операционного усилителя?


Скорее что-то вроде БИХ-фильтра - в момент времени t сигнал проходит сквозь нейронку и выдается первый результат на выход и в цепь обратной связи, в t+1 выдается новый результат и т. д.
В теории можно единожды подать сигнал и дальше бесконечно наблюдать как он ходит по цепочке обратой связи, на практике он затухнет.
418 1279686
>>79678
А к входному слою подключна обратная связь от внутреннего слоя? Если к входному слою не подключать обратную связь то во внутренних слоях сигнал затухнет определенно.
419 1279737
>>79440

>Если validation loss больше training loss, нейронка лучше реагирует на те данные, которые видела. Это плохо - значит, она разучивает тренируемые данные, а не учится обобщать.


Погоди, когда test loss > training loss - это же нормально. Вопрос в том, насколько больше, а также в динамике. Переобучение - это когда train loss падает, а test loss растёт, разве нет?
420 1279738
>>79737
Тоже подумал, что это странно. Но может ты путаешь это с аккураси? Лос типа это другое как я понял, хоть и не до конца.
421 1279743
>>79738

>Лос типа это другое как я понял, хоть и не до конца


Loss - это то, что у тебя фигурирует в математической постановке задачи. Accuracy - это то, что ты будешь потом показыв
422 1279745
>>79743
ать почтеннейшей публике.
423 1279756
>>79646
А почему именно экспонента? Ее просто эмпирически вывели, или в чем-то другом дело?
424 1279770
>>79646
лол почему экспоненциально
казалось бы число параметров в сетке = число слоёв * число параметров в слое
кстати как вы расширять собрались?
425 1279777
>>79770

>кстати как вы расширять собрались?


Вот этот вопрос нужно было с самого начала задавать.
426 1279835
>>79756
Вводится некий способ посчитать сложность аппроксимируемой функции, он считается для глубоких и мелких сеток и получается, что глубокие сетки могут аппроксимировать более сложное с меньшим числом параметров. Таких статей с разными способами много, например https://pdfs.semanticscholar.org/f594/f693903e1507c33670b89612410f823012dd.pdf
Мне это неинтересно
427 1279851
>>79743

> математической постановке задачи.


Можешь объяснить что ты под этим подразумевал? Пример небольшой может какой есть? Как это выглядит в жизни.
428 1279855
>>79509
у меня все почему-то работает, даже на работе на виндоуз один раз накатывал, и все работало
429 1279877
>>79678
А в какое t тогда собирается выходное значение сети которое результат работы? Или это как то тактируется с подачей входного сигнала? Или собираются все значения до тех пор пока сеть не затухнет?
Не понятно что за последовательности произвольной длинны? Количтво входных сигналов всегда одинаково вроде.
430 1280169
>>79851
Что такое линейная регрессия методом наименьших квадратов, знаешь?
431 1280220
>>80169

>методом наименьших квадратов


Лол
432 1280282
А я еще раз напомню, что для успешной карьеры в машинном обучении и анализе данных нужно быть выпускником топового математического факульета: мехмат мгу, фивт/фупм мфти, чебышевка СПбГУ, фкн вшэ. Все, если вы выпускник другого вуза, вы просто никому не нужны. Смиритесь с этим и идите в более приземленные области: веб, мобилки, энтерпрайз. В сложные наукоемкие отрасли вам дорога закрыта.
433 1280337
>>80282
Какие постоянные аутотреннинги маньки, сидящей в МФТИ и не осиливающей машоб.
434 1280357
>>80337

> сидящей в МФТИ


Это если в Долгопрудном
435 1280381
>>80282

> мехмат мгу, фивт/фупм мфти, чебышевка СПбГУ, фкн вшэ.


Африканские ПТУ. Ни в одной нормальной стране тебя с дипломом из этих деревенских шараг в машоб не возьмут, а в рашке машоба нет
436 1280391
>>80381
Пост тральный, но это правда. Просто в нейроночках сейчас жопа - ломанулась ТОЛПА народу, причём весьма крутого. Поэтому на «настоящие» позиции, где надо исследованиями заниматься, попасть практически невозможно. Нужен топчик пхд, а на топчик пхд тебя возьмут только когда у тебя УЖЕ будут статьи в нипсе... куда ты не пройдёшь, если ты не в тусовке. На реддите недавно кипишь был. И проф, выдвигающий космические требования на свой пхд, сказал, мол, да, это проблема. Ваша проблема.
Из мордора все это организовать анриал. Поэтому у нас три стула: пытаться догнать поезд бегом, идти в макаки на обслуживание успешных выпускников Стенфорда, или кукарекать с помоечки о том, какие все вокруг дебилы.
437 1280395
А, забыл вишенку на торт положить. В том треде на реддите ещё объявился чел, который сказал что у него есть эти вожделенные статьи на нипсе но... барабанная дробь... на пхд его все равно не берут. Потому что даже этого мало. Реально ещё нужны рекомендации от известных профессоров. Где таковые живут мы все примерно представляем, и внутри границ мордора их точно не бывает.
438 1280399
>>80282

>чебышевка СПбГУ


Это не факультет, даун.
439 1280420
>>80391

> Поэтому у нас три стула:


Вообще, четыре. Четвёртый стул - сделать что-то интересное, чтобы все охуели. Не негров распознать, а что-то реально прорывное. А такое, как и везде, возможно на стыке машобчика и чего-то ещё.
440 1280439
>>80420

>что-то реально прорывное


Игрули для быдла, типа FaceApp?
441 1280461
>>80391
сука ну вот зачем мне настроение испортил
442 1280464
>>80391
Бля. Нихуясе. Жир потёк из дисплея.
443 1280468
>>80391

>Поэтому на «настоящие» позиции, где надо исследованиями заниматься, попасть практически невозможно.


В чем заключается "настоящесть" этих позиций? Запилить очередную GAN, а потом узнать, что китаец Ляо за этот год запилил GAN намного круче и все его цитируют, а не тебя? Или, пользуясь мощностями гугла, обучить какой-то йоба RL алгоритм тоже без особых последствий? Это просто позиции занятия хардкорной наукой со всеми присущими этой самой науке достоинствами и недостатками - а именно, низкой зарплатой в обмен на тщеславие и возможность получать высокую зарплату, когда ты уйдешь из науки в бизнес на хорошую позицию. Но, давай по правде, что-то уровня дропаута ты не откроешь, а быть фамилией из нескольких сотен на NIPS такой себе пряник.

На самом деле настоящие позиции во внедрении. Когда ты из десятка пейперов с архива выбираешь парочку, очищаешь их от интеллектуальной собственности методом скрещивания ужа с ужом, и превращаешь в конкретный бизнес-продукт, который продается за конкретные деньги, а тебе с этих денег платят высокую зарплату здесь и сейчас. А ученые пусть делают свой зерграш, генерируя сотни статей, из которых 99 окажется шлаком и бездарно проебанным временем.

И стулья есть такие
1. Идти в российскую контору, где на твою научную карьеру всем похуй.
2. Искать зарубежную удаленку, где на твой диплом высшей заборостроительный школы тоже всем похуй.
3. Устраиваться макакой, копить $20000, ехать в Канаду получать master degree и далее либо в науку, либо в бизнес
444 1280510
>>80468

> Устраиваться макакой, копить $20000, ехать в Канаду получать master degree и далее либо в науку, либо в бизнес


Планирую идти таким путем. Мне 28, сейчас приступаю к статистике после анализа и линейной алгебры на OCW. Хочу вкатиться в computational biology или смежное. Иногда очень страшно что уже поздно и все поезда давно ушли, и пора становиться старшей макакой, покупать дом, собаку, делать детей и садиться ждать смерти.
445 1280534
Всё равно ИИ не создаёте...
446 1280538
>>80510
А я пошел вторым путем. В бизнесе от макаки до машоба не такая большая пропасть, если ты уже устроился куда-то.
448 1280540
>>80510

>computational biology


Вычислять протеины?
449 1280542
>>80169
Я знаю что такое наименьшие квадраты, а вот регрессию нет. Расскажи что такое эта регрессия?
450 1280543
>>80540
Потихоньку пытаюсь понять разницу в скиллсете между протеинами и анализом последовательностей ДНК, да.
>>80538
В бизнес трудно без дегри вроде бы минимально хотя бы релевантный.
451 1280551
>>80543

>В бизнес трудно без дегри вроде бы минимально хотя бы релевантный.


С хуя ли? Обыкновенный карьерный рост, пилишь пет-проекты, устраиваешься ниже рынка, растешь. Я сам вылез на переписывании чужого кода с матлаба на с++, работа макаки, но сейчас свои алгоритмы пилю.
452 1280552
>>80542
может книжку почитаешь?
или ты решил что тебя на дваче на остриё науки посадят?
рекомендую бишопа очень
453 1280561
>>80551
Просто есть два пути: мастер дегри и макакить три года, тогда можешь смело идти на интервью; макакить и расти, качать кармочку и гитхаб, тогда тебя сами найдут, если ты толковый.
454 1280563
>>80552
Я может и знаю что такое регрессия, только я не понимаю что это означает. Типа я знаю как линейное уравнение выглядит. Почему это регрессией называется? Что то упрощают при этом? И делают это линейными уравнениями? Типа круг можно линейно регресировать в пятиугольник потом в квадрат и тд?
455 1280565
>>80552

>бишоп


А чо за книжка, можешь исбн или название хотя бы сказать. Посмотрю может. Просто когда читаешь не особо понятно, надо постепенно как то к этому самому приходить.
456 1280566
>>80563
Аппроксимация дискретного набора точек (на самом деле необязательно) прямой (одной) в соответствии с неким критерием. Для наименьших квадратов - это средний квадрат расстояния от каждой исходной точки до прямой по вертикали (кажется).
Если тебе такие элементарные вещи непонятны, то тебе очень тяжело придется дальше.
457 1280568
>>80561
Никто тебя не найдет. Путь один и тот же и дегри только слегка поможет тебе найти первую работу и набрать знакомств. Больше никакой разницы нет. Твое подсознательное желание встать на рельсы и типа тогда все будет ок, это просто желание переложить ответственность с себя на преподавателей учебного заведения.
459 1280571
>>80566
А как определяют в линейной регрессии погрешности, перебирают все варианты при которых самая большая погрешность в одном из вариантов перебора будет самой меньшей из всех переборов?
460 1280572
>>80570
хотя если не понял что такое линейная регрессия из википедии то наверное лучше вообще во что-то другое вкатываться
461 1280573
>>80571

> самая большая погрешность


средний квадрат погрешностей
462 1280575
>>80572
Да с википедией проблема, там все слишком на слишком математичном языке написано хз как описать.
463 1280579
>>80468
Зарплаты в нейрочках нормальные. И туда не за ЗП идут, а за тщеславием, да. У всех есть амбиции, и как показывает практика амбиции стать ученым и исследовать то, что лично тебе интересно, а не то, что дядя сказал, есть у очень многих. В этом и заключается настоящесть.

>что-то уровня дропаута ты не откроешь


Не попытавшись - точно не откроешь.

>а быть фамилией из нескольких сотен на NIPS такой себе пряник


Кому как.
464 1280625
>>80579

>Зарплаты в нейрочках нормальные.


В бизнесе да. В науке хуи сосут, на то она и наука.

>и как показывает практика амбиции стать ученым и исследовать то, что лично тебе интересно, а не то, что дядя сказал


Ох лол. В науке тебе точно такой же дядя и говорит, что тебе исследовать. Разница в том, что в случае бизнеса есть конкретная заинтересованность в твоем успехе, а в науке похуй, прозанимался год говном, нет результатов, но зато публикация есть.

>Не попытавшись - точно не откроешь.


Строить свою жизнь на этом это примерно как строить свою жизнь на планировании выиграть в лотерею.
465 1280640
>>80625
Ассистант профессор в универе это в районе 150к, уровень хорошей макаки. В каких-нибудь Дипмайндах, скорее всего, очень высокие ЗП. В финансах может быть гораздо больше, но там своя атмосфера - далеко не факт, что выиграешь в итоге.
Пхдшники и постдоки нищууют, это да. Это стиль жизни, норми не понять.
В науке тебе сначала дядя говорит, но подразумевается, что ты начнешь генерировать идеи и воплощать их сам. Это ценится в ученом, а не исполнительность. Вообще наука сейчас во многом напоминает бизнес. Пхд, постдок - это наемные рабочие, а профессор - владелец бизнеса. Он делает что хочет, но может и прогореть, тут лотерея. В жизни вообще все лотерея, и чем выше ты лезешь, тем меньше шансы.
466 1280644
>>80640

>Ассистант профессор


Лел, чтобы сейчас стать ассистант профессором в такой сфере надо три очка порвать, десять вылизать, получить геморрой, близорукость, пролежни, трижды лечиться от депрессии и дважды пытаться покончить с собой. Люди в постдоках сидят когда у них дети школу уже заканчивают порой.
467 1280649
>>80644
О чем и речь ИТТ. Все что ты описал это следствие того, что очень много желающих быть учеными. Это титул, почет, чувство собственного достоинства не сравнимые ни с чем. Ты будешь знать, что кто-то другой заработал миллиарды, но его никогда не процитируют в статье - в науке его не существует.
И на самом деле все что ты сказал это не очень нужно. Нужно всего-то родиться в богатой, интеллигентной семье в Америке. Закончить Гарвард по прикладной математике, во время мастера ошиваясь в лабе с именитыми профессорами, которые тебя впишут в статьи на нипсе. Заручившись их рекомендациями, пройти на топчик пхд, тоже в плюще естественно. Там делать по статье в год и вписываться соавтором еще на две в год. И вуаля - у тебя очень хорошие перспективы на кресло.
468 1280653
>>80649
Вася, а с тобой о чем говорили изначально?

> Поэтому на «настоящие» позиции, где надо исследованиями заниматься, попасть практически невозможно.


> Нужно всего-то родиться в богатой, интеллигентной семье в Америке.

469 1280655
>>80640

>Ассистант профессор в универе это в районе 150к, уровень хорошей макаки.


Именно. Супер-профессионал, нехило так выросший в карьере, получает как хорошая макака.

>В науке тебе сначала дядя говорит, но подразумевается, что ты начнешь генерировать идеи и воплощать их сам.


Как и в бизнесе.

>Вообще наука сейчас во многом напоминает бизнес.


Наука - не бизнес, KPI разные. В науке в твоем успехе никто не заинтересован, там зерграш и зергов никто не считает.
>>80649

>Нужно всего-то родиться в богатой, интеллигентной семье в Америке.


Именно поэтому NIPS 2017 это:
Zhen He, Shaobing Gao, Liang Xiao, Daxue Liu, Hangen He, David Barber
Constantinos Daskalakis, Nishanth Dikkala, Gautam Kamath
Pan Ji, Tong Zhang, Hongdong Li, Mathieu Salzmann, Ian Reid
Rohit Girdhar, Deva Ramanan
Heinrich Jiang
Fabian Pedregosa, Rémi Leblond, Simon Lacoste-Julien
И так далее

Тебе в науке делать нечего, потому что ты туповат и не видишь настоящей картины, в которой наука - удел иммигрантов, так как это тяжелый и неблагодарный труд, нафантазировал себе какой-то хуйни про Гарвард и доволен.
470 1280658
>>80655
Лол. Вполне себе американцы из богатых семей.
471 1280682
>>80655
Чет в голосяндру, я бы вашу науку в современном виде к хуям разогнал. Бесполезные дармоеды.
15389490539400.jpg82 Кб, 1080x808
472 1280694
олды здесь?
помогите ньюфагу:
Есть куча csv файлов, в каждом файле два столбца данных, по этим данным нейронка должна решать к какой категории (их всего 2) относятся данные

Как это можно сделать?
473 1280716
>>80694

>Как это можно сделать?


Заплатить 250 рублей дауненку из МФТИ
474 1280721
>>80694
Непонятно, с какого уровня ты это спрашиваешь. Ты когда-нибудь машобом занимался? Программировать умеешь?
475 1280732
>>80721
на питоне умею, машоб не пробовал

данные в файлах числовые в формате float, значения от 1.1 до 20, в два столбца
476 1280738
>>80732
Скорее всего, тебе нейроночки не нужны. Рекомендую xgboost. Смотри туториалы в интернете.
477 1280747
>>80738

Я вижу, что во всех примерах все данные в одном csv файле, а у меня на каждый label свой отдельный csv файл с 20 строками данных, как быть?
478 1280752
>>80747
Пихвовекторизацию пробовал?
479 1280762
>>80747
Мда, блять. Зачем тебе это вообще? Что ты делаешь?
480 1280763
>>80747
Да какая разница сколько файлов? Объедини в один. Должен быть набор пар входной вектор - целевое значение.
481 1280766
>>80762
определяю к какой категории относятся данные

>>80752
>>80763
попробую, спасибо
482 1280769
>>80766
По информатике домашнее задание? Ты же нихуя не знаешь не то что в нейронка, да даже в программировании.
autism.jpg150 Кб, 1600x935
483 1280770
>>80766

>Я вижу, что во всех примерах все данные в одном csv файле, а у меня на каждый label свой отдельный csv файл с 20 строками данных, как быть?


>Пихвовекторизацию пробовал


>попробую, спасибо


Это зелень такая здесь сидит? Что происходит, блять?
484 1280780
>>80539
Да не совсем
485 1280874
>>80770
читай статью на последнем нипсе (на icml 2018 тоже выходила похожая) про пихвовекторизацию
486 1280884
А где можно почитать про линейную регрессию, как считается она. На русском желательно, хотя если будет на английском но понятно тоже могу глянуть. А то везде сразу дают уравнение, считая в какой то программе под названием регрессия или на питоне со всякими значками в стиле SS или R.
tired.gif241 Кб, 400x310
487 1280892
>>80874
Говно, ты? Модер тебе пермач не выписывает, что ли?
488 1280895
>>80892

>пермач


>Модер


>пишет на АИБ


Ты совсем тупенький?
489 1280896
>>80895
По айпи никогда не банили? Совсем тупенький?
490 1280899
>>80896

>По айпи


Ох лол, не рассказывайте ему про dhcp и динамические ипишники.
491 1280902
>>80884

> А где можно почитать про линейную регрессию, как считается она.


ISLR же. Там первые страниц 300 про линейную регрессию.
492 1280930
>>80902

>ISLR


А есть что то для начинающих и на русском? Я так и не могу понять, вот есть как у верхнего чувака цсв с двумя столбцами данных. Если я построю уравнение линейной регрессии это и будет предскзание? А зачем тогда вообще нужна нейросеть и все эти бэкпропы?
493 1280942
>>80930
Потому что данные не всегда представимы в виде цсв с двумя столбцами.
494 1280947
>>80942
Ну если я правильно понял, то это будет просто сумма уравнений линейных регрессий? Ну или система.
И если они не могут быть представлены так, то зачем тогда изучать регрессию?
495 1280954
>>80947

>И если они не могут быть представлены так, то зачем тогда изучать регрессию?


Блядь потому что есть случаи когда они представимы.

> сумма уравнений линейных регрессий


система линейных уравнений, относительно параметров прямой, которой ты аппроксимируешь данные.
496 1280959
>>80947
https://en.wikipedia.org/wiki/Simple_linear_regression
Начни с одномерного случая, потом попробуй в голове обобщить на n-мерный
497 1280962
>>80954

>есть случаи когда они представимы.


Но тогда это уже будет не нейронка, а просто статистика, разве нет?

>>80959

>Simple_linear_regression


Наверное придется там изучать, думал может есть получше объяснение, надо подтянуть знания, что такое крышечка или черточка сверху.
498 1280966
>>80962

> что такое крышечка или черточка сверху.


там прямо в тексте:
sum of squared residuals - крышечка
average - черточка
499 1280967
>>67390 (OP)

Привет Анон.
Помоги пожалуйста советом.
Как мне подступиться к задаче:

Задача похожа на Affinity Analysis, Pattern Mining ( Если я правильно её классифицировал )
Возьмем пример покупательской корзины в которой необходимо узнать самые популярные наборы из 2ух-3ех предметов, без анализа "Если куплен A, то с вероятность p он купит B", т.е просто узнать "Самый популярный набор:
1. ABC 3 раза
2. BCD 2 раз
3. ...
Будем считать что наборы равны AB=BA

Пример Матрицы:
N| A B C D
1| 0 1 0 1
2| 1 1 0 1
3| 0 1 1 1
4| 1 1 0 1
5| 1 1 0 0
6| 0 1 1 0

Каждая строка - транзакция, каждый столбец - продукт.

Мой наивный метод был - сложить все строки и считать что самые покупаемые пары - с самым большим значением, но быстро понял что неправ.

Есть ли готовые алгоритмы для нахождения подобной выборки?
Может тут и не нужен никакой МашОб, а есть более простое решение, алгоритмическое.
Просто новые идеи не посещают и старые отпустить не могу.
499 1280967
>>67390 (OP)

Привет Анон.
Помоги пожалуйста советом.
Как мне подступиться к задаче:

Задача похожа на Affinity Analysis, Pattern Mining ( Если я правильно её классифицировал )
Возьмем пример покупательской корзины в которой необходимо узнать самые популярные наборы из 2ух-3ех предметов, без анализа "Если куплен A, то с вероятность p он купит B", т.е просто узнать "Самый популярный набор:
1. ABC 3 раза
2. BCD 2 раз
3. ...
Будем считать что наборы равны AB=BA

Пример Матрицы:
N| A B C D
1| 0 1 0 1
2| 1 1 0 1
3| 0 1 1 1
4| 1 1 0 1
5| 1 1 0 0
6| 0 1 1 0

Каждая строка - транзакция, каждый столбец - продукт.

Мой наивный метод был - сложить все строки и считать что самые покупаемые пары - с самым большим значением, но быстро понял что неправ.

Есть ли готовые алгоритмы для нахождения подобной выборки?
Может тут и не нужен никакой МашОб, а есть более простое решение, алгоритмическое.
Просто новые идеи не посещают и старые отпустить не могу.
500 1280969
>>80966
Просто я когда про вектора читал, там это совсем другое означало. Путает сильно.
501 1280972
>>80967
Видимо придумал - нужно просто посчитать количество дубликатов по строкам, спасибо анон
502 1280988
>>80930
Потому что перед тем как лезть в машоб нужно хотябы базово обучиться программированию.
503 1281008
>>80962

> Но тогда это уже будет не нейронка, а просто статистика, разве нет?


Весь машоб это и есть статистика. Ты думал, магия какая-то?
504 1281069
>>80534

Москва не сразу строилась
505 1281077
506 1281424
>>80571
Мне кажется это очень жирный тралль
Обновить тред
Двач.hk не отвечает.
Вы видите копию треда, сохраненную 27 ноября 2018 года.

Скачать тред: только с превью, с превью и прикрепленными файлами.
Второй вариант может долго скачиваться. Файлы будут только в живых или недавно утонувших тредах. Подробнее

Если вам полезен архив М.Двача, пожертвуйте на оплату сервера.
« /pr/В начало тредаВеб-версияНастройки
/a//b//mu//s//vg/Все доски