Этого треда уже нет.
Это копия, сохраненная 14 июня 2018 года.

Скачать тред: только с превью, с превью и прикрепленными файлами.
Второй вариант может долго скачиваться. Файлы будут только в живых или недавно утонувших тредах. Подробнее

Если вам полезен архив М.Двача, пожертвуйте на оплату сервера.
НЕЙРОНОЧКИ И МАШОБ ТРЕД №?.2 1162357 В конец треда | Веб
Очередной тред про хипстерские технологии, которые не работают.

Какая математика используется? В основном линейная алгебра, теорвер и матстат, базовый матан calculus многих переменных.
Что почитать для вкатывания? http://www.deeplearningbook.org/
В чем практиковаться нубу? http://www.deeplearning.net/tutorial/
Где набрать первый самостоятельный опыт? https://www.kaggle.com/ https://halite.io/ https://www.general-ai-challenge.org/
Где работать? https://www.indeed.com/jobs?q=deep+learning&l=
Где узнать последние новости? https://www.reddit.com/r/MachineLearning/
Где посмотреть последние статьи? http://www.arxiv-sanity.com/

Список дедовских книг для серьёзных людей:
Vladimir N. Vapnik "The Nature of Statistical Learning Theory"
Trevor Hastie et al. "The Elements of Statistical Learning"
Christopher M. Bishop "Pattern Recognition and Machine Learning"

Напоминание ньюфагам: персептроны и прочий мусор серидины прошлого века действительно не работает на серьёзных задачах

Предыдущий тред: >>1121858 (OP)
2 1162366
>>62357 (OP)

> Blockchain — database


Lolwut. И к криптовалютам надо было "candy wrappers" написать.
3 1162379
Так бля. Пацаны, нужна помощь ньюфагу полному.
Знаю все необходимую матбазу из шапки. Умею немного в плюсы, знаю чуть-чуть теории из алгоритмов на больших объемах данных(т.е. получить что-то из огромной базы с высокой вероятностью), типа кластеризации или работы с разряженными матрицами. Рассказывали что-то про распарарллеливание и как это должно работать в хадупе, но ничего прикладного так и не сделали. Все, что умею мне нравится.
Расскажите, куда катиться с такими начальными(в смысле мне это нравится) и куда не стоит. Хотелось бы чего-нубидь сложного и не с курсеры. Заранее спасибо за любой ответ отличающийся от

>катиться к хуям

4 1162392
>>62379

> куда катиться с такими начальными


Душить змею, десу. В смысле, питон учить. И матрицы никто не разряжает. Их делают более рЕдкими. От этого они становятся разреженными.
5 1162409
>>62392
А после питона то что? Алсо он мне не очень нравится, если для дело надо, то конечно, но просто так его учить не тянет.
А про разреженные спасибо, мне тоже казалось, что так правильно, но я решил, что неправильно запомнил.
6 1162423
>>62409
катиться в ScyPy. По сути в науку. Дальше неизбежно столкнёшься с морфологией, а тм и Перельман пришлёт тебе на обсуждение очередную статью
7 1162425
>>62423
На работу то меня возьмут с этой штукой?
8 1162426
>>62423
Алсо Перельман же дифференциальный геометр, это связано?
9 1162429
>>62357 (OP)

>сиридины


Блять, как же я так проебался.
>>62379
У тебя очень широкий вопрос. Погугли, какие задачи дип лёрнинг решает, выбери интересную, книжку из шапки почитай, потом найди список свежих пейперов по теме и реализуй методы из них.
>>62425
В России скорее всего нет. Т.е. если ты чисто машобом хочешь, то нет.
10 1162433
>>62429

>Т.е. если ты чисто машобом хочешь, то нет.


А что еще надо? кроме машоба?
11 1162439
>>62433
Обычные прогерские скиллы, очевидно.
12 1162443
>>62426
Ну чувак на таком уровне, где геометрия сливается с математикой, и одним словом это можно назвать логика. Человеческая логика сейчас находится на уровне Перельмана. Именно так мы сейчас осмысливаем предметы вокруг себя.
13 1162446
>>62425
<ывают проскальзывают вакухи Big data etc
15 1162497
>>62379
А че с курсерой не так?)
16 1162608
Для нейронок что важнее: проц или видеокарта?
Ну т.е. буквально, стоит ли ужимать бюджет немного на второе ради первого, или наоборот?
17 1162616
>>62608
важно найти самый простой способ провести бейслайн в классификаторе. Если это не получается то начинаешь перебирать с помощью CPU.
18 1162617
>>62608
Я в нейроночках диван, но советую сначала упереться в железку на практике, а потом считать бюджеты.
19 1162634
>>62608
Для обучения - видеокарта, желательно с большим объёмом памяти, иначе будешь ебаться с подгрузкой данных кусками.
20 1162707
>>62379
Тащем-то вводные у тебя считай нулевые так что начинай с курсеры и не выебывайся.
21 1162718
>>62608
ryzen, 1080ti, 16+Гб для домашней системы стандарт сейчас
22 1162743
>>62443

>логика


Я занимаюсь логикой и это очень далеко от диффуренциальных уравнений. Логика скорее похожа на самую слабую в смысле ограничений на объекты алгебру, но не более.
>>62497
Видеоуроки и платить еще за это предлагают.
>>62707
Еще раз, это вводные, чтобы объяснить что мне нравится, а что не особо. И что именно начинать на курсере то?
Насколько я понял, то, что я описал это не машоб а просто работа с большими объемами информации. Или я не прав?
23 1162745
>>62357 (OP)
ОПчик, halite.io из шапки уже закончился. Можно мейлрушный канкурс вместо него поставить.
24 1162746
>>62743
У тебя типичный вопрос из серии что мне делать со своей жизнью. Он не имеет смысла, как и твоя жизнь. Че хочешь, то и делай. Хочешь поступай на пхд, хочешь пускай krokodil по вене.
25 1162747
>>62745
Блин, второй проёб в шапке. Тред медленно будет лимит набирать, но в следующий раз постараюсь на обосраться.
26 1162748
>>62746
Не знаю. Я прошу рассказать какие есть направления и темы в том, что называется data science. Видимо это много.
27 1162751
>>62379
Бамп вопросу.
28 1162756
>>62751
Гугли. Тут секретов нет, интернет забит подобными вопросами.
29 1162758
>>62751
статистика, r, julia
scala @ spark, clojure @ storm\onyx
катиться - в шад

курсера - это, кстати, не видосы, а курсы, и притом бесплатные (платный - сертифицированный сертификат)
30 1162760
>>62758

>статистика, r, julia


>scala @ spark, clojure @ storm\onyx


>катиться - в шад


Спасибо, но это же все технологии или вообще языки, а статистику я вроде более менее знаю. В шад же меня не возьмут, да и в этом треде о нем нелестно отзывались. Да и там нужно выбрать одно из трех направлений, а в этом то вся проблема и заключается.
А по поводу курсеры я так понял, там в зависимости от курса либо плата за сертификат, либо плата за сам курс, есть триальная 7дневная версия, но все не то. И в основном там видеоуроки в этих самых курсах, по крайней мере в тех, что я видел.
31 1162934
>>62357 (OP)
Как мне обучить нейросеть играть например в герои 6 не хуже человека, чтобы по тактике рвал, какую библиотеку скачать как начать обучения сети?
32 1162945
>>62934
это очень сложно. Я думаю почти невозможно.
Для начала нужно распилить игру. найти то место которое отвечает за инпут. Переделать инпут с мышки на процесс, в котором крутится нейронка.
Дальше найти место которое отвечает за оутпут, в смысле то которое стоит перед оутпутом на видяху. Потому что там совсем мрак. Понять рендеры каких объектов ты видишь. Сделать мап этих обьектов в нейронку. Дальше нейронка запомианет паттерны движения этих объектов и учится. Проще конечно зареверсить движок, найти файлы которые отвечают за игровую механику, замапить их в нейронку. Потом обученная нейронка мапит свои оутпуты в апиху игры. но если ты такое сделаешь, можешь претендовать на нобелевскую премию в области нейросетей.
33 1162962
>>62945
Наркоман? К какому-нибудь openai universe можно при делать любой вывод на экран и любые действия с клавой, мышкой итд. Там даже в примерах используются обычные игры, никто их не ковыряет. Другой вопрос, что научить нейроночку чему-то сложнее арканоида в домашних условиях вряд ли реально, мощности не те. Нужно как минимум поднимать всю эту ебулду на каком-нибудь амазоновском инстансе.
34 1163006
>>62962
Мозг ведь не требует амазоновского инстанса.
35 1163008
>>63006
Нейронные сети имеют такое же отношение к мозгу, как андеркаты и прочая хипстерская хуита - к нормальному виду.
36 1163019
Секундочку. почему абсолютно дегенеративное обсуждение про нейроночки так оживлено идет, а мой резонный вопрос про деление машоба и вообще науки об информации, до сих пор без ответа? Я же точно помню, что оп первых тредов не был идиотом. Что произошло?
37 1163021
>>63019
Нейронки зохавали моцг
38 1163031
>>63019
Во-первых, твой вопрос плохо сформулирован, и я не понимаю о чем он. Во-вторых, это место именно для дегенеративного обсуждения про нейроночки. За сириус бизнесом иди в реддит.
39 1163065
>>63019

> а мой резонный вопрос про деление машоба и вообще науки об информации, до сих пор без ответа?


Что за вопрос-то?
40 1163067
>>63065
чё делать то ёба бля нахуй то а?
41 1163074
>>63067

> чё делать то


Ничего не делай. Так и победишь
42 1163078
>>63067
Стакай xgboostы и сверточнхы слоев побольше накатывай.
43 1163348
44 1163880
Чего-то за последний год прогресс как-то не прогрессирует, вы не находите? Все возятся с GAN и reinforcement learning, только результатов особых не видно.
45 1163937
>>63880
«День знаний» для ИИ: опубликован ТОП30 самых впечатляющих проектов по машинному обучению за прошедший год (v.2018)
https://habrahabr.ru/company/cloud4y/blog/346968/

Топ-10 трендов технологий искусственного интеллекта (ИИ) в 2018 году
https://habrahabr.ru/company/otus/blog/350614/

Да наоборот прогресс ускоряется, в 2016 году я вообще не слышал новости об нейронках и не знал что это.
image.png21 Кб, 866x122
46 1163958
>>63937

>https://habrahabr.ru/company/cloud4y/blog/346968/


Ёбаные хипсторы измеряют успех в количестве юзеров гитхаба, добавившего их репу в букмарки.
горилла.png213 Кб, 491x424
47 1163967
>>63880
Хайп спадает, теперь ждать пока деды от машинлернинга не придумают очередную хуитку, позволяющую повысить качество распознавания негров на 0,5%.
>>63937

>опубликован ТОП30 самых впечатляющих проектов по машинному обучению за прошедший год (v.2018)


Единственная интересная вещь - fasttext, это да, очень круто. Остальное - распознавание негров а-ля пикрелейтед, нескучное автоматическое разрисовывание котиков в стиле Пикассо и анимешных девочек, костыли к слесарьплову, морфинг лошадей в зебр, изменение голоса и прочее говно из жопы.
48 1163972
>>63019

>почему абсолютно дегенеративное обсуждение про нейроночки так оживлено идет, а мой резонный вопрос про деление машоба и вообще науки об информации, до сих пор без ответа?


Единственное адекватное деление машоба на два стула было сделано еще в 60-е - асимптотически-оптимальные и конечно-оптимальные алгоритмы. Первый случай - нейроночки и прочее говнишко, над которым можно прыгать с бубном до японской пасхи в надежде, что десяток дополнительных видюх, новая борода из более модного барбершопа и совместное камлание на коворкинге приведет к увеличению качества еще на 0,05%. Второй случай - алгоритмы на основе теории статистического обучения.
image.png573 Кб, 730x551
49 1164084
Dropout это всего лишь навсего выбывший [из школы] (недоучка), но сообразительный малый
Over-fitting это же теремок (сказка такая) или даже украинское "рукавичка", этот принцип дети учат очень рано

Всё дабы запутать простых людей. Даже думаю, что дети машинное обучение будут понимать намного проще. Примерно как со следующей задачей:

На книжной полке рядом стоят два тома Пушкина:
первый и второй. Страницы каждого тома имеют вместе толщину 2 см, а обложка –– каждая –– 2 мм. Червь прогрыз (перпендикулярно страницам) от первой страницы первого тома до последней страницы второго тома. Какой путь он прогрыз?

Эту задача дети решают за 0,(9) секунды, а профессора за длинную эпоху тяжелых размышлений.
image.png68 Кб, 225x225
50 1164089
>>64084
Хотя мне немного грустно от всего этого.
51 1164102
>>64084
От первой до последней включительно?
Тогда 2 см, если нет, то 1.96 см.
52 1164107
>>64102
4 мм.
53 1164109
>>64084

>Over-fitting это же теремок (сказка такая) или даже украинское "рукавичка", этот принцип дети учат очень рано


Ну и в чем связь?
>>64102
>>64107
3.98мм
54 1164113
>>64084
Смотря в каком порядке стоят тома
55 1164115
>>64107
Лол, ну так дело в том что мелкие пидорахи узко мыслят, поэтому и быстрее.
Я сам обосрался, признаю, но как минимум взрослый человек если подумает над этой задачей больше 5 секунд поймет что книги могут стоять по разному, могут быть какие-то манякниги где первая страница в конце, маетматики могут еще в своих неэвклидовых гемоетриях позалипать. В общем хуита пример. И с теремком тоже. Специальные термины нужны т.к. им задают гораздо более узкий и точный смысл чем имеют привычные обывательске понятия, и потом дауны делают ошики из за недопонимания т.к. каждый понимает "манятеремок" или "сообразительный, но выбывший малый" по разному, либо делают акценты на разные характеристи этих мысленных объектов.

Короче очередной кукаерк в стиле "чейто энти ваши ученые там делают, лушеб коз выпасли или корову подоили, только деньхи наши тратят, дармоеды"
56 1164119
>>63967

>изменение голоса


Это именно то, что я хотел сделать после прохождения машинного обучения на курсере. Неужели все так нетривиально?
57 1164167
>>64119
А ты небось думал что нейроночки и машобчик это так, месяцок позалипал на курсах\книжках и можно на легке хуячить все те охуительные идеи, которые ты придерживал до изобретения ии?
58 1164181
>>64167
А разве не так?
мимо
59 1164182
>>64119
Нейронки нужны для хайпа и попила бабла, а твое изменение голоса решается на коленке любым ЯП.
60 1164189
>>64182
Не решается (кроме добавления эффекта пердения в ведро).
61 1164193
>>64189
И правда, как только без нейронок голоса раньше меняли. Кстати, какова математическая постановка задачи изменения голоса?
62 1164194
>>64189
Есть куча синтезаторов голоса, а если копнешь глубже в акустику, то какие проблемы в его изменение?
63 1164199
>>64181
Нет, всякие phd десятилетиями этим занимаются и в лучем случае могут побить какой-нибудь порог точности на 5-10% в имажнете или мнисте.
Любая крупная контора типа фейсбука, гугла, даже мейл ру имеют целые ресерч отделы, где лучшие в этом направлении люди за крупную зарплату каждодневно пытаются сделать что-то подобное. И тут такой вкатывается васян с двача после курсеры и мутит свой морфер изменятель голоса, бота для героев и прочих самореплецирующихся киборгов математиков.

А вот хуй, это так не работает
64 1164200
Как научить нейросеть делать RYTP ролики как на ютубе? Равнозначно ли это научению машины способности шутить?
65 1164209
>>64193

>как только без нейронок голоса раньше меняли


Питч двигали, гармоник добавляли, да хорус. Это детский лепет. Автотюн незаметный до сих пор не могут сделать, епта.
>>64194

>Есть куча синтезаторов голоса


Начнем с того, что они такое говно, что даже глухой отличит их от живого человека.
Под изменением голоса я понимаю качественный синтез, имитацию голоса конкретного человека, работу с интонацией.
66 1164211
>>64209

>имитацию голоса конкретного человека


А, ну да, тут без нейронки и поллитры смузи не обойтись.
67 1164235
>>63972

>Единственное адекватное деление машоба на два стула было сделано еще в 60-е - асимптотически-оптимальные и конечно-оптимальные алгоритмы


А можно поподробнее про второе? По каким запросам гуглить книги, что изучать.
68 1164238
>>64209
Вот не пиздел бы, для всяких английских и испанских есть много годных синтезаторов, просто языки простые. Работа с интонацией заключается в определение семантики текста, а это NLP, там нейронки сосут в первую очередь.
69 1164246
>>64200
Берёшь большое количество роликов, берёшь ган-ганчик, он тебе генерирует видосы. нет
70 1164256
>>64238
Языки с тонами самые устойчивые к имитированию?
1521786483168520297.jpg68 Кб, 570x712
71 1164260
>>64256
Поковырял бы в матчасте что ли
72 1164265
>>64238

>Работа с интонацией заключается в определение семантики текста


Не
73 1164268
>>64265
Ты школьнег?
74 1164422
>>64199
Ты мыслишь ограниченно.
>>64182
Любым ЯП не получится сделать голос конкретного человека, например.>>64209

>Под изменением голоса я понимаю качественный синтез, имитацию голоса конкретного человека


Не, это перебор. Я еще в теорию кодирования голоса не вникал, но мне кажется, что просто покрутить параметры (с помощью ГА, например) для создания похожего голоса недостаточно, т.к. параметры будут единые для всего потока. Нейронка же, возможно, сможет адапитроваться к определенным патернам изменения голоса.
75 1164426
>>64422

>Я еще в теорию кодирования голоса не вникал


ясно

>Нейронка же, возможно


фейспалм
76 1164427
>>64422
Когда хочется "ну вот так, чтобы охуенно было, как в фильме", но "ЯП это скучно, посоны засмеют", то всегда говори "нейронка сможет".
77 1164432
>>64422

>Ты мыслишь ограниченно.


Лол, ну давай, неограниченный наш, не забывай хорошо учиться и заполнять дневник, чтобы когда обосрешься с первой тренировкой нейроночки(если вообще до этого осилишь) хоть аттестат был.
78 1164493
>>64193

>как только без нейронок голоса раньше меняли


Хуёво, вот как. Даже тупо повысить голос на октаву не могли без артефактов.
79 1164516
>>64493
Самое интересное, что в фантастических фильмах про будущее, голос искусственного интеллекта и суперкомпьютера сейчас изображает живая баба. А актеры, озвучивающие симпсонов, получают миллионы. Интересно, начнут ли они песдеть про авторские права и персональные данные, когда нейросетки их порешают? когда-нибудь
80 1164520
81 1164673
Мужики, назрел животрепещущий вопрос.
Учусь в маге в неплохом тех.вузе нерезиновой, решил пошароебиться по собесам, есть оффер на неплохую стартовую должность аналитика в полуайти компании(небезызвестная платежная система для школьников и наркоманов) с возможностью дальнейшего переката в мл. Мат.база минимальная есть, прохожу курсы, вся хуйня. Собсна, вопрос: стоит ли бросать нахуй магу, если я уверен, что по специальности работать не буду, или же продолжить учебу ради корки магистра?
82 1164677
>>64673
Доучивайся 100%, без корки в Рашке (и не только) ты никому нахуй не сперся.
мимо старый бомж без корки шлют на всех собесах нахуй
83 1164688
>>64677
Траблос в том, что у меня уже 3 знакомых ( 2 мидла-кодера и один джун дс) ща работают в яндексе вообще без каких-либо корок, поэтому и назревает вопрос. А проебывать 2 года на хуйню, которой заниматься я не особо хочу, - вообще не радужная перспектива
84 1164689
>>64688
Не доучивайся 100%, корка в Рашке интересует только крыс из бухгалтерии, которые её ПРИКЛАДЫВАЮТ К ЛИЧНОМУ ДЕЛУ
85 1164691
>>64673
Доучивайся, для мля тебе корка магистра особенно пригодиться.
86 1164693
>>64688
Без корки ты будешь жить в рашке.
87 1164696
>>64693
Словно что то плохое
вроссии.png4,5 Мб, 1500x2300
88 1164701
>>64696
Если ты мазохист, то даже и хорошо.
1521221509121959459.jpg62 Кб, 700x523
89 1164702
>>64701
Поехавший либираха у которого на швятом жападе все в шоколаде? Ну, ну.
90 1164705
>>64691
Дак бля это будет магистр по ядерной физике и технологиям, от которых прост пиздец воротит. Насчет мля - не уверен, можно ж проходить курсы вышки, например
91 1164707
>>64693
С чего такая уверенность? Один хуй корка будет не по компьютер сайнсу, а если наработать опыта и сдавать языковые экзы - думаю, шансов все равно больше
92 1164708
>>64702
Наводнение рольнул. Не самый плохой вариант, чо. Шансы есть в течение месяца-двух. Изменение климата? Ахаах, выдумки китайцев, да мы же только выиграем, засеем тундру, ой чтбульбульбульбульбуль
image.png805 Кб, 1200x628
93 1164710
>>64708

>чтбульбульбульбульбуль


Он утонул.
вапник.jpg93 Кб, 918x688
94 1164713
При всем неуважении к рашке, не стоит забывать, что рашка точнее совок - родина настоящего машобчика. На гнилом жопаде одно шаманство, индусы и хипстеры-педерасты.
95 1164722
>>64705
Ну так дропни и возьми магистратуру с чем-нибудь cs релейтед
96 1164723
>>64713
Заебал ты вапником, чесслово.
97 1164730
>>64723
Поддвачну.

>>64713
Я хоть и сам не в восторге от нейронок, но ты уже просто задрал церковью этого своего деда.
98 1164748
>>64723
>>64730
Есть альтернативы?
мыльце.jpg42 Кб, 523x397
99 1164787
>>64748
Например, ты можешь свалить в туман.
100 1164790
>>64787
А ты заставь.
101 1164800
>>64790
Мервых не мучают мысли о Вапнике. Подумай об этом. Подумай. Думай.
102 1164909
>>64800

> Эти стоны даунича, не осилившего даже аннотации к работам великих

103 1164917
>>64705
Мифишник в треде? Сам мифишник закончивший в ядерную физику.
104 1164947
>>64909
Ты подумал о настоящих причинах своей нездоровой тяги к мертвым, похороненным теориям? Думай. Думай об этом постоянно. Каждый раз, когда отвлечешься от мыслей об этом, возвращайся к ним, как только заметишь это. С утра проснулся - первая мысль: почему же я некрофил? Перед сном вспоминай, размышляй о тлене, разложении, почему тебя именно это привлекает. Когда ешь, визуализируй сгнившую, червивую, иссохшую еду перед тобой, задавайся вопросом, почему тебе это нравится. Отныне все твои мысли заняты только этим, ничто другое не имеет значения. Представляй себе свою собственную смерть, при каких обстоятельсвах она произойдет, как скоро.
105 1164953
>>64947

> Ты подумал о настоящих причинах своей нездоровой тяги к мертвым, похороненным теориям?


Лол, мань, статистикал лернинг живее любых нейроночек. Бустинг тот же.
106 1165466
Поцоны, есть ли тут кто-нибудь с опытом работы с нейросетками, применяемыми для создания диалоговых систем? Интересует следующая хуйня - можно ли, зная архитектуру, примерно понять, какими статистиками вроде объёма, частот слов, n-gram или ещё какой-нибудь хуйни должен обладать корпус диалогов для нормального обучения? Работаю в индустрии, делаю чатботов, а т.к датасетов на русском нихуя нет и данные мы сами собираем со всяких твиттеров, качество их хуй знает какое. Статей на эту тему не нашёл.
107 1165494
>>65466

>с нейросетками, применяемыми для создания диалоговых систем?


в голосяндру
108 1165549
>>65466
По вопросу ничего не могу сказать, но в ответ спрошу: а что такое чатботы, особенно в индустрии? Вообще что они делают, для чего там нейроночки?
Я слышал в реддите про это, но только какое-то невнятное бормотание. Никаких примеров этого я не видел. В жизни, например, сталкивался с чатботом на техподдержке моего сотового провайдера, было довольно круто, мой вопрос был решен. Но там банальное дерево диалога, как в РПГ из 70-х годов, только сверху прикручено распознавание и синтез голоса. Последние два, видимо, на нейроночках, но это из другой области вещи, как я понял. Чатботы же это именно про содержание текста?
109 1165553
>>65549

>Но там банальное дерево диалога, как в РПГ из 70-х годов


да и плюс статистическая поебота
110 1165554
>>65553
В моем случае чисто дерево диалога с выбором из вариантов. Единственное, можно было выбор сделать голосом, например что-то вроде: вам нужна техподдержка, проверка баланса или настройка голосовой почты? Говоришь техподдержка. Раньше надо было кнопками выбирать, очень неудобно.
Но это явно не про те чатботы, о которых идет речь в посте выше. Или это они и есть? Тогда зачем там корпус твитов нужен?
111 1165556
>>65554

>Или это они и есть? Тогда зачем там корпус твитов нужен?


ну смотри, тех поддержка там все просто, все вероятные проблемы захардкожены, если бот типа болталки там можно собрать ответы на типичные фразы из инета/твитора, если добвить к ней некую реакцию получится ассистент. все это симуляция ии, хотя может выглядеть впечатляющи.
112 1165558
>>65556
Что за бот типа болталки? Я совершенно не в теме, представления не имею, о чем идет речь. Это просто боты, отвечающие рандомными фразами, как Элиза из 66-го? Тогда какое отношение они имеют к индустрии? Или это индустрия развлечений какая-то, тогда где это все можно посмотреть?
И что это за ассистент? Если это как сири в айфоне, то там все точно так же захардкожено по ключевикам. Шаг влево, шаг вправо и "here is what I found on the web on your request", тупо в гугл забивает твой запрос.
113 1165561
>>65558

>болталки = Элиза из 66-го


да

>ассистент = сири в айфоне


да, отличие в том, что у сири будут реакция на фразы типа проверь почту
114 1165563
>>65561
Имхо сири на 100% по ключевикам работает, т.е. это проверь почту кто-то там забил в БД руками, посмотрев список частых запросов, которые не удалось распознать другими ключевиками. Ну на самом деле я не знаю, может там и правда пупир нейтронные касмические квантовые технологии на блохчейне, но по тупости эта система в точности равна БД ключевых слов.
115 1165564
>>65563
примерно как у яндексопидоров
https://habrahabr.ru/company/yandex/blog/339638/

а тот анон, просто еще не понимает, что нейронки это лютая хуета
116 1165565
>>65564
Спасибо, теперь какое-то представление получил. Наверное, там как раз описано то, что тот анон имел в виду.
117 1165566
>>65565

>что тот анон имел в виду.


наверное. тому анону пора спускаться с небес и хотя бы понять, что даже синтаксический разбор предложения является нерешенной задачей в nlp, не говоря уж о семантике, а под капотам цири и алис скрывается паровой двигатель.
118 1165571
>>65566
Да ведь на хабре все это как раз и описано. Там два варианта использования нейроночек: классификация текста по категориям, для чего глубокий разбор не нужен (по факту там просто несколько шаблонов распознается, т.е. можно сказать что нейроночка автоматически подбирает нужные ключевые фразы), и режим болталки где нет никаких гарантий, т.е. это классическая Элиза на модных технологиях. То, что нейроночка и близко не делает никакого разбора текста, их не особо волнует, оно им и не нужно.
Конечно, сказать что у нас тут ПОМОЩНИК С ИИ НА НЕЙРОНОЧКАХ, или Я ДЕЛАЛ ДИАЛОГОВЫЙ ИИ В ИНДУСТРИИ - бесценно. Ну да хрен с ними, пусть делают. Все равно в НЛП застой уже лет 30, хуже не будет.
119 1165576
>>65571

> Все равно в НЛП застой уже лет 30, хуже не будет.


Какой застой 30 лет, ты что-нибудь слышал про word2vec и лингвистические регулярности?
120 1165579
>>65576

>word2vec


не работоспособное говно

>лингвистические регулярности


это еще что такое?
121 1165580
>>65576

>word2vec


Едрить прорыв.

>лингвистические регулярности


Это ты про king - man + woman = queen? См. выше.
122 1165596
>>65580

> Это ты про king - man + woman = queen? См. выше.


Что там смотреть? Мнение очередного школьца? Алгебраические операции на пространствах векторных представлений текста уровня корпусов common crawl даёт огромные возможности, если уметь что-то кроме кукареканья.
>>65579

> не работоспособное говно


Когда в голове прошлогоднее говнишко, то да. Но это проблема не word2vec, разумеется.
123 1165608
Меня вот интересует вопрос, а работа для джуниоров в данной области (data science) вообще существует?
124 1165611
>>65596

>common crawl


че бля? какие на хуй возможности для нормальных языков с флексией и свободным порядком слов? еще эсперанто подтяни или бейсик.
125 1165613
>>65611
Нуя ж говорю, ты просто не понимаешь как это работает непосредственно, на уровне линейной алгебры и никогда не видел всего этого вживую.
126 1165617
>>65613

>ты просто не понимаешь как это работает непосредственно


ну да, я вот всего лишь ебусь с проджектом по нлп
127 1165621
Трансляция яндекса по машобу.
гоу смотреть
https://events.yandex.ru/events/mltr/31-march-2018/
128 1165628
>>65621

>яндекса


нинужно
129 1165630
>>64707
Для релокейта нужна корка. Да и 95% вакансий МЛ на Западе её просят.
130 1165640
>>64673
но если это мага. то у тебя уже есть бакалавр?
131 1165664
Какие зарплаты у машоберов в Яндексе?
132 1165713
>>65564
Если нужно сделать что-то, что будет.
1. Генерировать разнообразные ответы
2. Воспринимать больше, чем набор заготовленных фраз.
То нейронки с этим справляются лучше других алгоритмов. Ещё нейросети являются расширяемым фреймворком, то есть решение проблемы часто получается не очень костыльным, например здесь - https://arxiv.org/abs/1603.06155 чуваки просто и эффективно решают проблему несвязности разных ответов друг с другом.
133 1165718
>>65608
Нет
134 1165876
Какой уровень знаний нужен для книги Vladimir N. Vapnik "The Nature of Statistical Learning Theory"? И какой уровень будет после?
135 1165914
136 1165932
>>65914
Не распарсил.
137 1165941
>>65876

> Какой уровень знаний нужен для книги Vladimir N. Vapnik "The Nature of Statistical Learning Theory"?


Матан, теорвер, линейная алгебра, основы вариационного исчисления.

> И какой уровень будет после?


Если осилишь - просветление. Поймешь, почему нынешний мейнстрим в машобе это путь в никуда и почему все кроме конечно-оптимальных алгоритмов в машобе это чистое шаманство.
138 1165948
>>65941
Сектанство не нужно.
139 1166084
>>65948

> Сектанство не нужно.


Это не сектантство. Из всего машоба это единственный подход без сектантства.
140 1166093
>>66084
Сектант, плес
141 1166114
В сраной заблокируют AWS: https://torrentfreak.com/russia-asked-isps-to-block-13-5-million-amazon-ip-addresses-to-silence-one-app-180331/
Будете на Байкалах нейроночки тренировать, нефиг тут.
142 1166146
>>66114

> Будете на Байкалах нейроночки тренировать


На луньсунях, ты хотел сказать. Это же пижженые китайские процы longson. А так, сразу было ясно, для чего гебне цензура. AWS интересен тем, что позволяет с common crawl работать, нейроночки нахуй не нужны.
143 1166149
>>66146

>луньсунях


Луньхуюнях
144 1166374
>>65580

> king - man + woman = queen


О, вы тоже из mlcourse_open
145 1166417
>>65566
синтаксический парсер отлично работает, только он ничего не дает и непонятно, что с этим синтаксисом делать
146 1166589
>>66417
Отлично работает (только если предложение не использует необычный синтаксис) (обычный синтаксис используют 3% предложений) (отлично значит приемлемо) (то есть результат можно отличить от выхлопа ГСЧ) (статистическая значимость отличия от ГСЧ 0.1 на выборке из 100000000 предложений)
147 1166591
>>66417
Давай с примерами, шибко интересно как там нейронки пережуют синтаксис.
148 1167309
Поясните за марковские процессы. Выглядит как какой-то математический наеб. Вот пишут что у них главное свойство в том, что чтобы перейти в следующий стейт достаточно знать текущий, типа они не зависят от истории.
Но разве я не могу свести любой не марковский процесс к марковсому тупо записывая все что нужно в стейт? Т.е. если мне например нужно знать какую-то хуитку, которая была три состояния назад, я просто беру и в стейте держу дополнительную величину "хуйнянейм три стейта назад", в конце концов я же могу тупо всю историю состояний записывать в текущий стейт.
Тогда нахуя они вообще нужны?
149 1167396
вы дебилы
150 1167397
>>67396
нет вы
151 1167399
>>67397
ты дурак а я умный
152 1167404
>>67309
Манька, а как ты собираешься узнавать всю историю процесса? Или ты прого-дебич, не могущий вообразить ничего за пределами кампуктера?
153 1167451
>>67309
Можешь. Именно так и делают, если это возможно. Но это бывает невозможно реализовать на практике. Например, полное состояние может быть слишком большим, или содержать переменные к которым у тебя нет доступа.
154 1167477
>>67404
Чего так нагрелся то? Агрессивный вапникофорсер eto ti?
Во-первых, да не могу, иначе бы не спрашивал.
Во-вторых ессно меня интересует то, что можно реализовать на компьютере, иначе я бы спрашивал у чистопетухов в матаче, а не в зекаче.

Читаю книжку по RL, там часто делается на это акцент, вот и стало интересно. Писали бы уже про какую-нибудь markov representation, а так только запутывает.
brouwer.jpg462 Кб, 752x1083
155 1167497
>>67477

>меня интересует то, что можно реализовать на компьютере, иначе я бы спрашивал у чистопетухов в матаче,


Они грязнопетухи на самом деле. То, что нельзя реализовать на кудахтере или что то же самое, в виде ментальных построений, нельзя реализовать никак. Это не математика, а аутизм.
156 1167563
>>67497
Анон, а есть какая-нибудь годная книжка по конструктивной математике? Чтобы только не ебали когомологиями колец с первых страниц.
157 1167565
>>67563
Да чего там учить.
| = 1
|| = 2
||| = 3
И т.д.
мимо
158 1167748
>>67563
Лучше сразу какой-нибудь прувер разбирай, непонятное догугливай. Когда будешь думать что понял, пробуй на нем написать что-нибудь из Барендрегта, "lambda calculi with types".
159 1167881
>>66591

https://cloud.google.com/natural-language/
https://habrahabr.ru/post/317564/ (немного криво обучено)

>>66589
отлично - не хуже других NLP задач, где выше 90+% даже на простых задачах не получают/до недавнего времени не получали (типа несчастного определения частей речи)

и не очень понимаю проблем с нейронками и синтаксисом, задача почти не отличается от любых других задач, например, Named entity recognition и тд, да и проблемы те же самые
161 1167886
Решил написать простенькую нейроночку на питоне https://paste.ofcode.org/HyCrw8uaKDQPYGkjXAVGu9
Столкнулся с тем что было бы очень удобно получать элемент А по индексу A[index] если А - list, а не ndarray (index тоже list). Как-нибудь так можно?
162 1167900
>>67886
это не нейроночка. Нейроночка это то что ты фитишь. А ты юзаешь апи этой нейроночки. тебе в треб с радостным удавом на пике.
163 1167902
>>67900
Не пойму про какое апи ты говоришь когда я с нуля пишу.
164 1167907
>>67902

>когда я с нуля пишу


>from sklearn

165 1167909
>>67907
Ну train_test_split это не то чтобы апи нейроночки ) Или мне и перемножение матриц самому на плюсах писать?
166 1167910
>>67902
а ну да маленько не доглядел. извиняй
167 1167912
>>67909
кстати если тебе будет нужны датасеты обращяйся
168 1167918
>>67907
Так он же склерном только тестирует.
Ты из тех для которых с нуля это на своей ос, со своим языком и стандартными либами?
169 1167919
>>67886
Нафиг ты вручную эту дрисню пишешь, когда есть pytorch?
170 1167920
>>67919
потому что могу
171 1167984
а вот я пытаюсь вкатится в классификаторы sklearn. Там обязательно ли таргетсы в порядке возрастания размещать а а а а ?
172 1168016
>>67984
В порядке возрастания это как? О каком порядке вообще может идти речь, если данные обычно смешаны и перетасованы?
Снимок экрана 2018-04-04 в 19.22.58.png11 Кб, 530x65
173 1168019
>>68016
есть опыт с скашечкой?
я еще зелэный.
ну вот хуй знает. типа надо подготовить трейнинг сет, например чтобы его таргеты были в виде вектора
вот прикладываю скрин с туториала, 'y' это таргетсы из трейнинг сета
174 1168020
>>68019
Пройди туториал самый базовый хотя бы. У тебя вопросы на уровне как запустить хеллоуворд.

y_i у тебя должен соответствовать твоему ветору иксов из матрицы X т.е. y_2 соответствует второй строке твоей матрицы данных.
175 1168026
>>68020
>>68020
спасибо. То есть не обязательно чтоб таргетсы были по возрастающей? Просто у меня не правильно сработало. правда таргетсы были не 1, 2, 3 а соотвественно 650, 400, 820
и модель только одну 820 правильно предсказала.. а остальных цифр которые она выдала вообще не было в таргетсах, что типа 118 и 500
176 1168028
>>68020
так же вектор имеется ввиду просто массив, необязательно чтоб он был именно возрастающим или убывающим?
177 1168039
>>68026
>>68028
Блин, я вообще не очень понимаю что у тебя там с таргетсами. Разберись минимально и станет понятно. Ничего там возрастающим и убывающим быть не должно.
У тебя данные обычно представлены матрицей mXn, т.е. m - количество строк - это все твои наблюдения т.е. к примеру если это фильмы
то там будет строка со всеми характеристиками фильма типа название, жанр, длительность и т.д., n - количетство столбцов - это какие-то характеристики твоих данных т.е. в случае с фильмом первый столбец название, второй жанр, третий длительность и т.д.
Если тебе к примеру нужно предсказать жанр(т.е. в твоем тренировочном наборе этот столбец будет, а в тестово нет), ты берешь все остальные столбцы как x т.е. будет матрица mX(n - 1), а столбец y - это жанр mX1. Главное чтобы они у тебя соответсвтвовали твоему иксу т.е. пятый элемент твоего столбца y относился к пятой строке матрицы X.
Со своим датасетом можешь делать что хочешь, главное чтобы сохранялось это соответсвие. А когда ты наконец читанешь про numpy и pandas то поймешь что делать это элементарно и почему твой вопрос такое дно.
178 1168052
>>68039

>ты берешь все остальные столбцы как x т.е. будет матрица mX(n - 1), а столбец y - это жанр mX1


спасибо, пояснил за регрешн, спасибо!
но я пока на классификаторе сижу, до регрешина ещё не дошёл. Теперь вижу что те же яица вид сбоку как говорится
179 1168071
>>68052
А ты не думал сперва почитать о том что ты делаешь? На заметку, если у тебя классификатор выдает в результате классы которых не было в трейнинг сете >>68026 , то это внезапный регрессор.
180 1168072
>>68071
спасибо
просто сложно въехать во всю эту поеботину. Написано сложновато
181 1168075
Привет. Про tf. У меня есть матрица M (m x n) и массив целых чисел a длины k, такой что сумма по его элементам равна m. Мне нужно получить тензор T (k x p x n), следующим образом. Возьмем из M a[0] векторов, положим в первую строчку T, остальное дозабьем нулями, до размера p, потом возьмем ещё a[1] следующих элементов из M и так далее.

Какая ето функция?
182 1168078
>>68072
Я тебе даже больше скажу, тут не только написано сложновато, это вообще довольно сложные вещи, если ты рассчитываешь на что-то большее чем использование моделей из sklearn. Вероятно, тебе придется вообще всесторонне повышать уровень знаний, а твои вопросы и манера речи свидетельствуют о том что это будет долгий и тернистый путь. Зачем это тебе?
183 1168083
>>68078
Чё так агрессивно накинулся на мимокрокодила.
другой мимокрокодил
184 1168084
Чёт я думал вы тут науку двигаете, а вы тут всё матрицы какие-то умножаете
185 1168085
>>68078
нет кроме моделей из sklearn ничего делать не собираюсь. хочу помаксимум с ними разобраться и использовать на благо своей макакской работы. Ну и для себя хочу попробовать написать AI который будет играть со мной в спейсфутбол. ну а на счёт манеры речи. да я неаккуратно пишу чёт ленюсь, извиняй
186 1168087
>>68083
Я вовсе не агрессивен. Я максимально дружелюбен. Я засыпаю улыбаясь и обняв подушку, потому что представляю как нахожу друзей в тредике, с которыми обмениваюсь статьями и идеями, разбираю практические проблемы и штурмую PhD.
187 1168089
>>68084
ебаные
Снимок экрана 2018-04-04 в 22.17.39.png13 Кб, 344x92
188 1168100
ура блять, почти правильно. бля охуенно, спасибо лол
189 1168105
А можно ли представить нейронную в сеть в виде аналитической функции? Ну то есть в виде символьной записи. Ведь если в w1x1 + w2x2 + ... подставить вместо иксов функции второго слоя, и так далее, то можно выйти на символьную запись, не?
190 1168111
>>68105
Можно, это одно из известный свойств нейроночек.
191 1168116
>>68105
>>68111
Удивительное рядом!
192 1168117
>>68116
Еще бы посмотреть на этот аналитический вид в общем случае (для сети из N слоев с Mi блоков в каждом слое). А то что-то не могу найти.
193 1168119
>>68117
Зачем?
194 1168121
>>68119
Я этого хочу.
195 1168126
>>67886
Более-менее привел код к рабочему виду,
https://paste.ofcode.org/YZeyPTuk4wckpu9eU3G5k6
вроде оно иногда работает, но как-то странно
Например на digits результаты сильно разные и иногда очень хуевые, если указать достаточно большой градиентный шаг (больше чем 0.01) то на digits обычно оно вообще нихуя не сходится.
Как можно бороться со всем этим?
196 1168133
>>68126
хотя не, для digits если указать побольше нейрончиков то точность почти 1
А вот почему такой маленький градиентный шаг непонятно
197 1168205
>>68126

>если указать достаточно большой градиентный шаг (больше чем 0.01)


>вообще нихуя не сходится


>как можно бороться со всем этим


Ставить меньше, очевидно. Если не сходится, значит перелетаешь минимум постоянно. Шаг 0.001 и меньше это норма так-то.
198 1168225
>>68117

> Еще бы посмотреть на этот аналитический вид в общем случае (для сети из N слоев с Mi блоков в каждом слое). А то что-то не могу найти.


Сам нарисуй схему и по ней выпиши, хуле ты. У прости господи Вапника перцептрон и SVM так описаны, да и вообще такая нотация на каждом шагу встречается.
199 1168226
>>68225

>такая нотация на каждом шагу встречается


Прочитал всю фундаментальную книжку из шапки и не нашел такой встречающейся на каждом шагу нотации.
200 1168242
>>68226

> Прочитал всю фундаментальную книжку из шапки и не нашел такой встречающейся на каждом шагу нотации.


Книжка в шапке хипстерская, фундаментальность там рядом не стояла. Поди даже не написано, зачем в нейроночках "нейроны", для чего вообще вход разбивать именно таким образом, из каких соображений это следует и что даёт.
201 1168255
Объясните на пальцах как делать imitation learning.
Никак не могу понять, в лекции от беркеле ебут обобщенными формулами без особой конкретики. В пейперах еще больше математической дичи.

Вот допустим есть простая игра где бот двигается в 2d плоскости и может стрелять в других врагов. Наиграл я пару сотен матчей и насобирал данных, что дальше то?
203 1168275
Аноны, курс по теорверу на Udacity - норм? Надо осилить фильтр Калмана, а я на парах ебланил, ничего сложнее комбинаторики не помню.
204 1168278
>>68255
Вряд ли тебе кто-то будет разжевывать тут столь нетривиальные вещи. Иди ботай статьи.
205 1168307
Может кто подсказать. Есть 14 временных рядов, значения которых в реальном времени с определенной частотой приходит на сервер (т.е. каждые N мс на серваке получаю массив (1,14) ). Стоит задача сделать классификатор, который сможет распознать в определенном промежутке этих временных рядов какой-то класс. То есть классы описываются не одной строкой (1,14), а определенным набором строк, например (64,14). Выборка для обучения есть (записи). Я сейчас экспериментирую с MLP и LSTM сетями. Но вот не знаю как лучше делать свертку матрицы (64,14) в какую нибудь (1,M). Сейчас я считаю разные статистики для каждого ряда окна (там дисперсию, эксцесс и т.д.) и формирую вектор статистик, который и подаю на вход нейронке. Но результаты не очень. Есть ли какие нибудь другие методы/либы, которые позволят свернуть это двухмерное окно в одномерный вектор? И вообще для такой задачи какие нейронные сети лучше использовать? Стоит ли ковырять LSTM вообще?
206 1168317
>>68307
LSTM это особая атмосфера, с ними надо пару лет плотно позаниматься, чтобы начать понимать как их эффективно использовать. Для твоей задачи, если тебя устроит ограниченное окно, рекомендую банальную 1д свертку по времени.
207 1168318
>>68307
Вот я о чем и говорю. Вы прочитаете про полторы хипстерские нейроночки, и не понимая зачем они вообще, пытаетесь засунуть их везде. У тебя задача на кластеризацию. Вот есть у тебя фичи, полученные из 14 временных рядов в пределах окна из 64 значений. Казалось бы, собирай их в один вектор и подсовывай карте Кохонена, построенной на исторических данных, где ты можешь отметить векторы фич, ассоциированных с искомыми событиями. Все, дальше смотришь насколько близко тестовый вектор фич проецируется к нужному тебе. Потом, если у тебя есть помеченные наборы таких фич, можно их попробовать разделить на классы с помощью SVM, м.б этого будет достаточно. Зачем тут lstm вообще, ты же пол не болгаркой подметаешь.
208 1168327
>>68317
Спасибо за совет. А существуют ли какие нибудь готовые библиотеки python для выполнения сверток?
209 1168328
>>68318
Линейные классификаторы я тоже использовал, но они отработали хуже чем тот же двухслойный MLP. Как на сырых рядах, так и на статистических фичах. Скорее всего, это из-за данных, потому что у них очень неявное разделение на классы. Поэтому не факт, что мое решение с подсчетом статистических фич для окон явно описывает класс. Но нейронка в пределах 80-85% смогла распознать. Но хотелось бы конечно результат получше.
210 1168330
>>68328

> Линейные классификаторы я тоже использовал, но они отработали хуже чем тот же двухслойный MLP.


Но я про линейные классификаторы ничего не говорил. Как вариант, можешь ещё бустинг навернуть.
211 1168334
Блять, опять у вапникошизика обострение. Бро, иди нахуй отсюда, ты уже просто засираешь тему шитпостом, и не мешаешь другим.
Untitled.jpg21 Кб, 640x505
212 1168355
Здравствуйте, я туп как пробка, учился на тройки, но поступил в магистратуру, чтобы не сесть на бутылку. У меня следующий косяк - мне задали здание в магистратуре сделать так, чтобы с помощью регрессионных методов машинного обучения я взял точки и соединил их корреляционной линией. Как на приложенной картинке. Я взял sklearn и скормил ему точки, а в ответ он выдал мне требуемую линию. Все счастливы, все довольны.

Но потом меня обоссали и сказали, что регрессионные методы уже давно известны, ты втёр нам старьё, Вася! Делай тоже самое, но только нейронными сетями! БЫСТРА! ОДНА СУТКА ВРЕМЕНИ ТЕБЕ!

ПОЭТОМУ, ПОДСКАЖИТЕ, ПОЖАЛУЙСТА, КНИГУ НА РУССКОМ, ГДЕ ОПИСАН КАКОЙ-НИБУДЬ ФРЕЙМВОРК ИЛИ БИБЛИОТЕКА С НЕЙРОННЫМИ СЕТЯМИ, ЧТОБЫ МОЖНО БЫЛО ЕЙ СКОРМИТЬ ТОЧКИ И ЧТОБЫ НЕЙРОННАЯ СЕТЬ НАРИСОВАЛА КОРРЕЛЯЦИОННУЮ ЛИНИЮ

Прошу книгу на русском, так как осталась одна сутка. Пока ищу, не могу найти. Вроде, задачу регрессии не принято нейронными сетями решать.

Ну или хотя бы подскажите библиотеку, которая может сделать регрессию нейронными сетями
214 1168357
>>68356
О, как хорошо, спасибо огромное. Целую тебя, анон, ты просто прекрасен, ты как лучик света в тёмном царстве.
0011-1258241177435.png13 Кб, 429x412
215 1168358
>>68357
Не смущай меня, пожалуйста.
216 1168369
сап двач мур мур мур мур мур
ЕensorFlow или Sklearn??? для макаки
217 1168373
>>68369
sklearn проще, даже на русском много книг есть с описанием sklearn. А TensorFlow потяжелее хреновина.
218 1168374
>>68242

>Поди даже не написано, зачем в нейроночках "нейроны"


Кек. А зачем?
219 1168375
>>68374

>А зачем?


Да и действительно. А потом читари таких книжек приходят сюда и говорят, "а что нейроночку можно в виде функции записать?!?!", "а что, нейроночка может в регрессию????" итд.
220 1168381
>>68375
А в каких книжках это фундаментально описано?
221 1168392
>>68373
вкатился в sklearn, сейчас перекатываюсь на TesorFlow. Подкупило макакское комьюнити впику научному sklearn. И то что это гугл, который умеет в макакское API
222 1168416
>>68375
Вместо чтобы выебываться и шизить, быстрее бы привел запись нейронки в виде функции, если уж в твоих совкодрочерских книжках это на каждом шагу.
223 1168421
>>68416

>в твоих совкодрочерских книжках это на каждом шагу.


Это вообще в принципе на каждом шагу, почти в любой книжке или статье в тему. Соотв-но: однослойный перцептрон, многослойный перцептрон, SVM в виде двуслойной сети.
224 1168426
>>68421
А теперь то же без реккурентной формы для отдельного нейрона. Для всей сети, как чисто аналитическую функцию от входов и весов для N-слойного перцептрона.
225 1168429
>>68426
Вторая же картинка, вся сеть.
226 1168435
>>68429

>i-th neuron in the l-th layer

Снимок экрана 2018-04-05 в 16.09.59.png5 Кб, 72x54
227 1168437
а что это такое?
228 1168439
>>68437
Это сумма. Ты вообще читаешь, что тебе пишут? >>68426
229 1168441
>>68435
И? Подставляй нужные функции активации и сколько там тебе нужно слоев и нейронов в каждом слое и обрящешь. Можешь даже на бумаге посчитать. Это же общая формулировка, для любого случая.
>>68437
Пиздец. Значок суммы впервые видят, какие вам нейроночки, таблицу умножения выучите хоть...
230 1168442
>>68441

>Подставляй


Понятно. То есть в книгах в общей форме такой записи нет. А орали что на каждом шагу
алло.jpg272 Кб, 567x567
231 1168444
>>68442

>То есть в книгах в общей форме такой записи нет.


Алло, я и привел общую форму.
232 1168447
>>68444
Алло, перечитай еще раз: >>68426
233 1168456
>>68327
Tensorflow, pytorch.
234 1168458
>>68447
Достаточно.
Сьеби, жирун.
235 1168460
>>68458
От тебя никакого толка, только выебыаешься. Как доходит до дела, сливаешься.
236 1168461
>>68447
Ты хочешь частный, конкретный случай для конкретной архитектуры сети и конкретных функций активации. В этой книжке http://b-ok.xyz/s/?q=AE6CE64B978DCC3E4C0623C70D6D5973&e=1 похожие примеры разбираются, она даже в шапке была когда-то по моему совету, но выпилили. Я пользуясь случаем, еще раз посоветую эту книжку.
237 1168464
а что такое N-слойный перцептрон? ёбаныйврот
238 1168465
>>68334
Да пусть сидит уже, он стал своим, домашним. Как старый таракан.
Все лучше чем времена нашествия дебильных шизиков из /ссы, бесконечно толкущих воду в ступе стенами словесного поноса про ишкуштвеный нтеллехт.
239 1168466
Что я могу сказать - читайте нормальную литературу, никакие хипстерские высеры а-ля то что в шапке вам никаких конкретных знаний по этой теме не дадут. И не надо кукарекать, что все типа как устарело, нихуя там не устарело, все, что есть сейчас - это продолжение работ тех самых дидов из 50-х (Арнольд, Колмогоров, Розенблатт), 60-х (Вапник) итд. Самые новомодные сверточные нейроночки - это просто фантазии на тему неокогнитрона + все того же перцептрона, ничего другого там нет и не было. И хуй вы поймете, как все это работает, если не знакомы с основами.
240 1168476
>>68466
А по моему книга из шапки вполне так, если разобраться во всем что там написано то знать будешь куда больше большинства экспертов из этого треда.
241 1168477
>>68476
Поддвачну. Тем более есть хороший русский перевод. Пока всякие недоснобы воротят нос, мол "мам, скажи им, читать на русском это никрута", другие ведут себя адекватно и вникают в интересные вещи.
242 1168496
>>68477
Русек то тут причем? И это не снобство, одну книжку перевели, 1000 других не переведут. Про пейперы я вообще молчу + будешь путаться в терминологии + реддиты, стекоферфловы, кворы где можно задать вопрос или почитать развернутый ответ тебе тоже не доступны.
Вкатываться в датасаенс не зная английского край тупости. Даже русскоязычные курсы постоянно ссылаются на англоязычные термины и статьи
243 1168498
>>68496
Никто и не спорит, что английский нужен.
245 1168762
>>68544
Схоронил.
246 1168799
>>68762
Теперь ничто тебе не помешает получить PhD по нейроночкостроению.
247 1168808
>>62617
плюсую. сам сперва купил видеокарту для этого. занялся обучением. хватает проца с головой. даже достаточно сложные на мой взгляд модели требуют минут десять. а карта манит себе спокойно
248 1168835
>>68799
Куда поступать чтобы получить PhD? Мне нужны варианты если меня не возьмут в мит и калтех. В своем универе я уже всех задолбал.
249 1168849
>>68835
А ты наукой решил заняться? Зачем тебе пхд?
250 1168851
>>68849
Без него мне тянки не дают (
251 1168853
>>68851
Проведи исследование, собери данные миллионов мужчин, затем данные о том кому дают тянки и кому не дают, найди наиболее оптимальный вектор развития к локальному экстремуму, далее вкладывай время-деньги пока не начнут давать.
252 1168883
>>68853
Проанализировав данные о 12 826 322 мужчинах мне удалось доказать что в локальном максимуме, достижимом из моего текущего состояния, вероятность того что мне даст тянка не превышает q.7E-7
253 1168903
>>68883
Тебе нужно увеличить свой моментум, чтобы проскочить этот локальный минимум.
254 1168905
>>68903
Ему нужно совершать случайные блуждания по бабам.
255 1168923
>>68466
Арнольд, Колмогоров сложно пишут. Ты видел доказательство работы нейроночек у Колмогорова? Там очень не просто. Ну только если ты не выпускник матфака. Вапника не читал, не знаю, новерное все же стоит почитать.
256 1168939
Новый топчик от диипмайнд: https://arxiv.org/abs/1804.01756
boosting vs bagging? 257 1169180
Няши, есть ли где-то исследования о: boosting vs bagging?
Не является ли bagging более продвинутым алгоритмом (хотя он и проще) хотя бы потому что он не может уйти в редкие цепочки вида (A>N1)&(B<N2)&(B>=N3)&(...) ? Покрывает ли boosting всё алгебраическое множество, когда положительные результаты в диаметрально противоположных углах пространства? Например (A>0.95)&(B>0.95) и (A<0.05)&(B<0.05) ?
258 1169297
Еще свежачок от какого-то норвежского ноунейма: https://arxiv.org/abs/1804.01508
Вапниколюб должен быть доволен.
259 1169493
>>69297
сенсационные новости о том, что теория вапника не применима к нейронкам
https://calculatedcontent.com/2018/04/01/rethinking-or-remembering-generalization-in-neural-networks/
260 1169505
>>69493
Я знаю, и это давно известно. Собственно, это очевидно из практики, даже если не углубляться в детали теории.
Но моя ссылка вообще не об этом. Я люблю рассматривать радикально новые модели, а-ля всякие NTM и spiking networks, все-таки просто нейроночки уже мейнстрим и немного наскучили (хотя DNC и прочее еще нужно дорабатывать).
У этого чувака прям совсем другая идея, интересно же. Хотелось бы статью обсудить с кем-то серьезно.
261 1169525
>>69505

> Я люблю рассматривать радикально новые модели, а-ля всякие NTM и spiking networks,


Все равно эти модели либо конечно-оптимальны либо асимптотически- оптимальны. Даже если там нахуевертили столько всего, что vc- размерность для этой мутоты заебешься высчитывать. С этих двух стульев машоб не слезет, кроме них там и нет ничего. То, что на датасете типа белого шума SVM не работает, ебать Америку открыли. Будто что-то другое сработает в условиях чистого рандома. Эти все "радикально новые модели" от хипстеров ничего нового не несут, максимум - взгляд с другой стороны на общеизвестные вещи.
262 1169535
Алсо, теория Вапника - не святое писание, а одна из возможных теорий, на базе которой можно строить алгоритмы машоба не вслепую. Естественно, могут быть созданы и другие, вот только пока ни у кого мозгов не хватило.
263 1169674
а вот предположим, я натренировал классификатор в sklearn на 200 семплах и юзаю его для предсказаний что это за цеке. Можно ли его теперь дотренировывать ещё (дальше)?
мимокрокодил
264 1169678
>>69525

>Все равно эти модели либо конечно-оптимальны либо асимптотически- оптимальны


то есть не имеет смысл что то придумывать? имеет смысл брать модели из коробки как есть, и натренировывать их на датасетах под конкретную задачу (пиксели или лексика) та?
sage 265 1169681
>>69674
Если есть в параметрах warm_start, то можно грузануть предыдущий результат и дообучить.
266 1169685
>>69681
забавно. то есть модель теоретически может расползтись на 3мб в оперативной памяти?
267 1169686
>>69678

> то есть не имеет смысл что то придумывать?


Придумывать можно по-разному. Нахуярить слоёв, непойми чего, а потом утверждать что Вапник хуй, потому что vc- размерность твоей ебулды подсчитать невозможно, это в любом случае не путь здорового человека. Алгоритм должен выводиться из математической постановки задачи обучения, а не из интуитивных представлений о том, "как нада".
268 1169690
>>69686
правильно ли я понял, что в sklearn есть дохера разных оценителей для всех задач с которыми сталкивается машоб и нужно просто выбрать один из этих об]ектов и обучить его и и nакой естимитор обучится мгновенно. Нежели собрать свою модель из слоёв во всяких хипстерских машоблибах типа Keras?
269 1169699
>>69686

>Алгоритм должен выводиться из математической постановки задачи обучени


Ну и как успехи, много алгоритмов вывел? Где можно ознакомится?
270 1169734
>>69685

>3 мб


Что-то вы совсем уж бедуете в своих нейроночках. Почему не делаете нейроночки на гигабайты?
271 1169755
двач. Нахуя нужна фукнция активации внутри нейрона?
272 1169759
>>69755
Чтобы придать системе нелинейности.
273 1170024
>>69759
а разве не для того, чтобы смапить результат сложения предыдущего слоя в заданный рейндж для данной сети напр 0<activation<1 ?
image.png644 Кб, 598x599
274 1170044
Этот шум в гугл капче специально от нейроночек?
275 1170123
>>69759
Ответ математика - правильный, но бесполезный
276 1170141
>>70123

> Ответ математика - правильный, но бесполезный


Умный дохуя? Ответь полезнее. Нейроночки это изначально математика, тебе ответ пчеловода нужен?
Снимок экрана 2018-04-08 в 15.47.40.png28 Кб, 841x102
277 1170153
Двощ. Объясни, почему если пидарашки такие дохуя умные, в этом списке нет хвалёного МФТИ или Бауманки со своей опенсорсной либой для бекенда нейросетей?
Вот то-то поэтому хр выёбваться уже
278 1170157
>>70153
Тхеано мертв, мелгомягкие никому не нужны, слесарьплов для макак. Труъ это торч.
279 1170163
>>70157
ну и что что для макак. Я макака и горжусь этим
280 1170168
>>70153

>хваленого МФТИ



Хваленого кем? Абитурой в образоваче?

Пистех - та ещё помойка
281 1170202
>>70168

>Пистех - та ещё помойка


Обоснуй, пожалуйста.
Я слышал, что в Физтехе зубодробительно сложно учиться, но при этом дают очень хорошую физмат-подготовку. Что там?
282 1170224
>>70202
Это ПТУ для математиков, где тебя вусмерть задрочат решением примитивных пазлов, замаскированных под задачи.
sage 283 1170284
>>70224
Что тогда не пту для математиков?
284 1170286
285 1170385
>>70286
Вся суть хипстоты. Услышал что MIT круто, пересказал всем друзьям, пистех теперь говно потому что не MIT, а MIT эта крута.
286 1170389
>>70385
Даже если это так, он абсолютно прав.
287 1170398
>>70385
Ну ты бы хоть лекции по матану там посмотрел, сразу бы все вопросы отпали.
288 1170464
>>70398
Погуглил учебный план по калькулусу, посмотрел пдфы. Что там такого сверхъестественного? Я как-то смотрел программу пистеха, там примерно то же было.
мимо примат СПбГУ
289 1170465
>>70398
Там лекции по матану наконец-то превратили в интерактивный порно квест, в котором теория преподается в виде стендап комедий с Джорждем Карлином как высказался >>1164951 ?
292 1170574
>>70511
В голосяндру с носа пездоглазихи
293 1170600
>>70511
Так в эту хуету можно поиграть или она ещё в разработке?
DWPLBfBXUAAr5f3.jpglarge.jpg95 Кб, 1400x825
294 1170612
Где можно пообщаться о нейроночках без быдла и без $регистрации?
295 1170628
>>70612
В этом треде. Если серьезный бизнес то надо идти регистрироваться и на реддит и писать там.
296 1170635
>>70628

> без быдла


> пара десятков последних постов

297 1170653
>>70635
Ну это просто ты пришел.
298 1170670
>>70612
добавил быдло вопрос
299 1170740
>>70464
Я про видеолекции(калькулус, теорвер, линал, диффуры), после них можно свободно наворачивать любую современную книгу в которой предпологается знание соответствующего раздела матана.
После постсовковых шаражек ты разве что можешь наворачивать ненужные упражнения на листочках, а понимания зачем все это нужно 0.
300 1170741
Господа, а неужели, чтобы воспользоваться Tensorflow в PyCharm обязательно надо устанавливать гигабайты Nvidia GPU софта?
301 1170744
>>70740
Зочем видеолекции, когда прочитать быстрее?
Но могу подтвердить, матан стал лучше пониматься после забугорной книжки для идиотов 1917 года.
302 1170747
>>70741
Можешь на процессоре считать.
303 1170766
Как бы так вкатиться в машоб, чтобы еще и хоть чуть-чуть денежек зарабатывать на нем?
304 1170771
>>70766
Преподавай, снимай лекции, веди курсы.
305 1170777
финансовая аналитика жи
нет нет проскакивают жирные вакухи
306 1170779
>>70744

> 1917 года


Ты красный как комуняка
307 1170782
>>70779
от книг зависит.
У нас например тоже есть бодрые книги 60х годов. В то время у нас был расцвет науки. А потом в 80-е всё пришло в упадок и утонуло.
308 1170785
Пробовал я читать Колмогорова. Строго, академично, но нечитаемо. Поток формальных определений, не понятно зачем нужных.
309 1170789
>>64705
С тобой можно где-нибудь вне треда пообщаться? У меня абсолютно та же ситуация.
310 1170860
>>70740
Ок, посмотрел пару лекций. Там просто приводят примерчики типа "используется в физике", "почему производная - скорость" и "что такое двойной интеграл". Ну охуеть, как будто в России преподы такого не дают. Где обещанная магия-то? Я и до этого мог современные книжки читать. недавно, например, по теории управления и теории информации книжки из нулевых читал
311 1170882
Я взял простой пример нейронной сети выполняющей задачу регрессии:
http://mexuaz.com/opencv-machine-learning-03/

Код написан на Tensorflow 1.2/Keras 2.0.5

Я хотел взять ту же задачу, распараллелить её и выполнять в полотора-джва раза быстрее на нескольких ядрах. Я стал искать как же в Tensorflow/Keras делается параллельность на нескольких ядрах и нихрена не нашёл, нашёл только про подрубание GPU видеокарты.

Насколько мне показалось, в Tensorflow/Keras автоматически используется параллельность ядер.

НО! Узнать об этом точно у меня не получается, так как у меня всего два ядра. Я взял PyCharm в котором у меня код программы на Tensorflow/Keras, я и в диспетчере задач отрубил второе ядро, оставив только одно. И эта программа на Tensorflow/Keras выполнилась вдвое медленнее.

ПОЭТОМУ Я ХОЧУ СПРОСИТЬ, ПРАВИЛЬНО ЛИ Я ПОНЯЛ, ЧТО В ПРОГРАММЕ НА Tensorflow/Keras АВТОМАТИЧЕСКИ ИСПОЛЬЗУЮТСЯ ВСЕ ДОСТУПНЫЕ ЯДРА ДЛЯ УСКОРЕНИЯ НЕЙРОННОЙ СЕТИ?
312 1170942
>>70882
Некоторые операции распараллеливаются, например умножение больших матриц. Но вообще ТФ это про ГПУ, там над ЦПУ производительностью никто не парится особо.
313 1171110
>>70882
Даже больше, если у тебя видюха от инвидии, слесарь тебе сам всё будет на ней считать
314 1171118
>>70782
Я не спорю, просто на 1917 год триггернулся как красный комуняка
315 1171122
>>70942
Спасибо
316 1171615
Сап аноны, я короче просто анализирую что делают нейросетки, не связано с программированием, но у меня есть к вам вопрос.

Вот тренируется нейронка, она может сразу воспроизвести результат, фактически на этом всё и держится, на том что нейронка может что-то воспроизвести.

Может ли быть так, чтобы был проёбан этап тренировки, но оставался этап воспроизведения? нихуя непонятно наверное, но я не знаю как иначе спросить
317 1171640
>>71615

> Может ли быть так, чтобы был проёбан этап тренировки, но оставался этап воспроизведения?


Нет. Тренировка это настройка параметров функции, аппроксимирующей зависимости выходов датасета от входов. Перед тренировкой эти значения инициализируются какими-либо числами, но без тренировки ответ сети никак не будет связан с текущим датасетом.
318 1171758
>>71640
что такое

> аппроксимирующей


?
319 1171780
>>71758
Нда, крута...
320 1171782
>>71615
Можно, но зачем? Вон прямо берёшь и псевдокодишь:
function hellocommaworldwithoutneuralnetworks () {
print("Hello, world");
}

Или даже

If "еда":
call слюна;
321 1171783
>>71615
>>71782
Аааа... Погугли мемоизацию или как-то так.
322 1171789
>>71782
>>71640
Сорре, парни, вопрос обновился:
Воспроизведение рандома или пустоты это всё равно воспроизведение чего-то. Хотелось бы понять возможно ли оставить голую сущность "воспроизведение" без чего-то ещё.
323 1171850
>>71789
Ты не зная что такое аппроксимация пытаешься родить вопрос "можно ли получить вывод из нейронки которая не обучалась"?. Ответ - можно. Подавай что-то на вход, после умножения на случайно сгенерированные веса ты получишь свой мусор на выход. Если копать еще глубже в "голую сущность", то можно вывести веса девственной нейронки, и это будет тот же мусор. Простая нейронка это результат умножения массивов, никаких лишних сущностей нет. Я просто надеюсь что ты еще учишься в средней школе и пытаешься найти свой путь в жизни, поэтому не тыкаю мордой в то какой ты биомусор.
324 1171874
>>71850
Нет, парень, я спрашиваю как спрашиваю. Вопрос про воспроизведение. Голое воспроизведение без подразумеваемых в нём данных вообще. Продублировал вопрос также в философаче
https://2ch.hk/ph/res/71196.html#71997 (М)

>>71758 это спросил тот кто не хотел гуглить.
325 1171882
>>71874
Если ты спрашиваешь так что тебя никто не может понять, то проблема на твоей стороне, учись формулировать мысли. Ты зачем-то упомянул нейронки в треде про машинное обучение, а оказывается имел ввиду абстрактные сущности. Если вопрос сугубо философский, можно ли воспроизводить пустоту, то ты ошибся тредом. Если вопрос научно-прикладной, то голым воспроизведением является функция воспроизведения, можешь не передавать в нее никаких данных, в контексте программы она является чистым и незамутненным воспроизведением.
326 1171885
>>71874
Я другой анон, но тоже не могу вкурить твой вопрос. На вход нейронки подается некий сигнал, на выход - преобразованный сигнал. То, как он будет преобразован, зависит от исследователя, от того, как он построит сеть и как обучит ее. Всё. Если не настраивать нейронку под задачу, то она будет выдавать что-то рандомное и никому нахуй не нужное.
327 1172039
>>71874

> Голое воспроизведение без подразумеваемых в нём данных вообще.


Это тебе в лямбда исчисление. Там как раз такая нотация - голая абстракция функции любой сложности и структуры, в т.ч нейроночки конечно. Классика чтива - Барендрегт. Но ты не осилишь.
328 1172109
Сап нейронач
Собираюсь вкатываться в тему не бейте лучше обоссыте, но есть проблема: у меня достаточно старый комп, к тому же видюха от амд, пробовал запускать примеры на керасе, все жутко тормозит, тензорфлоу естественно не считает на гпу.
А я как раз собирался избавляться от десктопа в пользу ноутбука. И тут встал вопрос: стоит ли тратить дополнительные 20-30к за ноут с 1060? На буржуйских сайтах везде пишут, что практичнее будет купить ноут подешевле, разницу потратить на облако от Амазона. Но мне кажется, что это какой-то булшит: облако у Амазона стоит по несколько баксов в час, т.е. разницы в цене мне хватит примерно на 200-300 часов. Это же не очень много?

Вообще, на практике, насколько мне хватит 1060 для учебных заданий и своих проектов?
329 1172160
>>72109
Если ты будешь гонять нейроночки на ноуте, он перегреется и сгорит через месяц. У них охлаждение не предназначено для этого.
330 1172164
>>72109
Поступила на соответствующую специальность, гоняю нейронки на сервере универа, брат жив, зависимость есть.
331 1172315
>>72109

>собирался избавляться от десктопа в пользу ноутбука


ну и дурак, энжой шейный хондроз
332 1172319
>>72315
15 лет пользуюсь только ноутами, причем лежа на кровати. Никакого хондроза, шея говорит малацца, позвоночник воскрес. И никогда не вернусь на стационарный комп. Пиздец блять, 3018 год на дворе, а всё пользуются стационарными гробами.
333 1172346
>>72319

>причем лежа на кровати.


А у меня кровати нет
334 1172348
>>72346

>А у меня кровати нет


Попробуй. Базарю, еще захочешь.
335 1172387
Насколько вообще вкатившийся ценен на рынке труда?
У меня есть 2 года опыта серверной разработки на сях, щас ботаю мл по специализации яндекса, потом планирую нейронок навернуть и быдлопроектик свой навелосипедить.
Но я ведь просто червь-пидор по сравнению с ребятами из ШАД например, или даже просто профильных кафедр МФТИ/МГУ/ВШЭ. Кому я нужен то?
Сам физик изи МИФИ, c матаном +- дружу.
336 1172397
>>72387

>2 года опыта серверной разработки на сях


>вкатывается в машоб


Ты ведь понимаешь, что перекатываешься из условного НИИ жопоебли в песочницу к детям с синдромом дауна, чтобы жрать вместе с ними песок?
337 1172399
>>72397

>из условного НИИ жопоебли в песочницу к детям с синдромом дауна


Да ну так-то норм перемена.
338 1172400
>>72397
>>72399
Ну нет лол. Я в норм конторе веслаю.
По существу есть че сказать?
339 1172506
Анончик, как на основании истории прослушивания что рекомендовать?

user->items -> black box -> user -> must_to_see_items

Предполагаю что для начала нужно пользователей как то кластеризовать по схожести их историй просмотра, а затем из максимально близко расположенного выдавать пользователю рекомендации.

На ум приходит k-mean или там knn, но они как то слабо подходят, объектов для рекомендации порядка 100к.
340 1172526
>>72506
SOM ежжи. Оно очень хорошо классифицирует музло по соотв. фичам, может само, без учителя, распознавать жанры. Примеры есть в этой книжке:
http://gen.lib.rus.ec/book/index.php?md5=6F2C8128E2ADE1815E1967AEB57AA351
Analysing the Similarity of Album Art with Self-Organising Maps....Pages 357-366
Где-то видел даже готовый софт для автоматической экстракции фич из папок с мп3 в виде, пригодном для самоорганизующихся карт, сейчас нагуглить не могу. Но это вот они http://www.ifs.tuwien.ac.at/dm/somtoolbox/ делали. Суть рекомендаций в случае карт Кохонена - рекомендовать близкорасположенные к истории просмотра пейсни и даже жанры.
341 1172544
>>72319

>Никакого хондроза, шея говорит малацца


Сколько тебе лет, сынок? И что ты на кровати с ноутом делаешь? Дрочишь что ли? Люди вообще-то работают.
342 1172546
>>72544
42 года. Я работаю лежа. Сынок.
343 1172590
>>72109
Ноут "все в одном" - хуевая идея. Надо сделать так: иметь СЕРВЕР, который дома будет пахать 24х7 и обучать нейронки. И любой ноут, через который ты будешь подключаться к серверу в режиме терминала - даже через банальный тимвьювер. При чем за сервер вполне может сойти твой днищекомп, оперативы только докупить. У меня, например, в компе 2012 года пашет 1080Ti и пашет примерно на 30% медленнее, чем его сосед с современным процессором и SSD. То есть на уровне 1080, а разница в цене между 1080 и 1080Ti - 10 тысяч рублей. То есть особой выгоды мне менять мой комп 2012 года на более новый нет. Но тот комп у меня довольно неплохой, шестиядреный феном с кучей оперативы и хорошим кулером процессора, не знаю, что у тебя там за дно.

Теперь, почему такой ноут - хуевая идея.
1. Это хуевое вложение средств, потому что они слабо апгрейдятся. Ну купишь ты 1060, через 2 года эта 1060 будет дном днищенским, в десктопе ты ее продашь, купишь новую и вставишь в тот же самый десктоп, а в ноуте что? Ноут только продавать и покупать новый.
2. Ноуты аналогичного железа сильно дороже.
3 У геймерских ноутов (а это будет геймерский ноут) проблемы с охлаждением, они не расчитаны работать 24х7 и что-нибудь у тебя поплавится, поведет от температуры, а еще есть шанс проблем с питанием. Если только не брать убер-ноут с оверпрайсом - а ноуты и так оверпрайснуты по сравнению с десктопным железом.
4. Допустим тебе надо куда-то поехать и ты берешь ноут с собой... В итоге ты стопоришь обучение, или едешь с печкой в портфеле.
5. Ноут больше 13" и временем работы меньше 8 часов - зашквар для колхозников и гастарбайтеров, видюхи, мощной понятное дело, в таком ноуте быть не может.
performance.jpg68 Кб, 1417x752
344 1172594
Что касается амазона, то стоит он не несколько баксов, а 20-30 центов за спот, но они уже очень тормозные и поэтому невыгодны (есть и более быстрые инстансы, но они дороже). Это или на недельку поиграться, или для бизнеса которому нужно запускать нейронки для комнсьюмера и они не хотят тратиться на свою серверную. А так очень невыгодно, и также неудобно, чем работа на своей машине.
345 1172625
>>62357 (OP)
Может тут кто знает.
ставлю rpy2. Для этого поставил R последний, х64. У директории r\bin есть config.sh, который задействуется при установке
R.exe CMD config, но выдаётся ошибка "sh не является программой/командой". В интернете пишут, что может быть проблема в прописанных путях в переменных окружения, но у меня вроде всё ок.

-------------
C:\PROGRA~1\R\R-34~1.4\bin\R CMD config --ldflags
"sh" не является внутренней или внешней
командой, исполняемой программой или пакетным файлом.
Traceback (most recent call last):
File "C:\Python35\Scripts\rpy2-2.9.2\setup.py", line 374, in <module>
ri_ext = getRinterface_ext()
File "C:\Python35\Scripts\rpy2-2.9.2\setup.py", line 269, in getRinterface_ext
ldf = shlex.split(' '.join(rexec.cmd_config('--ldflags')))
File "C:\Python35\Scripts\rpy2-2.9.2\setup.py", line 222, in cmd_config
universal_newlines = True)
File "C:\Python35\lib\subprocess.py", line 629, in check_output
kwargs).stdout
File "C:\Python35\lib\subprocess.py", line 711, in run
output=stdout, stderr=stderr)
subprocess.CalledProcessError: Command '('C:\\PROGRA~1\\R\\R-34~1.4\\bin\\R', 'CMD', 'config', '--ldflags')' returned non-zero exit status 1
-------------------
346 1172638
>>72625
Ставь линукс.
347 1172665
>>72594
Облако нужно в основном чтобы параллельно кучу всего тренировать. Дешевле, чем свой кластер содержать.
348 1172671
>>72625

> выдаётся ошибка "sh не является программой/командой".


Поди под глинукс собрано. Попробуй вместо простого R мокрософтовский r open. Как вариант, поставь пакет из исходников или вручную - скачай и распакуй в каталог libs.
349 1172675
>>72625
А, ещё вариант, поставь r tools.
350 1172726
>>72665
Не дешевле. Возьмем комп на базе 1080TI. Сам тиай стоит тысяч 60, комп к нему - полноценный комп с 16 гб памяти, ssd (в т.ч. для свопа) и нормальным блоком питания, в днищекорпусе, может быть с похилее амд процессором - 40 тысяч. Итого за 100К ты имеешь dedicated машину, в которую при желании ты можешь добавить второй GPU. Жрать этот комп будет ватт 500, то есть 2 рубля в час, или 3 цента.

По AWS цены на инстансы on demand:
G2.2x: 0.05 (сильно подешевели однако)
G3.4x: 1.14
P2.1x: 0.9
P3.2x: 3.06

По перформансу имеем следующие коэффициенты из-за разной скорости:
G2: 0.1
G3: 0.4
P2: 0.2
P3*: 1.0
Со звездочкой, потому что у P3 быстрее в 2 раза на float16, но трейнинг float16 это отдельная сложная тема.

Переводим в деньги: G2 - 0.5 в час, G3 - 2.85 в час, P2 - 4.5 в час, P3 - 3.06 в час.

А комп с тиаем нам достался за $1500. Значит после того, как он отработает 3000 часов (потратив 100 баксов на электричество), он будет работать в плюс. При этом заменять он будет 10 инстансов G2. Остальные же инстансы просто не конкуренты, P3 например вырабатывает цену нашего компа за каких-то 500 часов, то есть 20 дней, P2 и G3 просто нахуй не нужны за такие деньги.

То есть если ты планируешь нагрузить свой тиай больше, чем на 3000 часов, то амазон тебе менее выгоден, чем купить прекрасную машину, которая будет жужжать у тебя на балконе и с 0 мс доступом. А если ты вставишь шикарный тиай в свой днищепека, то и 2000 часов хватит.

Но - это был вопрос денег. А еще есть вопрос удобства. И одна быстрая карточка лучше, чем десять медленных. Во-первых, в нее влезет нейронка потолще, с батчсайзом побольше. Во-вторых, какая-нибудь байесова оптимизация гиперпараметров на ней будет более эффективной - вместо того, чтобы ждать 6 часов и получить 6 хуевых результатов, ты каждый час будешь уточнять свою модель. А у меня например модель тренируется часа 3, на g2 придется ждать сутки? Хуйня неудобная.

Короче амазон или для инференса на сервере (неизвестно сколько юзеров будет завтра и дешевые g2 подходят), для стартапов, которые не хотят вкладываться в железо до раунда инвестиций, для тех, кто кому результат нужен вчера. А для нормального исследователя-контрактора выгоднее иметь 2-4 топовых консьюмерских жпу, соединенных в локальную сеть и с синхронизацией файлов на них.
350 1172726
>>72665
Не дешевле. Возьмем комп на базе 1080TI. Сам тиай стоит тысяч 60, комп к нему - полноценный комп с 16 гб памяти, ssd (в т.ч. для свопа) и нормальным блоком питания, в днищекорпусе, может быть с похилее амд процессором - 40 тысяч. Итого за 100К ты имеешь dedicated машину, в которую при желании ты можешь добавить второй GPU. Жрать этот комп будет ватт 500, то есть 2 рубля в час, или 3 цента.

По AWS цены на инстансы on demand:
G2.2x: 0.05 (сильно подешевели однако)
G3.4x: 1.14
P2.1x: 0.9
P3.2x: 3.06

По перформансу имеем следующие коэффициенты из-за разной скорости:
G2: 0.1
G3: 0.4
P2: 0.2
P3*: 1.0
Со звездочкой, потому что у P3 быстрее в 2 раза на float16, но трейнинг float16 это отдельная сложная тема.

Переводим в деньги: G2 - 0.5 в час, G3 - 2.85 в час, P2 - 4.5 в час, P3 - 3.06 в час.

А комп с тиаем нам достался за $1500. Значит после того, как он отработает 3000 часов (потратив 100 баксов на электричество), он будет работать в плюс. При этом заменять он будет 10 инстансов G2. Остальные же инстансы просто не конкуренты, P3 например вырабатывает цену нашего компа за каких-то 500 часов, то есть 20 дней, P2 и G3 просто нахуй не нужны за такие деньги.

То есть если ты планируешь нагрузить свой тиай больше, чем на 3000 часов, то амазон тебе менее выгоден, чем купить прекрасную машину, которая будет жужжать у тебя на балконе и с 0 мс доступом. А если ты вставишь шикарный тиай в свой днищепека, то и 2000 часов хватит.

Но - это был вопрос денег. А еще есть вопрос удобства. И одна быстрая карточка лучше, чем десять медленных. Во-первых, в нее влезет нейронка потолще, с батчсайзом побольше. Во-вторых, какая-нибудь байесова оптимизация гиперпараметров на ней будет более эффективной - вместо того, чтобы ждать 6 часов и получить 6 хуевых результатов, ты каждый час будешь уточнять свою модель. А у меня например модель тренируется часа 3, на g2 придется ждать сутки? Хуйня неудобная.

Короче амазон или для инференса на сервере (неизвестно сколько юзеров будет завтра и дешевые g2 подходят), для стартапов, которые не хотят вкладываться в железо до раунда инвестиций, для тех, кто кому результат нужен вчера. А для нормального исследователя-контрактора выгоднее иметь 2-4 топовых консьюмерских жпу, соединенных в локальную сеть и с синхронизацией файлов на них.
351 1172734
>>72726
Ты вообще не о том. Если тебе надо натренировать 1000 моделей для подбора гиперпараметров (это примерно минимум для средней статьи в 2к 18), то у тебя есть три стула:
- обсчитывать это 15 лет на своем домашнем пека;
- собрать кластер за 100 миллионов долларов, что займет 3 года работы, и потом натренировать модели на нем за неделю;
- натренировать за неделю на амазоне, заплатив несколько тысяч грина.
352 1172770
>>72734
Я о том, просто ты туповатый какой-то и говоришь какие-то цифры с потолка. Какие нахуй 15 лет, какие нахуй 100 миллионов долларов.
Берем инстанс P3. На $10000 ты можешь купить 3000 часов. В неделе 168 часов, то есть ты купишь на эти деньги 3000/168=18 инстансов.

Второй стул - это потратить $10000 на 4 компа с парой 1080TI. В этом случае ты будешь считать две с половиной недели. Не 15 лет, а две недели. Только в первом случае ты проебешь $10000 навсегда, а во втором будешь иметь 4 компа с двумя 1080TI. На которых, внезапно, свою следующую статью вообще бесплатно будешь считать. 5 компов - это не какой-то там высранный тобой кластер за 100 миллионов долларов, это меньше школьного компьютерного класса.

Твоя логика это что-то типа "квартиры за 6 млн. дорого, лучше буду снимать такую квартиру за 250 тысяч в месяц - это выгодно."
354 1173256
А нейроночку можно представить в виде "если-то", "свитч-технологии" и такого?
355 1173354
>>73256
не, это божественные Экспертные Системы
356 1173378
>>73256
С натяжкой случайный лес можно чем-то таким назвать, но не нейронки
357 1173380
>>73256
ЕСЛИ нейроночка сказала, что это кошка ТО это кошка
358 1173381
>>73256
Решающие деревья.
359 1173382
>>72387

> Но я ведь просто червь-пидор по сравнению с ребятами из ШАД например, или даже просто профильных кафедр МФТИ/МГУ/ВШЭ. Кому я нужен то?


Поверь, ты сильно переоцениваешь их.
Untitled.jpg24 Кб, 640x505
360 1173396
Здравствуйте. У меня задача регрессии. Я хочу на нейронной сети сделать регрессию с двумя входными переменными. То есть по двум входным переменным предсказывать третью.

В начале я пытаюсь на Keras сделать регрессию с одной входной переменной, например, для синуса или параболы. Всё получается отлично программа предсказывает по точкам правильно и синус и параболу.

Дальше я увеличиваю размерность входных данных для двух переменных. И получается как на картинке. Вместо правильной синей линии программа строит очень грубую усредненную прямую.

ПОДСКАЖИТЕ, ПОЖАЛУЙСТА, КАК НА АНГЛИЙСКОМ ПРАВИЛЬНО ЗАГУГЛИТЬ ПРИМЕР НА Keras, ЧТОБЫ ТАМ ВМЕСТО РЕГРЕССИИ С ОДНОЙ ВХОДНОЙ ПЕРЕМЕННОЙ БЫЛО ДВЕ ВХОДНЫХ, КАК У МЕНЯ НА КАРТИНКЕ?
361 1173397
>>73396

>ЧТОБЫ ТАМ ВМЕСТО РЕГРЕССИИ С ОДНОЙ ВХОДНОЙ ПЕРЕМЕННОЙ БЫЛО ДВЕ ВХОДНЫХ, КАК У МЕНЯ НА КАРТИНКЕ?


Домики деревянные набигают?
362 1173398
>>73396
фикс Вместо правильной ЗЕЛЕНОЙ линии программа строит очень грубую усредненную прямую - СИНЮЮ линию
363 1173399
>>73397
Обычно в примерах одна переменная 'х', а предсказывают 'y'. А я хочу найти с двумя 'x1', 'x2' и предсказывают 'y'.

То есть как у меня на картинке, вместо двух осей будет третья.
То есть ищу пример с тремя осями, вместо двух.
364 1173400
>>73397
Иными словами, я имею ввиду, чтобы было не точь в точь как у меня, а только лишь чтобы было три переменные как на картинке. Какие-нибудь 'x1','x2' и третья которую предсказывают 'y'.

Только я слова для поиска подобрать не могу.
Untitled.jpg24 Кб, 640x505
365 1173403
Короче я криво вопрос написал, сейчас переделаю

Здравствуйте. У меня задача регрессии. Я хочу на нейронной сети сделать регрессию с двумя входными переменными. То есть по двум независимым переменным предсказывать третью.

В начале я пытаюсь на Keras сделать регрессию с одной независимой переменной 'x' и второй переменной, которую предсказывают 'y', например, для синуса или параболы y=f(x). Всё получается отлично программа предсказывает по точкам правильно и синус и параболу.

Дальше я увеличиваю размерность входных данных для двух переменных z=f(x,y). И получается как на картинке. Вместо правильной зеленой линии программа строит очень грубую усредненную прямую - синюю линию.

ПОДСКАЖИТЕ, ПОЖАЛУЙСТА, КАК НА АНГЛИЙСКОМ ПРАВИЛЬНО НАПИСАТЬ ЗАПРОС ДЛЯ ГУГЛА, ЧТОБЫ НАЙТИ ПРИМЕР НА Keras С ДВУМЯ НЕЗАВИСИМЫМИ ПЕРЕМЕННЫМИ И С ТРЕТЬЕЙ ПЕРЕМЕННОЙ, КОТОРУЮ ПРЕДСКАЗЫВАЮТ?
366 1173414
>>73400
>>73399
У тебя одна входная переменная X должна быть, просто большей размерности. Матрица размера (input size) × (training set size)
367 1173415
>>73403

>Я хочу


Истинно говорят: источник всех человеческих страданий в желаниях. Стоит лишь тебе правильно сделать регрессию с двумя переменными, и ты тут же захочешь регрессию с тремя. Очевидно, это никогда не закончится, и ты проведешь жизнь в бесплодных страданиях, плача и стеная на форумах о том, как твоя регрессия строит неправильные линии. Избавление от страданий придет к тебе только после осознания, что регрессия тебе не нужна.
368 1173417
>>73414
Это да, я изменил размерность массива х. Просто я для наглядности объяснил, что нужно вторую независимую переменную добавить z=f(x,y) вместо y=f(x).

А так да, лучше было бы объяснить, что нужно y=f(x1,x2) вместо y=f(x1)
fdsf.png100 Кб, 943x903
369 1173449
Ребят, че это за хуйня? Батч еле в 8 гигов влезает. Оптимизирую адамом. Хуйня в смысле возрастание лосса с падением lr.
еврей.webm1,1 Мб, webm,
640x360, 0:23
370 1173488
>>73449

>Батч еле в 8 гигов влезает.


Пришло время купить у (((дяди))) оперативку.

>Хуйня в смысле возрастание лосса с падением lr.


Оверфиттинг?
371 1173489
А что, нынче регрессия без диплернинха не в моде? У меня даже куркулятор в регрессию может, причем не только в линейную, я очень от жизни отстал?
372 1173490
>>73488
У меня на трейне растет, так что оверфиттинг не причем.
373 1173491
>>73490
Если лосс на трейне растет, значит ты какую-то вообще лютую хуйню сделал.
374 1173511
>>73449
Графики осей под подписей - молодец, ведь истинный специалист по ДЛ сразу поймет что у тебя там за хуйня.
Если лосс растет при падении lr, значит lr падает недостаточно быстро.
375 1173568
>>73511
>>73449
Что такое lr?
376 1173614
>>73403
>>73414
Вопрос решился, не знаю, что конкретно помогло, но я уменьшил скорость обучения, уменьшил decay и наделал много слоев. И всё сразу по красоте сошлось.
377 1173618
>>73511

>лосс


можешь по-человечески объяснить за лосс? Чё это воще такое то
378 1173625
>>73568
>>73618
Я мимокрокодил и могу ошибиться, но, вероятно, lr - learning rate лосс - loss
379 1173680
lr - learning rate, да
лосс по-русски называется функция потерь
>>73614
Decay (то есть спад скорости обучения со временем) по логике надо бы увеличить.
380 1173682
>>73680

>лосс по-русски называется функция потерь


а что она делает?
381 1173685
>>73680
Мне другой перевод нравится decay - загнивание. Попробую увеличить, посмотрю.
382 1173693
>>73682
Потеряется
383 1173710
>>73693
ну мам
384 1173736
>>73682
Ты какую-то совсем азбуку ML спрашиваешь.
Математические функции ничего не делают, они вечны и находятся в пространстве идей. Все, что мы делаем, это подбираем с помощью оптимизатора ее параметры так, чтобы она была чем меньше, тем лучше.
Допустим у тебя есть набор чисел x1, x2, x3, и y1, y2, y3 и ты хочешь найти такие k и b чтобы f(x)=kx+b было равно y как можно точнее для всех трех случаев. Это случится, когда мы подберем такие k и b, что
loss(k, b) = (y1 - (k
x1+b))^2+(y2 - (kx2+b))^2+(y3 - (kx3+b))^2 будет минимальным. Вот это и называется функцией потерь. Именно у нее мы найдем градиент dloss/dk и dloss/db и будем минимизировать. Как можешь заметить, чем меньше у тебя лосс, тем лучше ты моделируешь, чем больше лосс, тем хуже.
С нейронками происходит то же самое, только вместо f(x) с параметрами k и b и скалярами x и y, у нас нейронка с миллиардами параметров, а вместо xi и yi - тренировочный датасет.
Если лосс-функция минимизирует квадраты разности входа и выхода, это называется l2-loss, если модули разности - l1-loss, можно еще минимизировать еще как-то. И туда же обычно включают разного рода регуляризирующие ограничения на параметры.
385 1173812
>>73736

> С нейронками происходит то же самое, только вместо f(x) с параметрами k и b и скалярами x и y, у нас нейронка с миллиардами параметров, а вместо xi и yi - тренировочный датасет.


То же самое и в нейрон очках ваших, каждый нейрон считает частную функцию от двух аргументов, а через их суперпозицию получается полная функция от многих аргументов. И лосс так же можно посчитать частный от двух аргументов, а потом общий, через суперпозицию.
girl.jpg47 Кб, 500x500
386 1173833
>>73736

>а что деляет оптимизатур?


>а что деляет параметур?


>а что деляет прастранстуво?


>ыыы


>а что деляет датасет?


>егуляезищие ыыы

autism.jpg150 Кб, 1600x935
387 1173842
>>73833
Да вообще пиздец. Такое ощущение, что тут пара-тройка жирных сидит и угарает со скота, который на подобное отвечает.
388 1173859
спасибо аноны

>нейрон считает частную функцию от двух аргументов


разве не просто складывает значения от базы двух нейронов предыдущего слоя помноженную на соответсвенно вес своего синопсиса?
не ругайтесь позязя я есе мааенький
а что такое суперпозиция?
389 1173877
>>73489
Ну и как ты продолжишь последовательность чисел (1 5 9 13 ?) без нейросетей?
390 1173883
>>73877
Скажу, что это случайные числа и что здесь подойдёт любое число.
1519878925964.png2,9 Мб, 1920x1280
391 1173897
Я делаю спонтанный сплит датасета трейн - 80/тест - 10/вал - 10 и стабильно получаю точность валидационного на 10% выше чем у тестового, насколько это здоровый результат? Вроде ошибок нет, но мне кажется что исходя из самого принципа валидации, точность должна быть близкой к точности тестового сета, так же?
392 1173985
>>73897
Это норма, настоящая точность на тестовом. Это тоже азбука.
393 1174022
>>64181
Говорят школьник из из пятого класса нейронки за неделю выучит, это только доктора наук из США считают что нужно образование магистра в информационных технологиях, чтобы изучать эту тему.
394 1174025
>>64432

>если вообще до этого осилишь


Вот вот я уже 5 месяц учу разные алгоритмы и математические правила для нейронных сетей и это всё чтобы только научиться писать нейронки, не говоря о том что я уже два года провёл за программированием. Как только смогу на дваче тред открою с моей нейронкой или вкину в тему.
IMG20180415103842.jpg2,2 Мб, 2448x3264
395 1174026
>>73877

> Ну и как ты продолжишь последовательность чисел (1 5 9 13 ?) без нейросетей?


Смотри, дебилок. Простая линейная регрессия на копеешном китайском калькуляторе, считаем весь твой числовой ряд попарно (х 1, у 5), (х 5, у 9), (х 9, у 13), затем вводим последний пример из твоего числового ряда, 13, получаем предсказанное значение 17. Угадал? И где твой бог теперь? Я ж говорю, вы ебонажки, не зная азы лезете в какой-то диплернинх.
396 1174029
>>73859
Почему двух-то. В полносвязном слое - всех нейронов предыдущего слоя, в сверточном слое - в размере ядра свертки, и т. п.
397 1174031
>>70141
Пчеловод в треде. Без математики не куда.
398 1174033
>>64199
Ой, да не неси хуйни. Эти моченые ученые 30 лет не могли допереть до того, чтобы вместо сигмоида использовать relu. Они с чем только не ебались, машины больцмана, энтропии-хуепии, DBN, а до такой простой вещи не додумались. А потом оказалось, что lenet с relu и дропаутом можно отмасштабировать и натренировать на мощностях, доступных на супермкомьютерах 90-х, и выиграть imagenet.
Но для этого должна была случиться одна вещь - появились GPU, которые дали возможность тысячам васянов экспериментировать и пробовать комбинировать простые приемы, которые работают.
А моченые ученые выдумывают неработающую хуйню типа капсульных сетей.

В нейронках грамотный датасет решает все. А у ученых такой роскоши нет, если кто-то напишет, что он дописал 10000 примеров к mnist и повысил распознавание цифр до 99.99997%, ему скажут, ну ок, а новизна где, на minst твой метод сосет. А васян может наращивать датасет сколько угодно, поэтому и разработать крутой прикладной продукт.
399 1174038
>>72387

>бНо я ведь просто червь-пидор по сравнению с ребятами из ШАД например, или даже просто профильных кафедр МФТИ/МГУ/ВШЭ. Кому я нужен то?


>Сам физик изи МИФИ, c матаном +- дружу.


Пиздец с кем я на борде сижу. Меня в вузе только курсовые строчить немного научили да бумагу марать. Посколько я тогда был тупой ещё не сразу понял что мне пиздец, а потом я начал изучать питон, а потом data science, а сейчас когда я начал изучать machine learning я понимаю что моё образование дно и математику я не фига не знаю, понимаю 50-70% формул в machine learning. Ещё когда посмотрю какие задачи на олимпиадах студенты решают по программированию, то зависть берёт, я без гугла не одну олимпиадную задачу не решу.А у меня iq 108-114, а чувствую себя дауном, обидно.
400 1174046
>>74038
Ходил как то в ШАД, могу сказать что из МГУ и МФТИ реалли очень умные ребята. Если ты в ПТУ вроде Бауманки ходишь, то да, там тебя научат бумагу марать и чужое говно впаривать.
401 1174050
>>74033
Когда уже в моде васянов будут нейроночки с подкреплением?
402 1174055
На реддите поговаривают, что мол диплернинг, как научная область, уже стал больше физики по количеству занятых в ней людей. Всей. Физики. Вместе взятой.
СмехГоблача1.webm1,6 Мб, webm,
1280x720, 0:10
403 1174080
>>74055
Толпы студентов, крутящих гиперпараметры - это ноука теперь, что ли?
404 1174082
>>74038
у меня iq 104 и я вебмакака
пытался в машинлернинг, но не получилось, для меня тяжело я не очень умный
405 1174083
>>74055
Оно и объяснимо - чтобы накатать статейку по нейроночам, не нужно вообще ничего: взял датасет, накатал на керасе архитектуру от балды, ну и написал любой нужный вывод. Все равно это говно никто проверять и верифицировать не будет.
Корчеватель во все поля.
406 1174085
>>74055

> На реддите поговаривают, что мол диплернинг, как научная область, уже стал больше физики по количеству занятых в ней людей. Всей. Физики. Вместе взятой.


И хули толку? Там одни хипстеры, причём ан масс индусы. Поэтому прогресс по-сути зависит от десятка человек типа лекуна. Остальные просто лгбт- балласт.
407 1174113
Надо обучать людей как нейроночек.
Hammercoastscreenshot.png735 Кб, 1280x996
408 1174132
Сап, специалисты. Нужна небольшая консультация.

Насколько реально запилить хуйню, которая бы создавала уровни в 3д игре на основе уже созданных уровней другими людьми? Ну то есть нейросеть обучается на реальных картах и пытается высрать свою.

Если такой возможно, подскажите, куда копать? Может кто-то уже занимается подобными исследованиями?
1521189634407.jpg111 Кб, 850x492
409 1174137
>>74132
Ты потратишь гораздо больше времени и сил на обработку данных и нейроночку, чем на то чтобы сделать карты руками. Хотя, что-то простое можно попробовать если ты скинешь мне описание карт таблицами [X, Y, Z, объект в этих координатах] или как-то так, ты лучше знаешь с чем работаешь, ну и конечно тебе нужно будет получив подобную сгенерированную таблицу сконвертировать ее обратно в карту.
410 1174150
тоже нубасный вопрос
вот допустим у меня есть битмап
как я понимаю нейронка может или сказать является ли этот битмап чем то или не является
а может ли она сказать четыре координаты из этого битмапа, что между ними находится что-то, например кот?
411 1174151
>>74150
Может. Для этого даже не нужна нейронка, хаар-каскады отлично подходят для твоей задачи.
412 1174154
>>74151
а на нейронке можно такое сделать? некогда объяснять
413 1174157
>>74154
Еще раз, можно. Это классическая задача машинного зрения.
414 1174158
>>74154

>некогда объяснять


Хочешь побыстрей начать отлавливать котов?
415 1174265
Байесовские методы через 10 лет будут в аналоге ЕГЭ.
416 1174267
>>74265
В аналоге ЕГЭ через 10 лет будет закон божий, патриотическое воспитание и домострой. Байесовские методы - от лукаваго, в рашке такого не нужно.
418 1174277
>>74267
домострой годная вещь. глядишь простой анон перестанет хрючевом питаться, научиться жарить картошечку и котлеты.
419 1174288
>>74277

> картошечку и котлеты


> не хрючево

420 1174289
>>74085
Как может прогресс зависеть от лекуна, если он с открытия ленет занимался хуй пойми чем? Прогресс двигает как раз толпа, на arxiv-sanity.com постоянно охуенные результаты от нонеймов.
А разгадка простая - отрасль экспоненциально взрывается и всем есть работа. Кроме тебя. Потому что ты тупой.
421 1174291
>>74150
Это называется object detection, решается с помощью сеток типа SSD
422 1174318
>>73897
Это не норма. У тебя overfitting на dev set. Увеличь его размер. Проверь, что dev и test содержат данные одинакового распределения.
423 1174320
>>74289

> Прогресс двигает как раз толпа, на arxiv-sanity.com постоянно охуенные результаты от нонеймов.


Ты дурилка картонная просто и не понимаешь что несешь. Толпа никогда и ни в какой области прогресс не двигала. То, что у одной обезьяны из барбершопа результаты случайно вышли на 0.01% лучше, чем у остальных - это не прогресс. Прогресс - это новые парадигмы, алгоритмы, которые меняют облик всей отрасли.
424 1174435
>>74320
А че, дип лернинг - это какие-то неебацо новые революционные алгоритмы? Да нихуя, просто комбинация из биг даты, возросшей вычислительной мощности и gpu.
425 1174457
>>74435

>А че, дип лернинг - это какие-то неебацо новые революционные алгоритмы?


Ну вообще, да. Даже до самых деревянных глубоких архитектур - стыкованных аутоэнкодеров и машин Больцмана нужно было додуматься. Ни один хипстер этого не сделал, хотя те же машины Больцмана известны с 80-х годов. Сверточные сети тоже никто до Лекуна не придумал, хотя неокогнитроны существовали до него, не говоря о перцептронах и работах Хьюбела и Визеля по структуре зрительной коры кошки (что и легло в основу). Борода не делает мудрецом, это еще в древней Греции понимали. И барбершоп мозгов так же не добавляет.
426 1174601
Здравствуйте, я хочу поиграться с n_jobs в scikit_learn. По умолчанию n_jobs=1, а при n_jobs=2 должно случиться ускорение выполнения линейной регрессии.

Я ставлю n_jobs=1 и код выполняется за 4 секунды. Ставлю n_jobs=2 и код тоже выполняется 4 секунды.

https://ideone.com/B7KP3n

Помогите, пожалуйста, понять что неправильно. Почему n_jobs=2 не помогает ускориться?
427 1174644
>>74055
Для физики нужно оборудование. Экспоненциально дорогое. Теоретиков достаточно.
428 1174692
>>74644
Для дииплернинга тоже нужно оборудование, а еще и датасеты. Вон гугл клепает статьи в промышленных масштабах, а все потому что у них есть и то, и другое.
Почему теоретиков в физике достаточно, и сколько достаточно, а в нейроночках недостаточно?
429 1174730
>>74320
Обезьян из барбершопа ты сам придумал. Дипленингом занимаются ученые, каждый из которых умнее тебя, и таких тысячи человек. Каждый выдумывает свою часть. А те, кого ты называешь, это, в основном, талантливые организаторы, чье имя по этой причине видно на куче статей.
430 1174734
>>74692
Для дипленинга ничего особенного не нужно, даже на машине за $1500 можно прекрасно работать, а лаборатория для изучения automl будет стоить сраные по научным меркам $100000 - цена одного интерферометра.
А в физике просто ничего хорошего и интересного не происходит, одно уныние.
431 1174803
>>74730

>ученые


В говне моченые.
432 1174804
>>74137
Не все обьекты точечные. Есть блоки и любые другие выпуклые геометрические тела с гранями. Есть сетки дисплейсментов.
433 1174806
>>74080
this.
434 1174813
Вечер в хату, погромизды. Мне нужно за максимально возможный срок въехать в регрессии, auc и roc-кривые. Какие ресурсы посоветуете?
435 1174821
>>74813
а лучше расскажите своими словами
436 1174822
>>74730

> Обезьян из барбершопа ты сам придумал. Дипленингом занимаются ученые


Ты их видел, этих т.н учёных? Хипстеры классические. Я понимаю, что сейчас такая мода ебанутая, но все равно смешно с деградантов.

> , каждый из которых умнее тебя,


Не умнее, доводилось переписываться в т.ч с топовыми специалистами. Первый раз слышат такие вещи, которые как по мне, каждая вторая собака знает. За пределами очень узкой специализации кругозора вообще 0, да и в своей области шаг влево - шаг вправо и ответ уровня "i have no idea what энныйтермин stands for", даже чисто на уровне загуглить. Ну и т.д.
437 1174824
>>74033

>30 лет не могли допереть до того, чтобы вместо сигмоида использовать relu


Я больше чем уверен, что и в нынешних нейронках еще дохрена путей улучшения. Лет через 10 допрут ну как допрут, случайно получится
438 1174826
>>74822

>но все равно смешно с деградантов.


И в чем заключается деградантство? Это ты похож на бабушку с подъезда или на гопника, которому лишь бы доебаться до внешности.

>За пределами очень узкой специализации кругозора вообще 0, да и в своей области шаг влево - шаг вправо и ответ уровня "i have no idea what энныйтермин stands for", даже чисто на уровне загуглить. Ну и т.д.


Это показатель уравновешенной личности, которая не боится сказать, что чего-то не знает, и не пытается казаться умнее. А вот когда человек начинает судорожно гуглить, чтобы произвести впечатление - тут начинается хуета.
439 1174828
>>74824
Не, сейчас уже такого не будет, это было, когда в нейронки никто не верил и ими занимались 1.5 яйцеголовых. Сейчас проблема в другом, открытие может затеряться среди кучи говна. Например https://arxiv.org/abs/1802.05074 - говно или нет? Я попробовал, не сработало. Но мне кажется, что где-то там есть много хорошего.
440 1174829
>>74828

>говно или нет?


говно
441 1174834
>>74829
Обоснуй
442 1174835
>>74834
очевидное очевидно. если в открытом доступе, значит говно.
443 1174836
>>74835
Ты еще скажи что инсепшен говно. Наука не так работает.
Например, я могу спокойно опубликовать 90% своих открытий, которые касаются дл в целом, но не буду публиковать 10% конкретно своей предметной области, чтобы не плодить конкурентов.
444 1174841
>>74836

>10% конкретно своей предметной области,


Тогда 90% нахуй не нужны. Наука в текущем виде это говно и этого говна особенно много в ИИ. Если ты притащил что то из открытого доступа, варианта джва и все они хуевые.

>инсепшен


В душе не ебу, что это такое
445 1174844
>>74841

>В душе не ебу, что это такое


Тогда ваше мнение очень важно для нас
446 1174845
>>74828

>оптимизация кручения ручек и танца с бубном


>открытие


Я не таким его себе представляю.
447 1174846
>>74844

>Тогда ваше мнение очень важно для нас


И ты тоже иди на хуй
448 1174847
>>74841

> >инсепшен


> В душе не ебу, что это такое


Ну ты и быдло. А Нолан - гений.
449 1174848
>>74847

>А Нолан - гений.


А Дикаприо?
450 1174851
Вы вообще похоже не понимаете разницу между машобчиком как наукой и как макакингом. Ну неужели не очевидно, что применение готового, сколь угодно успешное и инновационное - это макакинг. Машоб как наука - это создание нового, чем занимаются хорошо если человек 20.
451 1174858
>>74851

>машобчиком как наукой


Кокая это наука? Скинул все в череый чщик, хорошенько потряс и хуяк, вот на 0.7 обезьяна а на 0.2777 негр
452 1174868
>>74851
Ты тогда и строительство мостов макакингом обзовешь. Хули, сопромат ведь уже изобрели.
В машобе есть фундаментальные исследователи, а есть прикладные. И фундаментальные не значит святые, зачастую они страдают соверешенно неудобоваримой хуйней, например, задрачивают свои методы для работы на популярных в науке датасетах.

>чем занимаются хорошо если человек 20.


Блядь, да открой месячный топ на arxiv-sanity и посмотри количество фамилий. То, что вы как говнари знаете только о существовании 3-4 фамилий говорит больше о вас, чем об отрасли.
453 1174886
>>74804
Окей, центр объекта и радиус минимальной сферы в которую он вписывается. Или центр, высоту и радиус цилиндра.
454 1174887
>>74858
пожалуйста сделайте это в хедер следующей темы. Ещё кота забыл упомянуть.
455 1174888
>>74132
На хабре было недавно, https://habrahabr.ru/post/350718/
Малореально что-то выиграть на этом, проще rule based генератор запилить
456 1174902
>>74868

>количество фамилий


Куча макак пытаются из говна слепить мозг макаки, ох лол. Лучше покажи прогресс, да на примере.
457 1174904
>>74902
Нахуя метать бисер перед свиньей? Хочешь быть неандертальцем типа Карманова, будь им. А я продолжу революцию творить.
пистон.jpg24 Кб, 450x353
458 1174906
>>74904

>А я продолжу революцию творить.


Ох, лол, кто тут у нас. Образованный, революционер. Вот только предыдущий оратор прав, примеров реального прогресса от ноунейм хипстеров нет, поэтому ты их не смог бы привсти, даже если бы захотел. Ты такой же неандерталец, как Карманов. Я вот тоже кое-что пилю на тему машобчика, и даже не имеющего аналогов и реально с собственными разработками, однако я прекрасно понимаю, что я нихуя не творец по сравнению с титанами мысли. А вот у тебя похоже, ЧСВ реально опухло
459 1174925
>>74906
Так нонейм хипстеров вы придумали. Прогресс как и везде в науке делают работающие в университетах ученые и их далеко не 20 человек, да и эти "20 человек" зачастую работают как хабы, присваивающие в глазах толпы открытия, сделанные внутри их тусовки.
А по поводу примеров "реального прогресса" - ты сначала define "реальный прогресс", а то я знаю логическую уловку "ненастоящий шотландец". А еще я знаю то, что многих после открытия перекупает из их нонейм университета гугл, и в итоге ща ты можешь сказать, что "ну вот он в гугле работаит, гугл прогресс!!!", а мне влом участвовать в этом манки-бизнесе. Если тебе это интересно, посмотри любой state of art на данный момент и изучи биографию авторов. Если ты меня на слабо хочешь взять - иди нахуй.
И последнее, что я знаю, что качество открытия проверяется временем, поэтому если бы я знал самое важное открытие 2017, допустим, года, я бы не тут с тобой сидел, а продавал бы свой стартап за миллиард долларов.
1523779905127685927.jpg41 Кб, 400x226
460 1174952
>>74925
Ебать у тебя маневры
462 1174964
>>74813

>за максимально возможный срок


тебе это не составит труда
463 1174966
>>74692
Прикладников всегда на порядки больше чем фундаменталистов. Тем более учитывая демографический взрыв на планете. Нужно обслуживать потребности толпы.
464 1174984
>>74966

>Нужно обслуживать потребности толпы.


Поэтому столько матанопетушни развелось?
465 1174985
>>74984
Ты хоть читай, на что отвечаешь, дегрод. Или даже на это мозгов не хватает?
466 1174986
>>74985
Нахуй мне всяких поехавших из 8'б' читать?
467 1175061
ЫЫЫ, а как нейроночками ускорить рендер?
468 1175064
>>75061
Научить их денойзить зашумленные методом монте-карло изображения.
469 1175075
>>75061
если ты о каком нибудь V-Ray, то в принципе можно научить нейронку предсказывать отскок луча от поверхностей в общих случаях. Но это будет не рендер а гадание на кофейной гуще. Если шарик стоит тут а свет тут а камера тут. Засовываем в черный ящик, трясём получаем зелёный конус под столом
14712393648650.gif536 Кб, 800x792
470 1175076
Эх, опять во время очередного хайпа врывается толпа студентов, которые считают себя илиткой и что пик заинтересованности будет продолжаться вечно
471 1175088
>>75076
и что же в этом плохого?
Хайп серьёзный. Технологические гиганты за последний год подняли рынок. Работы как правильно тут сказали на всех хватит. У кого есть время, ресурсы и заинтересованность не останется без дела.
472 1175090
>>75075
Отскок одного луча и так слишком простая операция. А то, о чем я говорю, как водится, уже сделали
http://cvc.ucsb.edu/graphics/Papers/SIGGRAPH2017_KPCN/PaperData/SIGGRAPH17_KPCN_LowRes.pdf
473 1175092
>>75088
Не мешай ему дрючить свое ЧСВ, он ведь выше всего этого.
474 1175102
>>75090

ну это как посмотреть. Отскок одного - да. Но можно предсказывать отскок пачки. Денойзить Монтекарло тоже идея понятна. Но это уже больше умный шейдер, хотя без сомнения тоже рендер.
475 1175140
>>75102
Да предсказывать отскок пачки тоже несложно и без нейронок. Проблема в том, что просчитать честно все равно быстрее. В пачке сколько лучей, ну тысячи, а при рендеренге речь идет как бы не о триллионах.
Если денойзить монтекарло, но не по rgb, а добавить depthmap, то должен получиться очень хороший плагин. Напишу боссу об этом...
476 1175265
>>73489
регрессии плохо работают на картинках (а если и работают, то без сверточек слишком вычислительно сложны), а в картинках основной хайп нейронок + рекурсивные данные и численные ряды (типа звука), а в банках и прочей ерунде и регрессий хватит
капитан
477 1175283
>>74888
Спасибо, почитаю.

>>74886
Ну допустим, и что с этим делать дальше?
478 1175304
Что в шапку следующего треда добавить?
инб4 грамотности
479 1175305
>>75304

вот это
>>74858
480 1175306
>>75304
а если серъёзно, что что нибудь с котами, неграми и обезьянами.
Так же нужно сделать краткое резюме из обсуждений этого треда.
481 1175307
>>74962
спасибо
>>74964
пошел нахуй
>>74821
пошел нахуй
482 1175308
>>75307
мы здесь все учёные и не ругаемся плохими словами
483 1175310
>>75308
Этот мой коллега не пиздит.
485 1175323
>>75317
СЖВ проблемы в машобчике, лол. Вот я об этом говорю. Ученый - это тот, кто создал word2vec, а бородатые сойбои-куколды со смузи - те, кто пытается вымутить какую-то хуйню, чтобы негров не распознавало как макак, или чтобы в выдаче "she" было выше, чем "he".
486 1175335
>>75306

>обезьяны


Пара точно будет.

>резюме


Я даже не знаю, что написать. Так и не выяснили до конца, кто хипстер-хуесос, а кто ноуку двигает. Всуну предложение про то, что мощный комплюхтер нужен, если ты собираешься много моделей тренировать, но можно обойтись амазоновскими инстансами, если тебе нейронки только для развлечения/курсовой/етц.
487 1175402
>>75323
Лахтинец, ты заблудился. Твой поехавшие-тред ниже, /пораша слева.
488 1175446
аааа перекатывайте уже, я же не могу терпеть
489 1175877
Новый взгляд на хеббовское обучение в свете современных результатов: http://arxiv.org/abs/1804.02464
проигрыватель.jpg9 Кб, 249x202
490 1175973
>>75877

>We conclude that differentiable plasticity may provide a powerful novel approach to the learning-to-learn problem


>2018


>уравнения Хебба из позапрошлого века


>novel approach


Как перестать орать с деградантов? К концу второго десятилетия 21 века хипстеры узнали про уравнение Хебба. Глядишь, лет через 50-70 нечеткую логику для себя откроют, такими-то темпами. Апплодирую стоя, так держать!
491 1176205

>tfw выкладываешь самые интересные статьи, надеясь на обсуждение, но получаешь единственный комментарий от поехавшего дебила, отвечающего на каждый пост ИТТ

492 1176216
>>76205
2ch.hk

Добро пожаловать. Снова.
493 1176228
>>76205
И что ты хочешь обсудить? Да, уравнения Хебба - это охуенная тема, и я бы мог написать, что Коско еще в начале 90-х показал 4 возможных варианта таких уравнений, которые можно использовать для чего угодно, от нейроночек до адаптивного настраиваемого поведения агентов в виртуальной реальности. Только какой в этом смысл? Ну открыли эти хипстеры америку, и что? Я там ничего нового не увидел.
494 1176263
>>76228
Да понятно всем, что тебе не наука интересна, а собственно ЧСВ. Нахуя варежку-то разеваешь, дрочи на себя в зеркале.
495 1176270
>>76263

>тебе не наука интересна,


Науку (настоящую, а не всякое говно из жопы) сливают в усиленном режиме, а вместо науки подсовывают всем смузи. Вот ты знал, что еще в 80-е были разработаны нейросети на основе осциллирующих аутокаталитических реакций типа Белоусова-Жаботинского, только на основе ферментов и т.п. полипептидов? А сейчас, спустя 30 лет, тебе вместо биочипов впаривают видюхи и прочий хлам, искусственно ограничивая использование не самого топового железа, чтобы ни в коем случае не пользовался чем-то дешевле 30-40 косарей. Что и порождает клоунов типа >>73877 которые про линейную регрессию не слышали, зато твердо веруют, что без нейроночек никуда. Тьфу на вас, дегроды.
496 1176279
Делайте перекат и я возможно в новом треде шокирую вас вопросом.
497 1176284
>>76270
Ты сам клоун, точнее фрик. Сколько ты тут лет сидишь уже, и всегда один и тот же паттерн: сейчас открытия говно, а вот говно мамонта тридцатилетней давности - вот там головы были.
Ну казалось бы, откопай это самое говно, отмасштабируй результат на GPU, разнеси всех на илсврц. Хотя бы тут идею запостил бы, тебе бы помогли. Однако почему-то ты почему-то продолжаешь токсично комментировать все по одному и тому же паттерну.
498 1176288
>>76284
Двочую. Почему он не может сделать красивую презентацию с методами прошлого столетия и выложить на видное место?
499 1176291
>>76270
джвачую, хотя я к нейропараше отношения не имею.
500 1176297
>>76270
Как стать таким же умным как ты?
501 1176305
>>76270
очевидно потому что биочипы не работают. Смысл компьюторных вычилений в том что они дают 100 процентов точный результат. соответсвенно принципы работы с бигдатой нельзя делать основной компьютерной архитектурой а лишь вспомогательным инструментом.
502 1176322
503 1177080
>>76205
я даже не читал абстракт, но в интернетах говорят, что они просто оверфитнули сетку и строят из этого философские выводы
Screen Shot 2018-04-20 at 14.42.22.png411 Кб, 1792x1404
504 1177213
Жалуемся в Роскомандзор что телеграм все еще доступен
505 1185903
>>62357 (OP)
Я в машобе не секу, но по работе нужно просчитать как одна штука во временном ряде коррелирует с другой.
Правильно-ли понимаю что если знать заранее что с чем должно коррелировать то именно машинное обучение здесь это overkill?
506 1185911
A topological data analysis и прочим persistence homology тоже от учения святого Вапника никуда не деться?
Тред утонул или удален.
Это копия, сохраненная 14 июня 2018 года.

Скачать тред: только с превью, с превью и прикрепленными файлами.
Второй вариант может долго скачиваться. Файлы будут только в живых или недавно утонувших тредах. Подробнее

Если вам полезен архив М.Двача, пожертвуйте на оплату сервера.
« /pr/В начало тредаВеб-версияНастройки
/a//b//mu//s//vg/Все доски