Этого треда уже нет.
Это копия, сохраненная 10 декабря 2016 года.

Скачать тред: только с превью, с превью и прикрепленными файлами.
Второй вариант может долго скачиваться. Файлы будут только в живых или недавно утонувших тредах. Подробнее

Если вам полезен архив М.Двача, пожертвуйте на оплату сервера.
182 Кб, 800x600
749 Кб, 1212x388
324 Кб, 1600x1059
НЕЙРОНОЧКИ & МАШОБ #8 !rDGuVmz79Q # OP #856234 В конец треда | Веб
книги
Pattern Recognition and Machine Learning, Bishop.
Information theory, inference & learning algorithms, MacKay http://www.inference.phy.cam.ac.uk/itila/
Machine Learning: A Probabilistic Perspective, Murphy
Introduction to Statistical Learning ( http://www-bcf.usc.edu/~gareth/ISL/ISLR Sixth Printing.pdf )
Elements of Statistical Learning ( http://statweb.stanford.edu/~tibs/ElemStatLearn/printings/ESLII_print10.pdf )
Foundations of Machine Learning, أشهد أن لا إله إلا الله وأشهد أن محمد رسول الله. http://www.cs.nyu.edu/~mohri/mlbook/
А. Пегат, "Нечёткое моделирование и управление"

другое
http://libgen.io / http://bookzz.org/ - здесь можно одолжить ^ книги и не только
https://vk.com/deeplearning и http://deeplearning.net/reading-list/
http://arxiv.org/find/all/1/all:+nejronochki/0/1/0/all/0/1
http://videolectures.net/mlss09uk_cambridge/
http://kaggle.com - весёлые контесты. денежные призы
https://www.hackerrank.com/domains/ai/machine-learning/difficulty/all/page/1 - олимпиадки
https://www.reddit.com/r/MachineLearning/wiki/index
http://katbailey.github.io/
http://rgho.st/8g68fTCSx две брошюры по deep learning для слесарей.
курс от китаёзы

яп
1. http://julialang.org/
2. https://www.microsoft.com/en-us/research/project/infernet/
3. https://www.r-project.org/
4. питухон и так все знают
5. idris/coq - модные яп для формально верифицированных нейроночек с тренировкой на этапе компиляции

ПЛАТИНА
Книги хорошо, но с чего начать практический вкат?
Во-первых, вам нужна любая unix-based система. На Windows возможно запустить нижеперечисленное, но ждите пердолева с настройкой и неодобрительных взглядов анонимуса. Кроме того, в компаниях, так или иначе связанных с разработкой йоба-ПО и machine learningом, Linux/OS X является стандартом. Привыкайте.
Во-вторых, определитесь с языком. Python и C++ наиболее мейнстримовые инструменты, с ними вы без еды не останетесь. Есть еще R, на котором пацаны живут статистикой и анальными пакетами. Некоторые инструменты являются языко-независимыми (Vowpal Vabbit, XGBoost), но обвязывать их вы все равно будете из какой-либо среды.
На Java разработано много production-ready инструментов для бигдаты и если вы угораете по терабайтам данных, то имеет смысл посмотреть в её сторону. Впрочем, лучше это делать уже потом, когда прийдет осознание потребностей.
В-третих, выбирайте себе задачу. Что угодно: распознать качпу, обнаружить ботов по логам, найти раковых больных. Список можно посмотреть, например, на kaggle.com. После чего приступаете к решению выбранной задачи.

Не прийдется ли мне потом с таким наборищем знаний идти в макдак работать?
Несмотря на хайп вокруг ML, далеко не во всех IT компания есть необходимость в ML и понимание круга задач, которые можно решить этими методами. Но поверьте, в 2017 компетентный специалист будет востребован. В России потребителями ваших знаний могут стать: Яндекс, Mail.ru, Вконтакте, Rambler, Касперский, Билайн, Связной, ABBYY, Хуавэй. В биоинформатике есть определенный спрос, можно поскролить http://blastim.ru

Здорово, но я так и не понял чем же вы занимаетесь в IT компаниях?
Попытаюсь ответить со своей колокольни и сразу хочу предупредить, что это едва ли консенсуальное мнение.
ML-специалист - это такое зонтичное определение для человека, способного увидеть проблему, выгрепать кучу логов и данных, посмотреть на них, придумать решение проблемы и врезать это решение его в продакшн. По сути, это кодер, решающий не чисто технические, а, в некотором роде, человеческие проблемы.
Имхо, мы все же остаемся в первую очередь разработчиками.

Что такое TensorFlow?
TensorFlow - опенсорсный гугловый инструмент для перемножения тензоров и оптимизации функционалов. Опенсорсный - потому что даже важные куски типа параллелизации уже выкачены в паблик. Если вам все ещё непонятно что это, значит это вам и не нужно, сириусли. Google перестарался с рекламой и теперь люди думают, что TF - это серебряная пуля и затычка для каждой бочки. До TF был Theano, который выполнял свою работу не хуже. И, в отличии от TF, он уже находится в стабильной фазе.

будет ли ML нужен в ближайшие 10 лет, или это просто хайп?
будет. хайп. хилари всех убьёт, лучше не вкатывайтесь ребята

смогу найти работу?
Яндекс, мейлру, касперский, несколько биоинформатических компаний (iBinom, можно еще blastim.ru поскролить на тему работы), билайн (они с НГ целое подразделение открыли под ML и биг дату), связной. Ну и западные аутсорсы, если готов рачить за валюту.

нужна математика?
для начинающего ничего особого знать не нужно

поясните за нейроночки
нейроночка - массив

Тред #1: https://arhivach.org/thread/147800/
Тред #2: https://arhivach.org/thread/170611/
Тред #3: https://arhivach.org/thread/179539/
Тред #4: https://arhivach.org/thread/185385/
Тред #5: https://arhivach.org/thread/186283/
Тред #6: https://arhivach.org/thread/187794/
Тред #7: https://arhivach.org/thread/196781/
42 Кб, 510x614
#2 #856257
>>856234 (OP)
По поводу второй пикчи, полгода с ребятами угарали по EP и VMP. С несопряжёнными моделями хуйня, надо бы найти какие-нибудь пространства распределений, в которых можно было бы пилить какие-нибудь годные аппроксимации.
>>856260
37 Кб, 350x523
#3 #856260
>>856257
сопряжённые модели с гауссовым распределением
распределение параметров - гауссово распределение
распределение средних значений гауссова распределения параметров - гауссово распределение
распределение ковариации - распределение вишарта
гиперпараметры - точечные оценки
>>856360
#4 #856360
>>856260
Нет у нас сопряжённых моделей, у нас в экспоненицальных семействах сидит тьма нелинейностей.
Линеаризацию пытались - хуйня, MCMC - слишком долго, 17 часов до адекватного результата на картинке 100х100
>>856394
#5 #856394
>>856360
Я уже понял, что ты не слесарь.
#6 #856401
если дабл то все кто выше - слесари
#7 #856406
А датасцайентисты и NLP-гуру у вас есть? Посоветуйте, как быть с нечетким поиском.
Одна из практических задач: есть конфочка со списком пользователей — ерохин, sychov, yoba, peka, biтард итд. — и есть бот, который должен реагировать на команды вида "забань ероху", "кикни ёбу", "mute bitard". Я понимаю, что это можно сделать как-то путем приведения всех имен к одному или нескольким "нормализованным" видам(кириллическая транслитерация, латинская транслитерация, фонетическое представление в нескольких вариантах) и вычислениям расстояния Левенштейна, например. Но наверняка эта задача уже давно решена и для нее есть готовые библиотеки, которые я пока не смог нагуглить. Можете что-нибудь подсказать?
#8 #856417
>>856406
Эта задача решается автодополнением никнейма по табу.
>>856422
#9 #856418
>>856406
Транслитерируй и гугли soundex / sounds like, ML тебе тут не нужен.
>>856422
#10 #856422
>>856417
Ты предлагаешь решение другой задачи.
>>856418
Точно, совсем про Methaphone/Soundex семейство забыл, спасибо.

>ML тебе тут не нужен.


Это я знаю, но у нас нет NLP-треда. А NLP-тематика мне кажется родственной обучению. Я ошибаюсь?
>>856428
#11 #856428
>>856422
Если говорить об обучении применительно к NLP, то тебе сперва нужен охрененный объём текстовых данных с соответствующими формализованными значениями. В примерно таком формате:
Словоформа, Значение, Падеж, Число
Ероха, 0.1342, 1.0 (И.П.), 0 (ед.)
Ерохин, 0.1342, 1.0 (И.П.), 0 (ед.)
Ероху, 0.1342, 0.7 (В.П.), 0 (ед.)
Ерох, 0.1342, 0.7 (В.П.), 1.0 (мн.)
Вася, 0.2045, 1.0 (И.П.), 0 (ед.)

Значения, соответственно, определяешь просто беря float по номеру в списке возможных значений в выборке. И да, прочие падежи и числа ещё зависят от контекста. Ну так вот, как научишь нейросеть определять значение по словоформе и контексту - считай дело в шляпе, можно распознавать любую форму любого логина, а также команды, если на глаголы надрочишь. Вот только soundex будет сильно проще, чем такие глобальные задачи решать.
#12 #856534
>>856406
Оверкилл задачи же, в cs 1.6 подобная задача была решена довольно неплохо.
>>856535
#13 #856535
>>856534
Каким образом?
>>856538
#14 #856538
>>856535
Без всякого NLP.
Комманда !ban @nickname работала.
>>856545
#15 #856545
>>856538
а если никнейм =

''\\з= ( ʖ) =ε//’’ cRaZy|TaLiBaN [fRoM] fK cAiR* ''\\з= ( ʖ) =ε//’’

как тогда?
>>856547>>856551
#16 #856547
>>856545
Бан по айди или номеру в команде, чё-то такое.
>>856552
#17 #856551
>>856545
Простейший парсер комманд. Парси до первого пробела.
#18 #856552
>>856547
Охуенное решение задачи, да уж. Задача-то состоит в том, что с таким ником сработает простое "бан Талибан", ахалай-махалай.
>>856559
#19 #856559
>>856552
Ну в самом "талибан" не все буквы могут быть на латинице/кирилице, поэтому такое решение и необходимо.
>>856568
#20 #856561
>>856406
LSA жи есть. Если бота научить на нормальном корпусе документов (полно готовых), баны сможет лепить не только по близости слов с точки зрения расстояния Левенштейна (что вообще прошлый век), но и по семантической близости, притом не только отдельных слов, но и предложений. Проблема чисто техническая - как прикрутить LSA к боту. И да, раз уж вспомнили слово "нечеткий", то оно очень к месту, т.к. семантическую близость одного слова/словосочетания к другому можно рассматривать как нечеткое отношения со степенью принадлежности от 0 до 1.
#21 #856568
>>856559

> необходимо


Да неужели? Для твоей задачи ничего не нужно кроме транслита и fuzzy matcher'а как во всяких саблимах.

Или вот, дано три пользователя:
____________DEADPOOL__________ ___________DEADPOOL___________ ____________DEADPOOL_________

Тебе нужно забанить одного определенного из них. Enjoy your NLP.
>>856581
#22 #856581
>>856568
Во-первых, это не моя задача.
Во-вторых, это чудовищный оверинжирининг, причём абсолютно бесцельный.
В-третьих, не понял при чём твой пример с одинаковыми никнеймами. Айдишники как раз от такой залупы и спасают.
>>856585
#23 #856585
>>856581

> Во-первых, это не моя задача.


Ах, я подумал, что ты тот, кто предлагал "бан ероху", а ты про бан по айди говорил?

> Айдишники как раз от такой залупы и спасают.


Согласен, либо тупо кликать мышкой по сообщению / пользователю.
#24 #856648
ML - подзалупное говно, популярное только в рашке, сране тупых пидорасов, которые хотят по-простому зарабатывать.

ML основано на вероятностной модели, поэтому, например, в робототехнике, если рука цуборга бьет тебе в ебало, она может промахнуться.

Но если вместо вероятностной модели использовать алгебраическую геометрию, точность будет идеальна. Однако для того, чтобы использовать алгебраическую геометрию, надо прочитать не одну толстую книжку, и только через несколько лет будет профит.

В этом разница между пидорашкинской наукой и зарубежной.
#25 #856650
>>856648
Совсем вы уже со своим швитым западом поехали.
#26 #856651
>>856648
каждый раз поражаюсь точностью формулировок
#27 #856652
>>856648

>Однако для того, чтобы использовать алгебраическую геометрию, надо прочитать не одну толстую книжку, и только через несколько лет будет профит.


Что же лучше:
-рука, которая бьет в ебало 5 раз из десяти, созданная за год;
-рука, которая попадает каждый раз, но которую еще пилить и пилить?
Этот вопрос в бизнесе уже давно решен. А твои представления о Западе сформированы экомацой.
62 Кб, 604x604
#28 #856658
>>856648
так толсто что даже читать и отвечать не буду
#29 #856663
>>856648

> ML - подзалупное говно, популярное только в рашке, сране тупых пидорасов, которые хотят по-простому зарабатывать.


Угадай страну с наибольшм количеством вакансий в ML.

>>856648

> ML основано на вероятностной модели, поэтому, например, в робототехнике, если рука цуборга бьет тебе в ебало, она может промахнуться.



А то люди не промахиваются, а сейчас в AGI даже ставят себе задачу достижения качества хотя бы человека.

> Но если вместо вероятностной модели использовать алгебраическую геометрию, точность будет идеальна. Однако для того, чтобы использовать алгебраическую геометрию, надо прочитать не одну толстую книжку, и только через несколько лет будет профит.



Стоимость разработки учитываешь? ML, не считая йоба диплёнинг, может пилить школьник на лаптопе два гига, два ядра.

> В этом разница между пидорашкинской наукой и зарубежной.



ЛеКун, Хинтон, Ын, Шмидхубер, Хуттер и Гёртцель наши люди, да.
85 Кб, 670x503
#30 #856677

>Но если вместо вероятностной модели использовать алгебраическую геометрию, точность будет идеальна. Однако для того, чтобы использовать алгебраическую геометрию, надо прочитать не одну толстую книжку, и только через несколько лет будет профит.



Копроматематики себе могут считать своими грязным ручишками что угодно, потом в любом случае задачу с цуборгом будет нужно решать управленцам, а в ТУ посмотрели на мазню математиков, сказали что оптимальная траектория - это конечно хорошо, а потом ввели внешнее возмущающее воздействие и сказали что это белый шум и не ебет. И вообще, всё суть черный ящик, главное шоб работало.

>>856652
Ты тоже хорош. Из твоих условий оптимального решения не может быть принято.
>>858352
35 Кб, 1014x281
#31 #857183
Маам, маам, я в телевизоре!
48 Кб, 624x416
#32 #857187
>>857183
from scikit-learn import GradientBoosting
#33 #857213
>>857183
нахуй нужно, есть хгбуст
поста поста постакаем на своём веку
#34 #857214
>>857183
нахуй нужно, есть хгбуст
поста поста постакаем мы на своём веку
#36 #857721
>>856234 (OP)
Анончики, где можно найти нормальный туториал по тензорфлоу? Документация вроде выглядит нормально, но хочется последовательного повествования с объяснением всего по порядку
>>857763>>857833
#37 #857763
>>857721
А что там объяснять?
>>857834
#38 #857833
>>857721
Палю годноту:
https://www.kadenze.com/courses/creative-applications-of-deep-learning-with-tensorflow/info

Можно даже в шапку добавить будет.
>>857856
#39 #857834
>>857763
Ну мне многое непонятно.

Что такое сессия? На сайте ТФ написано что мы строим граф и выполняем все на С++ чтобы быстрее было, ну а соединение называется сессией. Ахуенно, а какая разница между
with tf.Session() as session: и tf.InteractiveSession() ?

Что за модели?
model = tf.initialize_all_variables()

Да и вообще хочется нормального, структурированного описания всего, а на сайте тф только пара примеров с описаниями что в каждой строчке делается. Все-таки отдельный фреймворк, своя структура кода должна быть, свои бест практисес и прочее.
#40 #857856
>>857833
Спасибо, выглядит очень годно
>>857865
#41 #857865
>>857856
На самом деле только выглядит, мне кажется, что порой проще залезть в сырцы фреймворка/либы. Правда, там порой такой пиздец творится, что хочется громко и долго рыдать на кухне с водкой и песнями Пугачёвой.
#42 #857903
>>856234 (OP)
Пытаюсь сделать XOR пример на хаксе, но результаты выходят неважные.

Error min: 0.146679667762552
Weight :[0.993097859025368,0.358106194371963,0.993144590457381,0.548357773363591,0.400469323659122,0.97559483873481]
0.665529010529132
0.713105233922201
0.70400433350312
0.740206773359699

вместо 0, 1, 1, 0

код
http://pastebin.com/D6wStRdx

Что я делаю не так?
#43 #857968
>>857903
обьясни что ты делаешь
>>858295
#44 #858017
>>857903
Ты в каждой эпохе рандомишь веса?
>>858295
#45 #858051
он рандомом перебирает веса
>>858211
#46 #858073
>>857903

> weight[j] = Math.random();


это всегда даёт положительные числа?
возможно тебе нужны отрицательные веса
>>858295
#47 #858145
>>856648
Ты можешь вкатиться с ML, поднять бабла и купить себе трактор. Нет, ты будешь ныть. Дай угадаю, хотел вкотиться (мяу), но не осилил?
#48 #858147
>>856652
Лучше рука, которая попадает всегда.

Ты мыслишь как <сюда что-нить русофобское>, тебе главное по бырику балбецп кропаль поднять и по тапкам.
А вот <сюда подставить восхищение западом> работают на перспективу.

Как только рука будет доделана - всем плохим рукам останется только дрочить, попадая в пинус 5 раз из 10.
#49 #858211
>>858051
Причем делает это на хаксе. Есть ли предел извращению?
#50 #858270
ПАЦАНЫ, Я КОРОЧЕ ШЕЛ СЕГОДНЯ ПО ОФИСУ И УВИДЕЛ ЧЕЛА В МАЙКЕ "ANN & ML", НУ Я ПОДСКОЧИЛ И РЕЗКО ПЕРЕЕБАЛ ЕМУ В ЩЩИ С ВЕРТУШКИ И ПОЯСНИЛ ЭТО КРИКОМ "НЕ ЛЮБЛЮ НЕЙРОНКИ", ПОТОМУ ЧТО Я УГОРЕЛ ПО НИСХОДЯЩЕМУ ПОДХОДУ, ПАЦАНЫ ДУХ ИСКУССТВЕННОГО ИНТЕЛЛЕКТА ЖИВЕТ ТОЛЬКО В ЛОГИЧЕСКОМ ПРОГРАММИРОВАНИИ, ГДЕ ЕБАШАТСЯ ПО ХАРДКОРУ, ГДЕ ПАЦАНЫ ЖИВУТ СИМВОЛЬНЫМИ ВЫЧИСЛЕНИЯМИ, ЭКСПЕРТНЫМИ СИСТЕМАМИ И ЕБУТ МАШИННОЕ ОБУЧЕНИЕ В РОТ! ТОЛЬКО PROLOG, ТОЛЬКО ХАРДКОР!!! МАККАРТИ ХАРДКОР МАКЛИСП ПРОЛОГ!!! пацаны ебашьте нейронщиков, машинлёрнеров, датасайнсеров, тензороёбов, угорайте на Macsyma, любите Алена Колмероэ, PROLOG и базы знаний! ГОВОРИТЕ ОТКРЫТО И СМЕЛО ПРЯМО В ЛИЦО! TOP-DOWN AI!
>>858282
#51 #858282
>>858270
Поясни за гиперграфы с динамическими Байесовскими сетями в когнитивных архитектурах?
38 Кб, 500x500
#52 #858295
>>857968
пытаюсь сделать пример отсюда
https://habrahabr.ru/post/312450/

>>858017
Да

>>858073
Math.random() выдает значения от [0.0, 1.0]
Если нужны и отрицательные, то в каком диапазоне?
>>858341>>858406
270 Кб, 999x1500
#53 #858341
>>858295
попробуй хотя бы [-5.0, 5.0] или [-10.0, 10.0]
[0.0, 1.0] уже совсем тухло
>>858391
#54 #858352
>>856677

>Копроматематики


Я тебе ща хуйцов в жопу-то понапихаю, пидор ебучий, сука!
#55 #858391
>>858341
попробовал, результаты все равно не важные
>>858407
#56 #858406
>>858295
Ты понимаешь что такое эпоха?
Зачем каждый раз рандомить? Естественно она у тебя обучаться не будет.
#57 #858407
>>858391
покажи новый код
можешь ехо увеличить до 6000000 например
алсо твой подход тоже не важный, оно может и не заработать вообще
>>858410
#58 #858410
>>858407
http://pastebin.com/gL49zEmr

изменил генерацию весов на
weight[j] = Math.random()*10 - 5;
>>858414>>858424
#59 #858414
>>858410

> var oInput:Float = h1Output weight[4] + h1Output weight[5];


тут ошибка?
>>858456
#60 #858424
>>858410
Тебе рандомить надо ДО обучения.
>>858456
267 Кб, 1280x848
#61 #858456
>>858414
в чем?

>>858424
Я вроде как так и делаю. Вот написал более подробные комментарии к коду
>>858459>>858461
#63 #858460
>>858459
Вот так короче должно быть
http://pastebin.com/cYANUPF5
За 4 примера ты нихера не сможешь обучить рандомные веса.
>>858463
289 Кб, 1024x768
#64 #858461
>>858456

> в чем?


> h1Output · weight[4] + h1Output · weight[5];


->

> h1Output · weight[4] + h2Output · weight[5];


х2аутпут похерился когда ты копипастил
>>858463
#65 #858462
>>858459
Бля, погоди, так у тебя же и веса не обновляются нигде.
54 Кб, 500x636
#66 #858463
>>858461
Ужас, ну и невнимательность. Спасибо, результаты улучшились, но все равно далеки от "ожидаемых".

Error min: 0.0169421714870966
Weight :[4.20252078023247,-4.62134012761918,4.94013903530838,-4.75568818215233,2.00273622097117,-4.90724424147019]
0.189654914015695
0.875081564899919
0.872740092290493
0.88101808022021

Последнее число, должно быть приближено к нулю.

>>858460
Так мне нужно всего решить эти четыре примера, что же касается эпох, то они проходят и весы обновляются. Сурс ниже

//Начинаем новую эпоху обучения
for (i in 0...echo){
//iteration
//weight generation
//Заново генерируем случайный массив весов
var weight:Array<Float> = new Array<Float>();
for (j in 0...6){
weight[j] = Math.random()*10 - 5;
}
>>858470>>858472
#67 #858470
>>858463
Тебе надо не решить 4 примера, а на этих четырех примерах у тебя должна обучаться сеть, чтобы потом подобные примеры решать.
>>858478
#68 #858472
>>858463
поставь веса интервал [-20.0, 20.0]
и подольше погоняй, должно сойтись
>>858478
#69 #858478
>>858470
Разве обучения тут нет? Есть четыре примера и четыре идеальных ответа, сменяя типы весов, где получается ответ с минимальной ошибкой и есть обученная сеть. Или я чего то не понял.

>>858472
Сделал 200 000 эпох, весы - как указано у Вас.
Результаты, однако, занятные.
Error min: 1.28708409018419e-006
Weight :[9.86162644029049,-9.62339217008311,11.9078840327887,-15.7031429090112,7.70839242490986,-19.9625130491306]
0.00217823378333181
0.999551134126215
0.999550385305801
0.999551158780416

все не пойму, почему последняя цифра стремится к 1, а не к нулю.
>>858492
#70 #858492
>>858478

> Error min: 1.28708409018419e-006


ошибка тоже не правильная, должна быть около 1 с такими выводами
#72 #858956
>>858915
Ну все, новая игрушка у школуйни. Теперь все задания на кеггле будут этой хуйней пердолить.
#73 #858994
>>856652
>>856648

>, если рука цуборга бьет тебе в ебало



Тут все жирнее - на самом деле, нихуя ты со своей алгебраической геометрии не получишь, кроме как доказательства существования руки в пространствах размерности не менее N с метрикой µ и при некоторых других дополнительных ограничениях которые потребовалось ввести, чтобы доказать эту теорему существования.

Такова алгебраическая геометрия
23 Кб, 393x262
#74 #859037
Здаров Анон, дублирую пост, пишу научную работу, выбрал научрука, интересно было машинное обучение, выбор был не большой, из 1 тела, сначала я просто читал, много, много... читал. Начитавшись, начал заниматься темой что мне предложил научрук, а именно - этап нормализации лиц для распознавания, написал алгоритм, вывожу 68 точек описывающие характеристики лица, получаю вектора лиц, кароч все норм, но этот пес сказал мне не юзать НС, ибо типо нет ресурсов у нас, и вот написал, собрал каскад. Дальше что делать не особо понятно, в первые обратился к нему, просто помогите определится с направлением движения - нужна научная новизна. Он ничего не может сказать и тут я понял что он вообще не понимает что я написал и что я сотворил, я к нему с вопросом относительно направления, он мне в ответ, нужно выбрать направление. Что делать Анон? (Магистратура)
Текущий результ на пикче, поднес картинку с телефона к вебке.
Основной вопрос, есть нормальный, мной написанный, алгоритм выравнивания без нейросети, в каком направлении двигаться? Что почитать? Нужна научная новизна.
>>859065>>859964
#75 #859065
>>859037
Глаза нашёл криво, ту этого ТП-поделия и то лучше получается: https://play.google.com/store/apps/details?id=com.cyberlink.youcammakeup - работает в риалтайме, похоже, что тоже без НС обошлись. Правда при повороте в полупрофиль начинает попизживать - у тебя с этим как?
А вообще - не заморачивайся, наша наука в таком перде, что защитить может кто угодно любую пургу, сама по себе наша степень ничего не значит - хоть инновационный калькулятор пиши. Вот если по факту в твоей работе есть что-то ценное и препринт заинтересует дядей за бугром, то может выйти толк.
>>859075
#76 #859075
>>859065
Знаю это дерьмо, там реализация алигмента от dlib, если интересно можешь глянуть, профиль немного тоже пидорасит у меня. Фишка моей работы в том что он разметит лицо даже его видно лишь на 60%, то есть закрой рот ладонью, он определит. А то что глаз подпидорасило, ну бывает хули, он быстро возращается обратно. Хз, требования большие у нас в универе. Просто ебанаты, такие как мой научрук могут не допустить к защите, если я не сделаю ничего нового. А чего сделать сказать не могут.
>>859081
#77 #859081
>>859075

>dlib


Ну так и поясни, что новизна в том, что лицо определяется при неполной видимости.
>>859088
#78 #859088
>>859081
Этого мало, потому что есть подобные методы, пусть решено по другому но все же есть. Я ж говорю, доебались пиздец. Новое давай, а чего давать не знают.
>>859096
#79 #859096
>>859088
Ну, йопт. Добавь распознавание
1. Состояния глаз (открыт/закрыт)
2. Точек для закрытого глаза
3. Распознавание профиля и полупрофиля.

А также отслеживание текущего лица и использование его признаков для выравнивания в дальнейших кадрах (может пригодиться при поиске профиля/полупрофиля: т.е. мы уже знаем, как выглядит конкретный уголок конкретного глаза и можем этим воспользоваться при поиске опорной точки на сложном кадре с профилем)

Будет ново и охуенно, запилишь статью на хабре, прославишься. На научрука похуй, но ему тоже может понравиться.
>>859098
#80 #859098
>>859096
Надо на сколяре погуглить. Ок спс за и идею. Но чет есть такое уже, помню читал подобное.
#81 #859103
>>858915
А у них есть сайт с красивыми картиночками? У хгбуст есть.
>>859118
10 Кб, 500x500
sage #82 #859118
>>859103
но раскрасок то у них нет
#83 #859169
>>856234 (OP)

> нужна математика?


> для начинающего ничего особого знать не нужно


А потом мне пиздец?
>>859189>>859196
#84 #859189
>>859169
Если полезешь в statistical learning.
63 Кб, 590x393
sage #85 #859196
>>859169
тебе в любом случае пиздец
>>859209
#86 #859209
>>859196
От пикрила шишка встала.
Весь сет выложить можно?
>>859211
sage #87 #859211
>>859209
ну выкладывай
>>859213
#88 #859213
>>859211
У меня нет.
У тебя есть?
Выложить можешь?
#89 #859353
Датаны, посоветуйте что прочитать про классификацию ML методов. А то могу только в нейроночки и немного а SVM. А что такое random forest и почему нельзя использовать нейроночки вместо всех остальных методов я не знаю.
>>859362
1988 Кб, Webm
#90 #859362
>>859353
читни книжек из шапки
читни бишопа, мёрфи читни, у них все методю хорошо расклассифицированы
>>860873
#91 #859403
Привет, двач. Хочу в будущем заниматься машинным обучением. В какую сторону лучше двигаться: становиться программистом или заниматься научной деятельностью? С одной стороны, хочу делать что-то прикладное, чтобы виден результат, с другой хочу создавать что-то новое. Хватает ли обычным программистам знаний для того, чтобы заниматься исследованиями?
Интересно так же, как происходит работа над новыми технологиями в тех же google и miсrosoft: принимают ли в этом участие обычные разработчики или только люди с PhD из research отделов?
>>859573
38 Кб, 543x604
#92 #859507
Аноны, поясните пожалуйста за нормализацию. Это реально может повысить качество предсказания?
Ну вот предположим я нормализовал данные и вот приходит мне строка с тестовыми данными, что мне с ней делать, как ее нормализовать?
sage #93 #859514
>>859507
Аниму меньше смотри, даун.
>>859516
#94 #859516
>>859514
Я ее не смотрю, просто няшка понравилась
>>859967
#95 #859534
>>859507
Забыл добавить, что у меня задача линейной регрессии.
#96 #859535
>>859507
Забыл добавить, что я строю линейную регрессию.
>>859538
#97 #859538
>>859535
Какие признаки?
>>859547
#98 #859547
>>859538
Их там около 200. Признаки все float'ы.
>>859550
#99 #859550
>>859547
Нормализация переведёт все признаки в double/float.

Серьёзно, что признаки собой представляют, как и чем их извлекал?
>>859559
#100 #859555
>>859507
Озаботься тем, чтобы у тебя даже в теории предельные значения тестовых данных не вылазили за предельные значения датасета. То есть, если датасет у тебя строго от 0 до 65535, то тестовые данные не более того. Если западло или не реально, то выравнивай по теоретическим максимуму/минимуму.
>>859571
#101 #859559
>>859550
Это обезличенный реальный дата сет. У нас учебное приватное соревнование на кегле. Это просто X и y. Нам даже не сказали что это.
Я вроде все перепробовал, и вот решил попробовать нормализовать данные. Но я честно говоря не понимаю, что это даст, да даже если и даст, как мне потом прогнозировать то? Данные тестовые у нас же не нормализованны!
>>859629
#102 #859571
>>859555
Спасибо за совет.
Попробовал нормализовать, нихуя. Даже немножко ухудшилось качество предсказания.
>>859618
#103 #859573
>>859403

>Привет, двач.


Двач давно мертв, ты находишься на филиале мейлру.

>Хочу в будущем заниматься машинным обучением.


Похвально.

>В какую сторону лучше двигаться: становиться программистом или заниматься научной деятельностью? С одной стороны, хочу делать что-то прикладное, чтобы виден результат, с другой хочу создавать что-то новое.


См. прошлый тред про слесарное дело и науку, и выбери для себя. Если ты хочешь, чтобы я за тебя решил, то иди в науку. Естественно, программировать нужно будет в любом случае, если ты не на бумажке собрался нейроночки считать.

>Хватает ли обычным программистам знаний для того, чтобы заниматься исследованиями?


Нет.

>Интересно так же, как происходит работа над новыми технологиями в тех же google и miсrosoft: принимают ли в этом участие обычные разработчики или только люди с PhD из research отделов?


Новые технологии разрабатывают пхд, внедряют обычные кодерки.
#104 #859575
Ребята, а вообще у вас есть какие нибудь лафхаки, как улучшить качество предсказания линейной регрессии?
>>859577>>859618
#105 #859577
>>859575
Не использовать линейную регрессию.
>>859579
#106 #859579
>>859577
Ну вот надо именно ее, есть что нибудь еще, короме нормализации, добавления-удаления факторов-наблюдений?
>>859581
#107 #859581
>>859579
Есть выбросы?
>>859584
#108 #859584
>>859581
Был один, но я его уже выкинул, качество модели улучшилось существенно.
>>859619
#109 #859618
>>859647
#110 #859619
>>859584
А если найду?
#111 #859629
>>859559
Прогнозировать денормализацией. Алсо, большинство алгоритмов заточено на представление данных в виде числа с плавающей точкой в диапазоне значений 0..1, также в таком случае значение ошибки легко приводится к %.
>>859642
#112 #859642
>>859629
Где про это почитать можно?
#113 #859647
>>859618
Проверил еще раз. Просто ничего не изменилось.
>>859656
#114 #859656
>>859647
>>859507
лол пардон, упустил

> Это реально может повысить качество предсказания?


нет
#115 #859823
Почему для opencv до сих пор нет адаптера под третий питон?
#116 #859836
>>859823
Спроси ещё откуда там такая упоротая система хранения информации в изображении. Потому что OpenCV очень костная либа, править и адаптировать там что-либо - сущий ад.
#117 #859852
>>859823
Из сорцов собирай, что как не родной.
>>860014
#118 #859964
>>859037
двачую другого анона, в рашке, украшке и тд науки нет. Защитишь все, что угодно. Можно добавить какую-то специфику, типа шумных условий, распознавании лиц нигеров, распознавании мимики и тд. Кроме того, насколько я понимаю, эта задача уже решена.
>>863139
#119 #859967
>>859516
Хороший выбор.
#120 #860014
>>859852
На самом деле и правда не родной, первый день как вкатился в мл.
#121 #860458
>>856234 (OP)
Анончики, сложно сделать нейроночку, чтобы она за меня реферат написана на основе нескольких готовых, чтобы этот рефер через антиплагиат прошёл?
>>860463>>860539
#122 #860463
>>860481
#123 #860481
>>860463
Как? Неужели никто готовых решений не реализовал до меня?
#124 #860489
В контесте от Сбербанка участвует кто-нибудь? Палите результаты. Или тут тред теоретиков, вяло рассуждающих о будущем?
>>860491>>860519
#125 #860491
>>860489

> тред теоретиков, вяло рассуждающих о будущем?


this.

Но, если кто-нибудь будет тащить сюда и обсуждать реальные задачи, то все будут только рады.
>>860518
#126 #860515
>>859507
Масштабирование данных (в общем смысле, не только конкретно нормализация) нужны для того, чтобы алгоритм работал с данными в более-менее стандартизованном масштабе. Основные подводные камни - не все данные можно масштабировать под одну гребенку и не все методы масштабирования применимы в конкретном случае. Нужно понимать, что это даст именно в данном случае, т.е. для конкретного алгоритма на конкретном датасете, т.е. как минимум нужно представлять работу алгоритма, что именно он делает с данными и желательны некоторые познания в предметной области, касающейся происхождения датасета. А не просто нормализовать все подряд потому что где-то так посоветовали.
57 Кб, 692x488
#127 #860518
>>860491
3 задачи. Сайт - https://contest.sdsj.ru

Задача A
Для клиентов, у которых неизвестен пол (которых нет в обучающей выборке customers_gender_train.csv, но которые есть в transactions.csv), необходимо предсказать вероятность быть мужского пола (значение 1).
Пример решения: http://nbviewer.jupyter.org/urls/dl.dropbox.com/s/pcoqkxzn4nnc4mj/baseline_a.ipynb

Задача B
Необходимо предсказать объем трат по каждой из 184 категорий на каждый день следующего месяца. Итоговый файл должен содержать предсказания по 184 30 = 5520 объектам. Объем трат в конкретной категории считается как сумма всех расходных транзакций в текущей категории по всем пользователям.
Пример решения: http://nbviewer.jupyter.org/urls/dl.dropbox.com/s/tbtomfkohwe02qz/baseline_b.ipynb

Задача C
Необходимо предсказать объем трат в следующем месяце в каждой из 184 категорий для каждого customer_id, которого нет в обучающей выборке customers_gender_train.csv, но есть в transactions.csv. Итоговый файл должен содержать предсказания по 184
3 000 = 552 000 объектам.
Объем трат пользователя в конкретной категории считается как сумма всех расходных транзакций этого пользователя в текущей категории.
Пример решения:
http://nbviewer.jupyter.org/urls/dl.dropbox.com/s/j1595xoqa9oheyo/baseline_c_new.ipynb

Если кого заинтересовало, регайтесь. Введенную инфу не проверяет. На мыло ничего не присылает. Телефон тоже молчит. Решения можно загружать таблицей и автоматом получить оценку.
Архив с данными для лентяев - http://rgho.st/6B979GQqZ

Из того, что получилось у меня. Высчитал даты, которых изначально не было в оригинальной таблице. Прикрутил к ним даты праздников РФ, но пока не знаю как буду использовать.
Улучшил решение задания А до 0.86, похимичив с amount, и только преступаю к B и С.
Из печального, в оригинальном файле отсутствуют многие типы транзакций, которые присутствуют в tr_types. Некоторые приходится угадывать.

Забавно, но в оригинальной таблице есть вот такое вот провисание (пикрелейтед) между тратами мужчина/женщина. Женщины почему-то в среднем сливают на мотоциклы больше, нежели мужчины. Не знаю уж, с чем это связано. Может скутеры покупают сыновьям-уебанам.

Если есть молодые и шутливые ребята, то можно в телеграмме продолжить обсуждение. Да и просто поболтать на эту тему.
57 Кб, 692x488
#127 #860518
>>860491
3 задачи. Сайт - https://contest.sdsj.ru

Задача A
Для клиентов, у которых неизвестен пол (которых нет в обучающей выборке customers_gender_train.csv, но которые есть в transactions.csv), необходимо предсказать вероятность быть мужского пола (значение 1).
Пример решения: http://nbviewer.jupyter.org/urls/dl.dropbox.com/s/pcoqkxzn4nnc4mj/baseline_a.ipynb

Задача B
Необходимо предсказать объем трат по каждой из 184 категорий на каждый день следующего месяца. Итоговый файл должен содержать предсказания по 184 30 = 5520 объектам. Объем трат в конкретной категории считается как сумма всех расходных транзакций в текущей категории по всем пользователям.
Пример решения: http://nbviewer.jupyter.org/urls/dl.dropbox.com/s/tbtomfkohwe02qz/baseline_b.ipynb

Задача C
Необходимо предсказать объем трат в следующем месяце в каждой из 184 категорий для каждого customer_id, которого нет в обучающей выборке customers_gender_train.csv, но есть в transactions.csv. Итоговый файл должен содержать предсказания по 184
3 000 = 552 000 объектам.
Объем трат пользователя в конкретной категории считается как сумма всех расходных транзакций этого пользователя в текущей категории.
Пример решения:
http://nbviewer.jupyter.org/urls/dl.dropbox.com/s/j1595xoqa9oheyo/baseline_c_new.ipynb

Если кого заинтересовало, регайтесь. Введенную инфу не проверяет. На мыло ничего не присылает. Телефон тоже молчит. Решения можно загружать таблицей и автоматом получить оценку.
Архив с данными для лентяев - http://rgho.st/6B979GQqZ

Из того, что получилось у меня. Высчитал даты, которых изначально не было в оригинальной таблице. Прикрутил к ним даты праздников РФ, но пока не знаю как буду использовать.
Улучшил решение задания А до 0.86, похимичив с amount, и только преступаю к B и С.
Из печального, в оригинальном файле отсутствуют многие типы транзакций, которые присутствуют в tr_types. Некоторые приходится угадывать.

Забавно, но в оригинальной таблице есть вот такое вот провисание (пикрелейтед) между тратами мужчина/женщина. Женщины почему-то в среднем сливают на мотоциклы больше, нежели мужчины. Не знаю уж, с чем это связано. Может скутеры покупают сыновьям-уебанам.

Если есть молодые и шутливые ребята, то можно в телеграмме продолжить обсуждение. Да и просто поболтать на эту тему.
#128 #860519
>>860489

>Сбербанк


>Или тут тред теоретиков, вяло рассуждающих о будущем?


Практик дохуя? LightGBM или xgboost решат любую задачу, предложенную грефопарашей, кто лучше научился настройки крутить, тот и победит.
>>860522
#129 #860522
>>860519
Охуенно. Покручу, хуле. Ты сам-то на первое место накрутил уже?
>>860529
#130 #860523
>>860518

>описание задач


Ну я же говорил. Хгбуст содомируй, лучше там все равно ничего не придумать. Алсо можешь еще SVM навернуть, тоже стильно-модно-молодежно.
>>860527
#131 #860527
>>860523
Спасибо за совет.
#132 #860529
>>860522

>Ты сам-то на первое место накрутил уже?


Я теоретик, вяло рассуждающий о будущем. А тута чистая сантехника, а-ля первый оп-пик.
>>860535
#133 #860535
>>860529
Для таких ребят, там есть еще вот это - https://sdsj.ru/challenge.html
Чем не будущее?
>>860542
#134 #860539
>>860458
Зачем вам решать олимпиадные задачки, когда здесь имеется задача, непосредственно связанная с практикой?
>>860544
509 Кб, 1335x726
#135 #860542
>>860535
Бля, ну и ёбла у них на пике.
Последний во втором ряду сфоткался в стиле экстрасенсопараши.
>>860998>>861333
#136 #860544
>>860539
Я слышал у третьекурсников в общагах неплохие нейронки за пачку доширака в аренду сдаются.
>>860826
#137 #860826
>>860544
Говорят, что кусок сочной пиздятины они будут тюнить гиперпараметры всей комнатой.
>>860827
#138 #860827
>>860826

> за кусок


быстрофикс
#139 #860873
>>859362
Сразу видно: дата слесарь преподаёт.
592 Кб, 600x840
#140 #860998
>>860542

> саша видяхин


заебок чо
#141 #861316
Блджад, помогите перевести вот эти два абзаца:

You can interpret the output as a probability. In particular, we interpret it as the probability:
P(Y=1 | X)
Which can be read as “the probability that Y is equal to 1 given X”. We usually just use this and “y” by itself interchangeably.

Of course, since binary classification can only output a 0 or 1, then the probability that Y=0 given X:
P(Y=0 | X) = 1 - P(Y=1 | X),

что это за "probability that Y=0 given X"? Куда копать для большего понимания, в сторону условной вероятности?
#142 #861333
>>860542
последний во втором виду довольно известен в области в рашке, не знаю, толковый он или нет, но в интернете активен.
>>861316
вероятность, что y=0 при данном x
#143 #861383
Сап лернач
Подскажите, пожалуйста, хороший задачник по терверу.
>>861475
114 Кб, 322x474
#144 #861475
Добавьте уже в шапку какой-нибудь учебник по теорверу попроще и на русском, хоть "Теория вероятностей" Вентцель, вопросы типа >>861316 >>861383 показывают, что тута некоторые даже азов не знают, а ML без теорвера это разве что нечеткие модели, остальное почти все на вероятностях.
>>861480>>861786
#145 #861480
>>861475
Я нашел какой-то задачник у своего универа, решаю в данный момент по нему.
http://www.study.urfu.ru/Aid/Publication/970/1/Grahov.pdf
829 Кб, 661x644
#148 #861823
Там это, нейроночки научились абстрактный вырвиглазный прон рисовать. https://nplus1.ru/news/2016/10/21/neural-porn https://open_nsfw.gitlab.io/
>>861827
38 Кб, 825x165
#149 #861827
>>861823
Здесь пару тредов назад даже поднимали этот вопрос.
>>861848
#150 #861848
>>861827
Хуи и пезды вместо собачек - это не то, обыкновенная пошлятина. Тут круче - нейроночку совращают NSFW-контентом, в итоге она накладывает на пейзажи и др. картинки не просто собачек или залупы, а саму суть порна, усвоенную ей в виде абстрактных фич подобного контента. Посмотри на фотки на гитхабе - как таковых половых органов нет, но при этом полученные картинки все-таки неуловимо порнушные. Любой человек посмотрит и скажет, что это ебля. Это жи чисто человеческий уровень абстракции, какой-нибудь художник вполне мог бы нарисовать такое, но нейроночка не человек. Все эти дипдримы - очень годное направление и в IT, и в искусстве, и в психологии даже.
>>861858>>861957
#151 #861858
>>861848
Нужные для результата факторы определяет всё равно человек, в меру своей человеческой однобокой фантазии.
#153 #861908
Блядь. Нувыпонели.
>>861913
#154 #861913
>>861908
спс пдрчл
#155 #861957
>>861848
Это не "Хуи и пезды вместо собачек". Там принципиально другой подход к генерации, и нормальные люди прутся с этого. А у быдла - порно, да.
#156 #862163
Какие разделы чистой математики родственны данной отрасли информатики?
>>862173>>862214
#157 #862173
>>862163
Статистика, теория информации, оптимизация?
83 Кб, 638x807
#158 #862214
>>862163
меры/тервер, множества, нечёткое логика
зачем?
#159 #862265
>>860518
А как химичил с amount, если не секрет?
Алсо, как я понял, в базовом скрипте для зачади А они разворачивают таблицу, чтобы по строкам были только уникальные ID, а по столбцам mcc?
Ньюфаг, не пинай, обоссы.
>>863603
#160 #862900
Аназмисы, у меня встал вопрос.
На всяких амазонах можно взять в аренду ну там с миллион инстансов, верно? Если ты богат, офк.
На каждом инстансе можно реализовать с 10 тысяч нейронов нейронов, допустим. Связь между этими нейронами тоже вполне можно реализовать.
Так почему нет хоть каких-либо больших нейронных сетей которые вполне могут распознавать речь, годно распознавать картиночки, видео, хуй знает что еще. В чем проблема?
>>862901>>862906
#161 #862901
>>862900
Нахуя?
>>862904
#162 #862904
>>862901
Как нахуя? Просто так, чтобы было. Да и применений можно найти массу.
>>862911
#163 #862906
>>862900
Распараллеливание нейроночек в виде готовых решений только в прошлом году стало появляться в виде готовых к использованию проектов - TensorFlow там, MXNet. Сейчас как раз гогл и т.п. конторы реализовывают то, о чем ты говоришь. Результаты будут в обозримом будующем, года через 2-3.
>>862908
#164 #862908
>>862906
Чот как-то медленно, не? Так много кода и сложность большая? Разве нельзя собраться с мыслями и написать свою реализацию отдельного нейрона и связей на локальной машине и через сеть?
И в случае готовых решений (TensorFlow, к примеру), почему это не реализовали вот прямо сейчас? Есть какие-то технические трудности?
>>862912
#165 #862911
>>862904

> применений можно найти массу


Ну вот когда будет спрос - будет и предложение. Арендовать мульон инстансов у амазона прост так)) никто не будет.
#166 #862912
>>862908

>И в случае готовых решений (TensorFlow, к примеру), почему это не реализовали вот прямо сейчас? Есть какие-то технические трудности?


Все реализовано, распараллеливание вычислений подграфов одной сколь угодно большой нейроночки на сколь угодно большом количестве комплюктеров в тензорфлоу есть вот прямо здесь и сейчас. Родина дала, бери, занимайся.
>>862916
#167 #862913
Больше того, там есть возможность записи промежуточных результатов вычислений. Допустим, один из камплюктеров, обсчитывающий некоторую часть нейроночки, сдох после недели непрерывной работы. Результаты не потеряются, а могут быть продолжены с момента последней записи сохраняющим узлом, а не с самого начала.
>>862916
#168 #862916
>>862912
>>862913
Таки что, хоть прямо сейчас могу сделать нейросеть в миллиард-другой нейронов(графов?)? Какое потребление ресурсов у этого TensorFlow?
И самый волнующий вопрос, а почему никто такой хуйни не сделал раньше?

>обсчитывающий некоторую часть нейроночки, сдох после недели непрерывной работы


Тут наверное нужен вопрос про быстродействие, но совсем не разбираюсь в этом. Это всё будет работать в более-менее реальном времени?
>>862918>>862920
#169 #862918
>>862916
Создаётся впечатление, что ты про какие-то абстрактные бананы рассуждаешь.
Что за задача, какая конкретно модель, бюджет?
>>862925
#170 #862920
>>862916

>Таки что, хоть прямо сейчас могу сделать нейросеть в миллиард-другой нейронов(графов?)?


Да. Хоть в триллион, если есть достаточно аппаратных ресурсов. Отдельные аппаратные устройства в этой общей сети могут использоваться конкретно для ввода данных, н-р нейроночке на тензорфлоу или MXNet можно скармливать фото/видео/звук со смартфона. Конкретно на тензорфлоу не все заявленное разработчиками уже есть в общедоступной версии, я за модой не слежу, м.б. уже и разродились (обещали точно).

>И самый волнующий вопрос, а почему никто такой хуйни не сделал раньше?


Неизвестно. Много чего интересного не реализуют и даже не собираются.
>>862925
#171 #862925
>>862918
Да нет никакой конкретной задачи, только абстракции. Может что появится в процессе изучения.
Накопил денег немношк, вот и думаю проебать их на недельный проект в несколько десятков тысяч инстансов хотя бы.
>>862920
Как-то это всё блядь странно, что ли. И еще раз, уточняющий вопрос про ресурсы. Сколько необходимо TensorFlow на тысячу графов? Может из-за потребления ресурсов никто даже не собирается этим заниматься в текущее десятилетие?
>>862932
373 Кб, 252x448
#172 #862932
>>862925

>уточняющий вопрос про ресурсы. Сколько необходимо TensorFlow на тысячу графов? Может из-за потребления ресурсов никто даже не собирается этим заниматься в текущее десятилетие?


Сверточные нейроночки вообще очень ресурсоемкие, собственно, поэтому и пришли к идее как-то все это распараллеливать. На одной машине все это еле дышит, даже если это многопроцессорный суперкомпьютер на GPU, типа теслы. В какой-то статье читал про нейроночку, которая на 4х процессорном тесле сходится по 4 недели, но там обучение было на сложном датасете. Другое дело, что тензорфлоу - это не только сверточные сети, там похоже вообще все что угодно можно сбацать, опять же была реализация карт Кохонена для тензорфлоу. https://codesachin.wordpress.com/2015/11/28/self-organizing-maps-with-googles-tensorflow/ Все зависит от конкретной задачи, что-то и на лету обработается, а что-то и на кластере будет тупить не одну неделю.
>>862942
#173 #862942
>>862932
А есть какая-либо реализация нейросети которая менее требовательна к ресурсам? И вообще, от чего возникает такие требования к ресурсам системы?
>>862950>>862957
#174 #862950
>>862942
твой мозг например
крайне, КРАЙНЕ экономен
#175 #862957
>>862942

>А есть какая-либо реализация нейросети которая менее требовательна к ресурсам?


Почти любые кроме сверточных сетей и всяких глубоких аутоэнкодеров и машин Больцмана.

>от чего возникает такие требования к ресурсам системы?


Там жи десятки слоев, и на каждом все эти перемножения тензоров. Хорошо еще, что сигмоиды оттуда выкинули, вместо них relu. Так бы вообще вся эта шляпа сходилась до японской пасхи.
>>863012
#176 #862975
>>860518

> Прикрутил к ним даты праздников РФ


Расскажи как эту хуйню делал? Не руками же 0 и 1 вбивал?
>>863109
#177 #862977
>>861316
google.com
условные вероятности
#178 #863012
>>862957
Такс-такс, очень спасибо. Ну и последний вопрос. Какие преобразователи используются кроме тензоров?
>>863287
#179 #863039
Стоит задача написать сеть, которая смогла бы распознавать естественный письменный русский язык, а также обучаться на конкретных примерах: предложение -> выделенные сущности из предложения. Аноны, в какую сторону копать, что читать?
>>863042
#180 #863042
>>863039
Как распознавать отдельные рукописные символы можно посмотреть на примере датасета MNIST. Там цифры, но общий принций сохраняется. Легко гуглятся разные способы работы с этим датасетом. А вот как разбить слова на отдельные буквы - хз. Думаю, задача решаема с приемлемой погрешностью, но примеры как это делать в голову не приходят.
>>863050
#181 #863050
>>863042
Я, наверное, не точно выразился. У меня на входе именно текст (строки), а не картинки с текстом. Надо обучить сеть таким образом, чтобы она смогла вычленять от туда определённые сущности.
Например, есть статья с погодой на завтра. Надо вычленять город и кол-во градусов.
>>863057>>863080
#182 #863057
>>863050
Сформулируй задачу на нормальном русском языке без нейронных сетей и сущностей. И разъясни что-за сущности требуется вычленять.
#183 #863080
>>863050
тебе в named entity recognition
начать можешь с классификации скользящих окон w2v исходного текста, если ограничено число классов, которые ты жочешь извлекать
#184 #863109
>>862975
Какие-то ебанутые вопросы в треде про машинное обучение.
Распарсил это http://www.calend.ru/holidays/russtate/ питоном в csv таблицу и прикрутил к основной таблице.
#185 #863139
>>859964
>>859964
магистратура же, не требуеся решать какие то супер задачи ну, нет сразу ныть начинают, наука в рашке етсь тока она финансируется хуево и не для магистрантов

мимо-нечеткий-магистрант
>>863189>>863284
#186 #863189
>>863139

> тока она финансируется хуево и не для магистрантов


С пиздатым научником и магистранту кусок пирога достанется.
#187 #863284
>>863139
деньги пилятся, отчеты пишутся. Вот и вся наука в рф.
#188 #863287
>>863012
Тензоры в нейроночках - это не то что нормальные тензоры в физике. Тута речь просто о матрицах размерностью больше 2. Если по нарастающей, то сначала идет скаляр (одно значение, вещественное число), затем вектор - строка или столбец вещественных чисел, затем матрица - таблица, строки или столбцы которой есть векторы, ну и потом тензоры. Самый простой вариант тензора - 3х мерная матрица, т.е. н-р есть картинка, каждый слой (R,G,B) которой представим матрицей. А все это вместе - тензор.
>>863383
#189 #863290
SUP /pr/, я тут решил вкатится в машинное обучение, сейчас читаю Бишоба и прохожу курсы на COURSERA от ВШЭ и Яндекс. Очень сложно поддаются всякие формулы и интегралы, что почитать чтоб с первого взгляда знать о чем формула и как его вывести? просто упороться в вышмат?
>>863303
#190 #863303
>>863290

> что почитать чтоб с первого взгляда знать о чем формула


> просто упороться в вышмат?


this
Но, мне кажется, что раздупление бишопа не потребует особого упарывания, с первого взгляда обычно хуй проссышь, что там тебе говорят, всё приходит с опытом.
#191 #863321
Есть 80000 точек, размерность точки 1500. Каким образом это все кластеризовать примерно на 10 классов без байды типа out of memory?
151 Кб, 700x525
#192 #863324
>>863321
500мб же всего? чеши память почаще?
#193 #863382
>>863321
Векторное квантование же любое. Те же карты Кохонена. Помоднее и для пистона - https://github.com/peterwittek/somoclu
#194 #863383
>>863287
И что получается в итоге, результат схождения за приемлемое время можно получить только через квантовые алгоритмы? Это первое что пришло на ум, да.
>>863384
#195 #863384
>>863383
Почему? Полно нормальных алгоритмов, это только школьникам известны сверточные сети, SVM да градиентный бустинг. Ими все машинное обучение не ограничивается. Вопрос больше в том, как конкретному алгоритму подсунуть конкретную задачу.
>>863390
#196 #863390
>>863384
Мне всё кажется что только концептуальный квантовый компьютер схождение матриц на раз-два будет щелкать.
Где можно почитать про абсолютно все используемые математические алгоритмы нейросетей? Хочу построить на этой основе аппаратную реализацию. Но что-то мне кажется что такие попытки уже были и не увенчались успехом.
>>863412
#197 #863411
>>863321
Что за область? Откуда задача?
340 Кб, 1162x631
108 Кб, 664x710
#198 #863412
>>863390

>Где можно почитать про абсолютно все используемые математические алгоритмы нейросетей?


Чтобы все и в одном месте, думаю нигде. Но описание бОльшей части того, что обычно называют нейроночками, из серии "это классика, блядь, это знать нада!":
http://gen.lib.rus.ec/book/index.php?md5=AE6CE64B978DCC3E4C0623C70D6D5973
http://gen.lib.rus.ec/book/index.php?md5=4F0A14A680F5B4845422E6C32D57BCDC
http://gen.lib.rus.ec/book/index.php?md5=E94FDEA71D591A5E1B0AE39E47795C03
Очень годный взгляд на нейроночки - Коско:
http://gen.lib.rus.ec/book/index.php?md5=CCC0771774E761EB91EE2019A244305B

>Хочу построить на этой основе аппаратную реализацию. Но что-то мне кажется что такие попытки уже были и не увенчались успехом.


Аппаратные реализации были, да. Даже на оптоэлектронике, с лазерами и голографией. И даже на основе осциллирующих реакций типа реакции Белоусова-Жаботинского, только с системами протеинов, что уже вообще киберпанк какой-то. Причем, еще в 80е-90е годы.
>>863430
#199 #863430
>>863412
Ох, большое спасибо, буду изучать, через недельку-две задам еще вопросов.

>Аппаратные реализации были, да.


И если общими словами, почему это всё не увенчалось значительным успехом?
>>863451>>863464
#200 #863451
>>863430

>почему это всё не увенчалось значительным успехом?


Как такового неуспеха или успеха не было, мне не известны практические применения того, что я упомянул. В литературе по нейроночкам 90-х не так редко встречаются разработки аппаратных реализаций, но дальше статей и глав в книгах дело почему-то не пошло.
>>863488
#201 #863464
>>863430
Попытаюсь рассказать с колокольни оптики.
Потому что в самом простом приближении голограммы считают просто взаимную корреляцию изображений, инвариантности к повороту и масштабу нет.
Как обучать голограмму - хуй его знает сейчас активно не слежу, мб сейчас уже что-то придумали. Если я всё правильно помню, то на них просто записывают изображения и смотрят на корреляционные отклики. Количество изображений, которые можно записать, зависит от селективности голограммы.
Голографические установки нужно юстировать, по своему опыту могу сказать, что юстировка интерферометра - полный пиздец, требущий прямых рук, иначе хуёвые результаты.
Мб ещё дополню, но это первое, что пришло на ум.
>>863488
#202 #863488
>>863451
Последние года на глаза очень часто читал различные доклады по реализациям нейростетей на FPGA и именно из-за этого заинтересовался аппаратной реализацией. Есть какая-нибудь информация по этому?
Мысль, которую хочу хотя бы на бумаге проверить - разделение функций (умножителей и сигмовидных функций без использования таблиц) сложных нейронов на отдельные аппаратные уровни. Имеет ли это право на существование?

>>863464
Мне кажется это тупиковая ветвь которая порождает огромное число зависимостей технического уровня.
>>863506>>863560
#203 #863506
>>863488
Довольно перспективно в плане быстродействия, но пока не реализуемо на адекватном уровне.
#204 #863560
>>863488

>ПЛИСЫ и КМОП


https://scholar.google.ru/scholar?hl=ru&q=fpga+neural+network&btnG=&oq=FPGA+neu

>мемристоры


https://scholar.google.ru/scholar?q=memristor+neural+network&btnG=&hl=ru&as_sdt=0,5
Ну и GPU, но это мейнстрим. ну и гугли книги и статьи, по теме нейрокомпьютеры.
#205 #863594
>>859823
scikit-image в сто раз лучше. Но не быстрее.
#206 #863596
>>860518
Можно логистическую регрессию попробовать, она оценку вероятности класса даёт. Для SVM оценки вероятностей класса на костылях прикручены. Для деревьев и ансамблей над ними вообще не знаю как, может местные пояснят.
sage #207 #863603
>>862265
В базовом варианте для каждого ID высчитывается количество транзакций по каждому mcc_code. Просто делается через unstack, а не через get_dummies
sage #208 #863605
>>860518
еще инфа:
1) Блог Александра Дьяконова:
https://alexanderdyakonov.wordpress.com/2016/10/14/da..

2) Обсуждение в ODS слаке:
https://opendatascience.slack.com/messages/sberbank_c..
Регистрация в ods слак: https://docs.google.com/forms/d/e/1FAIpQLSdjQB90EdZGV..

3) Тренировки ML:
https://www.youtube.com/watch?v=2HK2XImh9hM
>>863606>>864537
#209 #863606
>>863605
сажа случайно приклеилась
#210 #863613
Очень заинтересовали BD и ML, но, как обычно для меня, ссыкотно из-за возраста. Не поздно ли вкатываться в 20 лет? В проганье умею(в логику происходящего, нужные языки и прочие фреймворки не знаю), в математику (матан, тервер, линал, компл. ан., вот это всё) умею. Но возраст...боже, как же он жмёт.
#211 #863624
>>863613
после 20 лет обычно и вкатываются в эту тему.
>>863820>>863838
#212 #863815
>>863613
Иди ты нахуй, возраст ему мешает. База у тебя есть, пиздуй штудировать литературу с упражнениями. Возраст ему жмёт, охуеть.
>>863820
#213 #863820
>>863624
>>863815
Без вышки по cs (учусь на инженегра) возможен вкат в нормальные конторы?
Алсо, ШАД кажется убергоднотой. Что скажете?
>>863822
#214 #863822
>>863820
Куда угодно возможен вкат с наличием адекватной базы и желанием учиться. Знакомый тимлид порой на позиции разработчиков собеседует специалистов по сверхнизким температурам.
По поводу ЩАД высказываемся в каждом треде. Приятная штука, но не стоит опускать руки, если не прошёл. Можно просто послать их нахуй.
>>863838
#215 #863838
>>863822
>>863624
Спасибо, анончики. Извиняюсь, если выбесил своим тупым вопросом, но таковы мои тараканы и ничего не могу с этим поделать.
Тогда начинаю ботать шапку + дважды попытаюсь попасть в ШАД. Если всё пройдёт так, как хочу, то попытаюсь пойти в аспу на математику у нас или зарубежом. Вероятно, что всё сотни раз поменяется, но изначально план таков.
>>863848
#216 #863848
>>863838
Попытайся свалить с трактором. Зарубежом пизже, базарю, как съебавший магистрант, успевший побыть мла.научным сотрудником в рашке.
>>863851
#217 #863851
>>863848
Знаю, что лучше, но трактор кажется мне очень далёкой возможностью, которая пока мельтешит где-то на горизонте.
#218 #863934
>>863613
Вкатываться, конечно, можно, но результаты будут соответствующие, если ты не какой-то гений (тогда бы ты здесь не спрашивал). Тут как и в профессиональном спорте: теоретически ты можешь начать заниматься каким-нибудь плаванием в 20 лет, но надо понимать что на олимпиаду ты вряд ли попадешь, а реалистично смотря на вещи тебе очень повезет, если ты вообще сможешь получить хоть какой-нибудь разряд. Ну "для себя" можешь научиться норм плавать.
>>863940>>864085
#219 #863940
>>863934
Чего ты гонишь? Среднеслесарем вполне можно стать и после двадцати, имея среднюю техническую базу.
>>863942>>863944
#220 #863942
>>863940
Кого вы понимаете под "слесарем"? мимоанон
#221 #863944
>>863940
Может, на уровне HTML-программиста, хорошо если освоившего StackOverflow-driven development. Чтобы понимать суть происходящего в этой области и хотя бы успевать следить за прогрессом, нужно (было) этим жить последние пять лет.
22 Кб, 480x257
#222 #863993
Нейронач, думаю попытаться вкатиться хотя бы чуть-чуть в нейроносети.
Идея следующая.
Я хочу сделать онлайн игру, где игроки дерутся с боссом.
После битвы с боссом, нужно будет регистрировать полностью историю боя с боссом.
И в зависимости от этого в будущем перестраивать алгоритм поведения босса, чтобы его победить стало еще сложнее.
Знаю только шарпы. На других ЯП не писал, с тех пор как окончил шарагу местный универ.
Соответственно, юниксы, линукс и прочие ОС не трогал. Не думаю, что это так важно.
Хотелось бы также на шарпе писать. Скорость выполнения не так важна, пусть хоть сутки анализирует, похуй.

Так вот, как считаете, реально ли такое сделать. И если да, т о с чего начать. Если нет, то почему.
>>864012>>864019
#223 #864012
>>863993
Reinforcement Learning.
Начать с того же, с чего начинают и другие - шапка треда. А можешь попытаться взять с наскоку какой-нибудь курс по RL вбей в тытрубе RL David Silver

Почему к тебе отнесутся скептически.
1. Будь у тебя хотя бы какой-нибудь навык в ML, ты бы не задал этот вопрос.
2. Сделать это, не имея бэкграунда, сложно. Читай, как пойти в вузик на программиста, чтобы клепать игры. Большинство таких воннаби-клепальщиков потом идут в 1С и прочие области, не связанные с гейдевом.
3. Сделать это, не имея адекватного финансирования сложно/дорого/займёт дохуя времени. Почему?
a. Рейды сложные, множество игроков используют разные абилки. Рейды могут варьироватья по составу. Придётся учить босса учить, кто такие хилы/мдд/рдд/танки.
b. С точки зрения MDP наблюдения имеют нехуёвую такую размерность - кто чего кастует, сколько дамага нанёс, расположение и прочее. На обучение будет уходить реально большое количество вычислительных ресурсов, а обучать ты хочешь не одного босса в одной инсте, наверное.
c. В большинстве, знакомых мне ММО, обучение босса дало бы непроходимых боссов. Просто дай боссу возможность игнорировать аггро, и он расхуярит хилла и весь рейд за ним. То есть нужно думать, как вписать это всё в концепцию аггро.

Резюмируя, идея охуительно интересная, но дорогая и требует хорошей тимы, которая знает своё дело.
>>864023>>864152
#224 #864019
>>863993
Алсо, тебе все компании отсосут, если ты запилишь это на каком-нибудь интересном уровне в одиночку.
#225 #864023
>>864012

>вписать это всё в концепцию аггро.


>концепцию аггро.


Параша для школодебилов не нужна.
>>864026
#226 #864026
>>864023
Кудахтающие дебилы без пояснений своего кудахтания не нужны.
>>864028
#227 #864028
>>864026

>Кудах


>кудах


А вот и оскорбленный за любимую днотку школодебил, хаха.
>>864045
#228 #864045
>>864028
Давай, расскажи мне, какие ммо были лучше WoW десять лет назад?
>>864047
#229 #864047
>>864045

>лучше WoW


Любые.
#230 #864069
Учил некоторое время работу нейросети, какие бывают нейроны, как они записываются, что делают, сколько их куда надо вставлять, как находить ошибку, как брать градиент. В общем до метода обратного поиска ошибки доучился.
Захожу на каггле ком. Там прохожу вступительную обучалку, сортирую данные, заполняю отсутствующие, в общем очень интересно. Потом перелистываю страницу, где уже должно быть само по себе машинное обучение и вижу:
import randomforest
randomforest.fit
randomforest.predict
Всё, ответ готов. Так и должно быть? Я не очень понимаю, что тогда делают кодеры
>>864073
#231 #864073
>>864069
Собирают данные [опционально], чистят данные, визуализируют данные, подбирают алгоритмы анализа, советуются с людьми по поводу фичей, пробуют, тестируют, дрочат на митингах, общаются с коллегами, хуйнянейм с особенностью конторы. Уйму разных вещей делают.
>>864075
#232 #864075
>>864073
Мне как-то не верится, что сами нейронные сети они не делают.
Почистить и визуализировать данные сможет человек который неделю назад научился писать на PHP
>>864077
#233 #864077
>>864075

> что сами нейронные сети они не делают


> подбирают алгоритмы анализа



> Почистить и визуализировать данные сможет человек который неделю назад научился писать на PHP


Хуй там, не всегда, всё зависит от данных.
>>864083
#234 #864083
>>864077
А что собственно такое этот подбор алгоритма анализа? Я понимаю в обычной сети это выбрать, сколько будет слоёв, сколько будет нейронов в каждом слое, какие функции будут у нейронов. А если этим не заниматься, то остаётся выбрать между рандомфорестом и ещё несколькими алгоритмами что-ли?
>>864087
#235 #864085
>>863934
Толстовато. Зачем тогда яндексу делать свою школу? Она для гениев, 14летних школьников или средних спецов.
>>864421
#236 #864087
#237 #864152
>>864012
спасибо.
да я уже работаю в не связанной с геймдевом областиёбаные винформсы с впфом.
на счет аггро с тобой согласен полностью.
на счет того писать ли игру с нуля, на что уже уйде год минимум, или взять готовую - на сколько я знаю, любой васян может поставить у себя сервер всеми нами любимого вов. и я также видел, что люди создавали на своих серверах своих боссов, где "прописывали" ему поведение.

так что я пойду штудировать шапку сперва по твоему совету.
>>864182
#238 #864182
>>864152

> так что я пойду штудировать шапку сперва по твоему совету.


Штудирование шапки может занять год, лол. На курс Сильвера то хотя бы одним глазком глянь, промотай его, вдруг дохуя знакомых вещей увидишь.
Совет вреден тем, что в шапке рассматривают в основном задачи регрессии и классификации, по RL там не очень много.
Можешь глянуть в эту книгу:
http://people.inf.elte.hu/lorincz/Files/RL_2006/SuttonBook.pdf
Сам не читал, мб параша, хуй знает. Мб анончики что-нибудь по теме расскажут.
>>864185
243 Кб, 900x1200
#239 #864185
>>864182

>Introduction


>334 страницы


мимокрокодил
>>864188
340 Кб, 801x801
#240 #864188
>>864185
Хуле делать, так и живём.
#241 #864227
Аноны, посоветуйте алгоритм. Есть куча болезней с симптомами. Как автоматом составить дерево вопросов по симптомам, чтобы максимально быстро определить болезнь?
>>864233>>864250
#242 #864233
>>864227
Хуй знает по поводу дерева, но можешь погуглить QMR-DT.
#243 #864250
>>864227
from sklearn import DecisionTree
766 Кб, 540x484
#244 #864351
Пацантре. Есть годные и простые способы улучшить knn? Ключевое слово тут это простые. Без всяких локальных топологий.
Данные нормализовал, метрику выбрал. Даст че нибудь выкидывание выбросов в чужие кластера, если у меня K=10.
>>864354
#245 #864354
>>864351
У тебя high bias или high variance?
>>864366
#246 #864366
>>864354
Это надо посчитать, а у меня слишком большая выборка и слишком слабый пе-ка.
А чем кстати плох high bias? Вроде заебись же. Ошибка на тесте, близка на обучении.

Но вообще, процентов 90, что у меня именно high bias. Но если не трудно, накидай советов по тому и тому:3

Только простеньких, так как мне надо будет все писать руками
>>864370
88 Кб, 1787x328
14 Кб, 300x54
#247 #864370
>>864366

>А чем кстати плох high bias?


Тем, что величина ошибки не соответствует твоим требованиям. То есть алгоритм в целом отработал хорошо, но недостаточно для тебя, поэтому следует менять сам алгоритм - или набор фич (другую метрику), или же сменить простой knn на что-то другое.
Параметрически у knn все просто, меняешь k, меняешь баланс в bias/vaiance tradeoff. Если у тебя k строго 10, тебе это не подходит.

>Но если не трудно, накидай советов по тому и тому:3


Советов в интернете тонны и это самая азбука ML, это знать надо.

High bias: как я писал, это алгоритм хуево работает, и менять надо алгоритм, как полностью, так и увеличивать число фич. Underfitting.
High variance: алгоритм переобучается, и нужно или больше данных, или добавить регуляризацию, или уменьшитьчисло фич. Overfitting.
>>864408>>870653
#248 #864391
Хочу попробовать сделать копию приложения Prism, в какую сторону смотреть? Да, я знаю что призма не использует нейросети, но все таки, где вообще можно почитать про практическое применение нейронок? В тех же мобильных приложениях. Из навыков, умею в разработку для iOS, хочу сделать вундервафлю с нейросетями.
>>864397
#250 #864408
>>864370
Спасибо! Очень понятно объяснил.
Число соседей менять можно, оптимальное у меня получилось 10. Но, скажем так если я выбираю 3 соседей я угадываю в 88 процентах случаев, а с 10 в 90 процентов случаев.
Метрики многие пробовал. Хорошо себя показал Жокар. Может есть в нетике йоба список метрик, а то я не нашел.
#251 #864421
>>864085
Она для тех, кто уже довольно глубоко в теме, на что недвусмысленно намекает нехилый вступительный экзамен. Рандомный хрен, вчера "решивший вкатиться", не сможет туда поступить.
>>864424>>864432
#252 #864424
>>864421
Ну это не объясняет, почему вкатываться в 20 поздно. Можно за год-два полностью подготовиться к их экзу.
#253 #864430
>>856234 (OP)
Ребят если я начну вкат с machine learning a probabilistic perspective, буду ли я писать, что-то годное к след году?
>>865085
#254 #864432
>>864421

>Она для тех, кто уже довольно глубоко в теме, на что недвусмысленно намекает нехилый вступительный экзамен.


Нет там ничего ML-специфичного, знание матана и теорвера на уровне заборостроительного вуза. Теорвер проходится на третьем курсе, как раз 20 лет.

Рандомный хрен туда не сможет поступить, потому что планка намеренно задрана, а не потому что там такая охуенно сложная программа. Это традиционная наебка "элитных учебных заведений", в которой учат так же хуево, как и везде, но за счет отбора поступающих якобы формируются неебовые успехи, которые объясняются именно качеством преподавания.
Иными словами, у тех, кто способен поступить, и так в жизни проблем с трудоустройством не будет.
>>864495>>864799
#255 #864436
Да вы совсем поехали. Какая разница, в каком возрасте начинать? До 20 лет - это какой-то местный мемас?
>>864438>>864474
#256 #864438
>>864436
Думаю 18-ти летние школьники траллят.
#257 #864443
Если ты к 20 все еще не определившийся олух, пытающийся куда-то "вкатиться" не имея о теме представления, то результат этих попыток очевиден заранее. Так и вижу как этот вася, знающий "матан" на уровне "ну там чет про производные)", без образования и интересов, даже не умеющий элементарно кодить, усаживается штудировать Бишопа и МакКея. Да он не то что введение, он аннотацию не осилит. Скажет "да ну нах эту дрочь для батанов)) 300 страниц формул, вы там офигели совсем)))" И будет прав
>>864451>>864455
#258 #864451
>>864443
Не думаю, что такие люди полезут в эту тему.
#259 #864455
>>864443

>Если ты к 20 все еще не определившийся олух, пытающийся куда-то "вкатиться" не имея о теме представления, то результат этих попыток очевиден заранее.


Вижу тупорылого юнца с таким же максимализмом.
>>870654
29 Кб, 283x413
#260 #864468
правильный вопрос не "вкачусь ли до 20" а "доживу ли до 25"
>>864470
#261 #864470
>>864468
То чувство, когда тебе 18, вкатываешься, а у тебя рак сердца.
#262 #864474
>>864436
Ну вкатился ты такой в 25, а у тебя начальнику 21. И ты для него говно, никто, червь.
#263 #864476
>>864474
Так тебе ML чтобы на дядю работать? Ну тогда страдай, да.
>>864477
#264 #864477
>>864476
А тебе зачем? Оптимизировать рецепт мамкиного борща?
>>864481
46 Кб, 581x268
#265 #864479
Кароче. Поступить тяжело, учиться тяжело.
Начинают с основ, но резко углубляются.
Если ты раньше с этим не сталкивался, совмещать с работой практически невозможно.
Так что если планируете, запаситесь свободным временем. В этом плане 20 летним корзинам легко.
Ну и пруфы на пике
#266 #864481
>>864477
Я бы мог сказать, что эта область имеет гораздо больше применений, чем очевидную возможность продать свою жопу дяде занидорага, да чувствую, что бесполезно. Впрочем, в тех рамках, что ML обсуждают ИТТ, наверное другие применения и невозможны.
>>864486>>864490
#267 #864483
>>864474
Тупорылый проецирует. Нахуя идти работать к ебаным аутистам, для которых коллеги - никто? Такие фирмы - говно с хуевой атмосферой и долго не живут.
>>864489
#268 #864486
>>864481
Очередной НеНадоРаботатьНаДядю. На тренинг не опаздываешь?
>>864488
#269 #864488
>>864486
Дурик, чтобы работать на дядю, ML не нужно. Освой лучше станки с ЧПУ в любой шараге, бесплатно. К 20 годам зарплата будет намного больше, чем если освоишь машинное обучение.
>>864491>>864492
#270 #864489
>>864483
А ты контингент в /pr/ видел? Презрение на презрении, ненависть на ненависти. Вот она, наша сфера, вот она!
>>864504
#271 #864490
>>864481
"Вкат" это значит попасть на работу в данной сфере, желательно с неплохим окладом. Я для себя и приложеньице могу на андроид наклепать, и сайтик, но сказать что я вкатился в Андроид-дев или Веб-дев я не могу.
#272 #864491
>>864488
Окстись, маня, у ЧПУшника потолок тыщ 60, умные прогеры с этого начинают.
>>864494
#273 #864492
>>864488
Хм, а если мне нравится ml? Если я хочу заниматься научной деятельностью в составе какой либо команды? А не только мутить лавеху? К такому повороту твои подростковые мозги небыли готовы?
#274 #864494
>>864491
Это со столетним опытом разве что. Стекломойные иваны и за двадцатку рады "работать", см. воркач.
#275 #864495
>>864432
Ты пишешь это разными словами каждый тред. Предлагаю уже добавить это в шапку.
>>864515
#276 #864496
>>864492
Наука без денег не делается, браток. Пройдет хайп по МЛ, перестанут гранты давать - и не будет тебе никакой МЛ-науки.
>>864509
#277 #864499
>>864492
За научной деятельнстью сразу ПхД, вокзал, Европа (или штаты). Самому с книжкой аутировать бесполезно, и никакие ШАДы тоже не помогут.
>>864509
#278 #864503
>>864492
Приходишь ты такой к профессору, глаза горят, идей вагон, а на выходе - "где статья, сука, норматив по статьям надо, статьи статьи статьи список литературы в 150 позиций давай отфлюродросим всем импакт фактор гранты-хуянты"
>>864507>>864509
#279 #864504
>>864489
Большая часть доски ищет работу в МЫ-ВАМ-ПЕРЕЗВОНИМ-ТРЕДЕ.
#280 #864507
>>864503
В МЛ сейчас модно, молодежно публиковаться в arXiv потому что вчерашние кодерки ниасиливают написать нормальную статью в журнал
>>864511
#281 #864509
>>864496
Так и есть. Да такой сценарий возможен. Но если мы прям минимизируем риски, то тогда только в аграрный поступать или на врача, жрать и болеть люди не перестанут никогда.
>>864499
Ну надо же с чего начинать. Шад петухи кстати регулярно публикуются.
>>864503
Ну минусы есть везде. Тут ты прав. Другое дело, что лично для меня, плюсов всеравно больше.
#282 #864511
>>864507

>публиковаться в arXiv


Иииииу... Нерецензируемые статьи... Даже хабра лучше.
>>864512>>864515
#283 #864512
>>864511
Не, хабра не лучше, в архиве нужна рекомендация же. Но все равно говна через край.
>>864516
#284 #864515
>>864495
Я это пишу разным людям, которые уверены, что ШАД это какая-то йоба, которая сделает из них людей, стоит туда только попасть.
В шапку, хуй знает, там сидит statistical learning дрочерство, которое я презираю.
>>864511
Вообще-то система arxiv+github+конференции - это самое охуенное, что случалось в ML за последние тысячу лет. Пока статистикопетушки ждут рецензии и публикации статьи (не публикую код, а то хули, спиздят же), deep learning бояре сегодня публикуют на архиве, завтра по всему миру их код на гитхабе ковырают сотни людей. Отсюда такая лавина исследований. Но хули, не модно же, давайте нам рецензируемые журналы, ведь без рецензента нельзя понять, какой процент ошибок на training и validation сетах у алгоритма.
>>864545>>864719
#285 #864516
>>864512
А на хабре инвайт надо, или чтоб мод в песочнице увидел и вознёс. Плюс на хабре рейтинг будет видно, социум порешает, дичь опубликовали или нет.

Сразу контраргумент против "Хабра
это стадо быдла, а наука нет": В науке если ты делаешь что-то не в тренде, ты никто, над тобой все будут ржать (пока не окажется что ты там что-то сносное открыл в итоге), там такое же стадо.
>>864523
#286 #864523
>>864516

>Плюс на хабре рейтинг будет видно, социум порешает, дичь опубликовали или нет.


Какой нахуй социум, там активно голосующих человек 100, и все поголовно пидарасы и долбоебы. Лучше просто на гитхабе выложить код, в readme.md закинуть идею, и на реддите в machinelearning забросить ссылку. Без инвайтов, да.
#287 #864537
>>863605

>Регистрация в ods слак:


Ссылка битая.
#288 #864545
>>864515
meh...
Согласен, код надо публиковать. Когда писали статью с науч.руком, я хотел выложить код в открытый доступ, но он запретил.
Вообще, работая со статистикой не леарнинг, я заметил, что обычно удаётся воспроизвести результаты только каждой пятой статьи. И мы не одни такие, проблема распространённая.
>>864550
#289 #864550
>>864545
Это не проблема, для тех, "где статья, сука, норматив по статьям надо, статьи статьи статьи список литературы в 150 позиций давай отфлюродросим всем импакт фактор гранты-хуянты". Это суть работы, пилить без последствий.
Но благо, сейчас за дело взялись корпорации, которым вместо абстрактной науки нужны реальные результаты, с бабками.
#290 #864665
>>864474
лол ты где начальников 21 лвла видел маня?
виталика-педалика не упоминай даже, он папин аутист-программист один на миллиард
>>864681
#291 #864681
>>864665
В модном стартапе, приехал такой в 21 с бородищей на гироборде и поясняет за МашОб.
>>864684
#292 #864684
>>864681
Использует базворды, не способен пояснить за затухающие градиенты в RNN, от просьбы попробовать применить chain rule к производным начинает потеть и заикаться.
#293 #864719
>>864515
Просто ты, как и многие другие ничего не смыслящие в науке кадры, не понимаешь что такое пир ревью. Почему в прикладной математике непросто написать хорошую статью? Потому что надо показать значимость и новизну своей работы. Вся МЛная "лавина исследований" на самом деле гроша ломаного не стоит, потому что "я взял модель из [1], добавил еще 10 слоев и уменьшил ошибку на CIFAR на 0.00000001% по ставнению с SOTA" это не наука, а просто дрочильня ниочем.
>>865125>>865631
#294 #864799
>>864432
опишу свой ШАД-икспиренс из далёкого года
знать надо нихуя примерно, СЛУ руками по гауссу 3его порядка и цепочечное правило (о существовании которого я тогда не подозревал) - максимум матана. половина задач чисто школьные.
на устном собеседовании было немного посерьёзнее правда.
а вот учили вполне жёстко. в универе (не самая шарага) я не испытывал никаких проблем с матаном, но на тамошних лекциях по теорверу Ширяева просто охуевал. сидящие рядом девочки с мехмата правда вроде не особо напрягались, хз.
лекции по мл червоненкинса были норм по сложности, но в домашке были жёсткие подьёбы навроде неразделимых классов в задаче где предполагалась голая свм.
на теории игр от буниной все расслаблялись - уровень был просто школьный.

> в жизни проблем с трудоустройством не будет.


сижу без работы 3 года, не берут даже веб-макакой. все хр-бляди должны здохнуть.
29 Кб, 741x568
#295 #864854
Никто не хочет конфочку в телеграмме создать? Задачки порешаем.
Очевидно что самое дно набирать не нужно. Готов пройти собеседование, ну или провести.
коммитер в scikit-learn
>>864859>>864907
#296 #864859
>>864854
Идею поддержу, но не более. Задач выше крышы, я скоро свихнусь от этого дерьма.
#297 #864907
>>856234 (OP)
поясните нюфагу за вторую картинку
чоза икс-омега, нифига не понял
>>864854

>телеграмме


нынче матрикс же доделали: riot.im
#298 #865085
>>864430
да, конечно
#299 #865125
>>864719
Ты же знаешь, что такое arxiv.org? Это препринт сервер, туда кидают статьи, чтоб их сразу читали, пока ревьювятся в журнал. Если какой-то васян закинул туда свою статью, его все равно дальше абстракта никто читать будет. Читают людей с именами, имена получаются через конференции. Все стоящие ученые кидают свои статьи на архив. Архив.орг как бе не отменяет традиционные журналы.
>>865181
#300 #865181
>>865125
Я имел в виду тех, кто только в архив кидает. Хотя и на конференциях средний уровень не оче, а журналов мало.
В чем по сути заключается "лавина исследований"? Несколько тысяч человек за три года затерли то дыр 3.5 датасета с картинками, вот и вся эта лавина. По-настоящему инновационных статей совсем мало, в основном от дипмайнда, да и то по большей части чисто инженерная работа по доведению до ума предыдущих идей, например альфаго. Причем дипмайнд все свои норм работы в нейчер шлет, а не на архив.
>>865631
#301 #865199
Пишу алгоритм для игры. В ней нужно набрать максимум очков. Их количество не может уменьшаться. Есть фактор случайности. игра похожа на монополию и количество возможных исходов одного хода меньше чем у шахмат При этом игра может закончиться совсем неожиданно если неколько ходов подряд кубик будет плохо падать. Значит обычный minmax не подойдёт т.к. при большой глубине поиска лучший из худших всегда будет проигрыш. И что делать с линией горизонта? Ведь здесь нельзя форсировать поиск при шахе как в махматах. Реквестирую литературу про программирование ии для игр с влиянием рандома.
>>865203
#302 #865203
>>865199
См. работы по нардам. Гугли TD-Gammon.
>>865208
#303 #865208
>>865203
Блять. Ещё и правила нард учить. Ок. Спасибо. Сегодня поищу.
1995 Кб, 418x419
#304 #865242
https://medium.com/@daniel.mallcott/how-not-to-approach-machine-learning-641d38cf7f30#.u0x8oske3

> Видя, что машинное обучение это все в моде сейчас я решил несколько месяцев назад, чтобы перейти в шумиха поезд и посмотреть, где что взял меня. Но вскоре я обнаружил, что это не было похоже на изучение нового рамки JS или следующий магическое решение CI, но больше как целый новый мир головных болей и возможностей, которые сделали бы меня заново оценить, как я подходить к решению проблем все вместе.



> Как разработчик, обнаруживая, сколько абстрактное мышление и статистика происходит в ML был как можно ближе к пощечине, как он получает, но, как кто-то, кто не знает, когда остановиться, я продолжал достижения этой цели шахты.



> Машинное обучение походит на лицейного секса. Все говорят, что они делают это, на самом деле никто не делает, и никто не знает, что это на самом деле



люблю когда высокомерный буржуа немного обкакунькался
#305 #865317
Репостну вам. Такая тема, нужно автоматически распознавать автоматически сгенерированные тексты а-ля копатель, хотя еще не ясно. Собственно, больше мне нихуя не известно.
Ну, сначала хочу изучить проблему, попутно читая гугл уже, не особо успехи, но может вы сразу определите мои подводные камни? Как и что делать, с чего начать?
>>865432
#306 #865357
Господа, а есть какой-то источник инфы о новых методах в ML, но чтоб с инженерной точки зрения? Статьи читать надоедает, тонна ненужной воды налито + результаты хрен воспроизведёшь, потому-что пример реализации не приведён. Почитал статью и как потратил время зря, потому-что в итоге вроде всё понял, но как автор писал реализацию / какие гиперпараметры - не ясно.
>>865731
#307 #865432
>>865317
было на реддите неделю назад
https://www.reddit.com/r/LanguageTechnology/comments/570da2/any_ideas_on_how_to_go_about_programmatically/

Если нейроночки, то ворд2век плюс лстм, а так, как на реддите написали, всяких n-gram и марковых цепей хватит
>>865596
#308 #865596
>>865432
Ок, благодарю. А вообще, на сколько это трудоемкая задача? А то это курсовая как бы.
>>865685
#309 #865631
>>864719

>Почему в прикладной математике непросто написать хорошую статью? Потому что надо показать значимость и новизну своей работы.


Ну кому ты пиздишь. 99% шлака без новизны везде, и в журналах, и в препринтах. Разница в том, что виде препринта шлак отсеивает компьютнити за день, а в журналах этот шлак публикуется и навешивает лычки на автора, от которого зависят его бабки. Поэтому именно для журналов пишут одну и ту же идею по 10 раз, и прочитал одну статью автора - прочитал все (как минимум, на ближайшие несколько лет). И весь этот кайф еще и денег стоит.

>Вся МЛная "лавина исследований" на самом деле гроша ломаного не стоит


Да, да, именно поэтому statistical learning побеждает слесарей на kaggle, а на его базе делают стартапы, а задача классификации приблизилась к мозгу. Потому что так анон сказал.
На самом деле нет.
Нейроночки сейчас превращаются в науку типа химии, когда изначальная физическая база поменяется своими законами, которые более удобно использовать конкретным образом. То, что это аутистам-математикам не нравятся, так пусть идут они нахуй дрочить свою теорию струн.

>это не наука, а просто дрочильня ниочем.


Угу. Вот тебе пример дрочильни:

>Не имея лаборатории и работая в помещении институтской кладовки, а позже в сарае на улице Ломон в Париже, с 1898 по 1902 годы супруги Кюри переработали восемь тонн уранинита.



Вот тупые-то.

Это и есть наука. Исследовал, проверил, поделился (с обязательным воспроизведением). Шлак получился - ну это тоже результат, на то она и наука, что иногда нужно и 8 тонн говна переработать. Но шлак тоже стоит опубликовать, чтобы другие не тратили время на то же самое.

А статьи в журналах, в которых специально создают недомолвки, чтобы потом подороже продать свои идеи, и конечно же без кода, вот это не наука, а меркантильное дерьмо, которое мы и наблюдаем по $30 за статью, а также глядя на успехи "математиков" в задачах.

>>865181

>В чем по сути заключается "лавина исследований"? Несколько тысяч человек за три года затерли то дыр 3.5 датасета с картинками, вот и вся эта лавина.


Бредятина. Ты описываешь только одну конкретную задачи классификации, которая действительно уперлась в поток за последние годы, но только потому, что за 2010-2015 она взлетела в небеса. Для residual сетей по сути imagenet'а недостаточно. При этом датасеты просто служат для повторяемости измерений, а у тебя звучит так, что дело в том, что исследования специально подкручивают под датасет.

Но задач-то дохуя, от близких к классификации image2vec, до генерации изображений, super resolution, удалением шума, и кучи другой хуйни. И это только изображения, есть еще анализ текстов, звуков, и такая же их генерация. И везде охуенные результаты.
Из последнего, быдло увидело рисование хуев на картинках, но на деле это основано на открытии охуенного метода генерации изборажений.

> По-настоящему инновационных статей совсем мало, в основном от дипмайнда


Да ты жертва пиара просто. От гугла собственно научной инновационности не так много, в основном я вижу оверинжиниринг уже существующих идей, которые ты как раз не любишь. Сравнить, например VGG-19 и Inception. Первая - красота вообще, а вторая - ну так, оптимизация вычислений. И что на слуху у быдла типа тебя? Швитой гугл конечно же.

Вот я открою ща arxiv-sanity и перечислю, что там было.
Бинаризация сетей (когда веса сводятся к -1 и 1 и это работает) да и вообще в целом способы сократить потребление ресурсов, residual сети (и их сведение к RNN сетям) - охуенно, batch normalization, style transfer в рилтайме, DCGAN. Почти все 2015-й год. В 16-м еще кучу всего охуенного завезли.
#309 #865631
>>864719

>Почему в прикладной математике непросто написать хорошую статью? Потому что надо показать значимость и новизну своей работы.


Ну кому ты пиздишь. 99% шлака без новизны везде, и в журналах, и в препринтах. Разница в том, что виде препринта шлак отсеивает компьютнити за день, а в журналах этот шлак публикуется и навешивает лычки на автора, от которого зависят его бабки. Поэтому именно для журналов пишут одну и ту же идею по 10 раз, и прочитал одну статью автора - прочитал все (как минимум, на ближайшие несколько лет). И весь этот кайф еще и денег стоит.

>Вся МЛная "лавина исследований" на самом деле гроша ломаного не стоит


Да, да, именно поэтому statistical learning побеждает слесарей на kaggle, а на его базе делают стартапы, а задача классификации приблизилась к мозгу. Потому что так анон сказал.
На самом деле нет.
Нейроночки сейчас превращаются в науку типа химии, когда изначальная физическая база поменяется своими законами, которые более удобно использовать конкретным образом. То, что это аутистам-математикам не нравятся, так пусть идут они нахуй дрочить свою теорию струн.

>это не наука, а просто дрочильня ниочем.


Угу. Вот тебе пример дрочильни:

>Не имея лаборатории и работая в помещении институтской кладовки, а позже в сарае на улице Ломон в Париже, с 1898 по 1902 годы супруги Кюри переработали восемь тонн уранинита.



Вот тупые-то.

Это и есть наука. Исследовал, проверил, поделился (с обязательным воспроизведением). Шлак получился - ну это тоже результат, на то она и наука, что иногда нужно и 8 тонн говна переработать. Но шлак тоже стоит опубликовать, чтобы другие не тратили время на то же самое.

А статьи в журналах, в которых специально создают недомолвки, чтобы потом подороже продать свои идеи, и конечно же без кода, вот это не наука, а меркантильное дерьмо, которое мы и наблюдаем по $30 за статью, а также глядя на успехи "математиков" в задачах.

>>865181

>В чем по сути заключается "лавина исследований"? Несколько тысяч человек за три года затерли то дыр 3.5 датасета с картинками, вот и вся эта лавина.


Бредятина. Ты описываешь только одну конкретную задачи классификации, которая действительно уперлась в поток за последние годы, но только потому, что за 2010-2015 она взлетела в небеса. Для residual сетей по сути imagenet'а недостаточно. При этом датасеты просто служат для повторяемости измерений, а у тебя звучит так, что дело в том, что исследования специально подкручивают под датасет.

Но задач-то дохуя, от близких к классификации image2vec, до генерации изображений, super resolution, удалением шума, и кучи другой хуйни. И это только изображения, есть еще анализ текстов, звуков, и такая же их генерация. И везде охуенные результаты.
Из последнего, быдло увидело рисование хуев на картинках, но на деле это основано на открытии охуенного метода генерации изборажений.

> По-настоящему инновационных статей совсем мало, в основном от дипмайнда


Да ты жертва пиара просто. От гугла собственно научной инновационности не так много, в основном я вижу оверинжиниринг уже существующих идей, которые ты как раз не любишь. Сравнить, например VGG-19 и Inception. Первая - красота вообще, а вторая - ну так, оптимизация вычислений. И что на слуху у быдла типа тебя? Швитой гугл конечно же.

Вот я открою ща arxiv-sanity и перечислю, что там было.
Бинаризация сетей (когда веса сводятся к -1 и 1 и это работает) да и вообще в целом способы сократить потребление ресурсов, residual сети (и их сведение к RNN сетям) - охуенно, batch normalization, style transfer в рилтайме, DCGAN. Почти все 2015-й год. В 16-м еще кучу всего охуенного завезли.
>>866026
#310 #865685
>>865596
тот метод с реддита по частям речи тоже звучит ок, его тоже можешь посмотреть.
Зависит от того, насколько у тебя хорошие данные, сколько их у тебя, насколько хорошо знаешь питон и тд и тп.

Сложность варьируется от import tensorflow за две минуты до месяцев красноглазия в попытках набрать 64 процента точности.

Но я у мамки слесарь, поэтому послушай пацанов поумнее, мб, кто-то что-то еще посоветует
>>865726
#311 #865726
>>865685
Пока ничего нет, питон видел пару раз. Изложу свои мысли преподу, а там посмотрим. Проблема в том, что она может загнать меня в самые ебеня, и потом придется все разгребать, либо наоборот ничего дельного не скажет, что более вероятно. Так что буду доебываться до людей на двачах и во всяких конфочках, вот.
#312 #865729
Антоши, поясните, что значит слесарь?
Мимопроходил и заинтересовался.
>>866158
#313 #865731
>>865357

>Почитал статью и как потратил время зря, потому-что в итоге вроде всё понял, но как автор писал реализацию / какие гиперпараметры - не ясно.


Не трать вермя на статьи без кода вообще, полно хороших статей с кодом. Если лень гуглить, вообще можешь читать только один gitxiv.
Но если ты будешь смотреть только код, ты поймешь еще меньше. Просто с опытом ты начнешь отделять воду, которая кочует из статьи в статью, от сути, которая часто сводится к нескольким абзацам концентрированного текста.
#314 #865745
https://arxiv.org/pdf/1609.04802v2.pdf

Photo-Realistic Single Image Super-Resolution Using a Generative Adversarial Network

Ну блядь, вообще застой в индустрии.
#315 #866026
>>865631

>residual сети (и их сведение к RNN сетям)



Вот про такую хуйню не знал. Как они сводятся-то?
>>866108
22 Кб, 671x355
208 Кб, 1065x892
#316 #866108
>>866026
Довольно очевидным образом. Это ответ, почему мозг не deep, а работает на уровне ResNet с 1000 слоев.

https://arxiv.org/pdf/1604.03640v1.pdf
>>866147>>866526
#317 #866147
>>866108
Можно для быдлана расшифровать последнее? Аж интересно стало.
>>866154
#318 #866154
>>866147
Визуальная кора является deep in time, имея небольшое число физических слоев, эмулируется больше число слоев за счет обратной связи. Или наоборот, ResNet эмулирует мозг, разворачивая RNN в пирог из 1000 слоев - это как тебе удобнее. Открытие охуенное, потому что становится понятнее, как мы устроены, и это все - сегодняший день.
>>866680>>866709
#319 #866158
>>865729
Это все мы тут. Не слесари сами разрабатывают методы.
#320 #866526
>>866108
Охуенчик. Бочку нефти тебе, анон.
#321 #866680
>>866154
Я нихуя не понял.

Что надо прочитать, чтобы иметь возможность хотя бы генерировать респонс "вау, охуеть, вот это круто!" на подобные посты?
>>866963>>866979
#322 #866709
>>866154

>Визуальная кора является deep in time, имея небольшое число физических слоев


>это все - сегодняший день.


ну плиз
сто лет назад это выяснили
>>866779
#323 #866779
>>866709
Ты и ILSVRC-2017 уже давно победил. Нахуй иди.
>>866892
#324 #866892
>>866779
Новый положняк. У кого на Kaggle рейтинг ниже 20 - чуханы-чуханчики, меняйте профессию пока не поздно.
>>866979
#325 #866963
>>866680
Надо следить за state-of-art решениями начиная с AlexNet и понимать, в чем заключается их новизна. Тогда реакция "вау, круто" была бы сначала на ResNet, а потом вот на это объяснение, почему оно работает. Вот почитай.
https://adeshpande3.github.io/adeshpande3.github.io/The-9-Deep-Learning-Papers-You-Need-To-Know-About.html
>>867034
#326 #866979
>>866892
Но кегля - это лишь зачет для слесарей.
>>866680
Оппост и дальше быть в струе на реддите. Только на определенном уровне просветления ты поймешь, что это не так уж и круто и по большей части просто очередной кодерский манямирок, наподобие того как в 60х думали, что создав шахматную программу мы поймем, как мыслит человек.
>>867017>>867034
#327 #867017
>>866979

>Только на определенном уровне просветления ты поймешь


А потом пойдешь хлебать мамкин борщ. Ты своим пафосом напоминаешь любителей хаскеля, у которых тоже какие-то невнятные понты при полном отсутствии успехов.
Читайте оппост, пацаны, будете такими же, воможно, даже вас возьмут в банк классифицировать заемщиков.
>>867040
#328 #867034
>>866963
>>866979
Ок, спасибо! Только один вопрос: мне правда необходимо прочитать всю литературу из оп-поста и те щевять пейперов, чтобы было ваукруто? А есть какой-нибудь софт-вей?

Если что, я не хочу в банк и не собираюсь никого классифицировать.
#329 #867040
>>867017
Где у меня пафос? Пафос это когда вчерашний кодер от сохи прочитал про слои и решил, что теперь он знает, как работает мозг. А это не пафос, а трезвая оценка состояния дел в науке, и это не я придумал, естественно, а светила сами так говорят. См., например, выступления ЛеКуна (жаль, он книгу не напишет по этой теме).
#330 #867061
>>867034
Собственно в той литературе ничего про диип лернинг нет, но она задает необходимый бэкграунд и настроение ума. Так что это только начало, дальше ты сам должен понять, что нужно читать и почему.
>>867148
#331 #867063
>>867034
Если не хочешь идти в банк и никого классифицировать, не читай книги из оппоста, потому что там научат тебя именно этому.
>>867148
#332 #867148
>>867061
Ну пиздец просто!

>>867063
А что тогда читать?
>>867151
#333 #867151
>>867148

> А что тогда читать?


А чего ты хочешь? Некоторые и от книг Донцовой ловят ваукруто, и им норм.
>>867154
#334 #867154
>>867151
Ты еще пердеж собственный не начал нюхать, как герои сауспарка?
>>867156
#335 #867156
>>867154
Нет, а ты?
#336 #867401
Посоны, я нашёл тест на слесаря. Просто идёшь читать про алгоритмическую терию информации. С огромной вероятностью слесарь дропнет ещё до случайности по Мартину-Лёфу. Я дропнул.
#337 #867510
>>867401
Ну и ладушки. Тебе же в шашечки или ехать?
>>867634
#338 #867634
>>867510
Лолшто?
#339 #867686
>>867401
Прочел Ли и Витани от корки до корки. ИМХО это одно из самых "недооцененных" достижений математики: немногие знают эту теорию, а ведь она затрагивает широчайший спектр областей, от философии науки до машинного обучения. Книга серьезно повлияла на мое мировоззрение.
>>868008>>869138
#340 #867708
>>867034

Софт-вей, это http://cs231n.github.io/ плюс руками пишешь свою нейроночку, потом читаешь про recurrent neural networks, потом про residual neural networks, потом читаешь ту статью, которую запостил анон и говоришь ВАУ. На все, про все у тебя уйдет от двух недель до месяца.
>>867789
#341 #867718
Бугурт статистикодрочеров напоминает бугурт усатых телемастеров, когда на смену логике на транзисторах пришли микроконтроллеры.

Так и тут, статистикодрочеры годами изучают мат. модели, которые с трудом вмещаются в голову, а потом нейроночка за день (в редких случаях за месяц) строит более эффективную модель. И тут начинается МИКРОКОНТРОЛЛЕРЫ НЕЙРОНОЧКИ НЕ ТРУЪ, ДИДЫ СЧИТАЛИ НА БУМАЖКЕ И МЫ ДОЛЖНЫ, KAGGLE ДЛЯ СЛЕСАРЕЙ.
>>867732>>867921
#342 #867732
>>867718
Но кегля действительно для слесарей, собственно они этого и не скрывают. Никто не делает исследований на кегле.
Если ты не умеешь считать на бумажке, то ты не понимаешь и нейроночек, а просто как вебмакака копируешь примеры из интернета. То есть ты почти бесполезен, испортить тензорфлоу эс тф можно научить любого за короткий срок. В чем тогда твоя ценность как специалиста, подумой.
>>867786
#343 #867740
Нейроначи, есть несколько абсолютно нубских вопросов.
Вот, скажем, захотел я сделать нейросеть для игры в крестики-нолики и заставить ее играть против классического алгоритма, способного если не выиграть, то сыграть партию вничью. Цель — научить нейросеть не проигрывать хотя бы в 75% сыгранных партий. С чего вообще нужно начинать? Как выбрать нужную архитектуру? Как объяснить нейросети правила игры, например то, что нельзя ходить в уже занятую клетку поля?
>>867762>>867782
#345 #867782
>>867740
слишком хуита, очень маленькое пространсво состояний, тривиально перебирается
можно сделоть примерно любым алгоритмом, даже самым бредовым
придумай обобщение крестиков-ноликов на непрерывное пространство хотя бы
#346 #867786
>>867732
Но ведь я понимаю нейроночки и не копирую из интернета.
>>867817
#347 #867789
>>867708
Спасибо.
#348 #867798
Для игры в крестики-нолики можно сделать механический компьютер на спичечных коробках: http://www.mscroggs.co.uk/blog/19
#349 #867817
>>867786
Ладно тогда.
#350 #867921
>>867718
Сложные модели это не очень у них слишком высока ёмкость, + сложные модели не интерпретируемы.

Где-то было про Abbyy и про то как они не используют ничего сложного в своих OCR, ибо важна очевидность модели.
>>867994
#351 #867923
Посоны, посоны. Вот допустим градиентный спуск: для поиска минимума функции f с помошью градиентного спуска основываются на первой производной f'.

А также распространён способ когда ищут минимум исходной функции f поиском нуля её производной (С помошью гессиана f'').

Никогда вторым способом не пользовался. Почему есть смысл считать/оценивать приблизительно вторую производную (гессиан) для решения той же задачи? Не вижу профитов.
>>867934>>867938
#352 #867934
>>867923
Читай про методы оптимизации. Там десятки методов, первого и второго порядка. Последние лет 60 это активно разрабатывалось все.
#353 #867938
>>867923
все методы ищут ноль производной
#354 #867994
>>867921
Телемастер как есть. Нейросеточки не интерпретируемы, поэтому нужно как деды делать то, что в узкий мозг телемастера влезает.
>>868208
#355 #868008
>>867686
Можно полное название книги?
>>868011
#356 #868011
>>868008
An introduction to Kolmogorov complexity and its applications
>>868031
#357 #868031
>>868011
Уже нашел, спасибо.
#358 #868208
>>867994
А теперь прикинь, продал ты свой продукт богатому дяде. Дядя приходит и "Чет хуйню выдавать начал, почини!" а ты "А я блин не знаю как оно работает!". Это я про ABBYY.
>>868951>>868969
#359 #868951
>>868208
А ты включаешь в тренировочный датасет случай, на котором начало хуйню выдавать и его аналоги. И говоришь богатому дядьке "с вас 1.5kk за сопровождение".
#360 #868969
>>868208
ABBYY как раз и есть пример старперов, у которых все хорошо и бизнес налажен, и ничего менять не хочется. Это называется луддизм.
#361 #869138
>>867401
>>867686
Там про что? Конструктивный/интуиционистский подход к вероятности штоле? Неужели. Еще немного и додумаются до конструктивного изложения нечетких множеств.
>>869143
#362 #869143
>>869138
Там про определение сложности объекта, и определение количества информации как величину сложности описания объекта. Эти же понятия можно использовать для определения алгоритмической вероятности, которая даёт универсальные приоры. На базе этого можно построить универсальный алгоритмический интеллект.
Беда теории в вычислимости даже самых базовых вещей, из-за чего она кажется очень непрактичной. Но сама по себе она очень интересна.
inb4: игра в бисер, нинужна, сложна
>>869145>>869149
#363 #869145
>>869143

>определение количества информации как величину сложности описания объекта.


Есть жи энтропия Шеннона.
>>869151
#364 #869149
>>869143
Алсо, это где-то реализовано для анализа данных? Вот это оно или нет - https://cran.r-project.org/web/packages/acss/acss.pdf http://complexitycalculator.com/methodology.html
>>869151
#365 #869151
>>869145
Которая есть усреднённая Колмогоровская сложность.
Здесь взгляд с другой стороны. Колмогоровская сложность рассматривает возможные программы и возможные опорные машины, на которых эти программы работают.

>>869149
Колмогоровская сложность невычислима. Обычно к алгоритмической теории информации обращаются, когда рассказывают про принцип минимальной длины описания, BIC и связанные с этим практические вещи.
По ссылке что-то похожее на аппроксимации.
Можешь погуглить аппроксимации AIXI.
>>869161
#366 #869161
>>869151

>аппроксимации AIXI.


Для R нету. Но вот это жи http://journals.plos.org/plosone/article?id=10.1371/journal.pone.0096223 тоже аппроксимация колмогоровской сложности?

>Которая есть усреднённая Колмогоровская сложность.


Но если это типа шенноновской энтропии, то с чисто практической точки зрения, намного ли лучше эта ваша аппроксимация колмогоровской сложности? Т.е. есть ли заметный выигрыш при анализе данных, или просто разница в доли процента?
>>869166>>869175
#367 #869166
>>869161
У тебя реально слесарский подход к делу. Никто не использует колмогоровскую сложность в анализе данных, это теоретический инструмент.
>>869170>>869175
#368 #869170
>>869166

>Никто не использует колмогоровскую сложность в анализе данных, это теоретический инструмент.


Но я ж дал ссылку на пакет для R. Как раз для анализа данных. И что плохого в практическом применении алгоритмов? Они для этого и нужны, чтобы давать практическую пользу.
>>869172
#369 #869172
>>869170
Да это так, игрушка, не знаю даже для чего. Оно считает, во-первых, аппроксимацию, которая не имеет никакого особого смысла, а во-вторых только для очень коротких строк (8 бит или около того).
#370 #869175
>>869161
Как заметил >>869166 эта штука пока только теоретический инструмент. На него ты можешь ссылаться, если используешь MDL или RMDL.
>>869179
#371 #869179
>>869175
Ну т.е. пока не нужно.
>>869184
#372 #869184
>>869179
Можешь загонять это чикулям из технических шараг и ебать их в грязных толчках тех же шараг, это работает.
#373 #869242
>>856234 (OP)
Что ISLR выпили из шапки?
>>869305>>869310
sage #374 #869305
>>869318
#375 #869310
>>869242
Есть же шестое издание.
>>869318
#376 #869318
>>869305
>>869310
Бля, я слепой. Увидел уже.
#377 #870650
>>863613

> Не поздно ли вкатываться в 20 лет?


Проиграл дичайше. Ты думаешь нужно с 10 лет этим заниматься?
#378 #870653
>>864370

> High bias: как я писал, это алгоритм хуево работает, и менять надо алгоритм, как полностью, так и увеличивать число фич. Underfitting.


> High variance: алгоритм переобучается, и нужно или больше данных, или добавить регуляризацию, или уменьшитьчисло фич. Overfitting.



Все так, только
High bias:Overfitting.
High variance:Underfitting.
А не наоборот
>>870672
#379 #870654
>>864455

> Вижу тупорылого юнца с таким же максимализмом.


Очень редкий вид на дваче.
#380 #870672
>>870653
Ну хуй знает. Both high bias and high variance are negative properties for types of models. When we have a model with high bias, we say it “underfits” the data, and if we have a model with high variance and low bias, we say it “overfits” the data. We’ll see why in this section.
>>870801
68 Кб, 531x450
#381 #870801
>>870672
На самом деле прямой связи между биасами и фитами нет, т.к. хай и лоу биас и вариэнс бывают в любых комбинациях.
#382 #871012
Хочу управлять фильтрами свертночной нейросети с помощью другой нейросети. Т.е. если у нас есть сверточный слой выход = conv(вход, X), я хочу, чтобы X поступал с какой-то другой сети.
Как водится, скорее всего моя охуительная идея кем-то реализована. Подскажите кейворды для поиска статей.
>>871019
#383 #871019
>>871012
Не очень тебя понял, но по ссылке что-то похожее
http://blog.otoro.net/2016/09/28/hyper-networks/
>>871033
#384 #871033
>>871019
Спасибо огромное, то, что нужно.
#385 #871062
Сори, если нубский вопрос.
Суть такова: у меня есть некоторые сущности(к примеры цифры), и есть выборка, где каждой сущности сопоставлен вектор тегов. Мне нужно выяснить какие теги с какими сущностями чаще всего встречаются.
Самое простое, что мне сразу же пришло в голову, это присваивать каждому встреченному тегу вес(1), умножать его на некоторый коэффициент(m) при повторном появлении такого тега, и вычитать из веса некоторую константу(a), если при очередном элементе выборки тега не присутствует.
Что то мне подсказывает, что это ну очень наивный подход. Подскажите пожалуйста названий алгоритмов или тем, которые позволят решить задачу. Или ткните в книгу из шапки, которую стоит открыть в первую очередь. Спасибо.
>>871073>>871077
#386 #871073
>>871062
Зачем вычитать? Ты же просто гистограмму строишь.
Тебе сейчас векторное квантование наверное посоветуют.
>>871079
#387 #871077
>>871062
Можешь в сторону matrix factorization глянуть.
#388 #871079
>>871073
Мне нужно сравнивать потом веса тегов у разных сущностей.
Т.е. если
тег "a" встречается с числом "1" 4 раза из 8, а
тег "b" встречается с числом "2" 2 раза из 4, то
вес тегов примерно должен быть равен. Я могу конечно просто вычислять процент того, как часто встречается этот тег, но на больших выборках это будет неудобно. Нужно хранить много доп данных, и непонятно как ограничивать множество тегов, связанных с одной сущностью.
#389 #871274
>>856234 (OP)
Сука, у меня сейчас бомбанет. Как в этом ебаном R сделать список изображений из пакета imager?
Циклический data = c(data, load.image(img_path))
где img_path вычисляется заранее по счётчику цикла, не работает. data в итоге хранит набор ебаных цифр. Я пытался что-то сделать через imlist, но там вообще нихуя не понятно. Хелп.
>>871421
#390 #871421
>>871274

>обработка картинок


>R

>>871467>>871490
936 Кб, 2000x1334
623 Кб, 1024x512
#391 #871426
Ахаха, диипмайнд, что ты делаешь, прекрати. Собираются победить старкрафт. Интересно будет посмотреть. Наверняка у них получится, скорее всего они уже сделали преварительные тесты и получили хорошие результаты, иначе бы не объявляли с таким апломбом.
Однако на этот раз, видимо, не из исходных пикселей информацию вытаскивают. Там слои миникарты предполагаются с различными данными, видимо это то, что они уже используют в своей системе.
>>871428
#392 #871428
>>871426
Так есть уже статьи по старику. Вечером закину в тредик.
>>871456
#393 #871456
>>871428
Конечно, есть. Как и по го были сотни, если не тысячи работ. Однако в старкрафт текущие системы играют гораздо хуже, чем даже в го раньше играли - ты бы мог их победить особо не напрягаясь.
#394 #871467
>>871421
Ну у меня машинлёрнинг построен на пикчах. Что плохого-то, если есть инструменты?
#395 #871485
>>871467

>машинлёрнинг


>R

>>871490>>871492
#396 #871490
>>871485
>>871421
Даун тупой, как будто ты знаешь как это сделать на пистоне или что там сейчас у школуйни модно.
>>871492>>871497
#397 #871492
>>871467
>>871485
Поясни, чё ты как.
Алсо, я нашел хак, написал функцию, возвращающую функцию. Но у меня не получается её вызывать, сука.

>>871490
Это не я
#398 #871497
>>871490

> Даун тупой


О - попёрла натура... Там два анона, я подхватил. Если бы ты занимался machine learning (который требует big data) ты бы знал, что R просто не тянет. Это как бы пакет для статистического анализа.
>>871608
#399 #871499
Слесари, как из теста вытащить место?

>Зашел на Двач ты, хочешь советов мудрых, сосни-ка хуйца.


Надо получить "Двач"

>Пошел на хуй, пошел на хуй, пошел на хуй пидарас!


Надо получить ["хуй", "хуй", "хуй"]
Чем обмазываться? Место может быть и составным.
>>871503
#400 #871503
>>871499
Словарь возможных мест составь и ищи по нему. Если тебе прям универсальный хардкорный алгоритм нужен, гугли name entity recognition. Для русского языка наверняка ничего нет, придется делать самому - пару человеколет закладывай.
>>871512
#401 #871512
>>871503
Спасибо, нашел что нужно. Хорошо, что я не с русским языком работаю.
Какие все таки дата сцаентисты лентяи. Где моя кнопка "сделать заебись"?
#402 #871525
Раз уж мы теперь на мейл.ру сидим.
Начался бета-тест russian ai cup 2016, в этом году игра наподобие доты или лола, в каждой игре участвует 10 ботов, можно передавать друг другу сообщения, прокачиваться. Круто в общем.
http://russianaicup.ru/
#403 #871608
>>871497

>machine learning (который требует big data)


>R просто не тянет.


>Даун тупой


А я в очередной раз не ошибся с оценкой. Впрочем, на мейлру-то не удивительно.
>>871843
#404 #871610
>>871525
Ставлю десятку, что кто-нибудь обучит нейроночку, которая и победит.
>>871614
#405 #871614
>>871467
На тех же крестах, матлабах и пиздоны инструменты лучше.

>>871525
Интересно, кто находит время для подобных соревнований?

>>871610
Все опять будут пробовать Q-learning, и 90% этих людей обосрутся.
>>871635
#406 #871635
>>871614

>Интересно, кто находит время для подобных соревнований?


Успешные хикки вроде меня.

>Все опять будут пробовать Q-learning, и 90% этих людей обосрутся.


В прошлый раз я пробовал и обосрался. Но в целом там мало кто использует столь продвинутые методы, времени слишком мало для разработки, тренировки, и в рантайме мало ресурсов (тензорфлоу на видюхе нипаганять). Обычно задроченный эвристический поиск побеждает. Описания стратегий-победителей прошлых лет можно найти в сети.
#407 #871690
Чем отличается ML от Deep learning
#408 #871731
>>871690
МЛ это обучение машин, роботов там всяких, ИИ, а дип лернинг это более углубленное, продвинутое обучение, картинки всякие, ну хз короче.
>>871750>>872711
#409 #871750
>>871731
Так дело в том, что ИИ и ML это тоже немного разные вещи)))
#410 #871771
>>871690
Deep Machine Learning = Machine Learning + Neural Networks
>>871804>>872711
#411 #871804
>>871771
Тогда уж Convolutional Neural Networks
Нейронки сами по себе это уже МЛ. А дип - куча сверточных слоев.
#412 #871843
>>871608
Когда обкакаешься, вспоминай меня.
#413 #871857
>>871525
Очевидно, что возьмут за основу готового бота из дотана. Это путь к победе. А свои разработки обосрутся
#414 #871935
Аноны, а как называется процесс обучения нейроночки, чтобы она могла играть в видеоигру? Reinforcement learning или ещё что то есть?
>>871937
#415 #871937
>>871935
Это не процесс обучения, это направление в машинном обучение. Но копать в ту сторону, да.
18 Кб, 460x287
#416 #872146
>>871525
Попробовал запилить простейшую стратегию. Ну там и гемор. Столько всего надо учитывать, если нормально делать. На месяц работы чтобы сделать бота, который более-менее нормально ориентируется в тактике и простейшей стратегии. А еще надо кооперацию рассматривать, сообщениями обмениваться, билды оценивать. Кароч на те сроки, какие есть, только башню из костылей можно построить.
>>890406
#417 #872648
>>871525
Надо нейроночку, и обучать на корейцах.
>>872757
#418 #872711
>>871690
Deep learning - одно из направлений в ML. Отличительная особенность - использование т.н. глубоких архитектур, т.е. последовательно состыкованных и обучаемых особым образом элементарных алгоритмов типа машин Больцмана, аутоэнкодеров, сверточных сетей и т.п. Предыдущие ораторы >>871731>>871771 обосрались с простейшим вопросом. Что и не удивительно для школьников с мейлру.
>>874864
#419 #872757
>>872648
Кто о чем а вшивый о бане. Там 10мс одного ядра на ход, и на каких корейцах ты собрался обучать, если правила отличаются?
>>872818
#420 #872818
>>872757
двачую анона, там ни библиотек, ничего нет, даже нампи нет. Кроме того, большое преимущество у тех, кто знает джаву. Каждый год джависты разбирают трейнер, который дается, и делают на его основе себе обучалку. Хотя это очень весело, веселее, чем кэггл.
>>873219
#421 #872894
Подходят ли функциональные языки программирования для глубинного обучения?
>>872961
#422 #872961
>>872894
Что есть "глубинное обучение" в твоем понимании?
>>873132
#423 #873132
>>872961
Что - то прорывное и будоражаще новое, что - то что я не знаю, как и ФП.
>>873219
#424 #873219
>>873132
Видеокарточки уже закупил?

>>872818
Т.е. там даже NumPy нельзя? Перемножение матриц, Холекцого и другой элементарный линал мне самому надо будет кодить, если я сунусь туда?
>>873267
#425 #873267
>>873219
ну, обучаться у себя будешь с библиотеками, а на боевом сервере ничего нет
#426 #874657
ну что, ананасы, кто из вас выиграл сбербанк? получили награждение от грефа?
>>874669
#427 #874669
>>874657
А кто-нибудь вообще участвовал?
#428 #874864
>>872711
машин Больцмана
их кстати в реальных задачах сейчас кто то использует ?
>>874869>>875049
#429 #874869
>>874864
А вот хуй знает. Не знаю как местные, а я с MCMC никогда нормально работать не мог и отношусь к нему достаточно скептически. Знаю, что ЛеКун со всех этих Deep Больцманов тоже не в восторге.
#430 #875049
>>874864
Вряд ли, как и аутоэнкодеры. Но, именно с них пошел сам термин "диплернинг". Просто сейчас любой школотрон уверен, что диплернинг это только сверточные сети, даже сам термин объяснить мало кто в состоянии. Про неокогнитроны вообще никто не слышал.
>>875420
#431 #875420
>>875049
А почему автоэнкодеры больше не используются? Чем заменили?
>>876350
#432 #876350
>>875420
Да пользуют их, те же VAE в гипернеты пихают. Другое дело, что это всё в продакшн вроде бы не пихают.
>>876954
#433 #876622
Я дебил и не понимаю, что такое нейрон. Почему все так скрывают, что он делает и представляют его, как черную коробку? Можете мне написать маняпример на Си типа хеллоуворлда. Мол есть массив-черная картинка пусть даже с котиком ахахаха. 1 - черное, 0 - белое. И как нам распознать нос? И зачем тут нейросеть ваще? По хардкору поясните, дабы даже такой дибил как я понял
#434 #876654
>>876622
гс, ну как бы носы бывают разные: разных размеров,форм, цветов, сопливые и в сметане, фото может быть сделано с разных ракурсов, разного освещения и четкости. теперь представь хотя бы на высоком уровне экспрешн, который бы мог вернуть тебе элементарно наличие носа а картинке?
нейросеть, в глобальном смысле, сопоставляет входящую картинку с набором каких-то своих паттернов, развитых во время своего обучения, и выдает тебе вероятность наличия носа на картинке
#435 #876658
Есть ли какое-то ПО для моделирование нейронных сетей? Грубо говоря, мышкой кликать.
>>876691
#436 #876663
>>876622
На твоем уровне развития невозможно достигнуть сколько-нибудь детального понимания. Медитируй над фразой "нейроночка - массив".
>>876674
#437 #876674
>>876663
покажи пример, пожалуйста,
#438 #876682
Правда ли, что нейронные сети полны по Тьюрингу и поддерживают даже сверхтьюринговые вычисления? Значит ли это, что я могу замкнуться в себе, запустить бубунту и создавать ИИ в своем мозгу, а потом просто переписать? И чем это грозит?
>>876691
#439 #876691
>>876658
http://neuroph.sourceforge.net/
>>876682

>Правда ли, что нейронные сети полны по Тьюрингу


Да, они же могут по датасету восстановить (аппроксимировать) любые вычислимые функции.

>сверхтьюринговые вычисления


Сказка жи. Сам Тьюринг эту хуйню придумал просто для иллюстрации, что даже такой метод не снимает проблемы невычислимых функций. Его "Оракул" в данном случае чисто сказочный персонаж.

>Значит ли это, что я могу замкнуться в себе, запустить бубунту и создавать ИИ в своем мозгу, а потом просто переписать?


Это как?
#440 #876731
>>876622
Нейрон: выход = вход * вес.
Дальше сам.
#441 #876954
>>876350
рекомендашки на автоэнкодерах/ворд2век есть
>>879814
#443 #877069
Нихуя не понял, как вкатиться? Охуенно, я выбрал себе задачу - то же распознавание капчи. Но есть хоть какие-то примеры, как ее решать, чтоб уже понимать, что блять из всего обилия инфы читать?
#444 #877144
>>877069
распознавание капчи, думаю, уже решено, и распознается лучше, чем человеком.
>>877731
#445 #877148
>>877069
вдогонку, заходишь на google scholar, вбиваешь captcha recognition, смотришь статьи, но распознавание капчи особо не отличается от всех остальных распознавалок текста
#446 #877172
>>877069
Вкатиться невозможно. К тому же ты, скорее всего, слишком стар уже для этого.
>>877731
#447 #877196
Чуваки, учусь на первом курсе, тут такое дело: нужно подготовить какой-нибудь интересный проект для выступления на конкурсе, как думаете, нейронная сеть подойдет для такого или есть что-нибудь интереснее?
>>877216
#448 #877216
>>877196
Попробуй применить differentiable neural computer в обучении с подкреплением.
166 Кб, 1400x1000
#449 #877217
>>871525
Уже под тысячу человек участвует. Этот конкурс по популярности на уровне CodinGame и кегли, что довольно круто.
>>877540
#450 #877513
>>856234 (OP)
Привет, машобач. Повторяю то, что писал в ньюфаготреде (проигнорили).
Нужно тему на курсач по веб-кодингу. Требуют запилить что-то с новизной. Как ты догадываешься, я бы очень хотел присунуть туда машинлёрнинг. Поделитесь идеями, плиз. Желательно что-нибудь несложное.

Пока что подумываю над сайтом-фотохранлищем. Как новизну добавлю разные фичи поиска похожих пикч. Хуй знает, короче. Хочу что-нибудь интересное. Плиз, хелп.
>>877657
#451 #877540
>>877217
только на кегли приз 20000 уе (налоги и тд, плюс команда). А тут схожая конкуренция, а в приз АЙПАД И ФУТБОЛКА.
>>877796
32 Кб, 1048x530
#452 #877599
О, тот самый тред. Привет, я только начал смотреть что да как, и сразу же нихуя не понял, проблему усугубляет невозможность читать чужой код (сам пытаюсь для начала запилить свой небольшой алгоритм на бумаге на самом деле в ue4 блюпринтами). Статьи которые я читал, постоянно повторяют "сеть обучается", "сеть запоминает", "сеть решает", но не понимаю, как это выглядит в числах.

1. Что такое функция активации и какая подойдет для моей задачи?
2. Как менять силу изменения веса между нейронами?

Вот сама задача:

Персонаж стоит около пяти кнопок. Когда активируется одна кнопка персонаж должен набежать на нее, после чего открывается соответствующая ей дверь. Персонаж бежит к двери. То есть, должен принять два решения на два действия. Сколько нужно слоев нейронов? Сколько их самих? Сколько выходов должно быть? Как поощрять персонажа? Какие величины вписывать в переменные? Есть ли примеры похожих задач?
>>877606>>877612
#453 #877606
>>877599
Нахера в твоей задачи нейронка вообще?
>>877612
#454 #877612
>>877599
И еще. Так как кнопка включается рандомно, я запилил входные данные как одна включенная кнопка это 0.5, а нерабочие - 0.1. Это норм?
>>877606
Задача направлена на попытку понимания и визуализацию, я хочу посмотреть, как это работает.
>>877623
#455 #877623
>>877612
Лучше порешай стандартные задачи, типа линейной регрессии (нахождение зависимости между переменными) и задачу классификации, именно в них кроется сама суть того, что делают нейронки и другие алгоритмы машинного обучения.
>>877627
#456 #877627
>>877623
Ну блин, я хочу заниматься именно в этом направлении, вон как те дяди, учившие роботов проходить лабиринты, или видеорелейтед и вот это всё в этом духе.

https://www.youtube.com/watch?v=qv6UVOQ0F44
>>877643
#457 #877643
>>877627
Ну вон там код есть, кури его.
Кури генетические алгоритмы, в видео основной смысл в нем.
Нейроны там тупо для активации кнопок нужны, они не обучаются, веса в них зависят от гена.
Там используется сигмоидальная активация, но она там нахуй не нужна, линейной хватит или даже тупо пороговой.
>>877924
#458 #877657
>>877513
Если у тебя есть титанчик под рукой - реально круто было бы сделать поиск картинок.
Делаешь TripletNet с VGG/ResNet/Inception/чтотамещеестьнаимеджнете, доучиваешь передний слой делать евклидовы эмбеддинги, дальше кнном ищещь похожие. Даже работать будет достаточно неплохо почти гарантированно (в файндфейсе очень похожая схема внтури), пишется на керасе за 20 минут с отладкой.
#459 #877731
>>877172
>>877144
Дельные советы, что и говорить
>>877793
#460 #877793
>>877731
Эти два поста совершенно правы (применительно к тебе). Но твой уровень развития не позволяет (и, возможно, никогда не позволит) этого увидеть. Ты как муравей, карабкающийся на Эверест. Профессиональные альпинисты, пробегающие мимо, говорят тебе: "ты умрешь, поворачивай обратно", но муравью не дано понять человеческую речь или увидеть гору самому.
>>878352
136 Кб, 1280x685
#461 #877796
>>877540
Дык, рашкинские нищуки же. Справедливости ради, на кегле задачи несопоставимо сложнее, и уровень участников гораздо выше. Там очень крутые челы, а на этих программерских соревнованиях в основном студенты. И времени на кегле намного больше дается.

Главный приз там - макбук про, это три годовые зарплаты среднего ивана, а уж про студней и говорить нечего. Для Северной Нигерии вполне себе призы.
>>877824
#462 #877824
>>877796
тут другая область и другие знания требуются, если на кээгле очень важно найти факапы разработчиков датасета, то тут желательно уметь программировать, разобрать джава-пакеты разработчиков, написать на их основе свой симулятор и тд, обычно выигрывают те, кто умеет это делать.
#463 #877825
Посоны, я так и не понял почему в примере с Teano со сверточной сетью не происходит переобучение, хотя там проходят по одной и той же обучающей выборке по десятку раз. У меня на моей тестовой так не получается, сеть всегда приспосабливается к обучающей и начинает плохо распознавать тестовую.
#464 #877832
>>877825

>на моей тестовой


ну, которую я сам писал на c++
>>878539
#465 #877872
>>877825
Или проще говоря, после каждой эпохи сет приспосабливается к обучающей выборке, но тестовая распознается все хуже и хуже.
#466 #877924
>>877643
Вообще у меня вся задача сводилась к таблице где x - вход, y z - выходы и

x---y---z
1---1---1
3---3---3
4---4---4
2---2---2

но ладно
#467 #878352
>>877793
Думаю, ты идешь нахуй, ибо делать выводы о совершенно незнакомом человеке основываясь непонятно на чем может только полный мудак.

Я задал вопрос, как начать изучать эту тему, ввиду того, что в ОП-посте сказано "решайте задачу" - как решать, что гуглить, малопонятно.
#468 #878529
Почему еще нет ИИ? Какие проблемы в этом направлении сейчас?
>>878566>>878598
#469 #878539
>>877825
>>877832
Бамп вопросу.
>>878598
#470 #878566
>>878529
нет никакого ии
#471 #878598
>>878529
Дай определение ии. Какие есть предпосылки к тому, что он должен появиться? Люди не очень понимают, как просто мозг работает. Нейроночки - довольно далекая вещь от реального мозга, это просто математическая модель с модным названием.
>>878539
я гуманитарий, но нужно дропаут добавлять, чтоб не было переобучения. Ну, и слишком много зависит от твоего кода. Там может быть банальный баг и тд и тп.
>>878651>>878914
#472 #878651
>>878598

>но нужно дропаут добавлять


А он точно в теано по-умолчанию уже есть? Я от себя там никаких алгоритмов не добавлял. Брал обычный пример на сайте диплернинка с мнист базой который.
#473 #878729
>>877825
Да там куча всего может быть. Может функции различаются, может оптимизаторы разные, где-то мб момент используется (который, кстати, в некотором роде спасает от попадания в локальный минимум), какие-то параметры различаются и прочее.
>>879146
#474 #878914
>>878598
В моем понимании ИИ это модульная система, которая рационально понимает когда использовать тот или иной модуль, и при этом может замещать их и комбинировать, при этом имея возможность строить новые модули при помощи обучения. Модули это своеобразные ментальные модели, но при этом модули могут представлять и данные, и программу вообще другого толка. Почти как в лиспе.
#475 #879146
>>878729
Хотя может потому, что я тестировал на полносвязной сети.
>>879173
#476 #879173
>>879146
А нет, я потом и на сверточной проверил. Результат тот же.
sage #477 #879400
Есть литература для самых маленьких с примерами кода? (желательно плюсы)
Посмотрел шапку, только саенс, хочется чтобы книга была построена по принципу.
1)теория
2)пример
3)задание
или как-то так, кароче говоря классическая книжка для изучения для ньюфань.
>>879716
#478 #879401
упс, сега
#479 #879402
>>877825
очередной платиновый вопрос в стиле high variance, что делать
Whitening данных сделать не забыл?
#480 #879716
>>879400
Для слесарей онлайн курсы есть.
>>877825
В примере теано таких проблем нет хотя бы потому, что они используют early stopping. А вообще это классика: у тебя модель наверняка слишком большая для твоего датасета.
>>879932
#481 #879764
>>856648
Блядь, такими методами, по-твоему, не пытались решить эту задачу? Одним из парадоксов робототехники является то, что сложнейшие для человека когнитивные навыки машина легко усваивает и описываются они для неё точными методами, но вот штуки вроде движения по неидеальной местности даются ой как не просто.
Кстати, в рашке робототехника особо и не развивается. МЛ в робототехнике -- Япония, Америка. В рашке МЛ используется в областях, которые вообще принципиально не могут быть описаны точными методами -- выделение закономерностей по выборке данных, анализ которой нельзя провести вручную никак. Допустим, для формирования экономических моделей, вся хуйня.
И, кстати, тервер -- это то, что связывает реальный мир и абстрактный. И ещё -- в "сраной рашке" математическая наука развита на одном из самых высоких уровней в мире. Как чистая, так и прикладная.
>>879793
#482 #879793
>>879764

>в "сраной рашке" математическая наука развита на одном из самых высоких уровней в мире


Олька. Ты ПАЛИЦЦО. Очинь-на сина ПАЛИЦЦО, да?
#483 #879796
Математическое образование в России

Математического образования в России нет.
Я уже 6 лет читаю учебные курсы и лекции в Независимом Университете; общая польза, принесенная этими курсами кому бы то ни было, практически нулевая; по крайней мере студентам-математикам пользы не было никакой. Я буду заниматься этим и дальше, но занятие это очевидно бессмысленное.

Мои скромные педагогические способности тут не при чем; будь я даже и Оскаром Зариски напополам с профессором Яу, у меня ничего не вышло бы. За эти 6 лет я не видел в Москве ни одного студента, который доучился бы до состояния, позволяющего вести научную работу (я видел довольно много хороших молодых ученых - Стефан Немировский, например - но учились они где-то в другом месте; я не знаю где, но точно не у нас). Единственная функция Независимого Университета - поставлять кадры для американских аспирантур; но и с ней он справляется, в последнее время, крайне плохо, поскольку интеллектуальный фонд истощился до полного опустошения и кердыка.

Исторически, в России имели место две параллельные образовательные системы; одна из них - университетская - за 5 лет худо-бедно давала знания, которые следует иметь студенту первого года обучения; она дополняла этот материал абсолютно бессмысленным концептуальным и вычислительным баластом и просто откровенным бредом (учебник Камынина помните?) Даже те знания, которые давались университетской программой, давались ей в виде мало-осмысленных вычислительных рецептов, и в результате понимание студентом сути вещей только затруднялось. Университетская программа выпускала не математика, а калеку, который математикой не мог заниматься уже никогда; если кто-то в результате и становился математикой, то только вопреки тому, чему его учили, а не благодаря этому.

Вторая программа была альтернативой, созданной Гельфандом, Маниным и иже с ними вокруг матшкол, Керосинки и семинаров Гельфанда и Манина; студент, попавший в эту структуру, к 3-4 курсу усваивал материал, соответствующий второму-третьему обучения математике (в смысле выше приводимой программы). Потом он оказывался в состоянии, которое Гельфанд охарактеризовал как бег за трамваем в попытках вскочить на его подножку; ни владения текущей литературой, ни возможности в ней ориентироваться программа Гельфанда и Манина не давала (да и библиотек, доступных студенту Керосинки, не было). Курсов, соответствовавших текущему состоянию науки, на мех-мате не читалось, кроме Манина, который избирал одну определенную область и год-два ею занимался; выпуская каждый раз 3-5 студентов, которые с тех пор и до самой смерти занимаются именно этим.

Гельфанд учил, что, чтобы таки допрыгнуть до трамвая, надо ходить на семинары, заведомо непонятные, и самостоятельно пытаться разобраться в том, что там происходит. Именно таким образом люди (кому повезет) осваивали материалы года обучения с третьего по пятый мною обозначенной программы (материал пятого года, конечно, тогда не весь существовал; вместо него были модули Верма и ББГ-резольвента, сейчас, видимо, неактуальные).

В последние 10 лет ситуация отчасти параллельна мною описанной. Имеются две конкурирующие программы: университетская (которая с 1980-х не изменилась, а только сократилась немного - скажем, спектральные последовательности в ней были, а сейчас их нет), и альтернативная, которой занимаются в Независимом Университете и в ИТЭФе.

Но есть существенная разница - люди, которые понимают о чем идет речь в математической литературе (типа, в http://arxiv.org) в основном уехали; в результате, охват альтернативной системы сократился с середины третьего года обучения по Гельфанду и Манину до середины второго. При этом никаких ориентиров в плане дальнейшего самообразования студент не получает. Колоссальный барьер между обучением на студенческих семинарах и чтением научной литературы, который требовалось преодолевать самообразованием, увеличился с 2 лет до 4 и стал непреодолим. Вместо пропасти, второй край которой отчасти просматривается, мы имеем черную дыру, которая поглощает каждого, кто к ней приблизится.

У нас нет учебных заведений, где мою программу обучения можно было бы использовать; но смысл в ней тем не менее есть. Смысл ее - в установлении приоритетов и ориентиров. Конечно, нет у нас студентов, которые в школе учат теорию Галуа и гомотопическую топологию, а на втором курсе постигли классифицирующие пространства и характеристические классы. Не то чтобы их не может быть в принципе - во времена семинаров Гельфанда и Манина такие студенты были - но факт состоит в том, что сейчас их нет; и не будет никогда, если интеллектуальный климат останется таким, как сейчас, и если мы не приложим усилий к его изменению. Программа, мною выше приведенная - есть не данность, а идеал, к которому необходимо стремиться.

Студенту, если он хочет чему-нибудь выучиться, полезно время от времени поглядывать на описанный куррикулум; и сообразовать свое обучение с этой программой. Иначе кердык.
#483 #879796
Математическое образование в России

Математического образования в России нет.
Я уже 6 лет читаю учебные курсы и лекции в Независимом Университете; общая польза, принесенная этими курсами кому бы то ни было, практически нулевая; по крайней мере студентам-математикам пользы не было никакой. Я буду заниматься этим и дальше, но занятие это очевидно бессмысленное.

Мои скромные педагогические способности тут не при чем; будь я даже и Оскаром Зариски напополам с профессором Яу, у меня ничего не вышло бы. За эти 6 лет я не видел в Москве ни одного студента, который доучился бы до состояния, позволяющего вести научную работу (я видел довольно много хороших молодых ученых - Стефан Немировский, например - но учились они где-то в другом месте; я не знаю где, но точно не у нас). Единственная функция Независимого Университета - поставлять кадры для американских аспирантур; но и с ней он справляется, в последнее время, крайне плохо, поскольку интеллектуальный фонд истощился до полного опустошения и кердыка.

Исторически, в России имели место две параллельные образовательные системы; одна из них - университетская - за 5 лет худо-бедно давала знания, которые следует иметь студенту первого года обучения; она дополняла этот материал абсолютно бессмысленным концептуальным и вычислительным баластом и просто откровенным бредом (учебник Камынина помните?) Даже те знания, которые давались университетской программой, давались ей в виде мало-осмысленных вычислительных рецептов, и в результате понимание студентом сути вещей только затруднялось. Университетская программа выпускала не математика, а калеку, который математикой не мог заниматься уже никогда; если кто-то в результате и становился математикой, то только вопреки тому, чему его учили, а не благодаря этому.

Вторая программа была альтернативой, созданной Гельфандом, Маниным и иже с ними вокруг матшкол, Керосинки и семинаров Гельфанда и Манина; студент, попавший в эту структуру, к 3-4 курсу усваивал материал, соответствующий второму-третьему обучения математике (в смысле выше приводимой программы). Потом он оказывался в состоянии, которое Гельфанд охарактеризовал как бег за трамваем в попытках вскочить на его подножку; ни владения текущей литературой, ни возможности в ней ориентироваться программа Гельфанда и Манина не давала (да и библиотек, доступных студенту Керосинки, не было). Курсов, соответствовавших текущему состоянию науки, на мех-мате не читалось, кроме Манина, который избирал одну определенную область и год-два ею занимался; выпуская каждый раз 3-5 студентов, которые с тех пор и до самой смерти занимаются именно этим.

Гельфанд учил, что, чтобы таки допрыгнуть до трамвая, надо ходить на семинары, заведомо непонятные, и самостоятельно пытаться разобраться в том, что там происходит. Именно таким образом люди (кому повезет) осваивали материалы года обучения с третьего по пятый мною обозначенной программы (материал пятого года, конечно, тогда не весь существовал; вместо него были модули Верма и ББГ-резольвента, сейчас, видимо, неактуальные).

В последние 10 лет ситуация отчасти параллельна мною описанной. Имеются две конкурирующие программы: университетская (которая с 1980-х не изменилась, а только сократилась немного - скажем, спектральные последовательности в ней были, а сейчас их нет), и альтернативная, которой занимаются в Независимом Университете и в ИТЭФе.

Но есть существенная разница - люди, которые понимают о чем идет речь в математической литературе (типа, в http://arxiv.org) в основном уехали; в результате, охват альтернативной системы сократился с середины третьего года обучения по Гельфанду и Манину до середины второго. При этом никаких ориентиров в плане дальнейшего самообразования студент не получает. Колоссальный барьер между обучением на студенческих семинарах и чтением научной литературы, который требовалось преодолевать самообразованием, увеличился с 2 лет до 4 и стал непреодолим. Вместо пропасти, второй край которой отчасти просматривается, мы имеем черную дыру, которая поглощает каждого, кто к ней приблизится.

У нас нет учебных заведений, где мою программу обучения можно было бы использовать; но смысл в ней тем не менее есть. Смысл ее - в установлении приоритетов и ориентиров. Конечно, нет у нас студентов, которые в школе учат теорию Галуа и гомотопическую топологию, а на втором курсе постигли классифицирующие пространства и характеристические классы. Не то чтобы их не может быть в принципе - во времена семинаров Гельфанда и Манина такие студенты были - но факт состоит в том, что сейчас их нет; и не будет никогда, если интеллектуальный климат останется таким, как сейчас, и если мы не приложим усилий к его изменению. Программа, мною выше приведенная - есть не данность, а идеал, к которому необходимо стремиться.

Студенту, если он хочет чему-нибудь выучиться, полезно время от времени поглядывать на описанный куррикулум; и сообразовать свое обучение с этой программой. Иначе кердык.
>>890244
#484 #879797
Первый курс
Анализ" Лорана Шварца, "Анализ" Зорича,
"Задачи и теоремы из функ. анализа" Кириллова-Гвишиани
Дифференциальная топология (Милнор-Уоллес),
Комплексный анализ (Анри Картан), Комплексный анализ (Шабат)
Второй курс
Группы и алгебры Ли (Серр)
Алгебраическая топология (Фукс-Фоменко),
"Векторные расслоения и их применения" (Мищенко)
"Характеристические Классы" (Милнор и Сташеф)
"Теория Морса" (Милнор),
"Эйнштейновы Многообразия" (Артур Бессе),
Коммутативная алгебра (Атья-Макдональд),
Введение в алгебраическую геометрию (Мамфорд)
Алгебраическая геометрия (Гриффитс и Харрис),
Алгебраическая геометрия (Хартсхорн)
Алгебраическая геометрия (Шафаревич)
Алгебраическая теория чисел (ред. Касселс и Фрелих)
Теория чисел (Боревич-Шафаревич)
Когомологии Галуа (Серр)
"Инварианты классических групп" (Герман Вейль)
Третий курс
Бесконечнократные пространства петель (Адамс)
К-теория (Атья)
Алгебраическая топология (Свитцер)
Анализ (Р. Уэллс)
Формула индекса (Атья-Ботт-Патоди, сборник Математика)
Гомологическая Алгебра (Гельфанд-Манин)
Когомологии групп (Браун, что ли)
Когомологии бесконечномерных алгебр Ли (Гельфанд-Фукс)
Кэлеровы многообразия (Андрэ Вейль)
Квазиконформные отображения (Альфорс)
Четвертый курс
Геометрическая топология (Сулливан)
Этальные когомологии (Милн)
Алгебраическая геометрия - обзор Данилова (Алгебраическая Геометрия 2, ВИНИТИ)
Группы Шевалле (Стейнберг)
Алгебраическая К-теория (Милнор)
Обзор Суслина по алгебраической К-теории из 25-го тома ВИНИТИ
Многомерный комплексный анализ (Гото-Гроссханс)
То же по книжке Демайи (перевод готовится)
Пятый курс
Громов "Гиперболические группы"
Громов "Знак и геометрический смысл кривизны"
#484 #879797
Первый курс
Анализ" Лорана Шварца, "Анализ" Зорича,
"Задачи и теоремы из функ. анализа" Кириллова-Гвишиани
Дифференциальная топология (Милнор-Уоллес),
Комплексный анализ (Анри Картан), Комплексный анализ (Шабат)
Второй курс
Группы и алгебры Ли (Серр)
Алгебраическая топология (Фукс-Фоменко),
"Векторные расслоения и их применения" (Мищенко)
"Характеристические Классы" (Милнор и Сташеф)
"Теория Морса" (Милнор),
"Эйнштейновы Многообразия" (Артур Бессе),
Коммутативная алгебра (Атья-Макдональд),
Введение в алгебраическую геометрию (Мамфорд)
Алгебраическая геометрия (Гриффитс и Харрис),
Алгебраическая геометрия (Хартсхорн)
Алгебраическая геометрия (Шафаревич)
Алгебраическая теория чисел (ред. Касселс и Фрелих)
Теория чисел (Боревич-Шафаревич)
Когомологии Галуа (Серр)
"Инварианты классических групп" (Герман Вейль)
Третий курс
Бесконечнократные пространства петель (Адамс)
К-теория (Атья)
Алгебраическая топология (Свитцер)
Анализ (Р. Уэллс)
Формула индекса (Атья-Ботт-Патоди, сборник Математика)
Гомологическая Алгебра (Гельфанд-Манин)
Когомологии групп (Браун, что ли)
Когомологии бесконечномерных алгебр Ли (Гельфанд-Фукс)
Кэлеровы многообразия (Андрэ Вейль)
Квазиконформные отображения (Альфорс)
Четвертый курс
Геометрическая топология (Сулливан)
Этальные когомологии (Милн)
Алгебраическая геометрия - обзор Данилова (Алгебраическая Геометрия 2, ВИНИТИ)
Группы Шевалле (Стейнберг)
Алгебраическая К-теория (Милнор)
Обзор Суслина по алгебраической К-теории из 25-го тома ВИНИТИ
Многомерный комплексный анализ (Гото-Гроссханс)
То же по книжке Демайи (перевод готовится)
Пятый курс
Громов "Гиперболические группы"
Громов "Знак и геометрический смысл кривизны"
>>879802
#485 #879802
>>879797
н петух што ты тут делаешт ты ведб даже не можешь определять тут н
>>879813
#486 #879813
>>879802

>определять тут н


{1,2,3,4,..}
#487 #879814
>>876954
А есть сцылка, гуглить в падлу, на заводе две смены отпахал.
#488 #879842
>>879793
Гугли сотрудников ИТЭФ, МИАН, НМУ. Это чистая математика. Прикладная -- работы сотрудников Форексиса и Яндекса. Экономическое приложение -- РЭШ, экфак/МИЭФ ВШЭ. ФУПМ/ФИВТ МФТИ, ФКН ВШЭ -- для проггеров пиздатое образование (если сам не идиот и по среднему баллу проходишь на нормальные кафедры).
>>879944
#489 #879844
>>879793
А, ещё посмотри лауреатов филдсовской и абелевской премий. Статистика по первой: с 98 года 5 россиян лауреаты (двое имели гражданство США, но образование у них российское), а американцев -- только трое. Британцев двое.
>>879849
#490 #879849
>>879844
Да, у нас прекрасные математики. Но с идущим прямо в пизду образованием у нас их будет всё меньше и меньше.
>>879868
#491 #879868
>>879849
Если ты этот >>879793
то это уже манявры пошли...
>>879869>>879870
#492 #879869
>>879868
Они не маняврируют, за манёвры 15 рублей не дают.
>>879871
#493 #879870
>>879868
Это у тебя манёвры. Я лично математику по пиратским учебникам западным изучал, т.ч. содействия здесь со стороны государства я не наблюдаю.
>>879883
#494 #879871
>>879869
А откуда тебе знать? Опыт работы в подобных конторах есть что ли?
>>879879
#495 #879879
>>879871
Тюним параметры таких каждый день. Базарю, подкрепления от манёвров не даём.
#496 #879883
>>879870

>содействия здесь со стороны государства я не наблюдаю.


Но тебя даже не посадили в тюрьму как оскорбляющего чувства верующих экстремиста-педофила и агента влияния.
Так что содействие есть.
#497 #879932
>>879716

> Для слесарей онлайн курсы есть.


Не знаю местных мемов, что за онлайн курсы, и что за слесари?
>>880108
#498 #879944
>>879842
Яндекс в основном хуево повторяет за гуглом. Пример отсоса математиков у слесарей.
>>880633
#499 #880108
>>879932
Слесарь это тот, кем ты мечтаешь стать. Онлайн курсы: https://lmgtfy.com/?q=machine+learning+online+course
#500 #880367
Аноны, тут кто-нибудь угорает по рекуррентным нейроночкам? Как правильно сделать ввод-вывод нескольких связанных значений? Типа даёшь ей месяц, температуру, давление, осадки, а она предсказывает температуру, давление, осадки на следующий день. Где-то можно прочитать про подобную архитектуру?
#501 #880372
>>880367
Не занимаюсь, но мб скоро придётся
Очевидный weather forecasting rnn
http://www.ijcaonline.org/archives/volume143/number11/zaytar-2016-ijca-910497.pdf
#502 #880383
>>880367
для твоей задачи любая нейроночка подойдет, хоть rnn, хоть сверточка

https://keras.io/layers/recurrent/
там под каждой архитектурой есть ссылочки на статьи
#503 #880474
>>880367
Есть мнение (подкрепленное продом яндекс погоды), что в этой задаче лучше все пихать в хгбуст.
Если хочешь нейронки - бери свертки, сильно проще учить и заходят не принципиально хуже лстмок даже в случае текстов, например.
#504 #880507
Спасибо, аноны!
#506 #880633
>>879944
Спизданул нихуя не знающий о их деятельности десятиклассник? У них дохуя научки. Ещё можешь посмотреть кафедру "интеллектуальные системы" (она при ФУПМ МФТИ и ВМК МГУ, на ВЦ РАН), там дохуя трудов научных. Думаю, по Яндексу тебе будет лень читать, поэтому заинтересую Форексисом -- тоже российская компания, исключительно в области МЛ. У них прям на сайте список их научных работ есть.
#507 #890244
>>879796
Разве независимый университет не чмошная хуита?
#508 #890406
>>872146
Участвую. Из всех игровых констант учитываю не более 10% и прошел во второй раунд, лол, даже поиск пути не запилил. Тут нихуя не работает командная тактика, о сообщениях можно забыть до финала. Код - лапша из ифов. Короче, в этом году мейловцы обосрались с заданием.
Тред утонул или удален.
Это копия, сохраненная 10 декабря 2016 года.

Скачать тред: только с превью, с превью и прикрепленными файлами.
Второй вариант может долго скачиваться. Файлы будут только в живых или недавно утонувших тредах. Подробнее

Если вам полезен архив М.Двача, пожертвуйте на оплату сервера.
« /pr/В начало тредаВеб-версияНастройки
/a//b//mu//s//vg/Все доски