Двач.hk не отвечает.
Вы видите копию треда, сохраненную 27 февраля 2018 года.

Скачать тред: только с превью, с превью и прикрепленными файлами.
Второй вариант может долго скачиваться. Файлы будут только в живых или недавно утонувших тредах. Подробнее

Если вам полезен архив М.Двача, пожертвуйте на оплату сервера.
НЕЙРОНОЧКИ 1105498 В конец треда | Веб
Очередной тред про нейроночки.

Что почитать для вкатывания? http://www.deeplearningbook.org/
В чем практиковаться нубу? http://www.deeplearning.net/tutorial/
Где набрать первый самостоятельный опыт? https://www.kaggle.com/ https://halite.io/ https://www.general-ai-challenge.org/
Где работать? https://www.indeed.com/jobs?q=deep+learning&l=
Где узнать последние новости? https://www.reddit.com/r/MachineLearning/
Где посмотреть последние статьи? http://www.arxiv-sanity.com/
2 1105524
>>05498 (OP)
Зачем сделали ограничение в минуту? Играть, так играть же.
3 1105644
>>05524
Цель этой статьи - показать, что альфа зеро превосходит по силе старые методы. Одна минута на ход для этого вполне подходит. Если они будут потом участвовать в каких-то официальных турнирах, сделают так, чтобы работало по турнирным ограничениям.
4 1105645
Выступление одного из дедов машинлернинга, в котором он осуждает нынешние нравы молодежи: https://www.youtube.com/watch?v=ORHFOnaEzPc
Местным хейтерам понравится. Вернее, понравилось бы, если бы они понимали английский.
5 1105646
>>05644
Интересно, может ли сеть ломать простые алгоритмы шифрации?
6 1105647
>>05646
Наверное, только совсем тривиальные. Надо пробовать. Попробуй ты, например. Если что-то выйдет, можешь даже опубликоваться.
7 1105727
>>05645

>Выступление одного из дедов машинлернинга


>Ali Rahimi


кекнул с нейроноблядей
Screenshot from 2017-12-10 11-03-42.png157 Кб, 1198x673
8 1105760
ТРАДИЦИОННОЕ ПРОГРАММИРОВАНИЕ МЕРТВО.
НЕЙРОНОЧКИ ЕБОШАТ ДАЖЕ КЛАССИЧЕСКИЕ АЛГОРИТМЫ В РАЗЫ ЛУЧШЕ.
ДО 2Х УСКОРЕНИЕ ПОСИКА ПО КЛЮЧУ ПРИ ДО 15 РАЗ МЕНЬШЕМ ИНДЕКСЕ.
ПОГРОМИСТЫ ПЕРЕУЧИВАЙТЕСЬ НА САНТЕХНИКОВ НА ХУЙ.
СОФТВАРЕ 2.0 СУКА ГРЯДЕТ, ПОКАЙТЕСЬ!
https://medium.com/@karpathy/software-2-0-a64152b37c35

Скрин отсюда:
http://learningsys.org/nips17/assets/slides/dean-nips17.pdf
Screenshot from 2017-12-10 11-14-19.png957 Кб, 669x767
9 1105762
Новая игрушечки от Гугля.
10 1105768
Нельзя ли писать нейроночки более декларативно?
11 1105771
>>05760

>Software 2.0 is not going to replace 1.0 (indeed, a large amount of 1.0 infrastructure is needed for training and inference to “compile” 2.0 code), but it is going to take over increasingly large portions of what Software 1.0 is responsible for today.

12 1105774
>>05760

>ДО 2Х УСКОРЕНИЕ ПОИСКА ПО КЛЮЧУ ПРИ ДО 15 РАЗ МЕНЬШЕМ ИНДЕКСЕ


Допустимо ли предиктор называть индексом?
Wrightflyer.jpg983 Кб, 2400x1432
13 1105776
>>05771

> Высокоуровневые языки програмирования никогда не заменят язык ассеблера. Большое количесво кода на ассеблере требуетсмя днаписания компилятора языка высокого уровня.



> Компьютеры никогда не заменят логарифмические линейки. Большое количесво линеек требуетсмя для проектирования и построения компьютера



> Автомобили никогда не заменят лошадей. Большое количесво лошайдей требуется для доставки деталей на автомобильную фабрику!



> Станки никогда не заменят рабов! Множество рабов требуется для того что бы построить один станок!



17 декабря 1903 Братья Райт совершили первый длительный управляемый полёт аппарата тяжелее воздуха с двигателями.
Уже через 40 лет, в воздуже летали реактивные бомбардировщики и лайнры доставляющие пассажиров через океан со всеми удобствами.

Через 20 лет "Программирую на c++" == "Подковываю лошадей"
14 1105777
>>05774
Как по мне, то это завист от того обеспечивает он 100% точность.
Если да, то он, дефакто, индексом и является(изоморфен), и из него за конечное время можно класический индекс построить обратно.
15 1105782
>>05777
Ну вот у меня сильное подозрение, что 100% он не обеспечит, иначе это архиватор Бабушкина.
16 1105784
>>05776

>Через 20 лет "Программирую на c++" == "Подковываю лошадей"



Конечно, ведь есть божественный Rust, а С++ говнище которое не могут до нормального вида довести и уже не смогут. Спасибо комитету по стандартизации и Бьерну Страуструпу
17 1105787
>>05760
Ну первая ссылка - хуйня для попиариться.
А вот насчет индексов - интересно. Ссылка на ту статью https://arxiv.org/pdf/1712.01208.pdf
Поясните, как тензорслесари байтослесарю, что значит Model Err для B-Tree на Figure 6?
Screenshot from 2017-12-10 12-42-49.png132 Кб, 1020x834
18 1105798
>>05787
Для того что бы говорить о замене страничного индекса эта велични должна быть 1/2 страницы или меньше.

Страничный индекс работает как алфавитный указатель в книге. Он дает тебе ссылку только на страницу, Не на сам слово(ключ) на странице. Но нам ключ на странице есть точно.
Их нейронка дает тебе указатель на конкретное слово в пределах не более (размер страницы пополам) от нужного тебе со 100% гарантией.

Разница в том, что от страницного указателя нужно перебрать размер_страницы записей вперед, а от того, что дала нейронка размер_страницы/2 вперед и размер_страницы/2 назад.
19 1105812
>>05784

> Спасибо комитету по стандартизации и Бьерну Страуструпу


Комитет не хочет портить обратную совместимость из-за зиллионов уже написанных строк. А не потому что там долбоебы, которые хотят чтобы крестовики страдали.
20 1105820
>>05645
Очередной плач маняматика о том что де не поверить гамалогиями нейросети. Ну, а кто же виноват, что маняматика настолько бессильная что реальные задачи ставящиеся бизнесом она решить не в состоянии? Промышленности некогда ждать пока аутисты раскачаются и начнуть доказывать первые робкие baby-теоремки, будет тут некоторый элемент алхимии и искусства, обычное дело.
Pixel-Gif-Pixel-Art-Motocross-Art-A830@5B0-4171894.gif4,7 Мб, 811x409
21 1105827
Есть два класса, первого класса в датасете 97%. Какой scoring лучше использовать? Как вообще так жить? Зачем продолжать заниматься этим, если в светлом киберпанковом будущем выгоднее быть барменом-человеком чем датаслесарем-человеком?
22 1105855
>>05827
У тебя два стула выхода.
1. Увеличить присутствие второго класса хоятя бы до 10%, например, сгенерировав фейковые/средние/случайные значения
2. Считать объекты второго класса аномалиями и использовать:
https://en.wikipedia.org/wiki/Anomaly_detection
https://alexanderdyakonov.wordpress.com/2017/04/19/поиск-аномалий-anomaly-detection/
23 1105930
>>05820
Не надо грязи. Али говорит, что если нельзя доказать теорему, хотя бы демонстрируйте эффекты на предельно простых экспериментах. А если уже начали говорить о чем-то ("internal covariate shift"), то будьте добры определить это, показать его существование, и продемонстрировать его эффект.
24 1105937
На Паскале можно сделать ИИ? А как?
25 1105941
>>05937
Конечно можно. Так же как и на сях только пишешь нейронку на паскале, ну или враппер для слесарфлоу.
26 1105943
>>05812
Один хрен ничего сложнее С-с-классами не компилируется спустя 10 лет.
27 1105945
>>05762
Эти ТПУ вроде бы дорогие ужс. Больше чем на вес золота.
28 1105951
Есть какой-то сайт, где все люди, часто даже без званий докторов наук, пытаются создать свой ИИ или хотя бы высказывают свои восхитительные идеи?
29 1105957
>>05951
есть, в /b
30 1105960
>>05951
https://www.reddit.com/r/MachineLearning/ -?
Туда и авторы AlphaGo, например, захаживают

>Hi everyone.


>We are David Silver (/u/David_Silver) and Julian >Schrittwieser (/u/JulianSchrittwieser) from DeepMind. We >are representing the team that created AlphaGo.



https://www.reddit.com/r/MachineLearning/comments/76xjb5/ama_we_are_david_silver_and_julian_schrittwieser/

Пойдет?
tpu-10.png45 Кб, 1354x822
32 1105968
>>05945
Стоят того.
Графики еще прошлой версии TPU v1
33 1105975
>>05968
На v2 еще и тренировать нейроночки можно. Ясно, что это круто, просто пока что это людям недоступно, только крупным конторам. Покупку такой штуки можно сравнить с запуском своего коммерческого спутника, например.
34 1105976
>>05937

>На Паскале можно сделать ИИ? А как?


Почти все API и так на питоне, куда уж дальше деградировать?
Screenshot from 2017-12-10 20-06-26.png339 Кб, 1341x912
35 1105981
>>05975
Да ладно. Производительность всего 180 teraflops на юнит. У копеечного титана V 110 teraflops.

копеечного для такой производительности.
3 к баксов это ничто. Дисковая подсистема с аппаратным рейдом стоит больше.
36 1105983
>>05981
Пока что не очень понятно, что под "deep learning teraflops" подразумевается. И памяти там мало. Так что еще смотреть надо, но вообще это хорошо, что разработки идут. Гугловский ТПУ, наверное, не очень эффективен по цене/производительности.
B4TQ7fX9WJQ.jpg30 Кб, 604x303
37 1105985
>>05983

>Пока что не очень понятно, что под "deep learning teraflops" подразумевается.


>Хуанг.


Всем все понятно.
38 1105988
>>05981

>180 teraflops


и чо, теперь ваши нейронки в 10 раз быстрее нулевой результат будут производить?
39 1106148
>>05760
Прочитал по диоганале и не понял.
Че уже пишут код нейронные сети?
Когда мне в макдак пиздовать?
40 1106161
>>06148
Прямо сейчас беги, а то все места займут.
41 1106170
>>06148
Еще хуже. Код вообще не нужен, его заменяют на нейроночки. Те, кто поумнее уже года три как в маке работают, в менеджеры уже выбились. А когда ты надумаешь, там будет очередь из тысяч бывших кодерков.
42 1106177
На реддите часто говорят, что мол в твиттере обсуждают то, это, всякие новые веяния. Я никогда не пользовался твиттером. Кто-нибудь может вкратце объяснить, как там организован диалог, как их посмотреть? Чтобы быть в курсе последних новостей, мне нужно подписаться на каких-то особо популярных людей (кого?), или на хештеги (какие?), или там есть какая-то группировка твитов по темам? Если ноунейм без подписчиков вроде меня ответит на твит какой-то звезды вроде Карпати, этот твит кто-нибудь увидит? Ответят ли на него?
43 1106181
>>06177
Этот твит все увидят и ответят, если захотят.
44 1106184
>>06181

>твит


твит же на русский переводится как вскукарек?
45 1106207
>>05827

>Есть два класса, первого класса в датасете 97%


Недавно участвовал в конкурсе участники конкурсов догадались в каком, где были как раз такие данные. Стандартные ml-методы хреново работают в таких условиях. Копай в стороны детекции аномалий, денойза, детекции выбросов и т.д.
oni-gorazdo-luchshe-chem-nam-kazhetsya-5-istorij-lyude-s-si[...].jpg40 Кб, 468x296
46 1106222
>>06207

> участвовал в конкурсе

47 1106321
>>06184

>твит же на русский переводится как вскукарек?


DA
48 1106375
позвали на собес фронтендером для разработки продукта на нейроночках.
эта успех))
49 1106377
>>06375
в мтс?
50 1106396
>>06377
Не, в медицинский стартап. Боже упаси работать в рашкинских продуктовых фирмах.
51 1106401
>>06396
b...gene?
52 1106468
>>06375
Советую на собесе обговорить возможность заниматься собственно нейроночками, а не только фронтендом. Ты же ради этого туда идешь. Даже если они не особо хотят тебя к этому пускать, если им силно нужен фронтендер, могут уступить и будет уже договоренность заранее. Иначе потом могут сказать, что не твоего ума это дело.
53 1106585
>>05855
>>06207
Спасибо, все поломалось, но обещает выдать как-то.. результат. Наверное. Может быть. Если нейронные сети корпораций не отнимут у меня работу завтра.
54 1106588
>>06401
ноуп
55 1106590
>>06468
Ну здрасти, я на это и буду упор делать. Мол читал книги по алгоритмам в мл, в свободное время накатываю numpy.
Я туда тока для этого и иду, что мне в свое время точно такая же идея, как та, которую они реализуют, в голову пришла, поэтому я буду ммаксимум заинтересован в этом проекте.
Даже если до питона будут со скрипом допускать, я все равно скачаю их проектик (я же для него интерфес буду делать) и разберу код.
56 1106631
Господа, накидайте годноты для новичков по LSTM.
57 1106690
Слышал, что язык Go ещё более для даунов чем даже питон. Это правда? На нем можно писать нейроночки? Я могу быстро импортировать тензорплов и писать свои нейросети изучив перед этим Go?
58 1106693
>>06631
В шапке.
59 1106714
>>06590

>накатывает numpy


>библиотека про умножение матриц


Ну хотя бы соври им, что уже тензорфлоу накатываешь.
60 1106786
>>06714
ну тензорфлоу - это конечно же по умолчанию.
61 1106815
>>06786
А как ты тензорфлоу пользуешься, ничего до этого на нампае не писав? Где предобработка данных, бака?
62 1106849
>>05498 (OP)
Меня не забанят на каггле, если я создам второй аккаунт для тестирования решений? Как может это выясниться? Разумеется, в победители не мечу, просто два сабмишена в сутки не хватает для тестирования гипотез.
63 1106858
>>06849
Вполне возможно. Могут вычислить по айпи или по совпадению решений, например. Раньше абьюзеров удаляли.
64 1106895
>>06849
тестируй локально, разбей трейн на трейн, кросс-валидацию и трейн; и тестируй
65 1106908
>>06895
Обучающая выборка и так очень маленькая в том соревновании.
>>06858
А каким образом? Я же засылаю результаты, а не код, а они каждый раз отличаются. А айпи может совпадать, если два программиста живут рядом или это общага, например.
Я же не собираюсь брутфорсить решения, перебирая их, я просто хочу, чтобы в день у меня было 4 или 6 попыток вместо 2.
Если засылать с разных айпи, не забанят?
66 1106913
>>06908
Они регулярно банят клоны, уж не знаю, как вычисляют. Не думай, что ты единственный хитрец.
Если обучающая выборка маленькая - часто используют сторонние данные, обычно правилами это разрешено.
67 1106929
>>06913
НЕТУ ТАКИХ ДАННЫХ БЛЕАТЬ, ГДЕ Я ТЕБЕ ФОТКИ ОПРЕДЕЛЕННОГО ТИПА СО СПУТНИКОВ НАЙДУ
Ладно, понял, спасибо, надо было раньше начать делать.
68 1106936
>>06929

>ГДЕ Я ТЕБЕ ФОТКИ ОПРЕДЕЛЕННОГО ТИПА СО СПУТНИКОВ НАЙДУ


GAN тебе в помощь
69 1106942
>>06936
новый уровень data augmentation
70 1107354
>>06849

>Меня не забанят на каггле, если я создам второй аккаунт для тестирования решений?


Забанят и правильно сделают. Это прописано в правилах.
71 1107653
Посоны, поясните за Q-learning когда комбинаций огромное множество как в шахматах.
72 1107670
У меня есть две сетки: одна на теано, другая на тензорфлоу и мне надо их друг к другу подсоединить, самое простое решение -- переписать одну из них или можно как-то ещё?
73 1107675
>>07670
Они ж обе на питоне, подавай выход одной на вход другой. В чем проблема?
image.png664 Кб, 768x448
74 1107702
Тут один анон исходный код для смены лиц на видео выложил, нейросети и т.д.
https://www.reddit.com/r/deepfakes/comments/7jqvny/release_face_swap_model_tool/
75 1107707
>>07653
И какой вид нейронки они используют для обучения? Вообще как выглядит схема обучения. В питоне не всегда понятно что и как соединено даже с описанием.
76 1107747
>>07670
Теано умер, так что лучше переписать на тф.
>>07707
Тебе книгу по RL тут пересказать или чо? Иди учи основы. Для начала осиль Саттона.
77 1107822
>>07653

> Посоны, поясните за Q-learning когда комбинаций огромное множество как в шахматах.


Чего тут пояснять, обучение затянется на годы и все. Если бы все было так просто, давно бы уже реализовали. Как вариант, придумать метод оценки результативности во время самой игры, т.е уже по ходу партии как-то отсекать бесполезные ходы. Опять же, вручную это нереализуемо, нужны какие-то эвристики полезности.
78 1107824
>>07702
Результат можно заценить на pornhub, лол.
79 1107860
>>07702
Спасибо за ссылку. Сейчас пойдет волна всевозможных фейков. Уходит эпоха человека, похожего на генпрокурора.
80 1107870
Что там из математики для вкатиывания нужно знать? Calculus обязателен?
81 1107887
>>06908
Щас бы думать что крупнейшая площадка соревнований по машинлернингу не сможет вычислить наебывающего васяна.
Вангую что это делается в полуавтоматическом режиме, сначала твои аккаунты на основании комбинации подозрительных факторов помечает система, а потом уже его рассматривает под лупой специальный человек
82 1107891
>>07747

>Тебе книгу по RL тут пересказать или чо? Иди учи основы. Для начала осиль Саттона.


Люди умещают весь этот процесс в несколько строк питона.
83 1107919
>>07860
дело же не в технологиях, а в людях.
84 1108007
Вопрос к работающим машоб-господам: как вы выясняете какие параметры модели дают лучший результат? Просто прогоняете на разных комбинациях параметров и записываете на бумажку? Отдельные тесты? CI/CD?
85 1108020
>>07891
Один из сотни алгоритмов. И без понимания хотя бы на уровне определений, ты все равно не поймешь почему надо делать именно так.
86 1108021
>>08007
Random search / Grid search / "(under)Grad search"
87 1108023
>>08007
Я прогоняю на комбинациях и пишу на бумажку. Пытаюсь интуитивно понять, как параметры влиаят на процесс, но по сути просто случайно ищу.
88 1108030
>>08021
Это понятно. Меня больше интересует то, как этот поиск запускается (автоматически?), как наблюдается результат (очеты/графики?), что потом происходит с "лучшей" моделью (автоматический деплой на dev/test/stage-сервер?).
Ну и соответственно: какие инструменты для всего этого must have?
>>08023
Именно тот процесс от которого хочется уйти.
89 1108079
>>08020
Хорошо, какой использует гугл в Alpha Zero? Например, хочется самому потренировать. Все таки такие задачи интересней, потому что у них нет точной оценки действия.
90 1108111
Батч-нормализация может ухудшать результаты работы нейронки? А дропауты? Везде пишут, что дропауты спасают от переобучения, но на данных оказывается, что это не так. Или просто брать больше/меньше эпох?
91 1108123
>>08079
Прочти статью, там все расписано. У alphazero нетрадиционная тренировка, собственно в ней и заключается прорыв. Вроде бы кто-то на гитхабе делал клон. Но для го или шахмат там годы вычислений на ГПУ требуются.
92 1108124
>>08111
Все может ухудшать результаты. Надо уметь правильно применять.
93 1108147
матан для вашей хуйни нужен? а то почитать хочу че это за нейтронные сети, но ебаться с матаном не хочу
94 1108158
>>08147
нужен и пиздец какой. можешь почитать книгу по алгоримтам аи и офигеешь от формул.
95 1108183
>>08147
Нужна довольно серьезная математическая база. Без нее максимум что тебе светит - бездумно копировать стоки или целые репозитории с готовыми решениями.
96 1108220
>>08124
А ты можешь какую-то конкретную статью/конкретную главу из конкретной книги по ухудшениям от дропаутов посоветовать?

Батч-нормализация судя по результатам все-таки улучшает.
97 1108230
>>08183
>>08158
Вот предположим я после n-го прочтения догнал алгоритм.
Но как мне это поможет в проде?
98 1108243
А мне интересно наоборот, тут математика где-то кроме вапника есть или только шаманство? Что после него читать, поближе к современным реалиям чтоб?
99 1108244
>>08220
Не могу. Дропаут - это регуляризация, соответственно можно ожидать более медленной сходимости, например. Вплоть до полной остановки обучения. Еще слышал что на свертках он не работает, но тут не уверен.
100 1108249
>>08230
Например, ты сможешь правильно применить этот алгоритм, обнаружить и устранить проблемы в его работе, сказать в каких случаях он применим.
101 1108250
>>08243
Не шаманство, а скорее инженерия, кое-где граничащая с шаманством. Читай шапку.
102 1108253
>>08243
тут матан на уровне теорфизики 60-х годов, когда еще толком не вдупляли что такое интеграл фейнмана и как суммировать ряды диаграмм. Что-то работало и давало офигенные результаты которые по-другому не посчитаешь. Что-то не работало, хотя вроде бы все делалось по правилам, но в результате получались какие угодно сечения рассеяний. То же самое и с нейронками сейчас: повезет, решишь задачу лучше человека, не повезет, будешь на уровне тупых алгоритмов из предыдущей эпохи болтаться. Но ждать пока матанщики допрут до этого не вариант: все задачи к этому времени уже решат те, кто не боится обосраться прилюдно.
103 1108254
>>08253
А в чем публичный обсер? Если получилось, публикуешься, нет - закапываешь и копаешься дальше. В этом вся наука, собственно.
В целом хорошо описал ситуацию.
104 1108255
>>08250

> Не шаманство, а скорее инженерия, кое-где граничащая с шаманством. Читай шапку.


Да нет, кроме Вапника шаманство и есть. Он ещё в 60х годах выделил 2 подхода к машобу. То, что делает он это сложно, не зря у него ушли десятилетия на получение практически ценных результатов. Гораздо проще шаманить, это даже индусы могут.
105 1108261
>>08254
ну в том, что например суммировать расходящиеся ряды - зашквар, который учат избегать еще на первом курсе.
106 1108262
>>08255
ты не догоняешь. Когда математика поймет почему нейронки работают это уже будет в школьных учебниках. Ты представляешь, что алгоритм Hamiltonian Monte Carlo уже в 80х считал квантувую хромодинамику, а почему он работает начали понимать только в 2010х? Или ты только кукарекать про индусов можешь?
107 1108273
>>08262

> Когда математика поймет почему нейронки работают


Пиздец. Почему они работают, было известно ещё в начале прошлого века. Ещё Маккаллоку с Питтсом. Ещё Розенблатту. Арнольд с Колмогоровым пояснили полностью. Вся суть там в представлении функций от многих переменных через суперпозиции частных функций от двух или около того переменных. Вот и все. Остальное это методы аппроксимации зависимости выхода от входов. Все это сто лет уже известно любому знакомому с математикой уровня выше школьного. Вапник же начал вообще с другой стороны, с постановки задачи обучения машины регрессии, классификации и восстановлению распределения вероятности по датасету, что покрывает вообще весь возможный машоб.
108 1108281
>>08255
Математика всегда догоняет, смирись с этим. Программы тоже сначала пишут, они работают, и только потом через десятилетия математики кое-как на упрощенных моделях формально доказывают работоспособность.
109 1108283
>>08254
В том что тут есть от 1 до 3 математикодрочеров, которые упорно форсят что текущий подход говно, нужно засесть за формальные доказательства и разработку мат теорий, а потом уже распознавалки песьих анусов писать.
110 1108301
Если бы математика понимала, как работают нейронки, она давала бы четкий ответ, какой оптимальный алгоритм, какие выбрать гиперпараметры.
На деле же этого нет, а есть шаманство и дрочево.
111 1108303
>>08301
Дебил ты. Просто дебил.
112 1108312
>>08303

>Дебил ты. Просто дебил


лол, тот анон ппав. как кстати этот ваш черный ящик отлаживается, всмысле дебагинга?
113 1108321
>>08303
Добавь-ка немного информативности в свои выперды. Что конкретно дал матан нейронкам? Прямой проход - это умножить и сложить, арифметика за третий класс. Алгоритм обратного распространения ошибки? Да его в девятьсот лохматом придумали. Потом надолго затупили на перцептроне. Затем догадались перцептрон по картинке построчно двигать - получилась свертка. Охуеть как сложно.
Сейчас топовая сетка на Imagenet - это NASNet, якобы сгенеренная автоматически. Я смотрю на нее - бред там с точки зрения человека. Типа два ReLU подряд, или Pooling(kernel_size=1, stride=2). Работает как и прежнее говно, но на один процент лучше. Где тут ваш матан, я его не вижу. Точнее, не вижу прогресс благодаря ему.
114 1108347
>>08301

Честно говоря, на твой вопрос отвечает банальная No free lunch theorem

We have dubbed the associated results NFL theorems because they demonstrate that if an algorithm performs well on a certain class of problems then it necessarily pays for that with degraded performance on the set of all remaining problems.[1]

In 2005, Wolpert and Macready themselves indicated that the first theorem in their paper "state that any two optimization algorithms are equivalent when their performance is averaged across all possible problems".[3] The 1997 theorems of Wolpert and Macready are mathematically technical and some find them unintuitive.

Отсюда и все шаманство, что алгоритм всегда приходится выбирать под изучаемую проблему-пространство. И не существует золотой пилюли.
115 1108348
>>08347

>No free lunch theorem


Пустая софистика. Из того, что средний анализ мочи / кала / крови по больничке всегда примерно на одном уровне, никак не следует, что анализы не могут служить диагностическими критериями. Хотя бы потому, что оценивается конкретная проба от конкретного поциента.
116 1108352
>>08347

>не существует золотой пилюли.


Вообще, чисто теоретически выход есть. И я его описывал в этих тредах с полгода назад. Как можно автоматически построить алгоритм под любую конкретную задачу (подобрать параметры уже проще). Есть методы, только те, кто понимает что надо делать, не владеют в достаточной степени кодингом, а с индусов-быдлокодеров что взять. Так и живем.
117 1108360
>>08244
Энивей, спасибо, попробую увеличить количество эпох.
118 1108394
>>08249
Ну я так то только вкатываюсь.
Прохужу курс яндексовский на курсере и читаю лекции ВШЭ и Воронцова.
И когда дошло до стенкинга там прям написано: НУ БЛЯ ЕПТ НИКТО НЕ ПОНИМАЕТ ПОЧ СТЕКИНГ РАБОТАЕТ, РАБОТАЕТ И ХУЙ С НИМ
Вот у меня и сложилось впечателение, что если ты не ресерч гай, а простой слесарь в моем случает я просто хотел бы юзать опенсв на сС++ не как обезьяна, то особо глубоко понимать смысл всего этого не стоит.
119 1108434
>>08273
ты нихера не понимаешь, анон. "Почему они работают" = "почему ожидание функции потерь на тренировочном сете и на тестовом сете различаются на маленькую величину и как она зависит от модели и количества тренировочных примеров". Ты видимо очередной фрик, считаешь что все еще архимед придумал. И Вапника ты видимо не читал, а если и читал то не понял.
120 1108437
Как сделать свое векторное пространство, ну, точнее там svm или что-то там, ну где король + женщина даёт королева
121 1108440
>>08437
Linguistic regularity это называется. SVM не при чем.
122 1108442
>>08437
Да, word2vec гугли. Для R есть text2vec, тоже может в это. Но оно не всегда нормально работает, хотя в десятке ближайших векторов правильный ответ есть всегда.
124 1108465
>>08454
Что это за чувак? я почему-то подписан на этот канал, лол
125 1108579
>>08352
И как?
126 1108665
Анонсы, как данные с жпс препроцессить? У меня, например, есть координаты и время их отправки. Задача - классификация транспортных маршрутов.
127 1108902
>>08665
Превращай пути в картинки.
128 1108913
>>08902

>в картинки


а картинки в видеоряд
129 1109020
>>08321

>два ReLU подряд


Искусственный интеллект, который мы заслужили.
131 1109070
>>09068
Уёбывай.
15119545829210.jpg71 Кб, 605x639
132 1109074
>>09070

С чего бы?
133 1109084
>>09068
Задача опять про торговлю байткойнтами?
134 1109085
>>09074
Потому, что вы задрали своими тестами, анкетами, аджайлом и отчётностью в Битрикс24 с оплатой по часам, вот почему.
«Тестовое задание» — это значит, рабовладелец живёт за счёт родителей тех, кого нанимает на работу.
135 1109098
>>09084

>Мы – подразделение компании ZORG Invest


угадал
15121979503100.jpg62 Кб, 537x537
136 1109119
>>09085

Тащемта, я на linux.org.ru в разделе job это стащил. Вы же сами тут ноете, что работу найти не можете.
image.png3,6 Мб, 1920x1080
137 1109122
Аноны, я тут немного платиновый. Я правильно понимаю, что если у меня АМуДа вместо видимокарты, то в нейронки лучше не лезть у меня еще i7 7700k как CPU, но судя по всему это не решает.

И еще, насколько трудозатратно будет вкатиться в нейронки, если я не планирую ими зарабатывать, знаю питон, джаву и немного го и работаю ИТ не пограмист ? Хочу сделать генератор обоев с нужной цветовой гаммой. Задолбало ради них интернеты шерстить
138 1109134
>>09119
Оттуда объяву уже удалили. Нет никакой информации о вакансии, гугл слышал только про одноименную контору в Голландии. Сайт-пустышка. Стремно как-то заниматься таким тестовым заданием.
139 1109184
>>09122

>Хочу


А я хочу чтобы 15 числа менты оцепили Москву, и начали всячески гнобить хачей и не давать им кучковатся. И что бы хачи разозлились как следует. И чтобы приехал Кадыров на золотом трехэтажном лимузине, и сказал ментам «Идите на хуй». И чтобы менты пошли нахуй. И множество хачей стало собиратся около Европейского, по дороге пиздя всех подряд. И чтобы анон кинул в них бутылки с средством для костров. И чтоб хачи впали в ярость и кинулись терзать подъехавших омоновцев и ввшников, переворачивая и поджигая их автобусы, и насиловалуя женоментов и их немецких овчарок в глазницы. И чтобы разгневанные ноостями футбольные фанаты собрались на другом конце моста Богдана Хмельницкого и повесили несколько хачей на поручнях моста. И чтобы хачи увидели это и кинулись к ним. И чтобы они начали биться за мост, падая с него окровавленными комьями. И что бы лед провалился от веса трупов. И чтобы вконец ебнувшиеся еще летом от жары и дыма планарии стали выпрыгивать из воды и хавать трупы. И чтобы они забили своими разжиревшими телами Москву-реку. И чтобы начался потоп. И ополоумевшие таджики стали выскакивать из заливаемых подвалов со своими грудными таджичатами, кипятильниками из лезвий и горящими метлами, и начали поджигать прохожих и голубей. И чтобы горяшие голуби занесли огонь в Останкинскую телебашню. И чтобы из зала суда вырвался Ходорковский, и вместе с Каспаровым и Шендеровичем, он залез бы на самую высокую башню кремля, и стал кидать в творящийся внизу хаос тысячи сшитых им рукавиц. И чтобы болельщики все дрались и дрались бы с хачами, а хачи дрались между собой, и всех их хуячили бы менты, а ментов бы хуячили подтянувшиеся силы таманской дивизии, которым похуй кого пиздить потому что они загипнотизированы метелью, порхающими рукавицами и горящими голубями. И что бы Путин посреди улицы громко играл на рояле, а Медведев стоял рядом, делал фотки и выкладывал в твиттер. И всю эту хуйню показывали по всем каналам как 9/11. И чтобы хуйня все длилась и длилась, а Путин все играл и играл.
139 1109184
>>09122

>Хочу


А я хочу чтобы 15 числа менты оцепили Москву, и начали всячески гнобить хачей и не давать им кучковатся. И что бы хачи разозлились как следует. И чтобы приехал Кадыров на золотом трехэтажном лимузине, и сказал ментам «Идите на хуй». И чтобы менты пошли нахуй. И множество хачей стало собиратся около Европейского, по дороге пиздя всех подряд. И чтобы анон кинул в них бутылки с средством для костров. И чтоб хачи впали в ярость и кинулись терзать подъехавших омоновцев и ввшников, переворачивая и поджигая их автобусы, и насиловалуя женоментов и их немецких овчарок в глазницы. И чтобы разгневанные ноостями футбольные фанаты собрались на другом конце моста Богдана Хмельницкого и повесили несколько хачей на поручнях моста. И чтобы хачи увидели это и кинулись к ним. И чтобы они начали биться за мост, падая с него окровавленными комьями. И что бы лед провалился от веса трупов. И чтобы вконец ебнувшиеся еще летом от жары и дыма планарии стали выпрыгивать из воды и хавать трупы. И чтобы они забили своими разжиревшими телами Москву-реку. И чтобы начался потоп. И ополоумевшие таджики стали выскакивать из заливаемых подвалов со своими грудными таджичатами, кипятильниками из лезвий и горящими метлами, и начали поджигать прохожих и голубей. И чтобы горяшие голуби занесли огонь в Останкинскую телебашню. И чтобы из зала суда вырвался Ходорковский, и вместе с Каспаровым и Шендеровичем, он залез бы на самую высокую башню кремля, и стал кидать в творящийся внизу хаос тысячи сшитых им рукавиц. И чтобы болельщики все дрались и дрались бы с хачами, а хачи дрались между собой, и всех их хуячили бы менты, а ментов бы хуячили подтянувшиеся силы таманской дивизии, которым похуй кого пиздить потому что они загипнотизированы метелью, порхающими рукавицами и горящими голубями. И что бы Путин посреди улицы громко играл на рояле, а Медведев стоял рядом, делал фотки и выкладывал в твиттер. И всю эту хуйню показывали по всем каналам как 9/11. И чтобы хуйня все длилась и длилась, а Путин все играл и играл.
140 1109191
>>09184
начни с себя
141 1109192
>>09122

>если я не планирую ими зарабатывать


То дальше хеллоуворда ты никогда не уйдешь.
142 1109263
Как сделать своего интеллектуального агента?
143 1109264
>>09192

> дальше хеллоуворда


ну ты критичен ко мне, я иногда под линуксы программирую, иногда быдловеб, все по большему счету для себя. На работе это все только коственно надо. Хобби у меня такое прос
144 1109285
>>09122
А вопрос про карту стоящий? Сколько денег на железо нужно потратить чтобы вкатиться в нейронки? И можно ли купить просто специальный компьютер внешний, без переферии, только с видеокартой?
145 1109286
>>09285
Можно просто купить еще одну видеокарту, ноя этого делать не буду, моей хватает
146 1109337
>>09285
Я недавно собрал норм комп с 1080ти (топчик для МЛ сейчас по цене/скорости) за 2к грина вместе с монитором. Очень доволен, в перспективе можно поставить еще одну видеокарту.
147 1109356
>>05498 (OP)
тренирую сеть из 47 нейронов в одном скрытом слое. Входной слой - 7. Выходной - 1.
learning rate 0.45
библиотека theano.
cpu. Celeron.
10 эпох на 10 экзмплярах тренируются 500 секунд.

Так и должно быть?
148 1109373
>>09356
Смотря сколько у тебя там данных в эпохе. Ну и

>cpu. Celeron.


Теано умер, кстати.
149 1109375
Почему бывает, что лосс на validation очень маленький (0,03-0,05), а лосс на train раз в 5 больше (0,2). Казалось бы, данные однородные.
150 1109379
>>09375
Эффект выбросов в тренировочной части и сильно регуляризованной модели.
151 1109416
>>09373
10 экземпляров, карл. 10 векторов - весь дейтасет. специально обрезал, чтобы посмотреть, за какое время это говно их обсчитает.

>Теано умер, кстати.



а тензорфлоу говно ёбанное, пусть со своим bazelем на хуй идут, раз делать нехуй, кроме как всякое говно без фатального недостатка not invented here втирать.

так что, хоть зайку и бросила хозяйка, он будет живее всех живых. По крайней мере до тех пор, пока гугл будет продолжать толкать свою уёбищную систему сборки.
152 1109422
>>09416
Тогда это нереально медленно, конечно. Где-то баг.
Попробуй питорч, базарю еще захочешь.
153 1109432
>>09422
вот только фиг его знает где. Сеть не моя - я готовую либу взял, которая всё делает и уже засветилась в статье. Ну не в теано он же.

Celeron не новый, а ещё 32х битный. Но я сильно сомневаюсь, что даже на таком целероне может так тормозить.
154 1109433
>>09432
Ненене, 50с на 10 примеров? Как самый-самый минимум в 1000 раз быстрее должно быть, селерон, не селерон.
Возможно, та либа делает что-то гораздо более тяжелое внутри. Смотри по шагам, сделай сам маленькую нейроночку по туториалу, посмотри с какой скоростью она тренируется.
vladtepesbig-x01.jpg45 Кб, 525x557
155 1109440
Мне нужен генератор портретов.
Есть что-либо готовое, или придется самому собирать коллекцию и тренировать нейроночку? Долго же.
Или лучше вообще найти генератор фотореалистичных лиц, а затем обработать переносчиком стиля для портретизации?
156 1109443
>>09440
Оупенсорс есть генератор анимешных девочек, если тебе такое подойдет. Прям портретов не видел вообще. Нвидиа сделала генератор фоток знаменитостей, но вроде не оупенсорс. Придется делать самому, скорее всего.
Для игр это было бы шикарно. Если сделаешь, выкладывай.
157 1109503
Есть одна задача, она вполне нормально решается catboost'ом, если бы не одно но... решения нестабильные.

То есть я запускаю вот так
catboost-0.5 fit --learn-set "samples-catboost-2928.train.tsv" --test-set "samples-catboost-2928.test.tsv" --column-description "samples-catboost.column.tsv" --loss-function "CrossEntropy" --custom-loss Precision,Recall --train-dir "samples-out-CrossEntropy-0.1-6-20-28" --thread-count 5 --snapshot-file snapshot.model.bin --iterations 20 --depth 6 --l2-leaf-reg 28 --learning-rate "0.1" --fstr-file fstr.tsv --fstr-internal-file fstr-internal.tsv

Делаю так 10 раз, переименовывая папки, и у меня получаются модели, которые совершенно по разному обсчитываются на тестовой выборке. Где-то очень хорошо, где-то хуже. Очевидно, что в одном случае модель уходит в over fitting, в другом нет.
Я меняю depth (6 & 9), iterations, learning-rate, l2-leaf-reg, loss-function (между CrossEntropy & LogLoss). И обсчитываю каждую пермутацию параметров 10 раз, но если модель себя правильно показывает на тестовой выборке, я прекращаю обсчёт и перехожу к следующей пермутации.

Правильно ли я понимаю, что можно использовать ту модель, которая хорошо себя показывает на тестовой выборке или мне нужно поделить данные на 70%/20%/10% и тестировать каждую модель отдельно на 20% выборки и отдельно на 10% и только при обоюдных успешных тестах — использовать модель? Или полученные модели вообще нельзя использовать, потому что хорошие тесты это просто совпадения, а модели очевидно всегда в оверфите?
158 1109504
>>09503

> catboost-


Что-то от яндекса? А с нормальным софтом типа deepboost или xgboost такие же проблемы?
159 1109509
>>09504
Я начал с xgboost, но он меня подвёл кое в чём, поэтому сейчас трахаюсь с catboost'ом, но принципы-то одни и те же
160 1109524
>>09509
А тебе из каких-то соображений именно бустинг нужен? Мб там SVM с регуляризацией достаточно или чего-то в этом роде.
161 1109528
>>09524
данные специфичные. Но мб SVM и сработает
Hype-Cycle-General.png148 Кб, 1152x768
вы уже опоздали 163 1109547
Ваши попытки потратить пару лет на вкатывание в нейронки обречены на провал. Через два года IT-пузырь родит новый хайп и вам снова придется переучиваться. Ведь рыночку всегда нужно не то чему вы учились предыдущие два года.
164 1109590
>>09085

> рабовладелец


Я победил в игре "найди хохла"! Ты "галеру" забыл упомянуть
165 1109628
Посаны, я тут подумал, а ведь сыгранные парти по-сути ничем не отличаются от лейблов в обучении с учителем. Массив ходов - батч, награда - правильный лейбл для всего батча.
166 1109629
>>09628

>,по сути,



фиксую
167 1109634
>>09547

>Ваши попытки потратить пару лет на вкатывание в нейронки обречены на провал


Так и есть.

>Через два года IT-пузырь родит новый хайп


Уже рождается. Просто до вкатывальщиков на зекаче волна еще не докатилась. Помогать этому я конечно не буду
168 1109636
>>09542
Поясни картинку и что там на иероглифах. Хули, cnn, rnn, caffe не обязательно значат диплернинг.
169 1109640
>>09634
Семен, плиз. Следующий хайп в IT - обучение роботов с ИИ, а дальше уже конец, гибель человечества.
170 1109641
>>09640
а как же веб 4.0 на носимых устройствах
171 1109642
>>09640

>Семен, плиз


С чего ты решил что я семен, мань?

> Следующий хайп в IT - обучение роботов с ИИ, а дальше уже конец, гибель человечества.


Рановато ему гибнуть, ну и тебя не смущает твой вскукарек, исходя из того что пока промышленное производство редукторов, сервоприроводов и прочей релейтед хуйни для роботов в предзачаточном состоянии? Кроме darpa и пары исследовательских центров этим никто в мире массово не занимается.
Да и хипстеров с подворотами, скачущих по хайповым направлениям, аки твоя матушка по хуям, в обучение роботов не пустят.

>гибель человечества


Ссыканул на всякий случай в любителя примитивных киноштампов.
caffe.JPG26 Кб, 672x138
172 1109644
>>09636

>что там


Там в комментах все верно переведено. Это китайская разновидность индийских программеров на C++.
173 1109645
>>09640

>Следующий хайп в IT - обучение роботов с ИИ


ах ну да, все предыдущие хайпы позорно слиты. тот же ocr ох какое дно, не грворя о более сложных вещах.
174 1109654
постойте постойте. но я только нампи накатил, а вы уже говорите, что хайпа нет.
175 1109655
вот вы говорите "хайп хайп пузырь сдуется". а посмотрите, как серьезные дядьки пляшут вокруг околоайтишных хайпов.
аж специальность в универы хотят вводить "спец по биткам" лел.

Участники также предлагают Минобрнауки России рассмотреть вопрос разработки и внедрения стандарта профессиональной квалификации «Специалист в сфере блокчейн – технологий».
https://gov-news.ru/роспатент-первый-российский-блокчейн-патент-появится-в-ближайшие-месяцы/
176 1109656
>>09641

>а как же веб 4.0 на носимых устройствах


Все последние годы веб упорно стремился в тонкие клиенты, а десктопные приложения превращались в сайты. Скоро конвергенция нахуй, а за ней пустота.
>>09642

>промышленное производство редукторов, сервоприводов


Речь шла про хайп в АЙТИ.

>любителя примитивных киноштампов


Никаких Терминаторов и восстания ИИ, у среднего человека просто деградирует интеллект ниже критического уровня с очень нехорошими последствиями в условиях урбанизации и высокой плотности населения.
177 1109657
>>09655
Вот подтверждение тезиса, что люди тупеют. Интеллектуальная элита - айтишники, повелись на МММ в блокчейне.
178 1109659
>>09657

>илита


>айти


>Россия

179 1109663
>>09657

>Интеллектуальная элита - айтишники, повелись на МММ в блокчейне.


Айтишники повелись только тем что начинают внедрять блохчейны в любое говно за сотни тысяч долларов. Я бы не сказал что они тупые.
180 1109727
>>09503
это говно на 32х битах пашет? майкрософтовское говно собралось, но как пашет её не пробовал.
181 1109729
>>09547
это всё равно что сказать, что все те, кто обучился программированию опоздал. Но ведь это не так. Сейчас это совершенно необходимый навык, нужный каждому. Завтра (уже вчера на деле) к набору этих базовых навыков добавится ML. Кто не осилит - пойдёт на хуй. Кто осилит - не будет чем-то выдающимся из-за этого.
182 1109730
1379-eded0708dfe855304a50029fccf1a677[1].jpeg406 Кб, 788x949
183 1109732
>>09727

> на 32х битах пашет?


> 2017

184 1109733
>>05645

>Вернее, понравилось бы, если бы они понимали английский.


Нейронки местных Антонов настолько плохи что они не могут в ингриш?
185 1109735
>>09729
Кому "каждому"? Люди школьную программу осилить не могут, а он про программирование говорит.
186 1109740
>>09730
В реальном мире qc нереализуемо.
187 1109741
>>09729
Ну и нахуй он нужен кажому? Я бы посмотрел как ты будешь тете зине на кассе объяснять что без навыков писать код она нинужна.
188 1109744
>>09741
Ей это хозяин кассы объяснит, очень доходчиво, пинком под зад.
189 1109787
Есть что нибудь на жабе для неронок?
190 1109791
>>09122
бамп
Кстати что проще и сойдет для такой задачки PyTorch или Keras ?
191 1109797
>>09791
Керас проще для простых моделей, питорч для сложных.
192 1109951
>>09068
Покопался все-таки немного с этой задачей ради интереса. Сложно, не осилил сделать нормально. Тут кто-нибудь пробовал?
193 1109973
>>09951
ZOG Invest, плиз
194 1109980
>>05498 (OP)
Насколько правда, что вкатиться нельзя уже?
195 1110005
Если кто MT занимается, помогите инвалиду.

Все пишут, что у них, там на WMT такого-то года BLEU такой-то. Я иду на сайт соревнования http://www.statmt.org/wmt15/translation-task.html и вижу там в тест-сетах только по одному референсному переводу, на чем они BLEU считают? Правда на одном референсе или я просто плохо ищу?
196 1110007
>>09973
Я к ним не буду подаваться, скорее всего, даже если сделаю это задание. Контора слишком мутная. Просто интересно, смогу ли. Там немного замаскированная задача про торговлю на рынке, и у меня не вышло побить их бенчмарк. Вот и спрашиваю, вдруг кто-то смог.
197 1110013
>>09657
но ведь это чиновники повелись на хайп вокруг блокчейнов.
198 1110094
>>09980
99,(9)
199 1110097
>>10094
Нахуй тогда тред?
200 1110098
>>10097
Для тех кто уже вкотился.
202 1110189
>>09980
заебали, попробуй хеллоуворды, если зайдет то продолжай, работу найдешь, этож IT, тут хайпы умирают только среди хипсторов, если оно пришло в энтерпрайз, то протянет еще долго. Если не зашло - нехуй и продолжать, ты же не хочешь ненавидеть то чем занимаешься большую часть времени ?
203 1110196
Все, посаны, кажется я понял как сделать генеральный искусственный интеллект.
204 1110201
Гайз, а среди вас есть труЪ машлернеры?
которые конкурсы выигрывали, какие-то охуенные решения разрабатывают что-то в этом духе.
Или только на двощах пиздите дохуя?
205 1110234
>>10201
Есть.
206 1110249
>>09735
ну так давайте равняться на всяких недоумков.
207 1110257
Я охреневаю. Это просто пиздец. Каждые авторы либ выёбываются как могут.

sklearn.preprocessor - если есть хоть один nan или None бросает ошибку. И разрабам похуй, тикет уже много лет висит. А мне нужно именно с пропущенными переменными - методы обучения отсутствующие переменные обработают.

patsy - лютый пиздец. во-первых коверкает имена и даже отображения старая колонка <-> новые колонки не предоставляет. Ладно, с именами можно ещё вручную поебаться, хоть и заёбывает конкретно, но ... блять, во-первых имена каждый раз разные в зависимости от фаз луны, а во-вторых наборок колонок бывает разный, и не остаётся ничего, кроме полного перебора, обёрнутого в try - except. А без патси нельзя - делает то, что sklearn.preprocess делать отказался. А ещё в этом дерьме почему-то число строк во взодной матрице отличается от числа строк выходной. Но ещё большие проблемы возникают, когда пытаюсь сделть предсказание по регрессии. Ето дерьмо ругается на входной вектор, типа не те типы.

lifelines - либа типа нормальная, но что-то регрессия Кокса выдаёт сумасшедшие результаты.

xgboost - почему-то делает одно дерево глубиной 3 на 4х категориальных переменных, хотя я предоставил дофига численных.

короче, как мне со всем этим говном совладать?
208 1110263
>>10257
Успокойся и нормально почитай доки прежде чем юзать либу. По тому что ты написал не увидел чтобы авторы где-то выебывались
209 1110278
>>10234
ну так поделитесь достижениями, а то такое ощущение что тут одни школьники сидят и пиздят
210 1110280
>>10134
вкотиться могут те кто еще десять лет назад вкотился в матан и прочее.
то есть опция вкотиться есть, но не для всех.
Если ты не из этих, то сорри братан
211 1110282
>>10280
Двачну. И ведь это совершенно очевидно, но нет, никто из них не засядет за матан. Так и будут тут стенать.
212 1110283
>>10278
Достижениями делятся на конференциях, в крайнем случае на реддите. Здесь просто потрепаться, обсудить новости или какие-то непонятные вещи. Это же анонимный форум, чувак.
213 1110286
>>10283
Ну тогда расскажи чем занимаешься, как вкотился, какой бэкграунд.

Мимо тоже интересно
214 1110293
>>10283
ну если он анонимный, то хуле тебе будет есть ты в одном сообщении с деанонишься. ты же фото с флажком в жопе не выкладывал в itt
215 1110313
>>10257

> короче, как мне со всем этим говном совладать?


Использовать R вместо пистонопараши. Как вариант, можешь и дальше содомировать хуиту, не могущую даже в корректную обработку nan ов.
216 1110387
>>10313
вот r - это и есть хуита хуит. Чтобы решить такую простую задачу, как парсинг числа из строки (число в хексе) пришлось конкретно заебаться. Выяснилось, что в r из коробки этого нет, после чего язык был послан по адресу.
CuPT7glXQO4.jpg104 Кб, 570x960
217 1110457
А что за история с байесианцами?
gopher.png39 Кб, 222x238
218 1110467
>>05498 (OP)
Ух ты, Go даже тут рулит, педалит и нагибает! А они мне говорили: язык для дебилов, язык для дебилов. Вон, уже просторы нейронных сетей во всю бороздит!
219 1110472
>>10467
Чушок, вернись в свой загон. В машобе рулит, педалит, нагибает и будет продолжать с++ и биндинги на пистон. Все остальное не более чем игрушки(разве что r еще). Я посмотрю как ты свою парашу будешь юзать на мобилках и полностью переписывать современные промышленные решения лишь бы можно было корутинами в жепу поебстись.
220 1110473
>>10467
Хотя наверное ты просто шутканул про первую пикчу, а я пропиздоглазил. Но тем не менее видал goвнарей с похожими заявлениями.
221 1110475
>>10472
Тогда почему твоих чудокрестов даже на графиках ОПпика нет? Ммм? Соснул, крестоблядь?
222 1110477
>>10473
больше похоже что он сам лажонул
IMG4614.JPG2,1 Мб, 3648x2736
223 1110532
Посаны, как сделать нейросеть, чтоб она классифицировала моих куколок по размеру - крупные (справа), средние (слева), мелкие (по центру).
Придется размечать начальные фотки вручную?
224 1110548
>>10532
Я один не вижу разницы между этими червями (что слева, что справа, что по центру)?
225 1110550
>>10467
Смешная шутка.
226 1110564
>>10532
Даже для этого вопроса тебе нужно их разметить, т.к. я в упор не вижу никакой разницы между теми, что справа, слева и по центру.
IMG4618.JPG379 Кб, 3045x1727
227 1110588
>>10548>>10564
А разница есть, но на глаз классифицировать сложно, поэтому и нужна автоматизация.
228 1110596
>>10588
Допустим у нас есть готовая программа, которая однозначно классифицирует твоих червей смотри конкурсы про тюленей и сортировку рыбы. Что ты дальше будешь делать с результатом классификации? Сортировать их по баночкам?
229 1110608
>>10532
На глаз не проще? Из пушки по куколкам воробьям. У тебя же не конвейер. CNN, object recognition, вот ето всё. Только тебе дохуя примеров надо самому разметить
230 1110612
>>10532
Ты отвратителен, анон
231 1110613
>>10596

>Что ты дальше будешь делать с результатом классификации? Сортировать их по баночкам?


Вы таки победитель "битвы экстрасенсов"?
А так да, мелких сразу в корм, крупных селекционировать, средних для поддержания текущий популяции.
IMG4621.JPG3,2 Мб, 3648x2736
232 1110622
>>10548
>>10596
>>10564

>червей


И да, это не черви, а куколки. Черви на пике
>>10612
Щито поделать десу, мои вкусы очень специфичны.
233 1110635
>>10613
Так раскладывать все равно руками, там и определишь. Или как ты это себе представляешь? Если мечтаешь о роботизированной системе, лучше сразу забудь. Там работы на годы будет для целой команды специалистов.
234 1110651
>>10613

>А так да, мелких сразу в корм, крупных селекционировать, средних для поддержания текущий популяции.


Думаю в твоем случае задачу стоит решать механическим способом. Как на заводах сортируют овощи, орехи и прочее. Сито разноячеестые и т.д.

Какое научное название твоих насекомых?
235 1110665
Поблевался с треда.
236 1110668
сука этот индус украл мою идею, собрал под нее инвесторов и воплощает ее в жизнь.
http://droicelabs.com/
как же печет.
237 1110686
>>10668
ща он полечит нейронками индусов и их станет как литовцев
238 1110699
>>10686
Они вообще-то на рашкованьках обкатывать технологию будут. Там в вакансиях требование русского языка есть.
239 1110700
>>10699

>рашкованьках обкатывать технологию будут


до, до
240 1110702
>>10668

>индус


>Aleksandr Makarov


>Mayur Saxena


>Harshit Saxena


>Tasha Nagamine

241 1110705
>>10702
вайт хет кекера Ashanideepta Bhattacharya забыл
242 1110786
>>10705

>Deep is a certified white-hat hacker (version 7).


>ГДЕ МОЙ ТРЕТИЙ УРОВЕНЬ ОБАЯНИЯ И СВИНЬЯ ДЕВЯТОГО УРОВНЯ СУКИ БЛЯДЬ????????


Это к ним вебмакака решила внедриться и украсть модель? Вангую что эта модель появится очень нескоро.
243 1110908
>>10668
Watson с той же идеей уже лет 10 IBM пилит. А идея она довольно простая. Даже я на первом курсе хотел написать какую-нибудь базу данных с картами пациентов, чтобы врачам было удобнее смотреть какие лекарства помогли, а какие дали осложнения, и чтобы более точно диагнозы ставить. Конечно я хочет чтобы это потом всё в нейроночку да с AI, но тогда я даже не знал как к этому подступиться.
244 1110932
>>10532
Дрочишь на них?
245 1110959
>>10622
>>10588
>>10532
В чем твой профит с этих червей?
imgcatsmobdotcom2012041700696020.jpg166 Кб, 960x640
246 1110978
>>10651
Крупных и средних довольно мало, сетке скомить фотку, она подсветит подходящих по размеру, а дальше собрать их вручную. Это здорово облегчило бы жизнь,
Сито не пойдет - орехи круглые, а насекомые неправильной формы.
Называются "Tenebrio molitor"
>>10959
Вкусная и здоровая пища 250 руб/100 грамм.
247 1110981
>>10978

>250 руб/100 грамм.


Ну нахуй. Мраморная говядина гораздо дешевле. Я понимаю, если бы твои черви полтос за кило стоили.
248 1111026
>>10978
Да они на вкус как мел. Не сказал бы что такие уж вкусные. Пробовал как-то жаренных в тайланде.
249 1111030
>>10978
>>11026
ФУУУУУУУУУУУУ
самый мерзкий тред в разделе
250 1111033
>>11030
Это ещё что, дауны сверху вообще про нейронки говорили.
251 1111085
>>10981
Еще пару лет назад я их продавал по 400р/100 грамм, но появились пидорасы-конкуренты - цены снизились, объемы упали.
>>11026
Я конечно знаю, что они съедобны, но за те годы, что их держу так и не удосужился попробовать. Продаю их как корм для животных - хомячки, попугайчики, игуаны там, лемуры всякие. Хотя их уже и в святой Европке едят.
uakYOINNypQ.jpg40 Кб, 604x302
252 1111106
>>11085

>пару лет назад я их продавал по 400р/100 грамм, но появились пидорасы-конкуренты - цены снизились, объемы упали.


Несколько лет назад в /ne был тред, чувак гровил крупных жуков на продажу, он там писал, что в атмосфере с повышенным содержанием кислорода они пиздец крупные растут.
253 1111123
>>11106
ну так несовершенство дыхательной системы - основной ограничитель предельного размера насекомых
254 1111128
Это домашних питомцев тред? Я хочу начать выращивать каких-то милашек, чтобы не требовали много регулярных усилий и все жили в ламповой мобильной коробочке.
255 1111129
>>11128
прыщи
smallbro.jpg6 Кб, 180x166
256 1111132
>>11128

Попроси Бабушку с пенсии купить тебе томагочи.
257 1111152
>>11128

>выращивать каких-то милашек


коноплю вырасти
258 1111156
>>10532
а что это за червячки? сделой сито с разными дырками или трубу через которую им нужно проползти, так и отсеишь.
259 1111158
Замечу, что так и заканчивались все нейронко треды, начиналась ни с чем не связанная хуита
260 1111168
>>11158
Потому что, наверно, все задачи,которые можно решить нейронками, проще решить методами уровня >>11156.
261 1111217
Какой фреймворк наиболее удобный для программирования через c++? cntk, tf?
262 1111227
Аноны, хочу машоб и нейроночки брать на диплом, посоветуйте несложную тему, я ещё не вкатился.
263 1111232
>>11227

>посоветуйте несложную тему


сортировка червячков
264 1111245
>>11217
Есть несколько фреймворков, поддерживающих кресты. Посмотри здесь, например:
https://github.com/tiny-dnn/tiny-dnn/wiki/Comparison-with-other-libraries
https://github.com/josephmisiti/awesome-machine-learning
Лично я бы, будучи привязанным к крестам, взял бы tiny-dnn, если не нужен ГПУ, и Darknet, если нужен.
265 1111248
>>11227
Совсем уровня туториала - распознать мнист. Далее можешь усложнить. Например, пусть на картинке неколько цифр, и нужно определить их количество и распознать. Хардмод - если цифры могут пересекаться. Можно добавить шум. Используй какие-нибудь передовые методы из относительно свежих статей, и будет норм для диплома, да и в сиви потом хорошо пойдет.
266 1111260
>>11248
Я до мая смогу осилить это?
267 1111263
>>11248
Я сейчас вот что прохожу
https://github.com/Yorko/mlcourse_open
268 1111300
>>11260
Я не знаю, слишком много факторов. В принципе это возможно. Посоветуйся с научником.
269 1111332
Почему kaggle и прочие не ограничивают вычислительную сложность решений? Получается в итоге, что петухи с фермами из титанов выигрывают, и никакого прогресса в нейронках.
270 1111340
>>11332
Геморно проверять. Прогресс в нейронках не их дело, им главное показать, какая точность в принципе возможна. Далее заказчик сам разберется, на какой компромисс по вычислениям/точности он готов пойти.
271 1111394
>>11332

>никакого прогресса в нейронках.


Там и не будет никакого прогресса, т.к. это асимптотически-эффективные алгоритмы. Вапник еще в 60х годах за это пояснил с математическими пруфами, сейчас мы просто наблюдаем это на практике - у кого фермы из титанов / кластеры больше, тот и крут. Умным людям и 50 лет назад было очевидно, что все эти индусско-хипстерские игрища - путь в никуда.
272 1111400
>>11394
Как же ты заебал своим вапником.
273 1111422
>>11400
Страдай, хуле.
274 1111503
>>11332

>петухи с фермами из титанов выигрывают


Манямирок неосилятора. Ты всегда можешь объединиться в команду с тем у кого есть лишнее железо, если у тебя есть годные идеи. Но у тебя идей-то нет.
275 1111505
>>11503
Пол мира дрочит на биток. Хотя могли бы протеины высчитывать например. Обьединение не имеет смысла пока не несёт профита.
276 1111507
>>11505
Ясно. Ты теоретик.
277 1111508
>>11507
Ну последний комент мой, а я мимопроходил. Так что жди пока тот анон ответит.
278 1111541
>>11503
Суть объединения в команды - либо нарастить мощность железа, либо собрать ансамбль из моделей, что опять-таки равносильно увеличению мощности железа. Здесь нет никаких новых идей, это не прогресс, это заведомый тупик. А соревнования в нынешнем виде этот путь поощряют. Это неправильно.
279 1111549
>>11541

>команды зло, все по одному


>это не прогресс


>Это неправильно


>я так скозал

281 1111610
Искусственный интеллект где же он? Где технологическая сингулярность?
282 1111620
>>11610
мдауш
283 1111623
>>11552
https://ru.wikibooks.org/wiki/Лисп/Функции

>>типа Си или Пёрла


я ща умру
sampleef57a460546cf4f83e65597b19703e26.jpg471 Кб, 850x583
284 1111639
Посоветуйте, пожалуйста, интересные источники на тему почему ИИ может или не может приблизиться к человеческому интеллекту и самосознанию, с чисто детально технической точки зрения современных светил машинного обучения и датаслесарей попроще.
285 1111662
>>11639
Для того, чтобы хотя бы подобраться к правильной формулировке вопросов, тебе предстоит многое изучить. Можешь начать с "Plato's Camera: How the Physical Brain Captures a Landscape of Abstract Universals" Черчленда.
286 1111692
>>11639
https://scisne.net/a-1003
Коротко: программирование в текущем виде - детская хуита
287 1111726
>>11692

>Невозможно написать программу для машины Тьюринга или любой другой универсальной вычислительной машины, которая была бы способна имитировать работу человеческого мозга и, таким образом, имитировать в любых ситуациях поведение человека. Этот аргумент можно сформулировать и несколько иначе, в виде утверждения, что человек обладает способностью решать алгоритмически неразрешимые проблемы


Нейросеть обладает возможностью решать алгоритмически неразрешимые проблемы. При том что нейросеть тоже алгоритм. Остальное можно не читать.
Эти ссаные философы ни в чем не разбираются, но лезут во все области науки. Гоните философов, насмехайтесь над ними.
288 1111758
>>11726

>в любых ситуациях


Ты читаешь через слово?
289 1111763
>>11662
Спасибо, начну с этого. Можешь составить небольшой список?
>>11692
Как-то да, учитывается только что программирование это выполнение конкретных инструкций без способности обучаться, что уже устарело.
290 1111789
>>11758
А в чем проблема-то? Нейросеть работает с любыми данными на входе, значит обработает любые ситуации. Уж точно не хуже человека, который в нестандартных ситуациях тупит практически всегда.
291 1111793
>>11789
Ты как себе представляешь ансамбль сеток для всего? Это какие вычислительные мощности нужны?

>тупит практически всегда


Ага, первое время. А потом очень быстро адаптируется.
292 1111798
>>11793

>Это какие вычислительные мощности нужны?


Ну хотя бы как у мозга человека. Или ты хочешь ИИ на 1080? Так не бывает.
Да, и нужно добиваться большей генерализации, тогда требуемый объем сеток сильно сократится, а их производительность увеличится. Это хорошо видно на человеке с развитыми логическими и аналитическими способностями.
293 1111821
>>11726
Пример алгоритмически неразрешимой задачи, которую спообен решить человек или нейросеть?
294 1111836
>>11821
Это вопрос к Гёделю, с чего он взял, что такие задачи есть
295 1111924
Поделитесь хорошим списком рецептов/советов для трейна нейросетей.
296 1111934
>>11924
Не трогать их, идти подскакивать кабанчиком в бизнес.
297 1111965
R хорошая технология? Можно даже не просматривать на питон?
298 1111967
>>11965

>на питон


смотря на чей
299 1111970
>>11965
И то, и другое, это обертка вокруг сишных библиотек, разницы нет.
300 1112015
>>05498 (OP)
аноны, вопрос.

1 вот есть xgboost. Как его заставить предсказывать векторы вместо скаляров, используя одни и те же деревья, градиенты и хессианы?

2 есть ли либа для питон градиентного бустинга любой модели, а не только деревьев, если я предоставлю градиент и гессиан?
301 1112017
>>11965
говно. по неюзабельности обошла матлаб.
302 1112018
>>11503
а вот меня не хуй послали, сказали "ты хочешь майнить битки на нашем компе, на хуй пошёл", хотя я им реально объяснил, что не для битков, а для нейросети.
303 1112028
>>11965
Лучше пистона в разы.
304 1112032
>>12015
1. Никак. Кроме того, в предсказаниях не используются градиенты и хессианы.
2. Не знаю посмотри sklearn. Для градиентного бустинга не нужен ни градиент модели, ни хессиан. Нужна только сама модель, т.е. функция fit, и функция потерь вместе с ее градиентом.
305 1112034
>>11965
R это питон курильщика.
306 1112053
>>11965

> R хорошая технология? Можно даже не просматривать на питон?


R это изначально язык обработки данных, тогда как пистон нет. Отсюда, весь машоб в Пистоне это костыли.
307 1112062
>>12015

> 1 вот есть xgboost. Как его заставить предсказывать векторы вместо скаляров, используя одни и те же деревья, градиенты и хессианы?


Хгбуст это miso модель, множественный вход и единственный выход. А тебе нужно mimo, множественные как вход так и выход. Суть в том, что любая mimo модель представима как совокупность отдельных miso моделей, посчитанных на одних входах для разных выходов (компонент твоего вектора).
308 1112120
>>11505
зачем эти протеины нужны? очередное биологическое ненужно же
309 1112127
Ря не нужен. Питухон хоть в мультипроцессинг без особой ебли с ооп может, чтобы ебошить итераторы на ядра.
14930272223891.png773 Кб, 1212x388
310 1112128
>>11965
Пора напомнить очередным ньюфажикам положение R-параши
311 1112134
>>12128
Эх, а ведь где-то новогоднюю версию проебал. Ебаный андроид, не может в сохранение картинок на сдкарту.
312 1112185
>>12062

>1. Никак. Кроме того, в предсказаниях не используются градиенты и хессианы.



Если я хочу дать кастомную objective function, то туториал говорит передать функцию, которая вернёт кортеж из градиента и хессиана objective функции в данной точке.

>2. Не знаю посмотри sklearn.


Спасибо, но вроде смотрел, нет.

>Для градиентного бустинга не нужен ни градиент модели, ни хессиан. Нужна только сама модель, т.е. функция fit, и функция потерь вместе с ее градиентом.



Да, но xgboost требует это. Видимо предоставление в явном виде эффективнее, чем численное дифференциирование.

>>12062
я хочу сделать, чтобы xgboost бустил коэффициенты нелинейной регрессии.

То есть выдавал вектор коэффициентов регрессии для указанного экземпляра (вектора ковариатов). То есть вот у меня регрессия Кокса. Коэффициенты регрессии - это риск. вектор коэффициентов умножается скалярно на вектор ковариат и произведение ставится в экспоненту. Ковариаты нелинейно зависят друг от друга. Проблема тут в том, что для смеси разных страт (групп экземпляров, где работает модель кокса) эта модель может не работать - то есть коэффициенты будут разными для разных страт, а коэффициенты от регрессии на смеси страт вообще бредом будут. Истинные коэффициенты я не знаю - их и надо подобрать. Возникла идея заюзать tree gradient boosting c кастомной objective function - той же, что и для регрессии. Для регрессии всё равно нужен гессиан с градиентом, то есть функция, их считающая, уже у меня есть. Надо теперь знать, когда бить на страты. Мне кажется, что градиентный бустинг деревьев сможет разбить на страты в зависимости от ковариатов. А считать коэффициенты той же регрессией. Цель - предсказывать коэффициенты регрессии по ковариатам.

Вообще, что посоветуете? Нейронку уже пробовал, не обучается она. Да и dataset маловат.
313 1112263
>>12185
Твоя модель выглядит вполне как нейроночка. С одним нейроном будет один набор коэффициентов, с двумя - два и т.д. Распиши математически свою модель и сам увидишь. На питорче можешь ее записать буквально так, как и на бумажке, и подгонять коэффициенты градиентным спуском. хгбуст тут ни к чему, по-моему.
314 1112333
>>12128
Все наоборот
315 1112445
>>12263
Ещё раз посмотрел sk-learn, там действительно есть общий градиентный бустинг, погуглил и набрёл на градиентный бустинг деревьев, скрещенный с регрессией Кокса. Не уверен, что это то, что нужно, так как пока ещё не смог вывести результаты в графическом виде. Работает чертовски медленно, всё таки не xgboost, api крайне непонятное: то ему pandas.DataFrame не подходит, то даже простой numpy.ndarray не то. Видимо придётся дорабатывать напильником. Вот только результаты нуужны были ещё в прошлом месяце, а сейчас уже поздно, я просрал все полимеры.
316 1112733
какая-то херня тамошний градиентный бустинг. Не может предсказать даже то, что видно невооружённым глазом по графикам при стратификации по этому признаку.

Или скорее всего я херовый data scientist. Вместо этого пихает несущественные признаки в корень деревьев. Concordance 60%. 50% - это если бы был случайный результат. Я же ожидал (не посчитано, просто угадываю) как минимум 75-90%.

Порезал лишние признаки. Если опять не осилит - пойду дальше хренью страдать.
317 1112751
>>12733
3 дерева глубиной 10 на lr 0.1 без dropoutа дают concordancce 74. Экспериментирую дальше. Поставил learning rate и dropout по 0.5.
318 1112755
>>12034
>>12017
В питоне никто мало-мальски серьёзной статистикой не занимается. только в R
319 1112762
>>12755
ты скозал
320 1112763
4 дерева, глубиной 3 learning rate и dropout по 0.5 -> concordance = 0.71
321 1112770
Перепилил фиттер, чтобы юзал xgboost вместо sklearn, благо что нетрудно, так как sklearn имеет объекты с почти совместимым интерфейсом. Быстрее не стало, по моему даже стало медленнее.
322 1112771
Видимо bottleneck по скорости не в деревьях, а в питоньем коде.
323 1112788
Можно ли сделать такой инструмент дабы он обучал людей делать нейросети? То есть, тебе дают базу и подкрепляют задачами, и через некоторое время ты можешь приступать к серьезным нейроночкам.
324 1112795
>>12788
Слесарьплов жи.
325 1112935
"АНТРОПОС — это агрегат агрегатов. Он состоит из тысячи двухсот самостоятельно работающих электронных агрегатов. Все эти агрегаты неодинаковы: все они принимают одинаковые данные, но решают их по-своему. Каждый из тысячи двухсот агрегатов создает свою картину будущего. Затем они автоматически подключаются к спормашине, то есть к машине спора. Они начинают безмолвно спорить между собой, и каждый агрегат путем логических доказательств отстаивает свой вариант будущего и в то же время, в процессе спора, вносит в этот вариант некоторые поправки. Постепенно некоторые агрегаты, подавленные логикой других, начинают выходить из игры. Когда останется только десять спорящих, в дело вступает агрегат-судья. Пока агрегаты спорили между собой, этот судья как бы слушал их, не вмешиваясь в спор, но все мотая на ус. Он вырабатывал свое мнение. От каждого побежденного в споре агрегата он брал частицу его правоты. На основании того, что он знает, судья вступает в переговоры с оставшимися десятью агрегатами и присуждает победу тому, чье мнение считает наиболее совпадающим со своим. Теперь, как понимаете, остаются два агрегата: победитель в споре и судья. Их прогнозы поступают в примирительное устройство, где вырабатывается основной прогноз."
326 1112958
"АНТРОПОС — это агрегат агрегатов. Он состоит из тысячи двухсот самостоятельно работающих электронных агрегатов. Все эти агрегаты неодинаковы: все они принимают одинаковые данные, но решают их по-своему. Каждый из тысячи двухсот агрегатов создает свою картину будущего. Затем они автоматически подключаются к спормашине, то есть к машине спора. Они начинают безмолвно спорить между собой, и каждый агрегат путем логических доказательств отстаивает свой вариант будущего и в то же время, в процессе спора, вносит в этот вариант некоторые поправки. Постепенно некоторые агрегаты, подавленные логикой других, начинают выходить из игры. Когда останется только десять спорящих, в дело вступает агрегат-судья. Пока агрегаты спорили между собой, этот судья как бы слушал их, не вмешиваясь в спор, но все мотая на ус. Он вырабатывал свое мнение. От каждого побежденного в споре агрегата он брал частицу его правоты. На основании того, что он знает, судья вступает в переговоры с оставшимися десятью агрегатами и присуждает победу тому, чье мнение считает наиболее совпадающим со своим. Теперь, как понимаете, остаются два агрегата: победитель в споре и судья. Их прогнозы поступают в примирительное устройство, которое и бросает монетку."
ttt.png26 Кб, 1000x500
327 1113134
Анон, вот в сети кучи примеров анализа картинок, текстов, голоса и тд. А как дела обстоят с сухими цифрами ?

Вот допустим у меня есть пик, построен на агрегированых цифрах. Цифры у меня все есть, как агрегированые так и нет. Я хочу определить интервалы ступенек. Куда копать ? Ступеньки не всегда идут вверх, не всегда равны и обладают погрешностями. Куда копать ? А то судя по тому что мне гуглится, проще отрендерить такую же картинку и натравать на нее один ихз примеров. Ну и да, простой алгоритм который if-ами находит их на основе отклонения от предыдущего значения у меня уже есть, просто хочу попробовать сделать это хайповыми штуками нейронками
328 1113135
>>13134
если не отговорю себя, буду использовать Keras. Питон вроде знаю
329 1113141
>>13134

>Куда копать ?


что-то я закопался тут, сорьки
330 1113160
>>13134

>Я хочу определить интервалы ступенек. Куда копать ?


В направлении скользящих средних и отклонения от них.

И сразу вопрос, относительно чего у тебя распознаются ступеньки. На одном масштабе у тебя 8 ступенек здесь, а в другом масштабе — АДЫН СТУПЭННЫК БИЛЯТЬ.
331 1113165
>>13160

>В направлении скользящих средних и отклонения от них.


круто, пойду гуглить

>И сразу вопрос


не факт что я тебя правильно понял, но вот то что на графике это весь датасет который уйдет алгоритму, раньше/позже связаных с ним данных нет. При чем датасет может быть на временном интервале и 2ч как на пике, так и 8ч и с одной ступенью или вообще 24ч. При этом я не должен этого явно задавать. В алгоритм просто
332 1113203
>>11821
Человек способен время примерно так почувствовать.
333 1113322
Насколько легко получить работу, связанную с машинным обучением без высшего образования?
334 1113337
>>13322
Чуть труднее чем засунуть в анус бильярдный шар
335 1113349
>>13337
Насколько труднее? Засунуть не высунуть.
336 1113353
>>13349
Вот прям сейчас возьми шар и попытайся запихнуть. Если сможешь - все у тебя получиться. Нет - даже не пытайся.
На самом деле и с вышкой бакалавра вкатиться практически анрил
337 1113355
>>13353
Мне поможет опыт игр на заднем дворе и смазка, все просто.

А почему анрил-то? В треде никого работающего нет?
Я обучаемый, если что, математику уважаю.
338 1113359
>>13355
Я сюда заглядываю практически с первых тредов. Кроме очевидных кукаретиков и парочки школокаглеров и отчисленных из ШАДа тут проскакивало только 2 работающих анона, один из них был аспирантом(хз работает ли он сейчас в мл). Зато тысячи вопросов о вкате и том какой вопрощающих супер-пупер мотивированный и нитакой как все. Максимум через месяц они куда-то отваливаются. Выводы делай сам. + Практические во всех вакансиях(зарубежных) нужен мастер, а у нас как минимум ищут синьоров с парой лет опыта работы в МЛ/ДАТАСАЕНС.
Конечно каких нибудь йоба каглеров с золотыми медалями возьмут и без диплома, но это сам понимаешь, элитка.

Моя аналогия с шаром была рассчитана на тех, кто не имеет опыта игр на заднем дворе, но походу на двачах таких таки нет за исключением меня
wiseman.png331 Кб, 1058x1521
339 1113367
>>13355

>В треде никого работающего нет?


Ну вот я работающий например.
Для того чтобы работать в МЛ-рилейтед области кем-то кроме оператора-размечатора нужно минимум освоить университетскую программу и въебать гору времени в самообразование. Гору - это не месяц-два позадротить с целью пройти собес, а систематически учиться, уделяя этому своё личное драгоценное время.
Всё машинное обучение - это дрочка на минимизацию функций многих параметров, без _понимания_ того что происходит внутри основных алгоритмов (для чего нужен хороший матан, линалг и теорвер с матстатом) твои занятия МЛем ограничатся сценариями уровня
- ну вот тут я свм хуйнул, а тут xgboost'ов настакал, что-то напредиктило
- а почему именно так сделал
- эээ..

Если ты не осилил учебу в вузе то вероятность что ты станешь годным спецом в мл стремится к нулю - без обид. Сейчас и в других областях можно хорошие деньги поднимать, и много где не надо для этого ебать себе мозги матаном.
Ты можешь попытаться, но предупреждаю - вероятность успеха мала. Не ведись на хайп.
340 1113521
>>13367
вот-вот, нахуй эти нейронки нужны, когда можно веб макакингом столько же если не больше рубить.
к тому же у работающих анонов нет времени эту поебень задротить, там кучи матана, книг, накатывания либ, да и пистон со фласком ковырять фу.
341 1113550
>>13521
У тебя странное определение нахуйнужности. Я занимаюсь МЛем потому что мне это интересно, а не потому что там платят. Исключительно ради получения большего количества бабла - да, нинужно. Само по себе - интересно и нужно.
Но про пистон конечно да, писать на этой параше что-то сложнее чем from slesarlow inport * нестерпимо отвратительно.
342 1113568
>>13550

>Я занимаюсь МЛем потому что мне это интересно


ты ебанутый, чел. проверься у психиатра. я смотрю аниму и занимаюсь сексом, потому что мне это интересно.
343 1113573
>>13367
Для того чтобы работать в МЛ-рилейтед области кем-то кроме оператора-размечатора нужно минимум освоить университетскую программу и въебать гору времени в самообразование.

Первых двух курсов хватит же, плюс несколько книжек специализированных.
344 1113574
>>13359
Вкатываюсь уже полгода потихоньку, думаю, года через два-три приду к успеху.
345 1113693
>>13367
Ты неправильно меня понял. Я не "не осилил учёбу в вузе", я скорее не захотел тратить на это 4 года жизни в 21м-то веке. По баллам егэ мог подавать документы хоть в МГУ.
Но благо большинство погроммистских ваканский сейчас не требуют корочки, чисто работу найти не составляет труда.
Другое дело, что меня всё ещё интересует наука и работать над МЛ я хочу из этого побуждений, а не денег.
346 1113695
>>13359

>Зато тысячи вопросов о вкате и том какой вопрощающих супер-пупер мотивированный и нитакой как все.


О, я как раз такой, выпизднут с третьего курса ПМИ, перекатываюсь из скриптомакакинга, нихуя не шарю впрочем имею неплохой математический бекграунд, матан там, линал, тервер, матстат, замотивирован по самые помидоры. А ты тут такой кайфоломщик, говоришь мол, много вас таких по весне оттаяло.
347 1113793
>>13693

> По баллам егэ мог подавать документы хоть в МГУ.


Обосрался с этого гения.
348 1113842
>>10282
За что именно садится в матане подскажи плес.
349 1113845
>>13842
Линал, теорвер, дискретка, матстат.
350 1113853
>>13845

>матан


>линал, теорвер, дискретка, матстат


Ух, бля.
351 1113868
>>13853
Сам матан (калькулюс) само собой.
352 1113989
Сап двач. Такой вопрос. Работаю в компании где занимаются компьютерным зрением. Но в другом отделе. Как это лучше выучить? Что почитать? Хочу после корочки податься.

Чего почитать, что попробовать накодить и тд?
353 1113991
>>13989
Компьютерное зрение неудачный вариант для новичка из другого отдела. Область сложная, возможностей мало, работы тоже мало, а на каждую вакансию десяток макак. Сейчас каждый школьник учит OpenCV, а потом не знает что делать с ней. Лучше попробуй Haskell. На нём и конкуренция пониже, и зарплаты больше, и сам язык понятней. Если никогда не занимался программированием, то начинать лучше всего с Haskell. Работы полно, платят отлично. По книгам. Если есть хоть немного знаний программирования, читай это: http://www.ozon.ru/context/detail/id/30425643/ Если совсем новичок, пойдет эта книга: http://www.ozon.ru/context/detail/id/28346038/ Ну и куча онлайн-учебников. Вот, например: https://anton-k.github.io/ru-haskell-book/book/home.html Хороший учебник, всё расписано подробно. Сам по нему учился. Рекомендую.
354 1113995
>>13991
Это такой толстый троллинг?
355 1113996
>>06170
Пиздец, одни тут говорят о том что ФП всех заменит, другие что нейронки. А на деле нихуя не изменится.
1401290255369.jpg30 Кб, 680x510
356 1114004
>>13693

>Ты неправильно меня понял. Я не "не осилил учёбу в вузе", я скорее не захотел тратить на это 4 года жизни в 21м-то веке. По баллам егэ мог подавать документы хоть в МГУ.



А я не зафейлил собес в гугл, скорее не захотел тратить на него 5 лет жизни в 21м веке. Не обосрался, просто говно из жопы вывалилось, так сказать.
Баллы егэ это вообще пушка, если ты понимаешь разницу между "мог подать документы" и "получил образование".

>Другое дело, что меня всё ещё интересует наука и работать над МЛ я хочу из этого побуждений, а не денег.


Тебя не интересует наука, тебе просто кажется что ты умнее остальных и МЛ дастся тебе просто так, без усилий, а конкретно МЛ ты избрал объектом своей самореализации из-за хайпа который сейчас вокруг него есть.

Среди моих коллег абсолютно все кто хоть как-то занимается МЛем имеют минимум бакалавра/магистра или учатся на них в данный момент, причем не в шарагах а в более менее нормальных вузах. И имеют их не ради корочки.
Так что, не занимайся самовнушением - ты выбрал свой путь когда решил что четыре года опыта клепания гостевух важнее системного образования. В ушедший поезд уже не сесть.
357 1114017
>>14004
В чем смысл заниматься такой демотивацией, как ты это делаешь здесь? Боишься конкуренции и демпинга со стороны людей, которые не нюхали 5 лет пыль за партой и не будут требовать денежки за свои бесполезные титулы? Стоило сделать профиль со словом саентист, как всплыли всякие "ученые", которые хотят вернуть своему бечполезному образованию ликвидность. Вед это же не макакинг а "саенс", и их бесполезные годы в шараге вновь обрели смысл.
Без обид, просто умный человек не будт демотивировать людей на пустом месте.
358 1114024
>>14004
Тогда что посоветуешь? Накатить игор и скроллить /b/?
359 1114030
>>14017

>не будт демотивировать людей


это ты еще не знаешь, что ML к AI ни какого отношения не имеет
360 1114034
>>14030
Имеет. ML это методика программирования, для AI пока самая перспективная.
Img1228.jpg53 Кб, 369x480
361 1114040
>>14017

>умный человек не будт демотивировать людей на пустом месте.


Разумеется. Только я не на пустом месте такую полемику начал, а строго после охуительной комбинации из "не захотел тратить 4 года жизни на учебу" (еще и сдобренное пренебрежительным "в 21м веке", будто в нашем веке модно быть долбоёбом) и "меня интересует наука".
Смысл заниматься демотивацией в том что у того анона в голове ветер а в жопе дым, возможно моя токсичность сэкономит ему немало времени. Очевидно что он ведется на около AI-шный хайп - а это путь в никуда (вестись на форсы, я имею ввиду).

>Боишься конкуренции и демпинга со стороны людей, которые не нюхали 5 лет пыль за партой и не будут требовать денежки за свои бесполезные титулы?


Мне платят не за красный диплом а за компетенцию - так что нет, не боюсь. Так же как не боюсь орд вкатывальщиков в ойти.

>Стоило сделать профиль со словом саентист, как всплыли всякие "ученые"


Тут бесспорно, пройти пол курса на курсере, натренить мобайлнет на фотках своей мамаши-шлюхи и выставить себе тайтл "саентист" - верный детектор долбоёба. Хинтон - саентист, Воронцов саентист, Вапник саентист, а я вот простой (почти) инженер.

>хотят вернуть своему бечполезному образованию ликвидность


Если для тебя любое образование - бесполезное, с тобой не о чем разговаривать. Годное системное образование (а не тир-3 шарага-"колледж" в залупинске) всегда будет ликвидно. И да, я еще не встречал случаев когда люди обучились математике (а весь МЛ суть она) по онлаен курсам или сами - это та область где нужны учителя.

>>14024

>Тогда что посоветуешь?


Посоветую не вестись на хайп, объективно оценивать свои возможности и искать _интересную_ работу. В отличии от МЛ, быть годным в коммерческом погромировании можно (хотя и сложнее) и без специализированного образования.
Если тебе прям пиздец как хочется - устройся в мл-рилейтед компанию или проект, и посмотри что оно такое изнутри, а потом решай надо ли тебе тратить время на то чтоб долбиться в эту стену.

>Накатить игор и скроллить /b/?


В /b/ рекомендую не заходить, адекваты кончились 5 лет назад и раздел действует на психику весьма хуево. В игры можешь играть, но не много.
Img1228.jpg53 Кб, 369x480
361 1114040
>>14017

>умный человек не будт демотивировать людей на пустом месте.


Разумеется. Только я не на пустом месте такую полемику начал, а строго после охуительной комбинации из "не захотел тратить 4 года жизни на учебу" (еще и сдобренное пренебрежительным "в 21м веке", будто в нашем веке модно быть долбоёбом) и "меня интересует наука".
Смысл заниматься демотивацией в том что у того анона в голове ветер а в жопе дым, возможно моя токсичность сэкономит ему немало времени. Очевидно что он ведется на около AI-шный хайп - а это путь в никуда (вестись на форсы, я имею ввиду).

>Боишься конкуренции и демпинга со стороны людей, которые не нюхали 5 лет пыль за партой и не будут требовать денежки за свои бесполезные титулы?


Мне платят не за красный диплом а за компетенцию - так что нет, не боюсь. Так же как не боюсь орд вкатывальщиков в ойти.

>Стоило сделать профиль со словом саентист, как всплыли всякие "ученые"


Тут бесспорно, пройти пол курса на курсере, натренить мобайлнет на фотках своей мамаши-шлюхи и выставить себе тайтл "саентист" - верный детектор долбоёба. Хинтон - саентист, Воронцов саентист, Вапник саентист, а я вот простой (почти) инженер.

>хотят вернуть своему бечполезному образованию ликвидность


Если для тебя любое образование - бесполезное, с тобой не о чем разговаривать. Годное системное образование (а не тир-3 шарага-"колледж" в залупинске) всегда будет ликвидно. И да, я еще не встречал случаев когда люди обучились математике (а весь МЛ суть она) по онлаен курсам или сами - это та область где нужны учителя.

>>14024

>Тогда что посоветуешь?


Посоветую не вестись на хайп, объективно оценивать свои возможности и искать _интересную_ работу. В отличии от МЛ, быть годным в коммерческом погромировании можно (хотя и сложнее) и без специализированного образования.
Если тебе прям пиздец как хочется - устройся в мл-рилейтед компанию или проект, и посмотри что оно такое изнутри, а потом решай надо ли тебе тратить время на то чтоб долбиться в эту стену.

>Накатить игор и скроллить /b/?


В /b/ рекомендую не заходить, адекваты кончились 5 лет назад и раздел действует на психику весьма хуево. В игры можешь играть, но не много.
362 1114041
>>14040
Мое мнение об образовании - оно про российские реалии. Хорошо, если студент получит хоть какой то знание необходимых скиллов в духе линейной, статистики и прочего. Это в лушчем случае. Остальное вообще неясно зачем нужно. Может в мгу есть смысл обучаться, я не знаю, я там не учился.
363 1114042
>>14040
Согласен с тобой на 90%, но вот с этим нет:

> И да, я еще не встречал случаев когда люди обучились математике (а весь МЛ суть она) по онлаен курсам или сами - это та область где нужны учителя.


Если мы говорим о прикладном ML - для применения в своих продуктах, то там всё равно есть разделение на учёных теоретиков и инженеров/ программистов. В первую категорию без образования не попасть, само собой. Да и с образованием далеко не все с этим справятся. А вот во вторую категорию вполне себе можно пролезть, если у тебя нет проблем со школьной математикой и ты шаришь а алгоритмах (путь не топовый олимпиадник, но задачи второго дивизиона решаться уметь ты должен).

Итого, теоретики дают направление, подсказывают новые методы, следят за методологией и всё в таком духе, разработчики же разработают. По крайней мере, так это было в Яндексе.

Мне лично приходит в голову аналогия между кодерами и архиторами. Если есть скииллы и опыт, то сам сможешь вырасти, даже и без формального образования.
364 1114043
>>14040
Ясно. Ты недооцениваешь мою силу и детерминацию. Всего доброго.
365 1114044
>>14042
Кстати, если кому мой опыт интересен, то я в ML вкатился благодаря курсам Андрея Нг и своему опенсорс проекту по теме. В универе мне давали все эти вещи слишком теоретически, я вообще не имел понятия как всё это используется на практике. Так что, курсера сильно помогла.
14859557394080.jpg66 Кб, 400x325
366 1114045
>>14043

>Ты недооцениваешь мою силу и детерминацию



>боевые картиночки в ответ на советы


>неспособность воспринимать критику



Есть и кое-что что я переоценил - уровень твоей культуры общения и, скорее всего, возраст.
367 1114049
>>14004

>Тебя не интересует наука, тебе просто кажется что ты умнее остальных и МЛ дастся тебе просто так, без усилий, а конкретно МЛ ты избрал объектом своей самореализации из-за хайпа который сейчас вокруг него есть.


Двачну, очень точно выразил суть вкатывальщиков, помню даже времена когда точно такое же было, но по отношению ко всяким СПАРКАМ, СКАЛЕ, БИГ ДЭЙТА.

>>14034
Нет не имеет.
368 1114051
>>14044
Универ на самом деле дает плюшки, какой-то системный подход к обучению. Я хорошо вижу эту хуйню по друзьям, которые в шарагах не учились. С теорией там все очень хуево, да и обобщающая способность нейронок мозгов как-то слабовата, могут задрочить хорошо какие-то скилы, но в нестандартной ситуации всегда фейлят.
Ну и матан тебе универ дал какой-никакой, так что тебе легко кукарекать.
Что не отменяет того, что не топовые рашкоуниверы параша ебаная, все полезные вещи которых можно ужать до 1 года обучения.
ecl.jpg44 Кб, 1000x405
369 1114056
>>14045
Ты просто спутал меня с классическим двачером-кукаретиком, который думает, что можно делать нихуя, а всё будет. Бывает. Ты так же пытаешься отыскать оправдание себе и своим друзьям с вузовским образованием, доказать, что в этом есть нечто стоящее. Про 21й век упомянание имело в виду то, что сейчас информации по любой теме просто до жопы, какой смысл приковывать себя к программе вуза, с неоптимальным темпом, профессорами, лишними предметами? За 4 года возможно достичь в несколько раз больших высот.
Мой изначальный вопрос вообще состоял не в том, смогу ли я интеллектуально достичь уровня среднестатического дата-саентиста, с этим проблем нет; он состоял лишь в том, насколько адекватны компании, которые берут к себе на работу этих саентистов, понимают ли они вышеуказанные тезисы про вышку или нет, дропают ли они резюме автоматически без графы про вышку или дают шанс показать себя.
370 1114057
>>14056

>дата-саентиста


поясните довну что это за хуйня? маг над данными?
мимо nlp-господин
371 1114058
>>14056
Лол, хули ты тут так мечешь и доказываешь что не верблюд? Тем кто тут давно смешно смотреть на это со стороны т.к. зекач полон такими вкатывальщиками, которые думают что сейчас УХ как начнут работать в поте лица и придут к успеху, и вообще они не эти лохи, которые поматросят и бросят через месяц, сами забивая через неделю.
Насчет твоего вопроса тебе уже отвечали выше: вышку требуют, без нее хрки сразу дропают твое резюме. Дальше будет только хуже т.к. хайп и вкатывальщиков лезет огромное количество, особенно с вышкой. Но если ты имеешь какие-то достижения за плечами типа побед в кагле или успешные репозитории на гитхабе или как-то еще заявишь о себе - могут взять и без вышки, если сумеешь пройти хрофильтр или в хр будет не девочка-нихуя-не-умею-много-о-себе-думаю, а адекватный профессионал-мужик.

Ты мог уже сам открыть бишопа и уже прочесть сотню другую вакансий и сам посмотреть. В слаке ODS вон народ сидит с вышками, пет проджектами, хорошими рейтами на кагле и не может найти работу.
acl.jpg6 Кб, 369x136
372 1114060
>>14058
Не беда, буду тогда стендалон саентистом, тогда у меня ещё эти эйчары посмотрят.
Я ещё никогда не бросал своих начинаний.
373 1114061
>>14060
Молодец, больше дела, меньше срачей на двачах.
ocl.jpg245 Кб, 727x1093
374 1114064
>>14061
Как это "меньше срача на двачах"?
Ты думаешь если моей целью было бы движение к успеху, я стал бы вообще постить на этой параше?
375 1114066
>>14064
Тогда ладно, я вот захаживаю сюда токмо для движения к успеху. В треде иногда годнота проскакивает.

Сука, как же заебала эта новая капча, чувствую себя сраной бесплатной нейронкой для гугла
376 1114068
>>14066
А я просто кликаю галочку "мамой клянусь, что не робот", и меня пускает.
image.png190 Кб, 600x450
377 1114215
378 1114338
>>09337
то есть если у меня есть только ноут с mx150 то это безнадега? даже для образовательных целей на пару лет до покупки гипотетического компа не вкатиться?
379 1114339
>>14004
Просто невероятно точно написано не буду скрывать я просто в шоке от того как это охеренно написано, двачую этого анона >>14049
380 1114464
>>14066

>Сука, как же заебала эта новая капча


Какая ерония для мл треда.
381 1114469
>>05498 (OP)
Сап нейрач, пока молодой, хочу вкатиться в нейросети. Знания на уровне "слышал мемы про жаву". Интересует с чего стоит начинать чтоб в последствии работать именно с нейросетями. Реквестирую базовые мануальчики по программированию, которые могут послужить хорошей базой.
382 1114473
>>14469
Сначала выучи матан, линал, теорвер и матстат, через полгода приходи к нам снова. Без этого все программирование бессмысленно.
383 1114474
>>14469
Сначала учи математику.
384 1114475
>>14473
>>14474
Конкретная литература?
385 1114477
>>14475
Без вуза у тебя вряд ли что-нибудь получится.
Учебники есть хорошие, но только без программы обучения у тебя ничего не выйдет.
Поэтому поступи в вуз для начала, а после 2 курса уже приходи за нейронками.
386 1114480
>>14477
Понял. Спасибо.
387 1114498
>>14480
Зорич и трехтомник Кострикина для начала.
388 1114503
>>14498
SICP начал читать. После него примусь за этих джентельменов.
389 1114508
>>14475
Начни с http://neuralnetworksanddeeplearning.com/
Всё что непонятно из математики - изучай сам по учебникам
Учить тупо всю математику не обязательно, достаточно базы чуть выше школьной
390 1114512
>>14503

>хочу в нейронки


>SICP


Зачем?
14847438551270.jpg101 Кб, 900x598
391 1114516
>>14477
Сука, заебали со своими вузами.
Я может и физикой хочу заниматься, и биологией, мне за этим тоже в вуз вкатываться?
В конце концов, программы вузов лежат в открытом доступе. Хочешь следовать конкретному регламенту - следуй.
Что вы такие беспомощные-то.
392 1114519
>>14512
Чтоб хоть какая-то база была в программировании. У меня действительно очень абстрактное понимание как это работает. На уровне информатики школьного курса
393 1114525
>>14519
Ну ты бы хотя бы с Кнута тогда начал или Кормена, SICP - так себе начало.
394 1114527
>>14516
Но хуй тебя куда возьмут без вышки или процесса ее получения. Я вот дропнул свой топовый вуз после двух курсов, решил вкатиться в биоинформатику, но в трех НИИ меня послали из-за отсутствия образования.
395 1114535
Правда ли, что нечеткая логика позволяет сделать такие нейросети, которые понятны любому школьнику?
396 1114541
>>14527
Лол, НИИ? Чтобы работать там за копейки?
Проблема решается просто - сделай что-нибудь великое в своей области, и НИИ сами будут просить тебя к ним.
397 1114553
>>14541
Чтобы сделать что-то великое тебе лет так пять нужно поработать в мле, покрутиться в этой среде с такими же знающими людьми и только потом сможешь начать делать что-то великое. Один так и будешь import tf as tf десятилетиями дрочить. Когда работаешь темп обучения раз в этак 10 больше и ебланить месяцами не получиться т.к. сроки и дедлайны.
398 1114560
>>14541
Охуенный блять совет.
Проблема решается просто - отлови бозон Хиггса, и ЦЕРН сам будет просить тебя к нему.

>>14553
Двачую.
399 1114589
>>14560

>отлови бозон Хиггса


В бозоны очень высокий порог входа по оборудованию, у одиночки нет денег на коллайдеры.
С машобом все намного проще, нужны только видеокарта, датасет и мозги.
>>14553

>Когда работаешь темп обучения раз в этак 10 больше


Хорошо если задачи разнотипные, а если одно и то же, но в разных вариациях? Какое-нибудь говно типа прогноза кликов на рекламу в фейсбуке.
400 1114591
>>14553
>>14560
Ну если не можешь в великое, то лучше уж закончить универ экстерном, например, да.
401 1114611
>>14589
Для поисков бозона Хиггса тоже нужен датасет, но хуй тебе его кто даст.

>>14591
Щас бы Физтех экстерном заканчивать.
402 1114618
>>14611
Скажешь, невозможно? Ты же уже 2 курса отучился, и уже в принципе должен основные концепты всех 4х, так что сдашь за 2 года
403 1114687
>>14618
Я тупо не смогу 16 экзаменов за сессию сдать, бака. Да и не предусмотрена тут такая возможность.
404 1114697
>>14611
Датасеты церна можно скачивать из открытого доступа же.
405 1114712
>>14004
>>14040
Ну давай разберём тобою написанное, "простой инженер". Ты же у нас в данных шаришь?

>абсолютно все


Бывают не абсолютно все?

>имеют минимум бакалавра/магистра или учатся на них в данный момент


То есть все имеют бакалавра, некоторые магистра, некоторые учатся на них в данный момент. Диаграмму Венна ещё не прошли?

>в более менее нормальных вузах.


Их даже несколько? Наверное, у каждого по нормальному вузу?

ML-инженер не мог написать такую хуйню, значит, ты не ML-инженер.
И довесочек

>Среди моих коллег


Это нерепрезентативная выборка.

>я еще не встречал случаев когда люди обучились математике (а весь МЛ суть она) по онлаен курсам или сами значит это та область где нужны учителя


Какой ты нахуй инженер. Ты школьник с максимализмом головного мозга и логикой тупой пизды.
406 1114713
>>14477

>Без вуза у тебя вряд ли что-нибудь получится.


Ведь кататься на пары, жить в общаге и переписывать в тетрадку с меловой доски - это единственный способ выучить матан.
407 1114714
>>14527

>Но хуй тебя куда возьмут без вышки или процесса ее получения.


В ООО "Вектор" не возьмут, конечно. В нормальную контору без проблем.
408 1114727
>>14713

> кататься на пары, жить в общаге и переписывать в тетрадку с меловой доски - это единственный способ выучить матан.


Будешь смеяться, но да. Без надсмотрщика 99,9999% на матан забьют через месяц в лучшем случае. А если ты уберменш, способный мотивировать себя годами изучать что-то, ты не только в мле, а в чем угодно себе имя сделаешь без дяди.
409 1114733
>>14589

>С машобом все намного проще, нужны только видеокарта, датасет и мозги.


с таким набором разве что котиков распознавать будешь всю жизнь. по нормальному мл нужно внедрять в роботехнику, вот там простор для изобретений. но в одиночку и без денех такого не осилить.
410 1114738
Почитал я ваш тред, датасаентисты мамкины, нихуя у вас не получится, вы будете вкатом в МЛ заниматься как хобби.
411 1114740
>>14738
Раздался голос со стороны вебмакак.
412 1114746
>>14733

>разве что котиков распознавать будешь всю жизнь


Ты котиков-то распознай нормально а не как сейчас, прежде чем за Робокопа браться.
413 1114799
>>14712
Ну давай разберем по частям тобою написанное, "разбиратель написанного". Ты же у нас говоришь по делу?

>Бывают не абсолютно все?


Доебка до речевого оборота с абсолютно понятным смыслом.

>То есть все имеют бакалавра, некоторые магистра, некоторые учатся на них в данный момент.


А теперь перечитываешь еще раз то что цитировал, вместе с контекстом.

>Их даже несколько?


Да, представь, нормальных вузов больше одного.

>Наверное, у каждого по нормальному вузу?


Диаграмму Венна прошел? Это сейчас шестой или седьмой класс?

>ML-инженер не мог написать такую хуйню, значит, ты не ML-инженер.


ЯСКОЗАЛ, ЗНАЧИТ НЕ МОЖИТ!!1
Это феерическое НИВЕРЮ даже комментировать не надо.

Ну и довесочек:

>Это нерепрезентативная выборка.



Теперь цитируешь место где я заявлял о реперезентативности своей выборки, или прекращаешь выдавать свои фантазии за мысли оппонента.
За репрезентативной выборкой идешь нахуй ODS, CrossValidated / Quora или любой другой рилейтед ресурс, спрашиваешь людей и получаешь такой же ответ, а потом кукарекаешь о репрезентативности.

>Какой ты нахуй инженер. Ты школьник с максимализмом головного мозга и логикой тупой пизды.


Какой ты нахуй разбиратель, ты обычная порватка которая встретила мнение отличное от своего и мгновенно воспламенилась. Ах, да, еще ты животное не обученное элементарному сетевому этикету, а значит беседовать с тобой нет смысла. Довольно показательный пример того чем отличаются люди ведущие диалог от обезьян пытающихся закидать собеседника говном.

Можешь продолжать гореть.
413 1114799
>>14712
Ну давай разберем по частям тобою написанное, "разбиратель написанного". Ты же у нас говоришь по делу?

>Бывают не абсолютно все?


Доебка до речевого оборота с абсолютно понятным смыслом.

>То есть все имеют бакалавра, некоторые магистра, некоторые учатся на них в данный момент.


А теперь перечитываешь еще раз то что цитировал, вместе с контекстом.

>Их даже несколько?


Да, представь, нормальных вузов больше одного.

>Наверное, у каждого по нормальному вузу?


Диаграмму Венна прошел? Это сейчас шестой или седьмой класс?

>ML-инженер не мог написать такую хуйню, значит, ты не ML-инженер.


ЯСКОЗАЛ, ЗНАЧИТ НЕ МОЖИТ!!1
Это феерическое НИВЕРЮ даже комментировать не надо.

Ну и довесочек:

>Это нерепрезентативная выборка.



Теперь цитируешь место где я заявлял о реперезентативности своей выборки, или прекращаешь выдавать свои фантазии за мысли оппонента.
За репрезентативной выборкой идешь нахуй ODS, CrossValidated / Quora или любой другой рилейтед ресурс, спрашиваешь людей и получаешь такой же ответ, а потом кукарекаешь о репрезентативности.

>Какой ты нахуй инженер. Ты школьник с максимализмом головного мозга и логикой тупой пизды.


Какой ты нахуй разбиратель, ты обычная порватка которая встретила мнение отличное от своего и мгновенно воспламенилась. Ах, да, еще ты животное не обученное элементарному сетевому этикету, а значит беседовать с тобой нет смысла. Довольно показательный пример того чем отличаются люди ведущие диалог от обезьян пытающихся закидать собеседника говном.

Можешь продолжать гореть.
414 1114807
>>14746
да гугл нормально котиков распознает. а гугл капча датасет для распознавания дорожных знаков для самоуправляемых машин собирает например.
415 1114823
>>14807
ох лил
google-photos-racist-error-640x0.jpg36 Кб, 640x426
416 1114891
>>14807

>нормально распознает

417 1114899
>>14891
А что не так? Горилла и есть. Нейроночке ты не пояснишь за блек лайвс маттер, СЖВ идеалы и прочее говно.
418 1114913
>>14799
Вот это подгорело, класс. Наверняка ты не ожидал такого ушата холодной воды, когда высокомерно отчитывал вкатывальщика, да, мудачок?
419 1114970
Хочу создать Искусственный Интеллект, даже нашел формулу F = T ∇ Sτ, но пока не создал. Почему так?
420 1115060
>>11033
спасибо проорался)))))
421 1115162
>>14970

>Хочу создать Искусственный Интеллект, даже нашел формулу F = T ∇ Sτ, но пока не создал. Почему так?


42
422 1115374
Если я скипну объемные книги по мл с матаном и сразу стану накатывать примеры на numpy и тензорфлоу - я стану мл разрабом или преврачусь в очередную макаку?
423 1115380
>>15374
Да.
424 1115496
>>14913

>атветил значит подгорело.


Хех, посмеялся, судя по постам пылает как раз у тебя.

Мимозоонаблюдаю
425 1115580
>>15496

>Мимозоонаблюдаю


Проиграл.
426 1115640
>>15496
Он тя унизил, съеби уже.
427 1115733
>>15640
Зачем ты говоришь о себе в третьем лице, гений мамкин?
428 1115763
>>15733
Два анона срутся и оба пытаются создать видимость общественной поддержки. Ничего нового.
429 1115772
>>15374
Как это "скипнешь"? Мл и есть по сути чистый матан
430 1115800
>>15772
ну накодю на готовых либах известные мл алгоритмы, которые я нагуглю. не буду при этом читать объемные книги на 600 страниц матаноформул.
я сторонник практики. еще ни разу не учил программирование по книгам.
431 1115812
>>15800

>объемные книги на 600 страниц матаноформул


Все ML описывается десятком формул, откуда там 600 страниц?
432 1115819
>>15800
Без знания теории не будешь знать какие алгоритмы где применять, что касается чистого кодинга там справиться даже трехлетний ребенок, так что какой смысл?
433 1115993
>>15819

>справиться


Скоро уже каникулы закончатся?
434 1115996
>>15812
Бурбакизмы
435 1116013
>>15993

>доебывается к грамматике


>кукарекает про каникулы


Школьник не палится
436 1116075
>>16013
Я тоже тока на соченениях старался... а типерь я ML-инженер! Имею право писать как зохочу)
437 1116077
прохожу туториал по numpy, какая-то числодробилка и массивошейкер. и где же страшный-ужасный матан, которым меня пугали в книгах по мл?
438 1116082
>>16077
Научи меня numpy и быть таким же бесстрашным.
439 1116086
>>16077
Это же питон. Всё что связано с питоном - школьное, простенькое говно.
441 1116117
Так будет ли учебник по машинному обучению с йобами и мемасами?
442 1116126
Анончики, киньте пак с книгами по machine learning, пожалуйста.
443 1116139
>>16126
В шапке питонотреда
444 1116166
>>16139
Добра тебе.
445 1116226
Поясните за железо, пожалуйста. Моя единственная рабочая машина -- ноут (Zenbook), для своего класса устройств весьма шустрый, но ну вы понимаете. А видяхи нет вообще.

Какой самый простой практический способ обзавестись нужными мощностями? Отдельную ферму под это собрать? Какое железо брать? Есть какой-нибудь внятный гайд по таким практическим вещам?

Если что, сейчас мне это нужно только для своих экспериментов. Играть с тензор-флоу, запускать новую йобу с гитхаба.
446 1116231
Кто может посоветовать литературу по самообучающимся системам, где описывается проблематика их создания? сорян, если вопрос тупой
447 1116246
>>16226
AWS гугли и не еби себе мозги кошелёк, если только для экспериментов. Там и триал есть вроде как.
448 1116256
>>16246
AWS я знаю само собой, я про железо спрашиваю. Эксперименты это не значит, что это мне на полчаса нужно.
449 1116318
>>16226
https://pcpartpicker.com/user/kevindewalt/saved/2br999
Это примерно средний вариантец. Я собрал за 2100 урезав на том и на сем. Главное 32+ Гб памяти, 1080ти, и процессор из верхнего сегмента.
450 1116322
>>16318

>2100


пендоляров за кудахтер? ты ебанулся. потом такой прийдешь, я тут вам нейроночку спроектировал, на роспазнование двух цветов, вам нужно всего лишь ;50000 на серваки
451 1116327
>>16318
Я так понимаю, ты это используешь как десктоп. Есть подводные камни при использовании в качестве хедлесс машины по ssh? Необходимость какой-нибудь ебучей винды, например. Меня ноут в качестве инструмента вполне устраивает. Я, если честно, вообще рассчитывал, что смогу отделаться рекомендациями в стиле покупки внешней видяхи к ноуту, ну да ладно.
>>16322
Ты кокойто прям студент. Знал бы ты, сколько любая мало-мальски приличная организация тратит в месяц на сервера. А от затрат на рекламу вообще охуел бы.
452 1116343
>>16327
Да, у меня это десктоп. Хедлесс еще лучше будет, наверное, т.к. загруженность ГПУ не будет помехой в работе - у меня сейчас все ацки тормозит, если ГПУ нагружен на 100%. У меня АМД, там нет встроенной видюхи на ЦПУ.
Внешние карточки я смотрел - так и не понял что там с дровами, совместимостью. Почти наверное не оче. А вся эта экосистема с кудой на линуксе и так как карточный домик, пока все заработает пять раз их переустановишь. Это на самой стандартной конфигурации, если там что-то экзотическое, то какая-то безнадега будет, видимо.
453 1116441
>>16103
Хорошая книга?
454 1116729
Так посаны. Обучите сеть сложению. Подайте на первый вход в двоичном виде 32 бита и на второй 32 бита данных, на выходе получим 32 бита суммы. Данных у нас дохуища. Получится обучить?
456 1116749
>>16731
Мог бы и на 2-ух слойной сети проверить.
457 1116758
>>16729
Конечно, получится. Только архитектура сети должна быть правильной.
458 1116787
Анончик, есть на русском книги хорошие об этом чтобы вкатиться? Готов купить бумажную версию. Я ангельский более менее знаю, но мне кажется не настолько хорошо чтобы понять такую тему, плюс там наверняка много математических терминов или подобного.
459 1116880
Создайте уже ИИ дабы он решил все проблемы
460 1116891
>>16880
Уже создаем ИИ которое создает ИИ, которые создают ИИ, которые решают проблемы. Жди.
461 1117019
>>12128
поясните эту картинку !!
ml.jpg157 Кб, 1390x986
462 1117030
>>16880
Еще чуть чуть ручки гиперпараметров подкручу и создам.
Готов ли ты к приходу такого ИИ?
464 1117153
Может кто подсказать, как генерятся ground truth изображения для сегментации? Только ручками размечать?
465 1117178
>>12128
хуле R-мakaque в таком хуевом качестве ?
467 1117442
Знатоки, поясните, пожалуйста, за TPOT - почему датаслесари ещё не идут массово в KFC?
468 1117446
>>17442

>не идут массово в KFC?


почему не идут, идут?
469 1117502
Если задрочить только курсы и какие то проекты учебные для портфолио, реально ли вкатиться, если нет IT вышки?
Или им нужны дипломы ВШЭ МФТИ и подобные?
470 1117782
Чем можно визуализировать гиперпараметры после рандом серча? Если их больше трех? Или как это теоретически сделать, я могу попробовать сам написать.
471 1117955
Почему сетки пишут на питоне?
472 1117962
>>17955
Очень удобно, под себя.
473 1118037
>>17782
А тебе зачем их визуализировать?
Чисто гипотетически, ни разу не видел, чтобы структуры данных больше трёх измерений изображали сколь бы то ни было приемлемо.

Можно поизвращаться с тепловой картой, где в каждом квадрате будет несколько цветовых градиентов, но чтобы такое "из коробки" было - не видел, да и информативность решения сомнительная.

Проще в табличке отсортированной смотреть, имхо.

>>17955
Потому что просто, много библиотек и развитое коммьюнити.
474 1118046
>>18037

> ни разу не видел, чтобы структуры данных больше трёх измерений изображали сколь бы то ни было приемлемо.


Карты Кохонена, проекция Сэммона? Ах да, нимодно.
475 1118335
Какой питон подучить, чтобы поиграться с машинным обучением, 2 или 3?
476 1118427
>>18335
Разница минимальная, за написание новых поделок на втором питоне нужно принудительно лишать невинности.
477 1118429
В комнате есть два компьютера, как быстро и безболезненно распаралелить обучение сеточки на оба? А если добавить компьютер одноклассницы и ноутбук знакомого принца из Нигерии?
478 1118529
>>18429
#мапридьюс, #спарк, #ашдвао
479 1118530
>>18429
ебашь horovod
480 1118602
>>17962
А то что он медленнее моего бати?
hype.jpg77 Кб, 1412x618
481 1118674
Уже второй месяц хайп сдувается. Ждите новый маркетинговый высер IT-индустрии. Снова нужно будет переучиваться.
482 1118677
>>18674
Хайп сдувается с 70-х. Переучивай фреймворки каждый месяц, вебмакака, и не мешай большим дядям играться с интересными вещами.
fp.JPG58 Кб, 1176x612
483 1118678
>>18677

>большим дядям


Много видеокарт-то уже закупил? Тренд-то уже тютю. Скоро будет новый.
484 1118719
>>18678
Много. Не убивайся так, когда-то и ты может быть сможешь позволить себе купить хоть одну топовую.
485 1118780
>>18674
Лол, новый хайп всегда на готове. Ты думаешь просто так в последнее время лохчейны, смарт контракты и прочие криптохуитки форсили? Посмотри на гитхабе сколько уже кода насрали. Так что готовь свой анус к финансовому матану, а вапника с бишопом можешь оставить на помоечке.
1515694958039.jpg25 Кб, 740x1008
486 1118845
Под андрюху нашёл восхитительное приложение Neural Network simulator. Можно почувствовать себя крутым. Рекомендую.
487 1118858
Чет я поплыл немножко, прошу совета мудрого. GA, GP и GL к каноничному ML относят или нет?
488 1118976
Есть ли какие-нибудь хреновины для моделирования нейросетей по типу инструментов в матлабе? Желательно, что-то бесплатное inb4 наивный
489 1118986
>>18976
Выучи уже питон, плебей. Там все что хочешь можно.
janvranovsky (20).jpg250 Кб, 1280x1307
490 1119011
>>05498 (OP)
Возможно ли непогромисту вкатится в сабж и тренить свою домашнюю сеточку?
Интересует чисто в качестве художественного доводчика-обработчика фоток.
фотошоп-кун
491 1119013
>>19011
прикалываешься ? тут не каждый программист может, а уж тем более какой-то сраный гуманитарий
492 1119020
>>19011
Лол, конечно нет. Как ты себе это представляешь, сидишь такой, говоришь сеточке "ну кароче зделой збс, вот тебе пикчи, СИДИ, ТРИНИРУЙСЯ"?

Тренировать сетки это сам по себе роект саенс граничащий с магией перебора: нужно знать как тренировать, что скармливать сетке, какую сетку использовать, какую структуру. На каждом из этих этапов нет каких-то четких инструкций. Но самое главное тебе нужно смочь представить то что ты хочешь в формат чисел и операций над ними что само по себе нетривиальная задача, а в применении к ХУДОЖЕСТВЕННОЙ ДОВОДКЕ фоточек это вообще за гранью.
493 1119034
>>19020
>>19013
Печалька, че. Буду ждать нейросетей, которые пишут свои нейросети для прикладных быдло-задач.
494 1119045
>>18986
Да хоть на на фортране. Меня интересуют примеры.
495 1119049
Что будет в перекате?
496 1119061
>>19034

>нейросетей, которые пишут свои нейросети для прикладных быдло-задач.


Зочем? Проще и логичнее ждать когда сириус бизнес натренирует правильно сеточки для плебса и обернет это все в привычные вам приложения с ползунками и кнопками "make pizdato". Это как если бы ты ждал пока фотошоп или винду напишет сама программа, а не люди.
497 1119065
>>18335
Второй питон выключают через два года
498 1119305
https://arxiv.org/abs/1801.03526
А вот уже реальный капец кодеркам наклевывается.
499 1119318
>>19305

>We benchmark our algorithm, called priority queue training (or PQT), against genetic algorithm and reinforcement learning baselines on asimple but expressive Turing complete programming language called BF.


Хачеиндусы ас ис, дальше можно не читать. Сделали хуйню и рады. Главное, на полпроцента объебали генетическое программирование. Вся суть хипстеров-дегенератов с коворконгов и барбершопов. Родина дала типизированную лямбду, нет не хотим. А скорее всего, просто не слышали. Генетическое программирование потому и проебалось, что сколько-нибудь сложная программа на любом ЯП - неподъемная комбинаторная задача даже для новомодных видюх и кластеров из них, которые используются бородатыми пидорами. Единственный вариант хоть как-то это упростить - лямбда, где выражение любой сложности это просто дерево из абстракций и аппликаций. И никакой диблернинг тут вообще не нужон, нужно специализированное железо (FPGA, асики). Короче, статья - говно их жопы, авторы - хуесосы со смузи.
500 1119320
>>19318
Неплохой у тебя в голове коктейль из комплексов, зависти и отчаяния.
image.png560 Кб, 1000x737
501 1119394
Может кто подскажет где взять или подкинет более-менее свежий датасет с покупателями, купившими какой-либо товар, чтобы там реальные данные были типо пола и возраста? Что за товар не важно.
502 1119587
>>19394
На кагле посмотри, там были соревнования с покупателями. Не знаю, можно ли скачивать данные с закончившихся соревнований.
503 1119802
осторожно, платина!

Есть ли в тренде успешные дата сцаентисты/машинообучаторы/сотрудники гуглов и яндексов? Каков был ваш жизненный путь?

Хочу вкатится в область на полшишечки, ибо есть одна прикладная задача, которую возможно имеет смысл решать нейросетями, а не простейшей статистической моделью. Правда, на текущем месте работы мне все равно никто мои идеи не даст реализовать, так что я собираюсь сделать это скорее для себя / потенциальной смены работы на более интеллектуальную и высокооплачиваемую.

Карочи, есть ли среди вас кто-нибудь, кто использует/пишет нейросети для прогнозирования спроса/продаж в ритейле? Или хотя бы любых других временных рядов? Есть ли уже готовый софт, который это делает параша которую используют в нашей говноконторе не умеет даже сложные статмодели строить.
504 1120037
>>05498 (OP)
Господа нейроночковцы, что из математики нужно для того, чтобы ощущать себя достаточно комфортно в области?
505 1120061
>>20037
По первой ссылке из шапки все объясняется.
506 1120146
>>20037
Линал
Калкулус, векторный калкулус
Теорвер, матстат
Численные методы
Логика
Теория хаоса
507 1120150
>>20146

>Теория хаоса


Ась? Она-то где? Там не нужны топология и физика? Я в нейронках не особо прошаренный, если что. По-моему, больше пригодиться базовая теория игр, которая под GANами лежит.
мимохуй
508 1120151
На слак ODS стоит вкатиться? Или реддита достаточно? Предвзято отношусь к рузге сообществам всё скатывается в пиздецовый офтоп.
509 1120179
>>20151
Потому и оффтоп, что такие как ты пишут хуйню.
Половина тредов вопросы "чо почитать?". Башорг почитайте блять.
510 1120187
Какие годные магистратуры по данной тематике можете посоветовать?
511 1120188
>>20187
В СНГ офк.
512 1120189
>>20187

>магистратуры


лол, там же не учат нихуя, бери сразу аспирантуру
513 1120192
>>20189
После бакалавриат можно сразу в аспирантуру?
514 1120193
>>20192
Бакалавриата*
515 1120194
>>20192
вроде как можно, но я сам в магистратуру пошел ради откоса и потому что учиться не надо сообо, сейчас вот уже сам думаю про аспирантуру немного поздно блят
516 1120195
>>20194
Ну от армии я уже откосил. Так что пофиг. А аспирантуру можешь посоветовать нормальную по тематике?
517 1120198
>>20195
я - нет, может тут есть еще знающий анон, но сомневаюсь
518 1120334
>>09547
Двачую, нейронок уже хайп спадает, ближайшее несколько лет будет править БЛОКЧЕЙН. Спецы сейчас уже нарасхват идут за оверпрайс.
519 1120337
>>20334
для нейронок хотя бы применение есть, каое применение блокчейна ? Там же геометрическая зависимость от количества транзакций, если они вырастут то никакого трафика не хватит и места на винтах
520 1120356
>>20187
В Вышке аж две - науки о данных и статистическая теория обучения. Насчет второй не знаю, но первая годная, друг рассказывал, что ребята, которые плохо шарили в МЛ, здорово так там прокачали себя.
521 1120357
>>20356
Что за вышка?
522 1120411
>>20357
Если ты не можешь это загуглить, тебе не стоит заниматься МЛ.
523 1120460
>>20357
Высшая мера наказания. Расстрел, то есть. Просветление через смерть
chrome2018-01-1701-17-09.png97 Кб, 1092x617
524 1121047
анон, хули уже так сложно? Можно как-то вот без этого всего, а?
525 1121057
>>21047

>простейшая хуйня


>хуле уже так сложно


Земля тебе пухом, братишь.
526 1121058
Анон, как xgboostить многоклассовую классификацию (даже после 10к итераций подбора гиперпараметров случайным поиском), если классы несбалансированы и есть пропуски? Из-за пропусков не могу заюзать imbalanced_learn, imputting - не вариант
527 1121114
>>21047
Уровень первой половины первого семестра. Еще и разжевывается все, чтобы даже до тугодума дошло, почему и как.
>>21058
хгбуст должен и так все съесть, сырым. Если не работает, то данных просто слишком мало. Используй аугментацию для расширения датасета, например.
528 1121687
>>05498 (OP)
Приветствую.
Сам в нейросетях ничего не понимаю, кроме всяких там градиентных спусков и всего такого.
Вопрос такой:
Есть мок страницы, хочу научить нейросеть строить из этого мока JSON объекты определенной структуры, только они довольно сложные.
Так вот, с чего начать? Если в обработке изображений и прочем там матрицы и все-такое, то в вопросе как научить нейросеть строить объекты даже не знаю с чего начать.
т.е. Изображение -> объект.
Может быть подойдет что-то другое, не нейросеть. Не знаю.
Спасибо.
529 1121761
>>21687
Нихуя не поняно что ты хочешь, пиши конкретнее и понятнее пидор
530 1121767
При работе с лицом, хотя бы симметрию задайте, количество глаз итп
531 1121768
>>21767
Короче, предлагаю задать жёсткие каркасы (от; до) для разных вещей, поезда, лица, коты, а ИИ чтобы потом свою шизофрению вкладывал в эти каркасы, "раскрашивал", так скажем.
532 1121817
>>21761
у меня есть, скажем, PSD макет или просто изображение мокапа страниц и я хочу этот мокап представить в виде жсона (точнее представление уже есть, просто надо научить этому комп)
например:
Изображение ->
{
Form1:{
children:[{
Button_1...,
TextField1...,
}]
}
}

Т.е представить страницу в виде древовиднойструктуры
533 1121824
Сука, какого хрена никто не перекатил до сих пор? Лимит уже пять дней.
534 1121860
ПЕРЕКАТ >>1121858 (OP)
535 1122221
>>21817
Это уже реализовали же, нет?
536 1122297
>>22221
хз
я перекатился в новый тред
если реализовали, то хотелось бы побольше инфы
если ты о pix2code, то там строится сразу страница, а мне кастомный объект нужен
image.png15 Кб, 337x153
537 1137212
Поясните ньюфагу, чем все перечисленное на пике отличается друг от друга? Прочитал вроде каждую статью, но разницы между ними особой не увидел. И к какому типу относятся нейронки?
Обновить тред
Двач.hk не отвечает.
Вы видите копию треда, сохраненную 27 февраля 2018 года.

Скачать тред: только с превью, с превью и прикрепленными файлами.
Второй вариант может долго скачиваться. Файлы будут только в живых или недавно утонувших тредах. Подробнее

Если вам полезен архив М.Двача, пожертвуйте на оплату сервера.
« /pr/В начало тредаВеб-версияНастройки
/a//b//mu//s//vg/Все доски