Двач.hk не отвечает.
Вы видите копию треда, сохраненную 6 мая 2018 года.

Скачать тред: только с превью, с превью и прикрепленными файлами.
Второй вариант может долго скачиваться. Файлы будут только в живых или недавно утонувших тредах. Подробнее

Если вам полезен архив М.Двача, пожертвуйте на оплату сервера.
НЕЙРОНОЧКИ И МАШОБ ТРЕД №? 1121858 В конец треда | Веб
Очередной тред про нейроночки.

Что почитать для вкатывания? http://www.deeplearningbook.org/
В чем практиковаться нубу? http://www.deeplearning.net/tutorial/
Где набрать первый самостоятельный опыт? https://www.kaggle.com/ https://halite.io/ https://www.general-ai-challenge.org/
Где работать? https://www.indeed.com/jobs?q=deep+learning&l=
Где узнать последние новости? https://www.reddit.com/r/MachineLearning/
Где посмотреть последние статьи? http://www.arxiv-sanity.com/

Предыдущий тред: >>1105498 (OP)

Предлагаю переписать шапку, добавив ответов на платину, дедовских и свежих книг и, возможно, списки статей
2 1121867
уже нимодно
3 1121904
уноси это говно мамонта.
щас блокчейны в моде
изображение.png221 Кб, 648x526
4 1121935
интересно, а что если интегрировать нейроночки, в малварь? В червя например
самообучающийся, полиморфный червь, избегающий слива сигнатур и не поддающийся обнаружению
5 1121952
>>21858 (OP)

>2018


>нейронки


Ты бояры объебался что-ли? Где блокчейн-тред?
6 1121966
>>21904

> щас блокчейны в моде


>>21952

> Ты бояры объебался что-ли? Где блокчейн-тред?


Причём тут опущейн ваш, дегенераты? Вы даже не знание, что это.
7 1121979
>>21858 (OP)
Никто не будет читать простыню в шапке. Все, что нужно, сейчас есть: единственная книга, стоящая времени на ее прочтение, и архив-санити со статьями. Платину расписывать бессмысленно, т.к. все равно будут спрашивать.
sage 8 1121981
>>21935
Блокчейн интегрируй. С дампом в 15 Гб его ни один антивирус эвристить не будет.
9 1122094
Киньте репозиторий с готовыми моделями на керасе типа
def mod1(...):
...
model.compile(...)
return model
10 1122160
>>21858 (OP)
Хайп уже сдувается, все пишут смарт-контракты и блокчейн на эрганге и голом железе.
Ты думаешь почему не перекатывали, маня?
11 1122163
>>21858 (OP)
Пока ты дрочишь свои манянейронки, всякие заки уходят нахуй из разработки блокчейн технологий, только потому что их не устраивает зп в сотни к баксов в месяц
https://github.com/zack-bitcoin/amoveo/blob/master/docs/why_I_left.md
12 1122165
>>21979
Но текущая шапка действительно сосёт. Выполнена максимально на отъебись.
14 1122171
>>22167
Мои тут два последних поста второй с пруфом
Нахуй мне бы вообще всралось форсить тут блокчейны и семенить, как и остальным, ты ебанутый?
Capture.PNG50 Кб, 797x928
15 1122173
Отлепилось
16 1122175
>>22165
Можешь сделать свою, посмотрим будет ли лучше. По-моему она вообще не важна, можно просто сократить до "Очередной тред про нейроночки." Все остальное постеры либо уже знают, либо оно им не нужно/не поможет.
автор текущей шапки
Screenshot20180119012219.png70 Кб, 826x500
17 1122188
>>22171
Проиграл с этого "пруфа".
18 1122231
посаны, поясните за Nument-у и ее HTM модел и как ее обучать? Из всего я лишь понял что они как-то кодируют входные данные в длинные избыточные последовательности нулей и единиц. Почему такие модли не могут в CIFAR, хотя MNIST смогли? Мешает фон? Что с этим делать?
19 1122240
>>22188
Ну да, мне ведь так важно засеменить опа-хуя что я полезу менять хтмли двача.
Вернись в б, плиз
20 1122250
>>22240
Люди делают и более странные вещи ради более глупых целей. Так что меня бы это совершенно не удивило. Более того, сам факт того, что ты счел нужным скринить свои посты ради какого-то пруфа неизвестно чего, делает такое объяснение наиболее вероятным. Т.е. создалась такая парадоксальная ситуация, когда запостив пруф ты только убедил всех еще больше в своей виновности.
21 1122253
>>22250
Мань, из чистого двачеблагородства я тебе посоветовал осваивать нормальные вещи на которые скоро будет спрос, через пару лет крутильщики ползунков гиперпараметров пойдут на свалку. А ты уже каких-то манятеорий себе напридумывал, да и еще мой скриншот под свои выдумки подогнал. Более того сам факт твоей фантазии делает объяснение, что ты не способен объективно воспринимать реальность, наиболее вероятным. И даже когда прямо тебя попросят пройти на помоечку, ты таки не сможешь понять что твои нейроночки уже даже сейчас никому не нужны, а будешь под это строить очередной свой манямирок.
22 1122298
>>1121817

>у меня есть, скажем, PSD макет или просто изображение мокапа страниц и я хочу этот мокап представить в виде жсона (точнее представление уже есть, просто надо научить этому комп)


>например:


>Изображение ->


>{


>Form1:{


>children:[{


>Button_1...,


>TextField1...,


>}]


>}


>}


>


>Т.е представить страницу в виде древовиднойструктуры



кто чем может, дайте инфы
знаю проекты типа pix2code, но там рендерится сразу страница, а мне бы кастомный объект, чтобы в редакторе на работе открыть.
Спасибо.
23 1122299
>>22253
Очень неумело траливанишь. Рекомендую пройти шестимесячную подготовку в /b/, а потом возвращаться.
24 1122302
>>22298
pix2code ровно это и делает. Ты бы хоть статью прочёл для начала. Естественно, под твою задачу тебе придётся тренировать свою модель.
25 1122303
>>22302
сорян
да, ты прав
ступил.
только по идее он не умеет во вложенные объекты
только в плейн.
26 1122304
>>22302
просто думал, что может есть другая модель для такой задачи
+ мне компилятор не нужен, чисто структуру выдавать.
27 1122305
>>22302
короче я даун, пошел читать статью
сложновато будет, конечно.
быстрый вопрос
гугл бесплатно предоставляет мейнфрейм? а то у меня комп на работе слабоват для МЛ.
28 1122307
>>22305
300$ там при регистрации на счёт кладут. Возможно, этого хватит.
Во вложенные объекты оно умеет. Насколько хорошо - сам посмотришь. Я бы на твоём месте скачал их модель и подергал на своих примерах, чтобы понять примерно возможности.
29 1122309
>>22307
ну да, спс
просто опыта у меня в МЛ ноль
я веб макака, просто у нас проект типа кайнд оф билдер сайтов для бизнес-аналитиков
так я прям загорелся идеей заюзать похожую штуку, только чтобы с нашим DSL приложения.
годнота была бы.
team.01d60ddd.jpg263 Кб, 1531x1024
30 1122313
>>22309
Опыт в МЛ на деревьях не растет, именно так ты его и получаешь. Пробуй, смотри что и как. Бекграунд по первой ссылке в шапке, если зайдешь в тупик.

По возможностям в МЛ: смарите на этих чуваков, сделавших pix2code (пикрел). Они сделали хорошую работу на хайповую тему (все же обсуждали, как ИИ отнимет у всех работу), написали статью. Это взлетело, они уже организовали конторку под это дело (uizard), походят сейчас на конференции, туда-сюда, и их купит какой-нибудь гугл за 100млн. Это бабло делится на 4 основателей, и вот они уже в свои 20-30 лет могут больше не работать ни дня. Вот так куются бабки в силиконовой долине. Ради этого можно не спать ночами, красноглазить на хакатонах и проч.
Немного грустно, что нам с вами максимум от этого пирога светит Н1В рабство за 100к, да и то лишь для 0.1% самых лучших, пробивных и удачливых. Но такова уж наша орочья доля.
31 1122315
>>22313
ну отнять то вряд ли отнимет.
но для прототипов пойдет точно.
пока только ИИ в го победил.
32 1122316
>>22313
бтв
ни работать и дня не очень.
я бы с ума сошел без работы.
33 1122317
>>22313

> Ради этого можно не спать ночами, красноглазить на хакатонах и проч.


так это все, обычно, не ради бабок делается, а ради интереса/for fun
ставить целью бабки это изначально угробить мотивацию
Тебе должно быть пиздец интересно то, что ты делаешь иначе никак
34 1122324
>>22315
Конечно, не отнимет. Как самый максимум эта штука внешний вид интерфейса может оформить, но как это все должно работать кто-то все равно должен кодить.

Про не работать: я не имел в виду сидеть на диване. Независимость от работы переводит тебя из рабочего класса в буржуи. Это реально другой мир. Ты обретаешь полную свободу, делаешь что хочешь. Хочешь - работаешь, но опять же только там, где тебе самому нравится. Захотел, не знаю, написать книгу или научиться играть на скрипке, или пройти весь pacific crest trail, забраться на Эверест, съездить в Антарктиду, пожить в тибетском монастыре и выучить тибетский язык, вообще все что тебе в голову взбредет - пожимаешь руки своим коллегам-батракам и просто идешь и делаешь. Весь мир твой. Как если бы в ММО ты из НПЦ превратился в игрока. Это головокружительная перспектива.
35 1122339
>>22324
ну так-то да. Тут не поспоришь.
Да и, в принципе, можно как цукербрин, сидеть работать сколько хочешь и норм.
36 1122340
>>22313

>Немного грустно, что нам с вами максимум от этого пирога светит Н1В рабство за 100к, да и то лишь для 0.1% самых лучших, пробивных и удачливых. Но такова уж наша орочья доля.


Рашка в жопу говна заливает? Вон недавно гугл купил беларуский стартап по нейроночкам.
37 1122344
>>22340
ну это при условии что ты умен, талантлин и не проебал время/мотивацию в шараге.
38 1122347
>>22340
Ничоси, почитал про AIMATTER. Но уверен на 100%, это не такая простая контора.
Например, см. здесь:
https://techcrunch.com/2017/01/13/fabby-grabs-2m/

>The seed round of funding was led by Haxus Venture Fund. Haxus knows what it is doing in terms of image filter apps: it’s known for previously funding the MSQRD & Prisma filters, and was co-founded by Yuri Gurski. Fabby was co-founded by Yuri Melnichek (the founder of Maps.me).


(Fabby = AIMATTER)

https://techcrunch.com/2017/08/16/google-acquires-aimatter-maker-of-the-fabby-computer-vision-app/

>AIMatter had people working in Minsk, the Bay Area, and Zurich (Switzerland being particularly strong in computer vision tech, see here, here, and here). It’s not clear yet if the staff will stay where they are now or relocate elsewhere, or what else they will be working on for Google.)



Из этого следует, что основатели сами из тусовки в Долине, а в Беларуси у них просто галеры.
39 1122349
>>22347
в беларуси образование говнище просто.
если ты со школы в олимпиадки не вкатывался, то отупеешь в универе хуже некуда.
и мотивацию потеряешь.
hcwa14a4ixa01.png1,8 Мб, 1024x1024
40 1122350
Сгенерированные нейроночкой картины-пейзажи.
41 1122351
>>22350
не хочу сказать ничего плохого, но выглядит просто пиздец
с точки зрения искусства полное дерьмо.
42 1122362
>>22351
А мне понравилось.
С т.з. Искусства, конечно, нейроночка никуда не годится - у нее же нет никакой идеи, никакого мессаджа, чисто рандомом фигачит, стараясь сделать похожую картинку. Но стиль ничо так выходит.
43 1122364
>>22362
какой-то адекватный тред
уже 20 минут, а меня еще нахуй не послали.
посижу тут еще.
Не, так-то да, акварель какая-то.
44 1122365
>>22362
по крайней мере, лучше меня рисует.
45 1122439
Чем тюнить гиперпараметры? Хочу только ввести диапазоны, количество итераций и сплитов, нажать на кнопочку и чтобы программа сама сперва равномерно тыкалась, а потом искала максимум где-то рядом с лучшими результатами.
46 1122443
>>22347
Ну ключевые фигуры: Гурский и Мельничек обычные бульбаши, просто работали и на всякие гуглы прежде чем придти к успеху. Они кстати еще не так давно продали maps with me майлу, отличные карты кстати.
Так что и у орков есть шансы
>>22344

>ну это при условии что ты умен, талантлин и не проебал время/мотивацию в шараге.


Как будто к стартапам в долине это не относиться.

>>22349

>если ты со школы в олимпиадки не вкатывался, то отупеешь в универе хуже некуда.


Не согласен, я сам был олимпиадником(неуспешным), мне это привило такое отвращение к алгоритмам из-за этих ебанутых надуманных задач, что я только спустя 5-6 лет начинаю получать интерес читая и реализуя какой-нибудь хитрый алгоритм.
47 1122461
>>22362

>у нее же нет никакой идеи, никакого мессаджа, чисто рандомом фигачит


Лол, ты думаешь черный квадрат Малевича был рождён иначе?
48 1122511
А почему цвет картинки не представляют 256 картами и значениями в них 1 или 0, а используют float от 0..1 ? Т.е. получается чтобы описать картинку и подать на вход сети надо 3x256 карт. По идее сходимость должна быть намного быстрее.
49 1122534
>>22461
За черным квадратом стоит большая идея, просветись.
>>22511
Потому что цвета непрерывны. Близкие интенсивности кодируются близкими значениями. В твоем случае сходимость будт очень медленной, т.к. нейроночке придется узнавать, что черный и почти черный близки друг к другу.
50 1122536
>>22439
Методов и либ миллион, ищи на гитхабе. Лично мне всегда было неудобно втискивать свой код в эти фреймворки, и я каждый раз делал свое.
51 1122575
>>22534

>Потому что цвета непрерывны.


Хорошо, давай тогда объединим все 3 цвета в один и сделаем только одну входную карту.
52 1122644
>>22313
что ж ты сделал. меня теперь гложит зависть
53 1122650
>>22575
Я не понял, что ты предлагаешь, но в любом случае обосновывать почему это лучше придется тебе.
Если уж заниматься улучшательством, то можно перевести цвета в более осмысленную кодировку, например в HSV или специально задизайненную для этой цели. Но это на самом деле не нужно, слишком низкоуровневое преобразование. Нейроночка такое прекрасно может сделать сама.
54 1122652
>>22644
Я им завидую, но по-белому. Рад за них. Это ведь очень хорошо, когда есть такие возможности у ученых, обогатиться на собственной работе. В какой еще области ты, делая исследования, можешь стать миллионером? Именно в Долине общество приблизилось к идеалу, награждая людей пропорционально вкладу.
55 1122656
>>22650
Я предлагаю обосновать, почему данные именно в РГБ формате, а не в битовом как-то запихиваются в сеть. Ведь сети всегда удобнее оперировтаь дискретными данными 0 или 1.

И еще интересен вопрос почему гугл капча пихает картинки с ветринами и мостами, сеть их плохо распознает? На сколько я видел сегментация любых объектов для автопилота проходит неплохо с любыми объектами.
56 1122658
>>22656
Потому что это неплохой формат в данном случае. Непрерывные величины из заранее заданного диапазона тоже вполне хорошо оперируются.

Как конкретно работает рекапча это секрет гугла.
57 1122664
>>22658

>Как конкретно работает рекапча это секрет гугла.


Я не спрашиваю секрет это или нет, я спрашиваю в чем сложность распознавания того что он выдает.
58 1122668
>>22664
Из того, что мне попадалось, там бывают очень сложные случаи, где знаки сливаются с фоном, где они мелкие и нечеткие. Но это все гадания. Может быть, никакой особой сложности нет.
59 1122708
>>22650

>Нейроночка такое прекрасно может сделать сама


Может, но захочет ли, если её специально не учить. Вот это я не понимаю. Из чего нейронка догадается, что конвертацию в HSV делать эффективнее? Как это следует из статистических данных выборки обучения?
60 1122712
>>22708
Например, ты учишь нейроночку отличать яблоки от апельсинов по фотографиям. Тогда из данных нейроночка установит, что ответ зависит от тона, в некоторой степени от насыщенности, но не от яркости. Вот на фильтрах первых слоев и появится соответствующее преобразование. Конечно, это не будет именно HSV, но нечто подобное ему.
61 1122714
>>22712
Так это надо сначала учить на оттенки на специальном датасете, а потом обученные слои переносить на котиков, например. Кто-нибудь так делает? Не думаю. Ну, претренированные сети используют конечно, на несчастном Imagenet, там всего 1000 классов.
Я так понял сеть изначально ленивая, если научилась котов детектить например по ушам - дальше не учится, на другие признаки плевать. Потому что нет сигнала ошибки - нет обучения.
62 1122718
>>22714
У тебя наивные представления о том, как работают нейроночки. Почитай книгу из шапки для более детального понимания.
horse2zebra.gif7,3 Мб, 448x128
63 1122719
Еще вам пример работы ГАНчика (гифка).
64 1122849
>>22718
У него небось и искусственный интеллект уже полноценно существует в голове, и нейронки сами догадываются, как им учиться.
Ленивая сеть, мда. Сеть - это не человек, она не может быть ленивой, трудоспособной, угрюмой, дружелюбной и так далее. Она может быть только в разной степени эффективной.
65 1122882
>>22849
Объясняю мысль. В первую очередь классификатором выделяются сильные и простые признаки. Например, для леопарда - это пятна. По ним легко и просто определить его. Сеть учится выделять пятна. Все, леопарда узнаем в 100%. Значит на леопарде нет сигнала ошибки, градиенты по нолям, веса не меняются, другие признаки леопарда не выделяются. Все выглядит прекрасно, пока мы не подаем на вход Леонтьева в леопардовых трусах. Так понятнее?
66 1122904
>>22849
Нужно не прочесть ни одной книги чтобы не знать что такое ленивость, жадность и угрюмость алгоритма. Для 2018 это достижение, так держать!
67 1122975
>>22882
Я тут вспомнил, что для борьбы с этим уже придумали dropout.
Ладно, изобретаю нейронку дальше.
68 1122979
Можете что по выч.методам порекомендовать почитать?
69 1123008
>>22882
Она не пятна учится выделять, а циферки на входе.
70 1123009
>>22904
Так он это в антропологическом смысле говорил.
71 1123157
https://numenta.com/

Кто что думает? Почему еще нет впечатляющих результатов от них? Чего им не хватает?
72 1123158
>>23157
Работающей теории.
73 1123160
Есть что почитать по теме?
Ссылки в ОП-посте не предлагать, там всё на собачьем.

Реализация того покерного алгоритма, который уже давненько тестили на профессионалах, не появилась в открытом доступе?
74 1123390
>>23160
Читай хабр, быдло.
75 1123414
ПОДСКАЖИТЕ, ПОЖАЛУЙСТАВот в scikit-learn есть функция linearRegression. Всё отлично, она работает. Выдает значения точек.

Но я так и не понял, можно ли чтобы данная функция показала какое уравнение графика у неё получилось в результате обучения? Например, получилась прямая и можно ли как-то получить уравнение прямой?
76 1123466
>>23414
coef_
77 1123476
>>23466
Спасибо
78 1123872
Сап, котаны.

А есть что-нибудь нормальное почитать \ поюзать касаемо синтеза речи?

Да, слышал про tacotron, wavenet и lyrebird, кто-нибудь с этим работал?
79 1124356
>>23414
Чисто дружеский тебе совет: читай документацию. Хотя бы по диагонали.
80 1124610
>>23390
Где конкретно там читать?
81 1124627
>>24356

>дружеский


Тамбовский волк тебе друган.
82 1125908
>>21858 (OP)
В чём можно смоделировать нейронку? Интересуют инструменты наподобие матлабовского Neural Network Tool.
84 1126662
>>21858 (OP)
Что быстрее работает: torch7 или tensorflow? Или есть что-то ещё быстрее из фреймворков? в гугле забанен
85 1126853
>>26662
У них немного разные концепции исполнения. Торч (я имел дело только с питорчем) выполняет действия сразу, а тф отложенно. В тф сначала создаёшь граф вычислений, а потом его многократно гоняешь. Задачи, которые хорошо укладываются в модель работы тф, будут там немного быстрее обычно.
В тф недавно сделали immediate mode, который работает как в питорче, но он вроде пока медленный.
86 1126978
>>22575
Вообще так и делается в коммерческих сетках - гугли HSV преобразование.
87 1127049
>>26853
ТОРЧ
@
ПИТОРЧ

Аха ахаха ахахахаха
88 1127774
Прибежали в избу дети,
Второпях зовут отца:
«Тятя! тятя! нейросети
Заменили продавца».
89 1128623
Аноны, а есть что почитать по мо, на русском?
90 1128672
Поясните, в чем суть наебалова отключать физически поддержку видеокарт с производительностью ниже 3.0 (что сделано везде, от никому не нужного матлаба, до суперхайпового слесарьплова)? Разве не лучше хоть какое-то ускорение, чем ничего? Я понимаю, что (((нвидии))) нужно продавать новые видюхи, но всему есть предел. Или нет?
>>28623
Полезного точно нет ничего. А смысл на русском? Все равно вся матчасть алгоритмов, весь софт, вся документация на английском.
91 1128679
>>28672
Когда нюфаня, английский смущает. Мне бы подвкатиться, что бы общую концепцию понять, тогда язык уже не принципиален, тем более уже привычно, что свежая инфа только на англ, переводить всем лень, тк нахуй никому не надо, гугол транслит чудеса творит.
Посоветуйте для нюфани, хоть на английском.
92 1128686
>>28679

>Мне бы подвкатиться, что бы общую концепцию понять,


Общую концепцию чего? Глубоких нейросетей, точнее сверточных, т.к. другие глубокие архитектуры уже не в моде? Педивикия, хабр, на ютубе лекций полно.
93 1128789
Короче вчера решил вкатываться в ваш data science, мш, биг дата. Тока начал смореть курсы на курсере Ына и от яндекса и мфти. Интересует есть тут кто то кто устроился на работку в этой сфере? Реально ли самому заработать авторитет на кэгле и устроится на работу показав работодателю место? Насколько много матана? Могут ли устроится туда не матемаматики а так сказать те кто только калькулус могут, типа знать определения, численные методы, решать уравнения и знать неплохо тервер и матстат но не могут доказывать теоремы и не обладают сильным математическим бэкграундом например не знать что положительная однородность Риманова многообразия реализующая гладкие метрики Гильберта в k-ой точке соответствует разложению векторного пространства на Лежандра?
И еще что почитать, посмотреть на тему нейронок?
94 1128953
>>28672

>с производительностью ниже 3.0


че
95 1128981
>>28789
Вкатился как дата инженер потом буду в дата саинс перекатыватся
96 1129028
>>28953

> че


Что-то там capability. Пишет, что надо 3.0 и выше. Если меньше - бреешься, gpu работать не будет нигде, от матлаба и микрософта cntk до слесарьплова. На сайте нвидии есть таблица, сколько у каждой видюхи. Максимум вроде 5.5 но это всякие Теслы. Поддержку ниже 3.0 отключили все, как по указке сверху. И мне кто-то будет говорить, что нет сговора производителей.
97 1129049
>>29028

>производительностью


>capability


Ебать дебил.
98 1129081
>>28789

>И еще что почитать, посмотреть на тему нейронок?


https://habrahabr.ru/company/mailru/blog/333862/
99 1129085
>>29049

> Ебать дебил.


Мань, факт в том, что не самые новые-модные-молодежные видюхи физически блочат. Без всякой разумной причины это делать кроме стимулирования спроса. А то что ты дебил, как и представился, роли не играет.
100 1129088
>>28981
Интересно. Что знаешь и что умеешь? И на каком примерно уровне? Как пришел, как готовился и что учил? Сам наверное начну с этого так как вакансии в моем городе и в соседнем как раз дата инженер и что то рядом, а для сайнтистов нет.
101 1129090
>>29085
>>29085

>не самые новые-модные-молодежные видюхи


>говно мамонта ниже 3.0


Потому что никому нахуй не надо поддержать зоопарк устаревших версий.
А проблемы быдла шерифа не ебут - это твои проблемы.
102 1129096
привет. хочу научиться
делать neural network
103 1129097
>>29096
просишь ты советов мудрых
сосни хуйца
104 1129098
однажды прочел мнение одного человека
что нн - это просто умножение матриц
друг на друга. Интересно о чем это он?
Вроде бы умножить каждую ячейку
массива где 2 уровня на ячейку матрицы
близнеца и умножение на ноль в фильтре
даст ноль, а потом все числа сложить и
получиться большое число, а потом
сравнить это число с результатом
фильтр * на фильтр
105 1129106
>>29098
Михаил, примите вещества и покиньте тред.
106 1129123
>>29090

> Потому что никому нахуй не надо поддержать зоопарк устаревших версий.


Устаревших версий чего? Куда поддерживает, драйвера последние поддерживают. А слесарьплов работает с драйвером и кудой, ему похуй, какая видюха, процессор, память итд. Не знаешь, так хоть бы хуйни не нес.
107 1129130
>>29123

>3.0


>Устаревших версий чего?


И правда дебил.
Хуево быть тобой.
108 1129162
>>21858 (OP)
Какие языки используются в нейроночке да машобчике? Так понимаю, безраздельно властвует Python с иногда библиотеками на крестах, верно? Что по поводу какой-нибудь Java?
109 1129171
Не понимаю в чём нахуй космический эффект питона что большинство нейронок на нем?
110 1129172
>>29171

> Не понимаю в чём нахуй космический эффект питона что большинство нейронок на нем?


Стильно, модно, молодежно, бородатым петушкам из барбершопов нраица, индусы говоря молодца, хорошо сделоли. Хипстерская технология от хипстеров для хипстеров.
111 1129182
>>29172
Динамическая типизация же говнииище. Или я не прав?
112 1129400
>>23414
Коэффициенты поверхности лежат в coef_, как выше сказали. Нарисовать можешь сам если размерность пространства не больше 3
113 1129853
>>27774
в ашане (в некоторых) в дс уже частично заменили и без нейросетей
114 1129856
>>29182
питон - это сахар для библиотек на плюсах (тензорфлоу), там хоть р, хоть хаскель, хоть брэинфак используй
115 1129905
>>29162
Загуглить, не? Может и есть чё под жабу, а на шарпе с этим совсем плохо.
116 1129906
>>29171
Думаю то, что этот язык даже дебил осилит. Вот и пишут на нём.
117 1130411
Halite challenge из оппоста закончился на днях. Боты, основанные на нейроночках, не попали даже в топ25. Хотя в этом году там инфраструктура подтянулась: ГПУ машины с ТФ появились, даже пример нейробота сделали.
118 1130653
>>30411
В области роботизированной ебулды нейроночки сосут хуй с самого своего появления. И это я еще умолчу о том, что внедрять алгоритм, для которого нет строгих математических доказательств устойчивости, не будет никто, т.к. никому не нужно, чтобы роботизированный поезд метро со всей дури размазал пару сотен пассажиров об тупиковую призму, или чтобы автоматизированная доменная печь сожгла ползавода вместе с работягами. В этой области хороши контроллеры, в т.ч. на нечеткой логике. Напомню, первый поезд на нечетко-логических контроллерах ввели в эксплуатацию еще в 1987 году (после почти 10 лет работ и испытаний). На нейроночках ничего подобного нет и в наше время, более того, не будет никогда по причине отсутствия госта "ебань хипстерская, как работает хуй ее знает, но GPU надо хотя бы с 4 гигами оперативы".
119 1130664
>>30653
байтоёбы лают, караван идёт
120 1130684
>>30653

>строгих математических доказательств


Ненужно.

>роботизированный поезд метро со всей дури размазал пару сотен пассажиров об тупиковую призму, или чтобы автоматизированная доменная печь сожгла ползавода вместе с работягами


Всем похуй, чем меньше людишек - тем лучше.
горилла.png213 Кб, 491x424
121 1130730
>>30684

>Ненужно.


Конечно-конечно, раз уж школотрон-мизантрап на мейлру так написал, значит и правда ненужно. Я тебе реальную причину назвал, почему с этим говном из жопы в промышленности не связываются и не будут связываться никогда. Все потуги сирожина пирожина гугла - это реклама от рекламной параши. Самое серьезное достижение нейроночек со времен Розенблатта - научились котиков под пикассо раскрашивать и негров детектить.
1454117521575.jpg27 Кб, 204x269
122 1130739

>tensorflow использует только нвидиа гпу


Нафиг так жить, котаны?
Хочу как-нибудь с зарплат себе купить пеку для игорей и нейроночек, что лучше брать? Учитывая уязвимости интелов и их говнокодерские заплатки
123 1130742
>>30739
32 GB RAM, CPU-any(Need more pci-express lanes), GPU: 3xGTX 1080ti
14925855721.png486 Кб, 592x592
124 1130744
>>30730
Ну сделай что-то подобное вместо кукарекания. Я пока твою нечеткую логику видел только в стиральной машине (еще бы она там была нужна)
125 1130745
>>30730
В промышленности будут связываться и уже связываются, они дают добиться лучших или целевых результатов за меньшее время, в промышленности на заводах они могут использоваться для определения брака на ранних стадиях.
пынясисян.gif6,7 Мб, 300x168
126 1130747
>>30744

>Ну сделай что-то подобное


Во, еще одно огромное достижение. И про порнуху забыл с любым подставляемым еблом. Передний край прогресса - болтающий сиськами Пыня.
127 1130748
>>30742

>каждая 1080ти стоит 700 долларов


Ну, не всё так просто в жизни, да.
128 1130749
>>30747
Ты либо траллишь, либо очень недалекий. Завтра уже в твой роботизированный паровоз поставят нейронку и она будет управлять твоим контроллером и тормозить, когда на путях постороннее тело. Никто не говорит что нейронки заменят классические алгоритмы.
129 1130750
>>30748
Зато негров распознавать сможешь, ты че. 150000р жалко для такого штоле?
130 1130753
>>30750
Ну блэдж, это уже придётся буквально год копить, а там всё опять поменяется.
Я хотел как средний класс за 2 месяца купить пеку за 1к и начинать для себя нейроночки дрочить.
131 1130783
>>30749

>Завтра уже в твой роботизированный паровоз поставят нейронку


Нужно только потерпеть? Не поставят, я уже объяснил почему. Давно бы поставили, если бы была возможность.
132 1130786
>>30783

>я уже объяснил


Всем похуй на твою маняматику и прочую чухню для задротов-неудачников вроде тебя
Как только станет экономически оправдано - тут же поставят, сразу же.
133 1130789
>>30786

>Всем похуй на твою маняматику и прочую чухню для задротов-неудачников


Ты - это не все. "Одному дегенерату похуй" не равно "всем похуй".
134 1130802
>>30789

>Ты - это не все.


Верно. Все - это рыночек, который тебя, байтоебик, и порешал.
135 1130808
>>30783
Ничего ты не объяснил. Для человека нет и не будет никаких строгих математических доказательств, однако же его сажают управлять самолетом.
Да и вообще, внутре нейронки кроются все те же алгоритмы и нечеткие множества с вероятностями, известные из других подходов, это одинаковые яйца в профиль. Найдут способ и их верифицировать, упростят и причешут, а ты хочешь быстро
136 1130862
>>30753
Да не нужны три карты. Их все три нагрузить довольно трудно, т.к. автоматического распараллеливания нет. Ты можешь, например, тренировать три нейроночки параллельно, но это уже продвинутое использование, когда гиперпараметры подбираешь, например. В большинстве хобби-проектов это не нужно.
И одну-то нагрузить полностью надо еще постараться.
137 1130872
>>21858 (OP)
Есть где-нибудь подробные видеогайды по TensorFlow на русском? По-другому информацию о программировании никак не воспринимаю.
138 1130887
>>30862
+ к этому: если тебе нужно будет параллельно тренировать много нейроночек для подбора гиперпараметров, будет эффективнее закинуть сотню баксов в облако и тренировать там. С учетом того, что там можно хоть сотни, если не тысячи инстансов гонять параллельно, и нужно тебе это будет от силы раз в год для статьи или чего-то такого, это будет и быстрее, и проще, и выгоднее по деньгам, чем держать несколько карт у себя, которые будут почти всегда простаивать.
139 1130911
>>30872

>на русском?


Червь-пидор, ты?
140 1130914
>>30911
Да бля. Тяжело на ангельском. Понимаю всё, но воспринимать трудно пиздец.
141 1130917
>>30914

>воспринимать трудно пиздец.


Налицо легкая степень олигофрении.
Можешь попробовать ноотропы хотя вряд ли существенно помогут
142 1130923
>>30917
Ебать ты тонкий тролль.
143 1130930
>>30872
Да ты ее и так не воспринимаешь. Просто повторяешь действия, как макака, и всё.
144 1130932
>>30930
Даунич. Если человек учится не на ебнутых книжках, которые невозможно читать, а как-то по-другому, то он повторяет как макака сразу?
145 1130934
>>30932
Да.
146 1130936
>>30934
Лицемерный скам. Я то же самое могу перевернуть и сказать про тебя.
147 1130939
>>30862
>>30887
А, тогда спасибо.
Значит буду выпрашивать на работке облако, а потом куплю себе пеку и буду для себя делать :3
148 1130947
>>30936

>могу


Не можешь, ты же дебил.
149 1130949
>>30947
Если человек учится на ебнутых книжках, которые невозможно читать, а не как-то по-другому, то он просто повторяет действия, как макака, всё.
150 1130954
>>30949

>книжках, которые невозможно читать


С точки зрения малолетнего олигофрена - несомненно.
151 1130955
>>30954
Да мне как-то похуй на твоё мнение, если я лучше тебя разрабатывать буду. А вот что ты делать будешь со своим илитарством?
152 1130961
>>30955
Лучше ты можешь разрабатывать только свое очко. Кстати, видеоуроки тут реально помогут лучше книжки.
153 1130967
>>30961
Как горит у учебникопидора.
15174305572230.jpg260 Кб, 2048x1152
154 1131102
Я вам, школьникам, даже обьясню, почему эти ваши хипсторские нейроночки никогда не смогут в решение реальных задач. Тем же самым страдает и весь остальной манямашоб. И никто не видит эту проблему, хотя она на поверхности. Вот смотрите. Есть некая система, процесс, неважно. Они порождтся неким взаимодействием неких переменных. Переменные можно измерить и нередко даже выявить вид функциональной зависимости между ними. Но чаще функции и их суперпозиции, описывающие систему, неизвестны. Помимо этого есть ещё неустранимая неточность, которая в общем случае к вероятности не сводится. Подобные функции можно аппроксимировать соотв алгоритмами, к которым относятся и нейроночки. Но это всегда будет аппроксимация неизвестных функций всякой хуетой, которая даёт удовлетворительную точность только на обучающих данных. При уже минимальной экстраполяции получается хуйня, т.к реально функции не те. И вот на этот момент всем похуй, не считая того, что мало кто вообще это осознает. И лично мне не известен ни один подход в машобе, который бы ставил вопрос идентификации реальных законов системы, а не его аппроксимацию левыми функциями. Ну кроме работ советского академика Ивахненко по методу группового учёта аргументов, который тоже в итоге слился до полиномиальных манянейроночек. Именно отсюда вытекает тот факт, что сколько бы хипстеры и индусы не сосали друг у друга на коворкингах, сколько бы не стыковали слоёв и не насиловали видюх и кластеров, решения не будет, потому что проблема не ставится во всей её полноте.
155 1131106
>>31102
Даунич. Твоя математика уже не действует в современных технологиях. Нейросети не представляют никаких функций. Они показывают соотношения совпадений результатов.Ты бы ещё эволюционный алгоритм как функцию рассматривал. Никому нахуй не сдались твои блокчейны, заебал.
156 1131107
>>31106

> Даунич. Твоя математика уже не действует в современных технологиях.


Дебил тупой, читал бы хоть что пишешь. Машоб это математика от и до.

> Нейросети не представляют никаких функций. Они показывают соотношения совпадений результатов


Это и есть аппроксимация функций.

> Никому нахуй не сдались твои блокчейны, заебал.


Какие блохчейны, чучело? Уроки иди делай.
157 1131126
>>31102

>вопрос идентификации реальных законов системы


Ты в курсе, что ньютоновская механика - это тоже аппроксимация левыми функциями? Тебя это не беспокоит?
158 1131129
>>31126

> Ты в курсе, что ньютоновская механика - это тоже аппроксимация левыми функциями? Тебя это не беспокоит?


Есть реальная система, есть её описание и есть её аппроксимация. Точное описание часто невозможно из-за неустранимой неточности, но это лучше, чем аппроксимировать линейными функциями, полиномами итд, когда они не имеют никакого отношения к реальной системе. Вопрос в практическом применении, с ньютоновской механикой ситуация все же лучше, чем с предсказанием временных рядов.
159 1131154
>>31129
Но ведь процессор в комплюктере тоже синусы аппроксимирует полиномами, как дальше жить?
160 1131157
>>31154

>синусы аппроксимирует полиномами


Я всю жизнь жил во лжи.
161 1131160
>>31129

>чем с предсказанием временных рядов


С этим вообще как бы ситуация не очень, но есть здоровая конкуренция, и пусть она решит, кто прав.
Спекулянты давным-давно используют нейросети, а уж их-то не обманешь.
162 1131163
>>31154

> Но ведь процессор в комплюктере тоже синусы аппроксимирует полиномами, как дальше жить?


Когда есть знание, что изначальная функция это синусоида, это одно дело. А когда полиномом аппроксимируют хуй знает что - совсем другое. Проблема как раз в том, что одну и ту же систему можно описать кучей разных функций. Но какие-то из них будут давать более лучшую экстраполяцию, какие-то наоборот в зависимости от степени близости к реальной системе. И если не ставить вопрос о выборе наиболее адекватной функции, которая может быть суперпозицией чего угодно, то никакими алгоритмами не повысить качество модели. Именно поэтому никакая манянейроночка как бы хорошо она не распознавала котиков, не поможет предсказать какие-нибудь бинарные опционы даже на минуту. Притом что там не рандом, ибо если бы там был рандом, любой дебил на этом делал бы триллионы тупо методом мартингейла, т.е 100% заходило бы максимум на 3-4 ставке. И вот, при всем этом, вопрос автоматического выбора наилучшей функции и метода подбора их суперпозиций не ставится вообще никем.
163 1131166
>>31163
>>31107
Так ёпта. Ты лезешь с апроксимацией туда, где никакой функции, блять, нету вообще.
164 1131168
>>31166
ты бы хотя бы 1 книжку по машинному обучению прочитал. Узнал бы что такое эмпирический риск. и что нейронки действительно востанавливают зависимости.
165 1131169
>>31166

> ы лезешь с апроксимацией туда, где никакой функции, блять, нету вообще.


Если есть система (совокупность связанных переменных), то есть и наиболее точно описывающая её функция или суперпозиция многих функций.
166 1131171
>>31166
Двачую. Сраная биржа это самодестабилизирующаяся система. Как только в ней появляется хоть какая-то закономерность - все игроки ломятся туда, и расшатывают всю упорядоченность к хуям.
167 1131173
>>31169
Да суперпозиция то есть, но ты же понимаешь, что по сути она у тебя только на один набор данных. И исходные значения каждого элемента сети изменены по закономерностям без возможности восстановления.
168 1131179
>>31173

> Да суперпозиция то есть, но ты же понимаешь, что по сути она у тебя только на один набор данных. И исходные значения каждого элемента сети изменены по закономерностям без возможности восстановления.


С чего бы? Есть система, по каким-то законам она работает. Значит, их можно восстановить, используя данные, порождаемые системой.
169 1131182
>>31179
Систем измерения этих данных не существует.
170 1131183
>>31182

> Систем измерения этих данных не существует.


Ты даже не в курсе, что такое идентификация систем, а пытаешься спорить. Иди лучше делай уроки.
171 1131187
>>31183
У тебя нет конкретных значений в системе измерения. Как ты модель построишь?
172 1131189
>>31187

> У тебя нет конкретных значений в системе измерения. Как ты модель построишь?


Конкретные значения есть всегда. Даже словесное кукареканье можно выразить в тексте, а текст в виде tfxidf матрицы вещественных чисел.
173 1131191
>>31189
Про теорию хаоса слышал? Так вот у тебя значения могут находиться где угодно, но не последовательно.
174 1131194
>>31191

> Про теорию хаоса слышал?


Как и про методы работы с хаотическими системами. В частности, восстановления хаотических аттракторов, определение наличия хаотической системы по сечению Пуанкаре и т.д. все это частный случай идентификации систем.
175 1131215
>>31194
Только количество возможных диапазонов не известно.
176 1131217
>>31215

> Только количество возможных диапазонов не известно.


Систему всегда можно идентифицировать, если она существует. Чистый рандом да, это просто нормальное распределение. Но если есть какие-то законы, их можно восстановить по данным, порождаемые системой. В этом суть всего машоба, обучение на данных возможно только в случае, если в этих данных содержатся закономерности, зависимости одних переменных от других. Вот только делать это можно по-разному.
177 1131719
>>31217
Ты сам то понимаешь, что говоришь о модели нейросети как о функции, которую нейросеть аппроксимирует.
178 1131721
Как же в нейросетях с квалиа?
15135248190470.jpg16 Кб, 400x400
179 1131865
>>31719

> Ты сам то понимаешь, что говоришь о модели нейросети как о функции, которую нейросеть аппроксимирует.


А то ты не знаешь, что так оно и есть? Посмотри на матчасть хоть нейроночки, хоть svm, это параметризованная суперпозиция функций и алгоритм настройки свободных параметров функции. Другое дело, что вид функций задан априори, это сигмоиды, relu и прочее говнишко, относящееся к реальной идентифицируемой системе ровно никак. А я ещё в прошлом году писал, что если такую структуру задать типизированной лямбдой, то свободными параметрами станет и сама структура svm, автоматически подбираемая под конкретные данные например генетическим программированием в типизированной лямбде. Такой алгоритм максимально точно идентифицировал бы систему по имеющемуся датасету и сходу дал бы пососать любому существующему подходу. Палишь бесплатно идею для стартапа, который купит гугл за сто мильенов долларов, а никто даже не понимает о чем речь. Это смешно, субханалла
sin.jpg23 Кб, 774x349
180 1131872
Здравствуйте, у меня есть статистическая выборка из точек, которые располагаются близко к синусоидальной линии(на картинке).

У меня есть два метода по аппроксимации взятых из Python:

1)Из sklearn построение аппроксимирующего многочлена по точкам

2)Из scipy подбор синусоиды к точкам

В обоих случаях выходит результат как на картинке, то есть программа строит красную линию близкую к синусу.

Подскажите, пожалуйста, каким показателем измеряется точность аппроксимирующей модели по отношению к точкам из выборки? То есть за счет какого показателя можно сказать какой из методов лучше первый или второй? Я думал, что буду использовать коэффициент корреляции Пирсона, но я прочитал, что он плохо подходит для кривых аппроксимирующих, ибо коэффициент работает только для прямых.

А каким показателем тогда оценивать точность модели? Дисперсией? Корнем из дисперсии? Коэффициентом корреляции Спирмена? Может есть какой-нибудь волшебный коэффициент детерминации для кривых?
181 1131882
>>31872
Стандарт для регрессии - среднеквадратичная ошибка. Это оптимальная оценка, если данные сгенерированы твоей моделью с аддитивным гауссовским шумом.
182 1131890
>>31882
Благодарю
183 1131908
https://www.youtube.com/watch?v=Dhkd_bAwwMc&feature=youtu.be
Детекция позы человека нейроночкой. Делает полный маппинг текстуры обобщенного человека на картинку. Можно, например, голые тела маппить на людей в видео. Мы стали на шаг ближе к раздевающим очкам.
184 1131928
>>31908

> Можно, например, голые тела маппить на людей в видео. Мы стали на шаг ближе к раздевающим очкам.


Фейковое ЦП, ну наканецта!
185 1131934
>>31865
Прости, мы слишком глупые.
186 1131939
>>31102
Ну если про CV говорить, то там достаточно очевидно что можно аппроксимировать. Это как разложение в ряды Тейлора. Над просто побольше параметров захуярить, чтоб аппроксимация соответствовала функции с ошибкой меньше эпсилон.
187 1131941
>>31934

>глупые


Слишком лестная характеристика.
Черви-пидоры с олигофренией - так правильней.
188 1131984
>>31865

>генетическим


А чего сразу не меметическим?
1.png58 Кб, 555x469
189 1132012
>>31984
Никогда не слышал, чтобы такое реализовывали. Речь, по-сути, о том, чтобы в методе группового учета аргументов процесс порождения кандидатов на лучшую функцию представить чем-то уровня пикрелейтед, а саму функцию (в оригинале - частные полиномы от полного степенного) заменить на регуляризованную SVM. Т.о. последовательно будет строиться SVM, в которой как вид функций, так и параметры будут настраиваться исходя из подходящих критериев (н-р, наилучшей экстраполяции построенной модели на данные, далекие от тренировочных).
190 1132396
>>31941
сказал рекурсивный программист
191 1132443
>>31106
Перечитай определение нейронной сети. Их суть и смысл - приближение некоторой функции. Уже обученная нейронная сеть, по сути своей, и является функцией из множества возможных входных данных в возможных возможных выходных данных.
192 1132523
>>31865
Никогда, кстати, не понимал, с какого хуя все ограничивают себя 3-4 стандартными функциями на нейронах, да ещё и функции эти друг на друга слишком сильно похожи.

Нет бы запилить старый добрый синус и посмотреть, что получится
193 1132540
Давайте начистоту.

Кто из вас зарабатывает при помощи ИИ и как именно?
c23df0a140cb5f264d6b6f313bc831a7.jpg385 Кб, 849x1200
194 1132541
Давайте начистоту.

Кто из вас зарабатывает при помощи ИИ и если да, то как именно?
195 1132597
>>32523
Ну в svm итд используются ядра преобразования входных данных (кернелы), причём их класс очень большой, по-сути это любая функция, удовлетворяющая требованиям теоремы Мерсера. Это уже лучше, вот только выбор ядра остаётся за пользователем и по-сути есть простое шаманство, выбираешь или пишешь ядро, натягиваешь на него сову и смотришь что получится. По уму нужен алгоритм подбора кернела, в т.ч в виде суперпозиции симметричных функций, исходя из качества аппроксимации или классификации данных за пределами тренировочных. Но тут опять же, лучше лямбды сложно что-то придумать.
196 1132601
>>32541
Я даже не знаю в какой сфере их можно применять промышленно. Только разработка ведь.
197 1132621
Вот подскажите мне, обязательно ли заканчивать университет, чтобы стать великим гуру в сфере нейроничков и машоба? Просто я хочу сам всё изучать, самостоятельно. А эти все пары, экзамены, учеба с утра до вечера, где ты большую часть времени не учишься, а шараебишь между кабинетами, жрешь и пытаешься социализироваться.
198 1132630
Я вам даже больше скажу, любители нейроночек. Вы ж даже не знаете, зачем вообще в нейроночке "нейроны". Потому что не читали классику, Колмогорова и Арнольда потому что считаете это устаревшим говном из первой половины прошлого века, где показано, что функцию от многих переменных можно представить суперпозицией частных функций от двух переменных. Нейроны именно это и делают, т.к на них распределяется входной вектор или тензор, ну, входной относительно предыдущего слоя.
199 1132634
>>32621

> Вот подскажите мне, обязательно ли заканчивать университет, чтобы стать великим гуру в сфере нейроничков и машоба?


Без бамажки на РАБоту не возьмут и хипстеры с пхд засмеют. Самому можно разобраться, но на практике мотивации не хватит, в универе хоть заставят что-то учить, а сам просто дропнешь через пару месяцев.
200 1132635
>>32630
Ты с кем разговариваешь?
201 1132645
>>31171

> Сраная биржа это самодестабилизирующаяся система



Сраная биржа - это не то, чем она кажется простому обывателю. И манямодели, построенные по её представлению для простого обывателя соснут обязательно. Их предел в таком варианте - механизация скальподрочерства, упирающееся в интернет-канал.

Если в нейросеточки инсайдерскую информацию подавать, причем которая обычно или "государственные тайна" или "коммерческая тайна" - то нейросетки тут же сосать перестанут.
202 1132687
>>32645
Ну, допустим, применительно к биткоину, какая может быть инсайдерская информация? Просто некто с большим капиталом шатает курс в целях извлечения выгоды, или просто хацкер сливает битки, мелочь пытается эти события ванговать и тоже извлечь прибыль.
Ты предлагаешь на вход нейросети подавать желания всех игроков? Ну тогда задача предсказания будет очень простой.
203 1132717
>>32645
>>32687
Начнём с того, что суть теханализа в том, что все, важное для рынка отражается на курсе, капитализации, объёме продаж и тп первичных данных, доступных для анализа. Это же касается и инсайдерской информации. Например, захотели рептилоиды пошатать курс, сделали для этого что-то с объёмами продаж, капитализацией итп, курс пошатался. Т.е есть готовая закономерность изменения курса, функция, которую можно идентифицировать. Похуй, что нам доподлинно неизвестно, кто и для чего шатал курс, но нам известны объективные показатели рынка и их взаимосвязи.
204 1132720
>>32717
Т.е. теханализ изначально предполагает стационарность этих связей? Лол
205 1132726
>>32720

> Т.е. теханализ изначально предполагает стационарность этих связей? Лол


Теханализ предполагает их наличие. Стационарности или динамичность нельзя предполагать априори, их можно получить только из самих данных.
206 1132770
>>32726

>Стационарности или динамичность нельзя предполагать априори



Жопу ставишь?
207 1132774
>>32770
Я говорю о том, что для идентификации системы таких предположений не требуется. Так-то никто не запрещает.
1391273112770.jpg499 Кб, 1280x1945
208 1133057
Нейроны - хорошо, конечно, а как запрограммировать глюоны?
209 1133149
>>32630
А почему от двух переменных?
210 1133169
>>33149
В общем случае - от меньшего числа переменных. Думаю, две - наиболее удобный для представления и вычисления вариант.
211 1133196
>>31171

>все игроки ломятся туда


Какие "все"? Все занимаются тем что строят разнообразные прямые, чтобы воспринимать их пересечение как ЗНАК.
212 1133366
>>33057
Это нужно у здешних биологодаунов спрашивать, у которых нейросетки - это савсем не нийроны!!
213 1133384
>>32597

>По уму нужен алгоритм подбора кернела


Ах как было бы хорошо! Ну придумай. Хотя ладно, спалю идею на сто триллионов: придумай алгоритм, который сконструировал бы данный алгоритм. И думать не надо. Ах как хорошо!
origae83e52b6f5f7e6757166c8609038114.jpg77 Кб, 600x773
214 1133390
Математика для ПТУ Башмаков 1987 года нормальный учебник?
215 1133407
Нейроанон помоги. Использую keras.

Есть массив из 30 значений на входе и попытка предсказания следующих 5 на выходе. Соответственно есть хуева гора этих массивов по 35 для тренировки (30 на вход, 5 на выход).

Обычная полновесная нейросеть нормально жрет эту гору и тренируется без проблем (и даже кое-как работает).
А сверточная выебывается на входные данные.

Данные генерирую так:
trainx=[];trainy=[]
for i in train:
trainx.append(i[:30])
trainy.append(i[30:])

x=np.array(trainx)
y=np.array(trainy)

train это та самая гора массивов по 35. Результат:

ValueError: Error when checking input: expected conv1d_1_input to have 3 dimensions, but got array with shape (395049, 30)

395049 примеров по 30 значений. Что сделать чтобы оно заработало?
216 1133412
>>33407

>30 значений. Что сделать чтобы оно заработало?


либо x = x[:,:, np.newaxis], изменит форму входа на [batch_size, 30, 1], либо x = x[:, np.newaxis] изменит форму входа на [batch_size, 1, 30]. Ну и входные размерности пофиксить.
218 1133414
>>33407
ты сверточную сеть для картинок взял? бездумно копипастить не прокатит
219 1133416
>>33390
Для школьников да, для нейроночек нужна вузовская математика.
220 1133422
>>33412
Не помогает:
ValueError: Error when checking input: expected conv1d_1_input to have shape (None, None, 30) but got array with shape (395049, 30, 1)
Второй выдает (395049, 5)

>Ну и входные размерности пофиксить.


Как?
221 1133434
>>21858 (OP)

>Предлагаю переписать шапку, добавив ответов на платину, дедовских и свежих книг и, возможно, списки статей

222 1133450
>>21858 (OP)

>Предлагаю переписать шапку, добавив ответов на платину, дедовских и свежих книг и, возможно, списки статей



https://hal.archives-ouvertes.fr/hal-01221226/document
223 1133514
>>33422
в Conv1d нужно указать input_shape = [30,1], а не просто 30 читай инструкцию к keras.
224 1133560
Дали тз. Есть софт с тестовым периодом 7 дней. Есть 1000 акков, 550 регистрировались как компания, 325 как частники 125 как "универсальный аккаунт". Есть количество запусков софта для каждого акка в каждый из семи дней. Известно, кто купил софт после триала.
Какую модель тут лучше взять?
225 1133565
>>33560
SVM, очевидно же. "Купил/не купил" - 2 класса (1/0), остальное - входные данные. Я бы с такого начал.
226 1133567
>>33384

>Ах как было бы хорошо! Ну придумай.


Для тебя "генетическое программирование с типизированной лямбдой" набор рандомных слов, я правильно понял?
227 1133579
>>33514
Это я действительно проглядел но ошибка остается.

Доки говорят что вход должен быть (batch_size, steps, input_dim) и я нифига не понимаю что это значит.
Для Dense вход (batch_size, input_dim) поэтому я предполагаю что batch_size это количество примеров а input_dim это количество значений в примере но что такое steps и как преобразовать входной массив я не понимаю.
c23df0a140cb5f264d6b6f313bc831a7.jpg385 Кб, 849x1200
228 1133661
>>33366
Я думала, это по части физики... :|
229 1133724
>>33661

А ты няншенькая? :3
justme.png1,1 Мб, 844x714
230 1133837
>>33724
больше чем
231 1133862
>>33837
Пофапано.
232 1133866
>>33837
Ну ты хоть трапик, так что можно тебе всё простить. А то достала аватаркофажить повсюду.
яняша.jpg385 Кб, 849x1200
233 1134427
>>33866
просто ты изрващенец, приследуешь меня и следишь за мной везде ^^
234 1134476
Нейронку можно натренировать на генерацию текста по определенным шаблонам?
235 1134499
>>34476
Съеби обратно в дыру из которой вылез.
236 1134543
>>34499
Ну че ты сразу ругаешься, а?
237 1134942
Здравствуйте, я по учебе сделал домашнее задание на языке Python c применением sklearn. И применил несколько метрик из sklearn. Но, я не знаю как правильно перевести на русский названия этих функций, чтобы записать в отчет, и чтобы было понятно что это за результат получился. Подскажите пожалуйста, как правильно это перевести на русский.

1) explained variance score
2) mean squared log error - я думал, что это "средняя квадратичная логарифмическая ошибка", но загуглил такое сочетание слов и оказалось, что его не существует. Ещё помогите пожалуйста с mean squared log error, как правильно перевести error как ошибку или как погрешность?
238 1135123
1) Показатель дисперсии (взвешенной? сравни формулу из sklearn с русскоязычными определениями)
2) Это точно "ошибка", перевод кажется правильным.
239 1135139
>>35123
1) Вроде, объясненная дисперсия. С русскоязычными тяжело сравнивать, ибо на русском там формулы для мат. статистики и теории вероятности. А в sklearn формулы для y и y с крышечкой.
2) В другом треде советуют, что error - это отклонение.
240 1135140
>>35123
Ну то есть я неправильно выразился, короче, на русском определения для ВУЗовских предметов, а в sklearn для машинного обучения. И так как я умственно отсталый, то не осилил сравнить эквивалентность формул.
241 1135307
>>34942
На кого ты учишься, что в гугл не можешь и про педивикию не слышал?
https://en.wikipedia.org/wiki/Explained_variation
https://www.kaggle.com/marknagelberg/rmsle-function

>помогите пожалуйста с mean squared log error, как правильно перевести error как ошибку или как погрешность?


Еррор - это еррор. Перевести можно как "ошибка", разумеется. Русский язык слишком могучий, поэтому переводят как хотят - ошибка, погрешность, отклонение, невязка итд.
242 1135430
Пацаны, поясните за NLP. Модно? Вкатываться? Или уже гуглы/амазоны все что можно сделали ?
243 1135512
>>35307
Спасибо, я плох в английским, поэтому не смог такую хорошую ссылку найти как вторую которую ты дал.
244 1135595
Здесь есть тред про ДС в целом и статы, чтоб без манянейронок и гаданий на кофейной гуще?
Или на харкаче только хайпомакаки вместо самих разработчиков?
245 1136573
>>34476
можно, но ненужно
15183880981250.png15 Кб, 337x153
246 1137273
Поясните ньюфагу, чем все перечисленное на пике отличается друг от друга? Прочитал вроде каждую статью, но разницы между ними особой не увидел. И к какому типу относятся нейронки?
247 1137499
>>37273
нейронками в основном решают задачи классификации и регрессии, и часто бывает что в интеллектуальных системах эти задачи визникают и их можно решить в том числе и нейронками.
1.jpg39 Кб, 774x533
248 1137839
Здравствуйте, у меня такой вопрос: если у меня есть

1) функция f(x) выражающая количественные характеристики первого вещества, где характеристика "у" зависит от количественной характеристики "х" по закону f(x)

2) есть второе вещество с такими же количественными характеристиками "х" и "у", но "у" от "х" зависит уже по закону g(x)

3)А потом первое и второе вещество смешали в пропорции 40% на 60% и получился третий закон для смешанного вещества h(x).

Подскажите, пожалуйста, есть ли методы машинного обучения позволяющие по законам f(x), g(x), h(x) и по величине пропорций веществ определить как закон смешанного вещества h(x) выражается через первые два g(x) и f(x)?

Ну например, допустим, что окажется, что h(x) = 0.4f(x) + 0.6g(x). То есть ли методы машинного обучения позволяющие эту зависимость h(x) от f(x) и от g(x) выявить?
249 1137853
>>37839

> есть ли методы машинного обучения позволяющие эту зависимость h(x) от f(x)и от g(x) выявить?


Это вопрос представления данных. Алгоритм почти любой сойдёт. По-сути у тебя речь об идентификации системы, нахождении зависимости вида y = f(x1, x2), где y это h(x), x1 это f(x), x2 - g(x). Собираешь датасет из 3х столбцов, строки которого - h(x), f(x), g(x) при разных концентрациях и подсовываешь чему угодно, хоть svm.
250 1137855
>>37853
О, прикольно, спасибо большое
251 1137861
>>37853
Очень классно, спасибо огромное ещё раз, ну ты жесткий тип))
252 1138004
Есть задачка по предсказанию следующих значений в последовательности (скажем, изменения цены товара). Как я понял для этого лучше всего подходят lstm сети. Но есть пара вопросов:

1. Товаров много а просто скармливать значения по всем не выйдет - сеть же с памятью. Как лучше сделать? Можно просто в лоб создать несколько сетей для каждого товара но может есть варианты получше? Слышал что можно вытащить не только ответ но и внутреннее состояние сети.

2. В последовательности довольно много нулей (цена без изменений). Если просто выкинуть все нули то может ли это негативно повлиять на точность предсказания?
253 1138012
>>38004
Я тута чуть выше вскрывал тему, почему весь вообще машобчик люто, бешено сосёт в предсказании временных рядов, и почему никакая мегагитлер нейроночка на мегагитлер кластере для этой задачи не лучше дубового arima из прошлого века. Поэтому лично я в качестве алгоритма взял бы svm, там хотя бы теоретически обосновано, почему при правильном использовании результат будет лучшим на конечном датасете.

> 1. Товаров много а просто скармливать значения по всем не выйдет - сеть же с памятью. Как лучше сделать? Можно просто в лоб создать несколько сетей для каждого товара но может есть варианты получше? Слышал что можно вытащить не только ответ но и внутреннее состояние сети.


Отдельная модель для каждой системы, т.е товара. Если не хочешь предсказания уровня среднего анализа мочи по больничке.

> 2. В последовательности довольно много нулей (цена без изменений). Если просто выкинуть все нули то может ли это негативно повлиять на точность предсказания?


Т.е у тебя там дельты цены, разницы между последним и предпоследним значениями? Выкидывать не надо.
254 1138035
>>38012
Я конечно не пробовал ни arima ни svm но обычный персептрон более-менее адекватно предсказывал следующее изменение (а вот второе, третье и тд очень херово).

>svm


Есть что почитать про это? Нашел только какие-то дикие формулы при полном отсутствие примеров.

>Т.е у тебя там дельты цены, разницы между последним и предпоследним значениями? Выкидывать не надо.


Да, дельты. Выглядеть может примерно так:
-0.2 0.0 0.0 0.0 0.0 0.0 0.0 0.5 0.0 -0.1 0.0 -0.4 0.0 0.0 0.0 0.7 0.0

Вообще интересуют именно следующие движения, а когда они будут - через 2 шага или через 10 - пофиг.
255 1138065
>>38035
В принципе, если перцептрон устраивает, то им и пользуйся, SVM вещь крайне годная, но матчасть там страшновата, да. Лучшая реализация с либами для всех ЯП https://www.csie.ntu.edu.tw/~cjlin/libsvm/ там же пейперы и примеры.

>Выглядеть может примерно так: -0.2 0.0 0.0 0.0 0.0 0.0 0.0 0.5 0.0 -0.1 0.0 -0.4 0.0 0.0 0.0 0.7 0.0


Из временного ряда лучше сделать матрицу Ганкеля столбца в 4, и уже строки из нее подавать алгоритму по типу 4столбец = f(3,2,1).
256 1138113
>>38065
Перцептрон не совсем устраивает тк предсказывает только на шаг вперед, мне бы на 3-5 шагов.

В sklearn есть и свм и документация и примеры. Там и попробую.

>Из временного ряда лучше сделать матрицу Ганкеля столбца в 4, и уже строки из нее подавать алгоритму по типу 4столбец = f(3,2,1).


Я не совсем понимаю зачем и честно говоря не знаю как. Нужно будет входные данные преобразовать в такую матрицу, изменить input_shape под нее, (4, 4) вроде как? Что такое f(3,2,1)?
У lstm один из плюсов это то что можно по одному значению подавать на вход и получать результат.
257 1138128
>>38113

>Я не совсем понимаю зачем и честно говоря не знаю как. Нужно будет входные данные преобразовать в такую матрицу, изменить input_shape под нее, (4, 4) вроде как? Что такое f(3,2,1)?


Например, у тебя есть временной ряд из 10 значений - 1 2 3 4 5 6 7 8 9 10. Нужно построить матрицу вида:
1 2 3 4
2 3 4 5
3 4 5 6
4 5 6 7
5 6 7 8
6 7 8 9
7 8 9 10
Далее, последняя колонка используется как выход у, первые 3 - как вход х. Такая схема для временных рядов практически идеальна для идентификации систем. Ну а матрицу Ганкеля из временного ряда можно строить автоматически, это есть на каждом углу, в пистоне уж точно есть https://docs.scipy.org/doc/scipy-0.14.0/reference/generated/scipy.linalg.hankel.html LSTM тоже можешь пробовать, но я очень сомневаюсь, что любой метод даст 500% качества от перцептрона (5 шагов вперед вместо 1), хотя если сама система там несложная, то мб, но это надо пробовать все подряд и смотреть что лучше.
258 1138142
>>38113
Еще вариант - построить 5 моделей, каждая из которых будет предсказывать на определенное кол-во шагов вперед. Но тогда соотв. образом должны быть сделаны датасеты (выход должен быть соотв-но следующий шаг, потом второй, третий, 4ый и 5ый). Это можно следать с перцептроном, ты ж говоришь, что на 1 шаг вперед точно предсказывает, тут то же, только вместо одного у тебя будет 5 перцептронов. Это аутизм, конечно, но мб и поможет, машобчик то еще шаманство вприсядку с бубном.
259 1138177
>>38128
Теперь понял. У меня примерно так и есть.
Для 5 шагов с перцептроном скорее подойдет вариант добавления предсказанного шага в входную последовательность (как я понял в LSTM это так и работает).
Перцептрон плохо предсказывает на более чем 1 шаг (пробовал), скорее всего именно потому что пытается предсказать не глядя на предсказание предыдущего. Под плохо я имею ввиду что-то вроде -0.002 при любом вводе.
260 1138392
>>38177
Временные ряды вообще довольно гиблое дело. Чувак выше дельный совет дал - попробуй ARIMA для начала, хотя бы как бейзлайн. То, что изменение цены происходит лишь иногда, сильно ухудшает прогноз. Вряд ли хоть какой-то метод тебе предскажет, что мол через три дня будет +5. Тут тебе кроме цены нужны другие факторы, которые влияют на нее.
На LSTM я бы сильно не расчитывал в данной ситуации. Поиграться можно, но вряд ли это даст результат.
261 1138565
В шараге начался предмет по ИИ будем кодить на прологе и лиспе, блядь, препод, ктн, сказал параллельно проходить курсы и тесты по предмету на сервисе "Интуит", мол, от экзамена освободит. Что за Интуит? Сервис на уровне каких-нибудь geekbrains или ещё хуже?
262 1138573
>>38565

Типа текстовички с лекциями читаешь а потом тест проходишь.
263 1138594
>>38565
Ещё хуже, старье из 00х
264 1138616
чуваки, возможно в далёком будущем программирование заменит ИИ, и тогда этой отрасли наступит шляпа?
265 1138738
>>38616
нетъ
266 1138803
При запуске обучения выдает:
Your CPU supports instructions that this TensorFlow binary was not compiled to use: AVX AVX2

В интернетах советуют либо забить на это либо компилить весь TensorFlow целиком.
Неужели нет скомпилированных вариантов с этими инструкциями?

>>38392
Я еще играюсь но LSTM дает довольно таки неплохие результаты. Конечно ошибается в отдельных шагах но в целом предсказания дает похожие на правду.
267 1139602
Поясните вкрации за нейронки. Насколько я понял, между входом и выходом расположено несколько слоев из нейронов, которые передают на следующий слой какие-то данные с предыдущего, и суть обучения заключается в настройке передаточной функции для каждого нейрона. А где магия-то? Как нейронная сеть позволяет, например, управлять машиной? Как проектировать их под свои нужды? Насколько сложно написать свою реализацию без тензорфлоу?
268 1139615
>>39602
Если с английским так себе, то можно пройти бесплатный трехнедельный курс про нейронные сети на русском:
https://stepik.org/course/401

Там чисто базовый алгем, матан и самые основы нейронных сетей.
c.webm1,6 Мб, webm,
640x360, 0:18
269 1139807
>>21858 (OP)
Сап искусственные интеллекты. Как сделать так чтобы на вход нейроночки подавать флоат с двумя знаками после точки от -5 до 5, а на выход получать интежер от 0 до 99?
270 1139821
>>39602

>Насколько сложно написать свою реализацию без тензорфлоу?


Написать свою реализацию - хуйня по сравнению с используеванием этого вашего тензорфлоу. Пиздец, как долго я его пытаюсь задрочить, а нихуя не выходит.
271 1139858
>>38803
Со следующей версии вроде обещали компилить сразу с этими инструкциями, пока только самому.
272 1140080
>>39602
Тарик Рашид - Создаем нейронную сеть
Как раз про самые основы и создание своей сети почти с нуля.
273 1140481
>>39615

Стесняюсь спросить, какое отношение алгем имеет к нейронкам?
274 1140493
Где в физике кроме обработки данных с ускорителей могут использоваться нейронки?
275 1140728
>>40493
В написании статей с хайповым названием и зарабатывании на этом цитирований и респекта.
276 1140754
>>40728
Очень плохо.
А если серьезно?
Мне в голову пришла еще разве что хемоинформатика с предсказыванием структуры молекул.
277 1141879
>>40754

> Мне в голову пришла еще разве что хемоинформатика с предсказыванием структуры молекул.


Это не физика. Если про молекулы заговорили, машобчик можно использовать для классификации геномов. Правда, там разного рода хитрая кластеризация, а не эти ваши нейроночки. Попадалось немного работ на эту тему, местами весьма круто, можно прямо филогенетические графы строить по степени близости видов, кто от кого произошёл, и все это как обучение без учителя. Противники эволюции сгорели бы дотла от батрушки, но к счастью для них, они дегенераты и не поймут подобных работ. По структурно-функциональным зависимостям молекул тоже попадались пейперы, самый интересный про карты Кохонена с взвешенной кросскорелляцией в качестве метрики (вместо обычной для этих алгоритмов евклидовой). Автор - голландский химик, написал не только статью, но и реализацию этого алгоритма в виде либы wccsom для R.
278 1141923
У меня есть некоторый набор данных. Catboost (random forest) на нем показывает хорошие результаты. Я смотрю какие из фич, подающихся на catboost являются самыми значимыми. И я вижу, что там нет тех фичей, о которых я думал.
Знают ли анонимные эксперты справляется ли random forest с такими данными, где какие-то две фичи, применяемые по отдельности, не дают результата, а их совместное применение дают огромную синергию?

Само собой, я могу просто нагенерить синтетических данных и проверить, но я буду это делать 2-3 часа, а анонимные эксперты может быть УЖЕ такие опыты проводили
279 1141972
>>41923
Во первых catboost это градиентный бустинг на деревьях решений, во вторых деревья решений, который обычно используются не могут видеть связи между признаками.
280 1141991
>>41972
Я не про (A-B), я про (A>=C)&(B>=D)

> градиентный бустинг на деревьях решений


градиентный бустинг, как я понимаю, это алгоритм обучения, а не устройство сети. Совокупность деревьев решений называется лесом, то есть random tree forest
281 1141994
>>22534

>За черным квадратом стоит большая идея, просветись.


"Большую идею" придумали "критики" после увиденного. Если бы ты не знал, что указанные картинки нарисовали нейросети, а какой-нибудь художник, ты бы тоже в них начал искать идею.
282 1142004
>>41991
бустинг и бэггинг принципиально разные вещи (ансамбли), в catboost действительно есть лес (смысле графов), но прицип работы принципиально другой, если в random forest дерьвья слабо коррелированы, то в градиентном бустинге каждое следующее дерево зависит от всех предыдущих. И как в одном так и в другом деревья могут быть каким-нубудь CART.
283 1142009
>>41879
А не дашь ссылку на статью?
284 1142017
>>42009

> А не дашь ссылку на статью?


Гугли SOTA self organizing tree algorithm. Там не одна статья.
285 1142021
>>42004

> в градиентном бустинге каждое следующее дерево зависит от всех предыдущих


Оба-на. Я думал, что каждое отдельное дерево обучается само и не связано с другими. Спасибо
286 1142138
>>41994

>я невежа и не стесняюсь это демонстрировать

287 1142148
>>41972

>деревья решений, который обычно используются не могут видеть связи между признаками


Это не так. Если глубина больше 1, то вполне себе видят. Очевидно же, что модель, не видящая связей между признаками, крайне ограничена, и не сможет решить даже совсем простые задачи, например XOR.
288 1142188
>>42148
XOR (как и NOT, AND, OR) решается заучиванием, а не аналитическим разбором
289 1142256
>>42148
Ты бы для начала википедию прочитал:
There are concepts that are hard to learn because decision trees do not express them easily, such as XOR, parity or multiplexer problems. In such cases, the decision tree becomes prohibitively large. Approaches to solve the problem involve either changing the representation of the problem domain (known as propositionalization)[21] or using learning algorithms based on more expressive representations (such as statistical relational learning or inductive logic programming).
290 1142940
Тут есть кто-нибудь из яндекса? Вам лечиться надо, реально, лол.

>либа для R


>не ставится без питона


А для софта на С у вас в зависимостях паскаль или гиви бейсик? А почему вместе с этой либой яндекс браузер не ставится, и яндекс-панель во все установленные браузеры?
291 1143079
На питоне норм писать ? Не зашквар ?
292 1143112
>>43079
Зашквар, пиши на H2O и Clojure. Ну или Hylang накрайняк.
293 1143119
>>43112
А Haskell?
294 1143124
>>43112

>Hylang


Scala ?
295 1143159
Подскажите.
Имею небольшой мат бэкграунд. Не хочу заниматься нейроночками, потому что они из всех щелей лезут. Нравятся обычные алгоритмы, например для обработки большого объёма данных. Не откажусь от всяких анализов текстов.
Как называется этот раздел и что упарывать? Заранее спасибо.
296 1143254
>>43159

> Нравятся обычные алгоритмы, например для обработки большого объёма данных.


Data mining.

> Не откажусь от всяких анализов текстов.


NLP, natural language processing

> Как называется этот раздел и что упарывать? Заранее спасибо.


Будешь смеяться, но топовые алгоритмы для NLP это нейроночки - skipgram, cbow, glove модели. Ищи реализацию под нужный тебе яп таких вещей как fasttext, word2vec, text2vec и кури документацию и оригинальные пейперы.
298 1143314
>>43119
Под хаскель научных либ мало, а так добро.
299 1144573
Поясните чем глубокое обучение отличается от простого обучения?
300 1144637
>>44573

> Поясните чем глубокое обучение отличается от простого обучения?


В глубоком стыкованные алгоритмы неглубокого. Пример - аутоэнкодер это простое обучение, стыкованный аутоэнкодер - глубокое.
 .png36 Кб, 650x586
301 1144678
>>44637
Блэн, все равно ничего не понял, ну ладно.
302 1144745
>>44573
Слоев в нейроночке больше
303 1144790
>>44745
На сколько больше?
304 1144967
>>44790
не менее пяти 5
15186224401022.jpg47 Кб, 598x564
sage 305 1145474
306 1146314
Анон, есть ли готовая реализация метода главных компонент для сокращения размерности? Не хочу тратить время на создание своего велосипеда.
308 1146466
>>46408
Спасибо! Попробую переписать.
309 1147331
>>21858 (OP)
Сап
Есть одна нейронка, она работает, но в моем грузится почти 10 минут.
Вопрос: как делают чтобы все работало быстро и не грузилось каждый раз по пол часа при запуске скрипта? Может можно сохранить результат обучения или еще какие то хитрости?
310 1147681
>>44573
Смотри короче, суть такова. При неглубоком обучении особенности(фичи) по которым будет проходить обучение выбираешь ты, а при глубоком система сама обучается их выделять. Например фильтры в свёрточных сетях. В целом архитектуру тех же сетей ты всё равно выбираешь, поэтому на эти разделения можно хуй положить.
245106686127886.jpg76 Кб, 1280x720
311 1147797
Где можно найти простенькие примеры нейросетей без кода, а в виде как пикрелтрейд? А то чет вообще ебу, как из этой хуеты делают алгоритмы распознавания текстов и лиц.
312 1147798
>>47331

>Может можно сохранить результат обучения


Ты чё, каждый раз сбрасываешь все конфициенты и заново учишь сеть? Ты ебобо?
313 1147812
>>31194
А какие книжки можно почитать про идентификацию систем?
314 1147813
>>47798

>каждый раз сбрасываешь все конфициенты и заново учишь сеть?


>Ты ебобо?


да(
как их сохранять?
315 1147837
>>32540
Я. Продаю футболки с красивым принтом "ИИ близко, спасайтесь люди"
316 1148081
Так, ну кто не мудак, дайте пару советов и не кидайтесь тухлыми яйцами. Мне кажется, что это офигенная штука, понимать как это работает, чисто для себя и решил вкатится. Ультимативная цель - это написать простенькую игрушку (думаю арканоид подойдет) и нейросеть, которая через reinforcement learning или по генетическим алгоритмам научится играть в игруху. В моем понимании - это не сложно, чем лучше результат изначально рандомных движений вправо-влево, тем больше будет вес у нейронов, которые к этим движениям привели, а у тех, что ведут к неправильным действиям - он уменьшается. И так оно учится, но бля..

Для понимания, решил начать с написания собственной простенькой нейросети (посоветуйте элементарный пример с минимумом нейронов, который можно воплотить), пока не получилось, проблема, судя по всему с математикой, я не понял по какой формуле нужно аджастить вес чтобы оно нормально училось, но надеюсь, разберусь. В шапке ссылки, блин, оно хорошо, но из опыта знаю, что прям сильно глубоко разбираться, сразу не пробуя на практике - говно, я так по Java 2 тома прочитал, в итоге на моем уровне и половина не требуется.

Короче, если знаете ссылку (можно англ), где разжовывается элементарная, но имеющая смысл нейросеть, то поделитесь, плз. Разберусь с вами или без вас.
317 1148119
>>48081
Deeplearningbook (первая ссылка из оппоста) это то, что тебе надо. То, что ты просишь, аналогично "я не хочу сейчас глубоко изучать умножение, просто объясните, почему 2х2=4". Ну разберешься ты с элементарной нейроночкой (что это такое вообще? Перцептрон?), а дальше что? Элементарные нейроночки - сюрприз - не работают. Обучаются медленно и плохо. Работает глубокое обучение, которое не элементарно. Не трать время на перелопачивание говн мамонта, сразу учи то, что нужно.

>сразу не пробуя на практике


Вторая ссылка из оппоста.
318 1148125
>>48081
И, если ты вдруг не в курсе, то нейроночки уже давно играют в арканоид и многое другое. Как с помощью обучения с подкреплением, так и на генетических алгоритмах. На гитхабе полно примеров. Только обучается это очень долго - пару суток на 1080ти как минимум, на ЦПУ забудь.
319 1148464
>>48081
На stepik.org есть очень доступный курс, там как раз во всех подробностях рассказывают про алгоритм обратного распространения ошибки и градиентный спуск.
sage 320 1148652
лол, нечёткий петушок всё ещё жив
321 1148826
Суп, аноны. Кто в теме. Поясните ньюфагу. Допустим я хочу сделать нейронку, которая принимает на вход картинку, на выходе она дает, что на картинке допустим аниме или нет.

Какая структура для такой нейронки подойдет? Сколько входов надо сделать?
322 1148888
>>48826

> Сколько входов надо сделать?


Зависит от того, какого размера картинка.
323 1148898
>>48888 Мне кажется размера привьюшек двача достаточно, чтобы распознать анимепидоров. Стоит ли делать картинки меньше?
324 1148900
и какая структура нейронки рулит для таких задач? Я кроме перцептрона ничего не знаю.

>>48826-кун
325 1148912
>>48900
Свёрточные.
326 1149613
>>48900
гугли keras
327 1149676
Хочу вкатиться в машобчик, скачал себе десяток книг и думаю, вот, с чего начать. Хочу почитать сначала статистику, тем более что данные для анализа есть, но насколько сильно ее нужно вкуривать, бахнуть весь учебник на 800 страниц или первые 100-200?
328 1149690
Дратути. Подскажите, неужели нет готовых натрененых нейроночек чтоб пешеходов детектировать?
Потрогал dnn в опенсв, качество распознавания из говна, хожу чем у HOG+SVM.
330 1149945
>>49690
Молодой человек, а вам зачем?
331 1149957
>>49945
Думаю он из "Яндекса", робомобиль делает.
332 1150006
>>49820
нашел джва проеба на пикче, а какой же будет пиздец в реале
image.png34 Кб, 497x264
333 1150253
ЧЗХ? Это в четырёх измерениях?
334 1150257
>>49945
>>49957
На диплом взял робомобиль лол)))
Думал, что сейчас возьму обученную сетку и без задней мысли найду всех пешеходов, а потом сверху наверну разных методов принятия решений и зарулю как царь.
Но Че то надужной ОБУЧЕННОЙ сетки для детекта пешеходов не нашел.
Pedestrian detection, и MOT это целая проблема похоже.
335 1150284
Где взять входные данные для текста с лэйблами? Желательно чтобы лейблы можно было преобразовывать легко и просто в необходимый формат.
336 1150551
>>50253

> Это в четырёх измерениях?


Там жи написано, t-1, t, t+1, да и нарисовано по 3 нейрона.
337 1150570
>>50551
Как итерация нейронной сети может передавать значения предыдущей вообще?
338 1150958
Можно мне обратно в /b/?
339 1150959
>>50958
И тред с собой прихвати.
Ко-ко-коско, говорили они. Нечеткий петух, говорили они. 340 1151067
Как известно, будущее вычислительной техники вообще - это квантовые вычисления. Квантовые вычисления проще и тривиальнее всего рассматривать как нечеткую логику (пик 1). Т.е. все алгоритмы МЛ в обозримом будущем будут прямо представлять собой либо нечеткую логику, либо что-то полностью равнообъемное ей, просто в других терминах. И вот тут-то и вспомнят, что МЛ давно уже изложен в рамках теории нечетких множеств, и все вообще (в т.ч. все, потенциально возможные) алгоритмы нечеткого машобчика являются частными случаями стандартной аддитивной модели Коско. Т.е. нечеткая логика - это не прошлое машоба, а его будущее. По факту, петухами в этой ситуации уже сейчас можно торжественно объявлять всю хипстерскую индусню (включая гугл) с их парашными сверточными сетями и прочей хуйней без будущего. Хотелось бы ОПРАВДАНИЙ.

Квантовые компьютеры основаны на квантовых битах или кубитах. Они также имеют два возможных значения, которые мы можем назвать 0 и 1. Но законы квантовой механики также допускают другие значения, которые мы называем состояниями суперпозиций.

В каком-то смысле состояния суперпозиции представляют собой значения, которые существуют между крайностями 0 и 1. Мы можем представить кубит как сферу, причем 0 и 1 расположены на противоположных полюсах. Состояния суперпозиции — все остальные возможные точки на поверхности.
https://habrahabr.ru/company/mailru/blog/350208/
341 1151074
>>51067
Интересно, доживу я до того момента, когда квантовое наебалово вскроется, или нет.
152023397319663182.jpg111 Кб, 700x521
342 1151078
>>51067
щас бы матанопетухам верить
343 1151083
>>51078
Маня, что вы забыли в треде про математику?
344 1151085
>>51083

>математику


петухатику
345 1151120
Тут еще одно интересное соображение имеется - квантовые вычисления основаны на квантмехе, фундаментальном основании всей реальности. И вот, лучшее описание квантовых эффектов - это нечеткая логика. Так что это не какая-то там математическая теория, это язык бога, дегенераты инбифо бога нет
346 1151294
>>51074

>Интересно, доживу я до того момента, когда нечеткий петух вскроется, или нет.

Кармак пытается в нейроночки 347 1151338
After a several year gap, I finally took another week-long programming retreat, where I could work in hermit mode, away from the normal press of work. My wife has been generously offering it to me the last few years, but I’m generally bad at taking vacations from work.

As a change of pace from my current Oculus work, I wanted to write some from-scratch-in-C++ neural network implementations, and I wanted to do it with a strictly base OpenBSD system. Someone remarked that is a pretty random pairing, but it worked out ok.

Despite not having actually used it, I have always been fond of the idea of OpenBSD — a relatively minimal and opinionated system with a cohesive vision and an emphasis on quality and craftsmanship. Linux is a lot of things, but cohesive isn’t one of them.

I’m not a Unix geek. I get around ok, but I am most comfortable developing in Visual Studio on Windows. I thought a week of full immersion work in the old school Unix style would be interesting, even if it meant working at a slower pace. It was sort of an adventure in retro computing — this was fvwm and vi. Not vim, actual BSD vi.

In the end, I didn’t really explore the system all that much, with 95% of my time in just the basic vi / make / gdb operations. I appreciated the good man pages, as I tried to do everything within the self contained system, without resorting to internet searches. Seeing references to 30+ year old things like Tektronix terminals was amusing.

I was a little surprised that the C++ support wasn’t very good. G++ didn’t support C++11, and LLVM C++ didn’t play nicely with gdb. Gdb crashed on me a lot as well, I suspect due to C++ issues. I know you can get more recent versions through ports, but I stuck with using the base system.

In hindsight, I should have just gone full retro and done everything in ANSI C. I do have plenty of days where, like many older programmers, I think “Maybe C++ isn’t as much of a net positive as we assume...”. There is still much that I like, but it isn’t a hardship for me to build small projects in plain C.

Maybe next time I do this I will try to go full emacs, another major culture that I don’t have much exposure to.

I have a decent overview understanding of most machine learning algorithms, and I have done some linear classifier and decision tree work, but for some reason I have avoided neural networks. On some level, I suspect that Deep Learning being so trendy tweaked a little bit of contrarian in me, and I still have a little bit of a reflexive bias against “throw everything at the NN and let it sort it out!”

In the spirit of my retro theme, I had printed out several of Yann LeCun’s old papers and was considering doing everything completely off line, as if I was actually in a mountain cabin somewhere, but I wound up watching a lot of the Stanford CS231N lectures on YouTube, and found them really valuable. Watching lecture videos is something that I very rarely do — it is normally hard for me to feel the time is justified, but on retreat it was great!

I don’t think I have anything particularly insightful to add about neural networks, but it was a very productive week for me, solidifying “book knowledge” into real experience.

I used a common pattern for me: get first results with hacky code, then write a brand new and clean implementation with the lessons learned, so they both exist and can be cross checked.

I initially got backprop wrong both times, comparison with numerical differentiation was critical! It is interesting that things still train even when various parts are pretty wrong — as long as the sign is right most of the time, progress is often made.

I was pretty happy with my multi-layer neural net code; it wound up in a form that I can just drop it into future efforts. Yes, for anything serious I should use an established library, but there are a lot of times when just having a single .cpp and .h file that you wrote ever line of is convenient.

My conv net code just got to the hacky but working phase, I could have used another day or two to make a clean and flexible implementation.

One thing I found interesting was that when testing on MNIST with my initial NN before adding any convolutions, I was getting significantly better results than the non-convolutional NN reported for comparison in LeCun ‘98 — right around 2% error on the test set with a single 100 node hidden layer, versus 3% for both wider and deeper nets back then. I attribute this to the modern best practices —ReLU, Softmax, and better initialization.

This is one of the most fascinating things about NN work — it is all so simple, and the breakthrough advances are often things that can be expressed with just a few lines of code. It feels like there are some similarities with ray tracing in the graphics world, where you can implement a physically based light transport ray tracer quite quickly, and produce state of the art images if you have the data and enough runtime patience.

I got a much better gut-level understanding of overtraining / generalization / regularization by exploring a bunch of training parameters. On the last night before I had to head home, I froze the architecture and just played with hyperparameters. “Training!” Is definitely worse than “Compiling!” for staying focused.

Now I get to keep my eyes open for a work opportunity to use the new skills!

I am dreading what my email and workspace are going to look like when I get into the office tomorrow.
Кармак пытается в нейроночки 347 1151338
After a several year gap, I finally took another week-long programming retreat, where I could work in hermit mode, away from the normal press of work. My wife has been generously offering it to me the last few years, but I’m generally bad at taking vacations from work.

As a change of pace from my current Oculus work, I wanted to write some from-scratch-in-C++ neural network implementations, and I wanted to do it with a strictly base OpenBSD system. Someone remarked that is a pretty random pairing, but it worked out ok.

Despite not having actually used it, I have always been fond of the idea of OpenBSD — a relatively minimal and opinionated system with a cohesive vision and an emphasis on quality and craftsmanship. Linux is a lot of things, but cohesive isn’t one of them.

I’m not a Unix geek. I get around ok, but I am most comfortable developing in Visual Studio on Windows. I thought a week of full immersion work in the old school Unix style would be interesting, even if it meant working at a slower pace. It was sort of an adventure in retro computing — this was fvwm and vi. Not vim, actual BSD vi.

In the end, I didn’t really explore the system all that much, with 95% of my time in just the basic vi / make / gdb operations. I appreciated the good man pages, as I tried to do everything within the self contained system, without resorting to internet searches. Seeing references to 30+ year old things like Tektronix terminals was amusing.

I was a little surprised that the C++ support wasn’t very good. G++ didn’t support C++11, and LLVM C++ didn’t play nicely with gdb. Gdb crashed on me a lot as well, I suspect due to C++ issues. I know you can get more recent versions through ports, but I stuck with using the base system.

In hindsight, I should have just gone full retro and done everything in ANSI C. I do have plenty of days where, like many older programmers, I think “Maybe C++ isn’t as much of a net positive as we assume...”. There is still much that I like, but it isn’t a hardship for me to build small projects in plain C.

Maybe next time I do this I will try to go full emacs, another major culture that I don’t have much exposure to.

I have a decent overview understanding of most machine learning algorithms, and I have done some linear classifier and decision tree work, but for some reason I have avoided neural networks. On some level, I suspect that Deep Learning being so trendy tweaked a little bit of contrarian in me, and I still have a little bit of a reflexive bias against “throw everything at the NN and let it sort it out!”

In the spirit of my retro theme, I had printed out several of Yann LeCun’s old papers and was considering doing everything completely off line, as if I was actually in a mountain cabin somewhere, but I wound up watching a lot of the Stanford CS231N lectures on YouTube, and found them really valuable. Watching lecture videos is something that I very rarely do — it is normally hard for me to feel the time is justified, but on retreat it was great!

I don’t think I have anything particularly insightful to add about neural networks, but it was a very productive week for me, solidifying “book knowledge” into real experience.

I used a common pattern for me: get first results with hacky code, then write a brand new and clean implementation with the lessons learned, so they both exist and can be cross checked.

I initially got backprop wrong both times, comparison with numerical differentiation was critical! It is interesting that things still train even when various parts are pretty wrong — as long as the sign is right most of the time, progress is often made.

I was pretty happy with my multi-layer neural net code; it wound up in a form that I can just drop it into future efforts. Yes, for anything serious I should use an established library, but there are a lot of times when just having a single .cpp and .h file that you wrote ever line of is convenient.

My conv net code just got to the hacky but working phase, I could have used another day or two to make a clean and flexible implementation.

One thing I found interesting was that when testing on MNIST with my initial NN before adding any convolutions, I was getting significantly better results than the non-convolutional NN reported for comparison in LeCun ‘98 — right around 2% error on the test set with a single 100 node hidden layer, versus 3% for both wider and deeper nets back then. I attribute this to the modern best practices —ReLU, Softmax, and better initialization.

This is one of the most fascinating things about NN work — it is all so simple, and the breakthrough advances are often things that can be expressed with just a few lines of code. It feels like there are some similarities with ray tracing in the graphics world, where you can implement a physically based light transport ray tracer quite quickly, and produce state of the art images if you have the data and enough runtime patience.

I got a much better gut-level understanding of overtraining / generalization / regularization by exploring a bunch of training parameters. On the last night before I had to head home, I froze the architecture and just played with hyperparameters. “Training!” Is definitely worse than “Compiling!” for staying focused.

Now I get to keep my eyes open for a work opportunity to use the new skills!

I am dreading what my email and workspace are going to look like when I get into the office tomorrow.
348 1151679
Есть годные примеры нейронок на питоне для нуфага?
349 1152630
Учить языки же просто. Зубри, повторяй, генерируй. Так почему вы ещё не научили компьютер языку?
351 1152680
>>52630
Не срать в нейроночкотреде тоже просто, а вот ты не справился. Так и везде.
352 1152684
>>28789
Бамп вопросу.
353 1152709
>>52684

>Реально ли самому заработать авторитет на кэгле и устроится на работу показав работодателю место?


Если только у тебя есть 3-5 лет опыта как программиста.
354 1152783
>>31102

> Но чаще функции и их суперпозиции, описывающие систему, неизвестны.


Неправда. Неизвестны все переменные. Но все переменные и не нужно знать достаточно только тех, знание которых позволяет построить функциональную зависимость между ними и результатом с необходимой точностью. Это имеет место быть в большинстве процессов, если не касаться процессов связанных с человеческим поведением, но даже там есть вполне конкретные взаимосвязи (психоанализ и ежи с ним).

>Помимо этого есть ещё неустранимая неточность, которая в общем случае к вероятности не сводится.


Ложь. Любая неточность, читай ошибка, сводится к плотности распределения вероятности этой ошибки. Для этого достаточно наблюдать процесс долгое время. Ты не знаешь составляющих ошибки, но саму ошибку с точки зрения вероятности описать можно как и ее динамику. Исключения только те процессы, которые не могут быть наблюдаемыми.

>Но это всегда будет аппроксимация неизвестных функций всякой хуетой, которая даёт удовлетворительную точность только на обучающих данных. При уже минимальной экстраполяции получается хуйня, т.к реально функции не те.


Верно. При отсутствие реальной (то есть физической) математической модели, хотя бы приближенной, то любая экстраполяция может соснуть, если только не рассматриваются тривиальные модели типа ортогональных функций.

>И вот на этот момент всем похуй


Ага, то-то научные эксперименты существуют. Вы вообще хотя бы гуглили эту "проблему"?

>И лично мне не известен ни один подход в машобе, который бы ставил вопрос идентификации реальных законов системы, а не его аппроксимацию левыми функциями.


Потому что это не задача машинного обучения? Насколько я знаю искусственный интеллект еще далёк от понимания абстракций, что является основой для любой научной деятельности. Вы наверное не в курсе.. Но то что вы написали

>идентификации реальных законов системы


это как раз задача исследователей, а не нейронной сети.

>решения не будет, потому что проблема не ставится во всей её полноте.


Не знаю по поводу индусов и прочих, но здесь соглашусь: неправильное определение проблемы одна из самых распространенных ошибок в любой сфере деятельности.
354 1152783
>>31102

> Но чаще функции и их суперпозиции, описывающие систему, неизвестны.


Неправда. Неизвестны все переменные. Но все переменные и не нужно знать достаточно только тех, знание которых позволяет построить функциональную зависимость между ними и результатом с необходимой точностью. Это имеет место быть в большинстве процессов, если не касаться процессов связанных с человеческим поведением, но даже там есть вполне конкретные взаимосвязи (психоанализ и ежи с ним).

>Помимо этого есть ещё неустранимая неточность, которая в общем случае к вероятности не сводится.


Ложь. Любая неточность, читай ошибка, сводится к плотности распределения вероятности этой ошибки. Для этого достаточно наблюдать процесс долгое время. Ты не знаешь составляющих ошибки, но саму ошибку с точки зрения вероятности описать можно как и ее динамику. Исключения только те процессы, которые не могут быть наблюдаемыми.

>Но это всегда будет аппроксимация неизвестных функций всякой хуетой, которая даёт удовлетворительную точность только на обучающих данных. При уже минимальной экстраполяции получается хуйня, т.к реально функции не те.


Верно. При отсутствие реальной (то есть физической) математической модели, хотя бы приближенной, то любая экстраполяция может соснуть, если только не рассматриваются тривиальные модели типа ортогональных функций.

>И вот на этот момент всем похуй


Ага, то-то научные эксперименты существуют. Вы вообще хотя бы гуглили эту "проблему"?

>И лично мне не известен ни один подход в машобе, который бы ставил вопрос идентификации реальных законов системы, а не его аппроксимацию левыми функциями.


Потому что это не задача машинного обучения? Насколько я знаю искусственный интеллект еще далёк от понимания абстракций, что является основой для любой научной деятельности. Вы наверное не в курсе.. Но то что вы написали

>идентификации реальных законов системы


это как раз задача исследователей, а не нейронной сети.

>решения не будет, потому что проблема не ставится во всей её полноте.


Не знаю по поводу индусов и прочих, но здесь соглашусь: неправильное определение проблемы одна из самых распространенных ошибок в любой сфере деятельности.
355 1152787
>>52783

> Ложь. Любая неточность, читай ошибка, сводится к плотности распределения вероятности этой ошибки. Для этого достаточно наблюдать процесс долгое время. Ты не знаешь составляющих ошибки, но саму ошибку с точки зрения вероятности описать можно как и ее динамику. Исключения только те процессы, которые не могут быть наблюдаемыми.


Я же приводил пример - временные ряды, пусть цена валюты. У нас есть сколько угодно исторических данных, какой-нибудь архив truefx за пару лет с миллисекундным разрешением. Это достаточно долгое наблюдение за процессом, чтобы вычислить плотности вероятности всех его составляющих (т.к процесс недетерминированный, только о них и можно говорить). И что, даст нам это возможность прогнозировать процесс хотя бы на минуту вперёд и хотя бы в виде прогноза "больше - меньше текущего значения"? Нет. Можно изьебываться как угодно, построить любую модель, все равно результат будет плачевный. Вопрос - почему? Ведь у нас есть все для вычисления.

> Неправда. Неизвестны все переменные. Но все переменные и не нужно знать достаточно только тех, знание которых позволяет построить функциональную зависимость между ними и результатом с необходимой точностью. Это имеет место быть в большинстве процессов, если не касаться процессов связанных с человеческим поведением, но даже там есть вполне конкретные взаимосвязи (психоанализ и ежи с ним).


На примере временных рядов очень легко увидеть, что это не так, и что сколь угодно точная аппроксимация не экстраполируется вообще никак. Опять же вопрос - почему?

> Потому что это не задача машинного обучения?


Это как раз самая что ни на есть задача машинного обучения. Но в такой форме её не ставил никто кроме Ивахненко.
356 1152803
>>52787

>Я же приводил пример - временные ряды, пусть цена валюты. У нас есть сколько угодно исторических данных, какой-нибудь архив truefx за пару лет с миллисекундным разрешением. Это достаточно долгое наблюдение за процессом, чтобы вычислить плотности вероятности всех его составляющих (т.к процесс недетерминированный, только о них и можно говорить). И что, даст нам это возможность прогнозировать процесс хотя бы на минуту вперёд и хотя бы в виде прогноза "больше - меньше текущего значения"? Нет. Можно изьебываться как угодно, построить любую модель, все равно результат будет плачевный. Вопрос - почему? Ведь у нас есть все для вычисления.


Для вычисления ошибки модели? Ведь именно про нее я и написал. Если так, то да. Конечно. Сравнивая значения реальных данных (те самые котировки) и значения полученные с помощью созданной мат. модели мы можем получить невязку и ее статистические характеристики. Это позволит нам правильно выбрать уровень доверия" к выбранной модели.

>Нет. Можно изьебываться как угодно, построить любую модель, все равно результат будет плачевный. Вопрос - почему? Ведь у нас есть все для вычисления.


Для вычисления
невязки - да. Для предсказания того как поведет себя процесс в будущем? На самом деле тоже да. Построив плотность распределения вероятности мы сможем сказать, что вероятность того, что завтра доллар будет стоить 36 рублей маловероятно*. Это связано с тем, что настолько резкое изменение цены на доллар не характерно, то есть маловероятно. А вот через год это чуть более вероятно. А через 5 лет еще более вероятно. А через 100 лет мы приблизимся к 50/50 - то есть к равновероятному результату, потому что я для простоты решил, что у нас ПРВ нормальная. НО это будет справедливо для выбранной модели, которая основана только на статистическом анализе процесса изменения цены. Я думаю очевидно, что этого недостаточно для торговли ценными бумагами.

>На примере временных рядов очень легко увидеть, что это не так, и что сколь угодно точная аппроксимация не экстраполируется вообще никак. Опять же вопрос - почему?


Опять таки где вы вообще увидели, что я говорил про аппроксимацию? Я говорил про создание мат. модели имеющую вполне конкретную ошибку и что эту ошибку можно учесть. Аппроксимировать непонятный процесс - это в принципе отчаянный поступок. Нормальные ученные стремятся найти аналитическое решение функции, а не просто нагородить полиномы 20-тых степеней и типа и так сойдет. Я повторяю второй раз - для предсказания нужна математическая модель, которая основана на физическом, реальном мире. У ценообразования доллара есть такая модель. Она написана в учебниках по экономике и психоанализе действий трейдеров. И эта модель не идеальна и не точна, но тем не менее она будет точнее и лучше любого полинома, который был выведен для аппроксимации кривой изменения цены.

>Это как раз самая что ни на есть задача машинного обучения.


Я немного сомневаюсь в этом, но воля ваша так считать.
356 1152803
>>52787

>Я же приводил пример - временные ряды, пусть цена валюты. У нас есть сколько угодно исторических данных, какой-нибудь архив truefx за пару лет с миллисекундным разрешением. Это достаточно долгое наблюдение за процессом, чтобы вычислить плотности вероятности всех его составляющих (т.к процесс недетерминированный, только о них и можно говорить). И что, даст нам это возможность прогнозировать процесс хотя бы на минуту вперёд и хотя бы в виде прогноза "больше - меньше текущего значения"? Нет. Можно изьебываться как угодно, построить любую модель, все равно результат будет плачевный. Вопрос - почему? Ведь у нас есть все для вычисления.


Для вычисления ошибки модели? Ведь именно про нее я и написал. Если так, то да. Конечно. Сравнивая значения реальных данных (те самые котировки) и значения полученные с помощью созданной мат. модели мы можем получить невязку и ее статистические характеристики. Это позволит нам правильно выбрать уровень доверия" к выбранной модели.

>Нет. Можно изьебываться как угодно, построить любую модель, все равно результат будет плачевный. Вопрос - почему? Ведь у нас есть все для вычисления.


Для вычисления
невязки - да. Для предсказания того как поведет себя процесс в будущем? На самом деле тоже да. Построив плотность распределения вероятности мы сможем сказать, что вероятность того, что завтра доллар будет стоить 36 рублей маловероятно*. Это связано с тем, что настолько резкое изменение цены на доллар не характерно, то есть маловероятно. А вот через год это чуть более вероятно. А через 5 лет еще более вероятно. А через 100 лет мы приблизимся к 50/50 - то есть к равновероятному результату, потому что я для простоты решил, что у нас ПРВ нормальная. НО это будет справедливо для выбранной модели, которая основана только на статистическом анализе процесса изменения цены. Я думаю очевидно, что этого недостаточно для торговли ценными бумагами.

>На примере временных рядов очень легко увидеть, что это не так, и что сколь угодно точная аппроксимация не экстраполируется вообще никак. Опять же вопрос - почему?


Опять таки где вы вообще увидели, что я говорил про аппроксимацию? Я говорил про создание мат. модели имеющую вполне конкретную ошибку и что эту ошибку можно учесть. Аппроксимировать непонятный процесс - это в принципе отчаянный поступок. Нормальные ученные стремятся найти аналитическое решение функции, а не просто нагородить полиномы 20-тых степеней и типа и так сойдет. Я повторяю второй раз - для предсказания нужна математическая модель, которая основана на физическом, реальном мире. У ценообразования доллара есть такая модель. Она написана в учебниках по экономике и психоанализе действий трейдеров. И эта модель не идеальна и не точна, но тем не менее она будет точнее и лучше любого полинома, который был выведен для аппроксимации кривой изменения цены.

>Это как раз самая что ни на есть задача машинного обучения.


Я немного сомневаюсь в этом, но воля ваша так считать.
357 1152815
>>52803

>Для вычисления невязки - да. Для предсказания того как поведет себя процесс в будущем? На самом деле тоже да.


Ок, тогда хотелось бы примеров алгоритмов, которые могут прогнозировать хотя бы направление курса с вероятностью хотя бы 70-80% хотя бы через минуту от текущего значения. Требования достаточно скромные.

> для предсказания нужна математическая модель, которая основана на физическом, реальном мире. У ценообразования доллара есть такая модель. Она написана в учебниках по экономике и психоанализе действий трейдеров. И эта модель не идеальна и не точна, но тем не менее она будет точнее и лучше любого полинома, который был выведен для аппроксимации кривой изменения цены.


Вопрос в том, можно ли построить такую модель, основываясь только на имеющихся данных, а не на знаниях в предметной области. Т.е. вот у нас есть данные, что мы можем сказать о процессах, генерирующих такие данные, основываясь только на самих данных? Это же классическая постановка задачи идентификации системы типа черного ящика, т.е. машинное обучение как оно есть. Т.е. у нас есть выход (значение курса через минуту) и есть вход (значения в более ранние моменты времени). Вопрос в том, как предсказать значение через минуту, имея все значения включая текущие. Очевидно, что если зависимости нет и мы имеем дело с полным рандомом, то используя стратегию мартингейла, мы будем в плюсе всегда. Однако, легко проверить что это не так и мартингейл не работает. Значит, имеется распределение вероятностей, отличное от нормального. Вроде как теоретически его можно восстановить из данных. Но подобные модели не могут в экстраполяцию. Значит, проблема в самих моделях. Вопрос в том, что это за проблема.
358 1152820
>>52815

>Ок, тогда хотелось бы примеров алгоритмов, которые могут прогнозировать хотя бы направление курса с вероятностью хотя бы 70-80% хотя бы через минуту от текущего значения. Требования достаточно скромные.


Ничего сложного, только вот по поводу 70% - это вы перегнули. В районе 35-40% устроит? Обычные movings averages в любом трейдерском терминале. Стратегии/алгоритмы как их использовать описаны в любой книжке по тех. анализу. И не подумайте, чтя смеюсь - это и правда одна из многих вполне корректных моделей для описания процесса ценообразования, но как я уже говорил - они все не обладают требуемой точностью.

>Это же классическая постановка задачи идентификации системы типа черного ящика, т.е. машинное обучение как оно есть.


Вы правы, но неправы к области применения. Насколько я помню из лекций в ВУЗе одно из главных требованиям к такому анализу, чтобы из данных на входе можно было получить данные на выходе.
Пример:
на входе 3 и 4.
на выходе 7.
найденная функция: сложение элементов (3 + 4 = 7).
Это случай корректного применения алгоритма "подбора" по неважно какому алгоритму "решения" задачи.
Другой пример:
на входе 3.
на выходе 7.
функция не может быть найдена.
Почему? Потому что входные данные не содержат в себе выходных данных. То есть не содержат в себе решения задачи. То есть они неполные. То же самое происходит когда кто-то пытаетесь запихнуть значения котировок в свою нейронную сеть - ничего не получится. Данные не полные. В этом случае любая модель, которая получится у алгоритма - ложь не отражающая действительность. И это не беда на самом деле - мы всегда не обладаем полными входными данными, но как я уже писал выше "нам не нужно знать все переменные функции, нам нужно знать только те, которые значительно влияют на результат". Здесь то же самое. Кто-то думает, что значение котировок достаточный минимум входных данных для решения задачи, но на самом деле это не так. В этом я вижу причину проблемы. Не в алгоритмах дело - дело во входных данных.
359 1152823
>>52815
>>52820

>Вопрос в том, можно ли построить такую модель, основываясь только на имеющихся данных, а не на знаниях в предметной области.


Ну, и вдогонку к моему ответу. Мне кажется, что нет. Если все имеющиеся данные это значения котировок в прошлом. Если вам и правда это интересно, то советую книгу "Инвестиционная оценка" Дамодарана или подобную книгу про фундаментальный анализ компаний на фондовом рынке. Идея в том, что бы оценивать компании по вполне конкретным показателям выраженных в числа: доходы за год, общий долг, волатильность акций, в общем активы и пассивы предприятия. Имея подобные показатели, а они в свободном доступе представлены самими компаниями в электронном виде, + котировки цен акций компаний вы можете загрузить их в свой алгоритм и я готов поклясться, что невязка будет значительно меньше, чем если бы использовать только котировки.
360 1152833
>>52820

>Другой пример:


>на входе 3.


>на выходе 7.


>функция не может быть найдена.


Почему? (х*2)+1 же, линейная функция, аффинная, если точнее (не проходит через начало координат). Вопрос больше в том, насколько другие входные данные соответствуют такому выходу. Возможно, коэффициенты будут немного другие. Если выходы нелинейно зависят от входов, то аппроксимировать это все равно можно линейными моделями, например аффинный вариант нечеткой модели Такаги-Сугено с твоим примером справится наотличненько, даже если там строго нелинейная система. Однако, для временных рядов вышеуказанная модель в целом не лучше любой другой, что только подтверждает т.н. "no free lunch theorem".
>>52823

>Идея в том, что бы оценивать компании по вполне конкретным показателям выраженных в числа: доходы за год, общий долг, волатильность акций, в общем активы и пассивы предприятия. Имея подобные показатели, а они в свободном доступе представлены самими компаниями в электронном виде, + котировки цен акций компаний вы можете загрузить их в свой алгоритм и я готов поклясться, что невязка будет значительно меньше, чем если бы использовать только котировки.


Это в машобе называется "фичи". И да, общеизвестно, что для идентификации систем наборы фич гораздо эффективнее сырых данных, генерируемых неизвестным процессом или суперпозицией таковых. Но, их выделение требует априорных знаний о природе идентифицируемой системы, т.е. нужен эксперт в данной предметной области, чтобы выделить значимые для модели показатели. Задача же машинного обучения в том, чтобы обойтись без экспертов, одними данными и алгоритмами. Модный диплернинг, к слову, именно из-за некоторой способности к автоматическому выделению фич и имеет такой космический эффект по сравнению с другими классами алгоритмов в задачах типа детекции котиков на снимках.
361 1152849
Нейрач, распознаю капчу с одного сайта, добился 70% успеха, но мне хочется больше.
Сделал двухцветное изображение, повернул методом минимального граничного прямоугольника из OpenCv, сделал обычный однослойный персептрон, в качестве передаточной функции использую:
color == 0 ? --weight : ++weight
Дело в том, что повернуть не всегда удается правильно - иногда минимальный прямоугольник получается, когда символ лежит под углом. Поэтому я думаю как-нибудь подогнать передаточную функцию.
Что можешь посоветовать? Какие вообще функции используются для капчей?
362 1152871
ГЕНИАЛЬНОЕ РЕШЕНИЕ БЕСЧЕЛОВЕЧЕСТНОСТИ ИИ
Задумать ИИ первоначально как повара. Его первоначальные убеждения будут на основе вкусности и соответствия безопасности и санитарным нормам.
363 1152876
>>52871

>как повара


зохавать всех мясных человеков. заебца придумал
364 1152951
Каким образом можно видеофрагмент нейросети скормить ? Сеть обычная - многослойная с сигмоидом, до этого обучал её на распознавание ч/б цифр (по датасету MNIST) - 87% выдавала на выходе.
Матрица изображения была двухмерная, просто разворачивал её в вектор и передавал сети.
У видео же 4 измерения будет - ширина, длина, цвета в RGB и количество кадров. Есть другие варианты, кроме как все эти 4 измерения преобразовать в одномерный вектор?
365 1152977
>>52849

>персептрон


Несерьёзно. Пиздуй про свёрточные сети читать, а потом стейт-оф-тхе-арт архитектуры для капчи гугли.
>>52951
Вслед за первым отправляйся, затем ищи что-нибудь типа "video data preprocessing".
366 1152982
>>52977
Знаю, что на сверточных лучше работать будет, вопрос в другом - в каком виде данные с видео в сеть подать.
367 1152984
>>52977
Пошел вон из треда.
СМ.jpg57 Кб, 640x480
368 1152991
>>52982
Кадр в тензор можно запихать. Только обычная сеть с ними обосрётся работать. Говорю, лучше иди свёрточные разбери, вся фигня из 60-ых работает только на игрушечных задачах, как распознавание циферок.
>>52984
Дожили, я его перекатил, а меня выгоняют.
369 1153032
>>52876
Мясо человека вредное и невкусное.
370 1153099
>>53032
Буквально как свинина, а вредность зависит от образа жизни.
371 1153232
>>52984
раздался голос со стороны помоечки
372 1153234
Поясните за вышмат г-споди, чувствую себя очередным довеном, вопрошающим "А нужна ли математика программисту?" в машобе:я питонист с годом опыта, решил ради интереса потыкать нейроночки, с калкулосом и линейкой не очобо знаком, но "надо, Федя, надо", так что взял список литературы, который рекомендуется изучить для поступления в ШАД (есть у них на сайте) и начал осваивать. Также начал смотреть лекции по машобу на курсере (от яндекса и ВШЭ), на вопросы в предлагаемых тестах легко отвечаю, но с КУЧИ БЛЯДСКИХ НЕПОНЯТНЫХ ФОРМУЛ В ЕГО ПРЕЗЕНТАЦИЯХ люто охуеваю и не пойму -- понадобится ли мне в дальнейшем полное понимание всех этих зубодробительных формул и прочее, или всё же это не критично? И хватит ли мне для этого того перечня литературы или нужно что-то ещё читать?
373 1153248
>>53234

>понадобится ли мне


Да кто ж тебя знает, чем ты собираеш'ся занимат'ся.

>хватит ли мне


Хватит.
374 1153251
>>53234
Но там нету сложных формул, наоборот, они очень простые. Если они тебе кажутся сложными то тебе линал надо подтянуть. Там хватает знаний линала в рамках первой части учебника Кострикина. Это буквально пара глав.
375 1153253
>>53248

>Да кто ж тебя знает, чем ты собираеш'ся занимат'ся.



Ну что-то ресёрчить я вряд ли буду, но хотя бы в рамках использования всяких популярных МЛ-библиотек типа TF и CatBoost и успешного их использования для решения каких-нибудь задач.
image.png111 Кб, 619x361
376 1153255
>>53251
Я, например, вот о таких записях. Ну то есть я вообще не выкупаю что тут происходит:
377 1153273
>>53255
Откуда эти лекции?
378 1153280
>>53273
С курсеры. Совместные лекции Яндекса и ВШЭ:
https://www.coursera.org/learn/vvedenie-mashinnoe-obuchenie/
379 1153287
>>53255
В начале курса должны были объяснить значение всех букв. Вот на примере первой формулы: X - это наборы данных, вектора. Судя по всему X^l это обучающая выборка. X^k - это ответы. Мю - это некоторый алгоритм который обычно и подбирается. Q - это функция ошибки, которую надо минимизировать, подбирая правильный алгоритм. И так далее. Но посмотри курс с начала. Там сто процентов должны были определить все эти термины.
380 1153288
Решил вкатиться сразу с tensorflow. Осознал свою ошибку, но было поздно, откатываться на низкоуровневый кодинг сетей теперь западло, а синтаксис и логика самого tf по имеющейся немногочисленной рускоязычной инфе дается очень трудно по причине своего некоррелирующего с требуемой функциональностью синтаксиса (процедуры и функции требуют абсурдного количества аргументов и методов, когда этого не требуется). Подскажи, что делать? Может учебнички какие на русском или есть более адаптивные для еще не поехавших людей инструменты?
381 1153290
>>53287
Ничего этого вообще не было. Он быстренько всё рассказал, формулы промелькали и баста. Ну может быть, конечно, дальше будет, это пока была только вводная лекция, но всё равно как-то обескураживает.
382 1153292
>>53290
Попробуй другой курс тогда. Вот на курсере есть специализация от яндекса 6 курсов. "Машинное обучение и анализ данных" называется. Попробуй ее, там все очень подробно объясняют.
383 1153302
>>53292
Спасибо, гляну.
384 1153307
>>53255
Это азы, это ты должен понимат', чтобы хот' как-то продвинут'ся.
385 1153315
>>53255

> Я, например, вот о таких записях. Ну то есть я вообще не выкупаю что тут происходит:


Сие функционалы, самые азы вариационного исчисления. Автор этих записей решил выебнуться просто, если это шад, поди какой-нибудь Воронцов соснул концов. Грубо говоря, функционал - это одна циферка, обычно вещественное число, зависящая от аргументов в скобке (левая часть уравнения), в правой части описываются функции от этих аргументов, которые слева в скобках. Суть в том, чтобы найти значения аргументов этих функций, минимизирующие функционал. Такая нотация довольно удобна, если она используется к месту, а не в учебном курсе, потешить чсв автора.
386 1153316
>>53315
Да даже такая нотация будет понятна, если показать пример, что вот отсюда берется число, вставляется сюда, проходит следующие вычисления и здесь выходит результат.

Но вот хуй, просто показываются формулы и гадай сам. Речи нет, можно взять тома матана и алгема, вызубрить их. Взять тома 70-90ых годов с чистой математической теорией нейронных сетей и методов машинного обучения. И таки дойти до этих формул и понять, что же они значат. Но это довольно долго.
387 1153318
>>53302
По нейронным сетям самый простой курс на stepic.org
https://stepik.org/course/401
Там лысый пацанчик тоже любит формулы, но потом объясняет откуда они взялись, и куда какие числа выткать.
388 1153333
>>53316

> Но вот хуй, просто показываются формулы и гадай сам.


Дропать нужно таких авторов и их писульки. В ISLR даже SVM объясняют без функционалов, хотя там такая нотация исторически традиционна, начиная с Вапника и 60х годов. Поэтому ISLR это учебник здорового человека, а лекции шад - курильщика.
389 1153481
>>53315

> поди какой-нибудь Воронцов


Да, это он.
Я просто начал охуевать от количества переменных, которые нигде не описаны и не обозначены (а значит предполагается, что я должен знать их значение) и от конструкций (типа этого функционала), которые никогда до этого не видел.
390 1153500
>>53481

> Я просто начал охуевать от количества переменных, которые нигде не описаны и не обозначены (а значит предполагается, что я должен знать их значение) и от конструкций (типа этого функционала), которые никогда до этого не видел.


Ну так и брось каку, родина дала нормальные учебники типа того же ISLR, что там в этой рекламной параше, яндексе, могут родить годного, даже не представляю.
image.png125 Кб, 535x886
391 1153505
>>53500
Ты вот про это?
Я просто заебался искать точку входа в эти ваши нейроночки. Возьмёшься за одно -- там говорят, что нужен неебический матан и алгем, возьмёшься за другое -- там вроде школьной программы достаточно, но преподают, например, херово.
392 1153516
>>53505

> Ты вот про это?


Да. Ещё Бишоп был, точное название не помню, раньше в шапке были ссылки, потом все проебали.
393 1153634
>>53288
Да выучи немного английского, чо ты.
394 1153832
Пацаны а реально написать на селениуме распознаватель капчи двачевской? Сколько по времени придется писать и какие алгоритмы посоветуете?
395 1153957
Шалом, пацаны.
Вводная: есть один краулер новостей. Он вяленько мониторит пару десятков сайтов, выграбает заголовки, потом что мне покажется относящимся к законодательной тематике, которую мониторю - я апрувлю к своему агрегатору новостей, оно с горем пополам парсит. Есть пара тысяч заапрувленных новостей, которые мне подходят.
Задача: хочу нейронную сеточку, что бы оно без меня прогоняло заголовки и тексты статей, и апрувило самое очевидное без моего участия вообще, что бы я только заходил и удалял лишнее сообщив об том что нейросеть накосячила самой нейросети.

Из языков программирования знаю только Python да и то так, по гуглу.
Подскажите хоть как это гуглить это все, может примером киньтесь на гитхабе или в книге какой, или еще где как это все можно замутить. Почти уверен что задача достаточно шаблонная и как бы не тривиальная.
396 1153979
>>53957
С нейроночкой ты тут завязнешь. Нейроночки для работы с текстом оче сложны. Тебе больше подойдет традиционный алгоритм для фильтрации спама, bag of words + наивный Байес, например. Или вовсе по набору ключевых слов детектить.
397 1153992
>>53979
Спасибо большое!
Погуглил, выглядит простовато, но думаю для начала поиграться хватит
398 1153995
>>53957
http://scikit-learn.org/stable/tutorial/text_analytics/working_with_text_data.html
Пара тысяч будет маловато, наверное. Лучше 5, а то и 10 взять. Мешок + регрессия на такой задаче дадут где-то 85-90% точности.
399 1153996
Пацаны а реально написать на селениуме распознаватель капчи двачевской? Сколько по времени придется писать и какие алгоритмы посоветуете?
400 1154005
>>53995
Спасибо, гляну.
Можешь сказать как оно называется упомянутый тобой термин "мешок" на английском? так и есть, просто bag?
401 1154126
>>54005
Наверное имелся ввиду Bag of Words
402 1154213
>>53996
Иди в жопу, из таких как ты макака сделал настолько трудную капчу, что даже человек не всегда разгадывает. Автоматизатор хуев.
1493410553011.jpg60 Кб, 553x861
403 1154282
Есть данные о значении переменной каждый час за несколько лет:
дата час температура
01.01.1999 1 3
01.01.1999 2 3
01.01.1999 3 4
...
01.01.1999 24 1
02.01.1999 1 2
....
Как предсказать значение этой переменной на следующие сутки? Мне нужен только подход.
404 1154337
>>54282
Seasonal ARIMA
405 1154344
>>54337
Хорошо. Но для начала, как сделать сам time series? Когда есть только дата, то все понятно, для x_train берем какое-то количество дней t, тогда y_train будет t+1. Но у меня на каждый день есть данные по 24 часа и мне кажется что из t часов сложно делать вывод о t+1, нужно ли разделить датасет на 24 части и предсказывать каждый час отдельно?
406 1154350
>>54344
ARIMA тебе все сделает, разберись что это такое. При разработке модели разбиваешь на две части: t < T0 для тренировки и t > T0 для теста. Для продакшена тренируешь на всех доступных данных.
407 1154355
>>53500
>>53505

>300 страниц линейной регресии


Зачем?
408 1154360
>>54350
Спасибо, взлетело.
409 1154382
>>54126
Спасибо!
410 1154385
>>54355

> Зачем?


А чтобы прониклись! Зато потом не будет совсем уж детских вопросов.
411 1154396
Просто оставлю на почитать, статейка о проблемах глубинного обучения: https://geektimes.ru/post/297309/
412 1154405
>>54396
Самая главная проблема там в том, что весь этот ололо-диплернинх это всего лишь один из миллионов возможных вариантов асимптотически-эффективных решений задач машобчика. Эта проблема не новая, о ней писал еще Вапник в 70-х годах прошлого века. В начале 10-х годов хайпанули, получив увеличение эффективности сразу на несколько процентов, а уже сейчас дальнейший прогресс скукожился, несмотря на нарастающую мощность используемого железа. И все, хипстеры сосут, энтузиазм кончился, начинаются статейки типа той, что ты покушать принес. Опять нужны деды машоба типа Хинтона и Лекуна, чтобы придумать что-то новое. В лучшем случае - еще один асимптотически-эффективный метод. Но это путь в никуда, допустим, пробьют они стену башкой из барбершопа, в соседней-то камере один хуй делать нечего.
413 1154639
>>54405

>Но это путь в никуда


а они и никуда не идут, они зарабатывают бабосы и научный авторитет, выпуская маняфантастические книги и читая лекции. даже наоборот, любой качественный прогресс в ии будет резаться на корню.

мимо
414 1154793
http://karpathy.github.io/neuralnets/
Это нормес для начала? В математику не умею, хочу делать чат-ботов.
415 1154900
>>54793
Для чего чат-боты? Бабло клянчить?
416 1154936
>>54900
Я чет не думал про конкретное применение, просто хочется сделать что-то умное.
А что, ботами можно клянчить деньги?
417 1154944
>>54936
Забудь
Huehuehue.jpg22 Кб, 310x232
418 1154950
image.png142 Кб, 693x492
419 1157107
Чё-то как-то помер тред.
420 1157114
>>57107
Запости что-нибудь интересное, и будет жить. Только не надо в сотый раз про то, как ИИ заберет у всех работу, или какие все нейроночкодрочеры дураки и все делают не так.
421 1157199
>>57107
очевидно, что нейроноебы в тупике и хвастаться нечем
422 1157521
Стоит ли из джава макикинга перекатываться в машоб?
423 1157554
>>57521
Куда ты перекатываться собрался? В машобе работы нет.
424 1157646
>>57554
Кто о чем, а раб о цепях. Создай рабочие места или работай бесплатно.
425 1157671
>>57646
Ты что, дебил?
426 1157851
Ананасы, можете посоветовать адекватных книг/туториалов по Probabilistic Graphical Models, а конкретно Bayesian Networks. Под адекватным понимаю ориентированных на практическое использование
427 1157885
Русский перевод книжки из шапки:
https://rutracker.org/forum/viewtopic.php?t=5525017
Качество - издательский макет.
428 1157890
>>57851
На курсере был годнейший курс, один из самых годных за все время ее существования. Так и назывался, Probabilistic Graphical Models.
429 1157891
>>57885
Вот это можно в новую шапку добавить, только не на трекер ссылку, а на книгу.
430 1157952
>>57885

>Извините, раздача недоступна для вашего региона


Чего, блять?
Инбифо перевод ненужон, потому что 1) небось опять через жопу переводили, 2) лучше один раз привыкнуть к английским терминам, чем потом ебаться с поиском инфы и статей.
431 1157966
>>57952
Но ведь перевод действительно не нужон, даже неважно насколько он качественный. Документацию к софту, свежие пейперы и многое другое, без чего в этой теме делать строго нехуй, переводить тебе не будет никто и никогда. Не можешь в английский = неграмотный, это факт. Учитесь уже грамоте.
432 1157995
>>57966
Ну для общего развития и крестьянам можно почитать. Статьи это ж не для всех. Вот я, скажем, по физике учебник могу прочитать на досуге, чтобы разобраться в какой-то теме, но в статьи мне лезть просто не нужно.
433 1158453
http://datasciencecourse.ru/
Кто знает, как этот курс, годный если бесплатно проходить? Не претендую на написание диссертации, так, from tensorflow import tensor в какой-нибудь непрофильной конторе ну и диплом можно написать.
434 1158488
>>58453

>from tensorflow import tensor


бгг, нашел нуба не нюхавшего ТФ
435 1158494
>>58488

>ТФ


тф говно?
мимо байтоеб
436 1158495
>>58494
там вроде пистон, а пистон по определению говно
437 1158592
>>58495
А что не говно, по-твоему?
438 1158598
>>58592
Ассемблер.
439 1158611
>>58598
Пишешь нейронки на ассемблере? Или что имеется в виду.
440 1158618

>Многие исследователи нейронных сетей являются инженерами, физиками, нейрофизиологами, психологами или специалистами по компьютерам, которые мало знают о статистике и нелинейной оптимизации. Исследователи нейронных сетей постоянно переоткрывают методы, которые известны в математической и статистической литературе десятилетиями и столетиями, но часто оказываются неспособными понять как работают эти методы


Уоррен Сэрл
spd.png230 Кб, 346x530
441 1158664
решил взбодрить свою нейроночку, stohastic методом. я у мамки sinioor piton diveloopir
442 1158681
>>58618
Вот об этом я сто раз тут писал. Все эти хипстеры пока никуда не ушли от вапниковской постановки задачи машинного обучения из 60-х, только в отличие от Вапника не сделали в этом направлении ровно нихуя.
443 1158683
>>58681
Я бегло глянул какую-то из книг Вапника, но многобукаф и ниасилил. Можешь порекомендовать какую из его работ (и какой раздел книги) читать по общей проблеме постановки задачи ML?
444 1158687
>>58683
Можно начать с ещё советской "теория распознавания образов". Введение и первая часть, этого уже достаточно. Если зайдет, то еще "the nature of statistical learning theory", эту можно всю навернуть,она того стоит. У него единственный недостаток - нотация сложнее среднего по типичной литературе о машобчике, т.к он помимо матана, линейной алгебры и теорвера использует ещё функционалы и операторы из вариационного исчисления. Тут можно ниасилить, но мне попадалась в интернетах какая-то методичка какого-то питерского вузика, там очень годно за это пояснялось, причём все на одной странице.
445 1158690
The Lottery Ticket Hypothesis: Training Pruned
Neural Networks
https://arxiv.org/pdf/1803.03635.pdf
Рекомендую статью тем, кто в теме нейроночек. Неплохая попытка проникнуть в суть процесса тренировки.
446 1159265
Поясните что в 2018 в тренде и на хайпе в машинлернинге, а то я на пару лет подотстал.

>>58681

>только в отличие от Вапника не сделали в этом направлении ровно нихуя.


А типа вапник дохуя сделал? Кукареки you doing wrong не в счет.
447 1159279
>>59265
RL, GANs, новые архитектуры все еще в моде, но только если они действительно новые (капсулы, IndRNN, OpenAI Reptile...), попытки объяснить, почему нейроночки работают.
448 1159284
>>59279
А кроме нейроночек есть какие-нибудь живые крупные проекты в AI?
449 1159286
>>59284
Нет.
450 1159335
>>59284
Хочу сейчас РЛа навернуть. Доставляют видосы с этими ебанутыми агентами. Если шаришь что посоветуешь: курс стенфорта или беркли, или сразу книги навернуть(какие?).

Как насчет бесплатных альтернатив mujoco? Есть ли кейгены для него? Bullet подойдет или хуета?
451 1159337
Проебался с постом.
>>59279
------>
>>59335
452 1159353
>>59265

> А типа вапник дохуя сделал? Кукареки you doing wrong не в счет.


Дохуя. Теория статистического обучения - единственная не шаманская тема в машобе, бустинг - пример алгоритмов, которые уделывают все остальные. А в разработке ещё глубокий бустинг и глубокие SVM. Про you doing wrong у него вообще пара предложений, к слову.
453 1159377
>>59335
Чисто по РЛ классика это Саттон. Там про нейроночки ничего нет, так что книга, можно сказать, прошлого поколения. Но основы, которые в ней изложены, нужно знать, иначе ты ничего не поймешь в современных разработках, даже на уровне терминологии.
По РЛ+нейроночки книг нет, надо быть в курсе статей, постов и твитов. Утомительно, но такова жизнь на острие хайпа.

Я сам не очень понимаю, почему все занимаются ерундой с этим мужико. Что я слышал по этой теме, это исключительно невнятное бормотание: ну... эмм... там контакты это все... кароч на других симуляторах РЛ не работаит х_х )) У меня к этому крайне скептическое отношение. Сам мужико делают друзья тех же челов, которые делают фреймворки его использующие (или это даже одни и те же люди, я забыл уже), так что имхо это просто многоходовочка с целью ободрать баблоса с горе-исследователей. Если же действительно РЛ работает только с мужико (что по-моему крайне маловероятно), то исследование самого этого факта было бы интересным.
454 1159522
>>59377
>>59335
Что-то у вас в головах не просто каша, а синяя кирзуха из советской армии... Саттон, РЛ, мужико какой-то, пиздец. Классика РЛ, это внезапно, Павлов. Затем уравнения Хебба. Этого уже достаточно, чтобы понять самое новомодное хипстерство на эту тему. А если еще про Q-learning и POMDP по диагонали почитаете, вообще идеально. По софту, вся годнота на эту тему производства Маска Небоходца (OpenAI - gym, universe, reptile). Но это уже дипРЛ, т.е. РЛ, к которому прикрутили хипстерские глубокие нейроночки. Так же можно кукарекать, что неизвестно как это все работает. Так вот, если читали Павлова и понимаете уравнения Хебба - то понятно. Пока никто и ничего не придумал, что не сводилось бы к классике из прошлого века.
455 1159684
Чел уже несколько недель унижает всю область РЛ: https://arxiv.org/pdf/1803.07055v1.pdf
Грит, мол, ваши новомодные методы сосут у случайного поиска. Грит, ваши методы становятся все сложнее, аббревиатуры их названий все длиннее, но суть происходящего это оверфитинг частных задач и множащихся гиперпараметров, а случайный поиск вы так и не преодолели. Кризис повторения результатов в области, грит.

Мне это напоминает ситуацию с генетическими алгоритмами 10-20 летней давности. Тоже клепались кучи статей по якобы улучшенным вариантам ГА, которые были ничем не лучше, а результаты были получены банальным оверфитингом. Сейчас большая часть этого похоронена, но некоторые не работающие методы (NEAT) все еще тлеют на самоподдуве авторов. Думаю, и здесь будет то же самое. Нельзя же вдруг взять и признать, что метод ТРПОВЗГРМЫЩЪ, по которому написано 10000 статей, не работает.
456 1159690
>>59684
Дело в том, что вся эта индусня из барбершопов, не зная классики многолетней давности, лезет изобретать велосипед, который не только изобрели, но и обоссали задолго до их рождения, и даже показали, как на самом деле надо, чтобы получился велосипед не курильщика, а хотя бы сколько-нибудь здорового человека. Очевидно, что проблема, сформулированная на 1 пике слишком общая, чтобы решаться теми деревянными методами, которые только и известны хипстерам. Хотя еще в 60-е годы показано, что поставленная задача такого рода в лоб нерешаема. Решить ее с максимально возможной точностью можно только при постановке задачи в виде минимизации функционала со 2 пика, используя принципы SRM (минимизации структурного риска), но даже такой подход гарантирует только достижимую точность, а не заведомое решение поставленной задачи. Еще в древней Греции понимали, что борода сама по себе не делает мудрецом, но дегенератам со смузи даже эта истина недоступна.
457 1159698
>>59690

>Хотя еще в 60-е годы показано, что поставленная задача такого рода в лоб нерешаема.


Что это там показано? В самом общем виде ее и не решают, ее нужно решать для конкретных задач. Так, скажем, проблема останова тоже нерешаема, но вполне можно написать статический чекер, который бы отлавливал многие частные случаи бесконечного зацикливания программ. Скажем, рекурсию без выхода или с невыполнимым условием выхода.
Так и здесь, тот факт что для произвольного окружения это нерешаемо (что очевидно) никак не влияет на дальнейшие разработки практических методов. Только надо нормально разрабатывать, а не перебирать рандом сииды, пока твой метод не превзойдет предыдущий.
458 1159700
>>59698

>В самом общем виде ее и не решают, ее нужно решать для конкретных задач.


Чтобы ее решать для конкретной задачи, нужно учитывать в решении специфику этой задачи, и решать именно частный случай вместо общего. В нейроночках этого нет и никогда не было, начиная с самого Розенблатта. Хорошо видно в чем разница, если сравнить классификацию перцептроном и SVM. В первом случае это тупо учет каждого примера из датасета, во втором - не лежащие на границе классов примеры просто умножаются на нулевые лагранжианы и вообще не участвуют в формировании правила разделения классов, это и есть подход здорового человека.

>тот факт что для произвольного окружения это нерешаемо (что очевидно) никак не влияет на дальнейшие разработки практических методов. Только надо нормально разрабатывать, а не перебирать рандом сииды, пока твой метод не превзойдет предыдущий.


Чтобы нормально решать, нужно нормально сформулировать решаемое. А этого нет нигдекроме статистической теории обучения. Все остальное - чистое шаманство.
459 1159702
>>59700
Нет, не нужно. В этом и суть всех разрабатываемых методов - сделать достаточно общий решатель для всех задач, которые нужно решать. Странно вообще обсуждать эти элементарные вещи, неужели это не очевидно?
460 1159716
>>59702

>В этом и суть всех разрабатываемых методов - сделать достаточно общий решатель для всех задач, которые нужно решать.


Это не так работает. Нужен решатель, учитывающий каждый частный случай, но пригодный для как можно бОльшего класса задач. Хороший пример - SVM и др. алгоритмы на основе теории статичтияеского обучения. Но это не модно же, стараются решить задачу именно в общей постановке, как итог - прыгают на граблях, которые уже сто лет известно как обойти. Но чукчи ж не читатели, чукчи писатели.
461 1159859
Можно будет попрактиковаться в РЛ: https://habrahabr.ru/company/mailru/blog/351522/
462 1159898
>>59859
Там же не получиться тысячами раз своих агентов гонять, какой рл?
463 1159906
>>59898
Получится, сервер оупенсорсный будет, по требованиям трудящихся в этот раз на С, для скорости.
464 1160042
аноны, хочу зделоть бота, есть такая идея: анализировать дампы диалогов и строить статистические отношения по фразам. например после слова привет в 23% идет фраза как дела, в 10% имя и т.п. чем такую статистику можно собирать и красиво анализировать?
15144029773392.jpg2 Мб, 3264x2448
465 1160121
Посоны, для предсказания курса крипты нейронки годнота или нет?
sage 466 1160139
>>60121
лол
467 1160153
Раньше в шапке висела книга The Elements of Statistical Learning, насколько сильно содержание пересекается с книгой из нынешней шапки? И что лучше читать первым для вката?
468 1160154
>>60139
Двачну
469 1160165
>>60153

>насколько сильно содержание пересекается с книгой из нынешней шапки?


11.3%

>что лучше читать первым для вката?


Нынешнюю.
470 1160195
>>60165
Начитаются всякой хипстерской хуйни по совету таких же иекспердов, потом линейную регрессию осилить не могут.
sage 471 1160279
>>60195
Линейная регрессия так то посложнее современного подхода с изучением нейроночек аля import slesorflow as sf.
Там и фичи надо правильно обработать, и сгенерить новые суметь чтобы разделяло, формулы понимать надо.
472 1160396
>>60279
збс же, за 2 года можно скопить денег на 2 квартиры в Киеве и потом тупо сдавать их не работая
473 1160506
Есть натренированная карта кохонена, рисует красивые кластеры, но как с ее помощью классифицировать?
474 1160573
>>60506
Начнем с того, что SOM это не классификатор в принципе. И если конкретно та реализация, которой пользуешься ты не имеет возможности присваивать тестовому примеру именно номер кластера - брейся. Если такая возможность реализована, соответственно, пользуйся ей (документация, да). Если нужен именно классификатор и именно на основе векторного квантования (к которому относится карты Кохонена), то пользоваться нужно LVQ.
475 1160596
>>60573
Начнем с того что каждый ответ тому кто задавал такой вопрос начинался с этого, а вот дальше дело как-то не шло. Я пишу без библиотек, так что нужен алгоритм.
476 1160605
>>60596

>Я пишу без библиотек, так что нужен алгоритм.


LVQ.
477 1160630
>>60605
Спасибо, но это не то. Я забываю что голосам вне моей головы сложно догадаться о чем я говорю. Сам чистый Кохонен тоже может классифицировать - https://arxiv.org/pdf/1206.0104.pdf , но у нас с простым инденезийский парнем получается языковой барьер.
1.png46 Кб, 562x655
478 1160634
>>60630

>Сам чистый Кохонен тоже может классифицировать - https://arxiv.org/pdf/1206.0104.pdf


Как я понял, смысл использования именно SOM - классификация непомеченных примеров, т.е. без учителя. Ок, это будет работать, но нужна либо реализация SOM, могущая в автоматическое выделение кластеров (т.к. в оригинальном алгоритме этого нет и никогда не было), либо алгоритм, специально измененный именно для таких нужд. В R точно видел и то и другое (но названия конкретных либ уже не помню), к слову, там вообще полно реализаций карт Кохонена, аналогов которых больше нет нигде.
479 1160740
бамп это вопросу >>60042
давайте помогайте, как реальная задача так нехуя и не можете
480 1160765
>>60740
Это ты не можешь, а мы не хотим. Фил тхе дифференс. То, что ты хочешь, делает модель CBOW (contonous bag-of-word). Как ее использовать конкретно для твоей цели, я не ебу, т.к. чят-ботами не занимался. Но оно точно может в такой анализ и предсказания слов, которые встречаются рядом в анализируемом тексте.
481 1160802
>>60765

>word2vec


ну хоть что то, спасибо, целую в попку
482 1160813
>>60802

>word2vec


Не только. Можешь еще фасттекст пейсбуковский навернуть https://fasttext.cc/
483 1161704
>>60765
только тебе неправильно подсказали, тебе нужны обычные марковские цепи, а бэг оф вердс не учитывает порядок слов
484 1161895
>>61704

>марковские цепи


То же не особо применимы. Я понял, что мне нужно, мне нужно воссоздать грамматические правила. Но машоб отсасывает как всегда.
485 1161916
Аноны, у меня тут диплом по нейроночкам, так вот, у меня входные слои цифры и буквы автомобильного номера, но все они должны быть размером строго 50x50 пикселей, и как я понял бинарными, потому что тогда их будет не распознать, ну это я умею, но где мне взять цифры и буквы автомобильного номера, размером строго 50x50 пикселей.
486 1161919
>>61916
Сжать
487 1161921
>>61919
То есть, как?
488 1161922
>>61921
Препроцессинг изображений
489 1161929
>>61922
То есть
490 1161936
>>61929
Прежде чем что-нибудь подать в "умную" нейроночку, нужно сделать препроцессинг картинки: поворот на нужный угол (чтобы цифры стали вертикальными), приведение к заданному размеру (из любого размера в 50x50), очистка картинки от шума (сделать более резкими края). И всё это старыми дедовскими методами из других разделов математики и программирования.
491 1161938
>>61916
Берешь фоточки из интернета и вырезаешь. Или ты думал, что можешь сделать дипломник из 10 строчек кода? А вот хуй тебе, сбор и обработка данных это часть твоей задачи. Работай, студент.
492 1161991
>>61936
Ну я знаю все эти функции в матлабе.
493 1162125
>>61991
https://www.ffmpeg.org/
Не благодари
494 1162126
>>61936
Скууука. Есть нейроночка которая делает препроцессинг изображений для нейроночек?
495 1162131
>>62125
Что это и как мне поможет, я тупой.
496 1162207
Объясните, зачем в тензорфлоу плейсхолдеры? Сахар или они реально полезны? Если да, то покажите пример, где ими сделать что-то легче.
497 1162272
Поцоны, как вкатиться? Учить калькулус, линалг, статистику сначала? Или открыть книгу "нейросеточки за 21 день на питоне" и доучивать все что надо по ходу?
498 1162274
Есть ли тут математики уровня Перельмана, которые могут обьяснить за статистику и морфологию?
499 1162276
>>62126
тоже ебусь сейчас над этим вопросом. Помоему в этом и весь сок. Чтобы нейронки парсили инфу для более спциальных нейронок.
500 1162277
>>62276
давай мутнём опенсорсик и будем друг другу отсасывать помогать
501 1162278
А как работают коммерческие системы распознавания текста или изображений? Там есть нейронки?
502 1162279
>>62277
давай анаон; кто хочет присоединиться к груповухе ?
503 1162295
Как мне обучить нейросеть играть например в герои 6 не хуже человека, чтобы по тактике рвал, какую библиотеку скачать как начать обучения сети?
504 1162297
>>62295

>герои 6


Отстой же.
505 1162301
>>62297
Как по мне одна из лучших частей, 4 тоже, все остальные части проходняк.
506 1162307
>>62295
Нельзя просто так взять и обучить нейросеть
507 1162345
>>62272
Когда учат играть на хитарке, то сначала дают звезду по имени Солнце чтоб нуб охуел, с того, что что-то получается, а после уже нотную грамоту и прочие музыкальные приблуды. Так и ты сначала котов научись распознавать, а после закапывайся вглубь.
508 1162359
509 1162734
>>61895
если тебе нужно оценивать вероятность фраз, то это чуть ли не единственный способ это сделать, про остальное промолчу, и грамматические правила машоб сейчас распознает на стейт-оф-зе-арт уровне, от синтакснета, до кучи новых модных моделей, за которыми я не успеваю следить
510 1162735
>>62734
ну, и для хорошего бота синтаксических правил, конечно же, недостаточно
Обновить тред
Двач.hk не отвечает.
Вы видите копию треда, сохраненную 6 мая 2018 года.

Скачать тред: только с превью, с превью и прикрепленными файлами.
Второй вариант может долго скачиваться. Файлы будут только в живых или недавно утонувших тредах. Подробнее

Если вам полезен архив М.Двача, пожертвуйте на оплату сервера.
« /pr/В начало тредаВеб-версияНастройки
/a//b//mu//s//vg/Все доски