Двач.hk не отвечает.
Вы видите копию треда, сохраненную 26 декабря 2017 года.

Скачать тред: только с превью, с превью и прикрепленными файлами.
Второй вариант может долго скачиваться. Файлы будут только в живых или недавно утонувших тредах. Подробнее

Если вам полезен архив М.Двача, пожертвуйте на оплату сервера.
НЕЙРОНОЧКИ #1082641 В конец треда | Веб
Тред про нейроночки будет тут.

Что почитать для вкатывания? http://www.deeplearningbook.org/
В чем практиковаться нубу? http://www.deeplearning.net/tutorial/
Где набрать первый самостоятельный опыт? https://www.kaggle.com/ https://halite.io/ https://www.general-ai-challenge.org/
Где работать? https://www.indeed.com/jobs?q=deep+learning&l=
Что мне делать со своей жизнью? https://80000hours.org/

Ну и про остальной машоб тоже можно поговорить ИТТ.
#2 #1082795
>>1082641 (OP)

>Что мне делать со своей жизнью? https://80000hours.org/


зачем здесь это говно от школьников?
#3 #1082833
>>1082641 (OP)
Запилите мне опенсорс нейроночку для yathzee, заебали.
Я не понимаю структуру слоев, как юлядь определить сколько надо нейронов на входе и сколько на втором и далее уровнях. Есть какая то методика на это?
#4 #1082917
>>1082833
Вряд ли тебе кто-то будет пилить. Структура подбирается на глаз, исходя из опыта. Обычно сначала ты делаешь небольшую и неглубокую нейронку, постепенно увеличивая ее, пока хватает вычислительной мощности и увеличение дает улучшение точности.
Конкретно по твоей игре: смотри работы по покеру. Самая нашумевшая тут: https://www.deepstack.ai/ Там тебе и статья, и объяснения, и код. Когда поймешь, как и почему там все сделано, сможешь начать думать про алгоритм для своей игры.
#6 #1083026
Блять ну это же невозможно читать. На англицком всё. Дайте на русском, в России нейронки благодаря яндексу хорошо развиты, неужели от их спецов туториалов нет?
#7 #1083045
>>1083020
А демонстрации этого есть?
>>1083026
Нет смысла сейчас писать серьезные тексты на русском. Ты найдешь только поверхностные, технически безграмотные статьи от дилетантов, описывающие алгоритмы, устаревшие на десятилетия.
#8 #1083052
>>1083045

>А демонстрации этого есть?


Не нашел. Но статья еще 2013 года есть почти такая же. Не понятно почему еще раз об этом сообщили. Может, что еще обучаться может быстро на малом количестве примеров. Интересно было бы проверить эти сетки на переводе текстов. Проект закрытый и патентованный похоже. Кроме кукареков никакой практики нет.

https://www.google.com/patents/US9373085
#11 #1083058
>>1083052
Numenta/Vicarious уже лет десять, если не больше, разрабатывают свою альтернативу нейроночкам, и пока результаты не впечатляют. Патенты еще какие-то... Похоже, они просто пытаются набить себе цену на пустом месте. Патенты очень любят всякие инвесторы, которые не разбираются в сути происходящего. Я бы хотел, чтобы у них получилось, люблю всякие нетрадиционные методы, но уже потерял веру в них.
Про более серьезные попытки сделать альтернативу CNN, сегодня пришло: https://arxiv.org/abs/1710.09829 Сам не разбирался пока, но Хинтон фигни не делает.
#12 #1083062
>>1083057
Надо бы посмотреть. Ты пробовал запускать? Якобы тренируется всего несколько минут, без ГПУ. Особенно интересует, воспроизводятся ли результаты по рекапче, и корректно ли там оценивается точность.
#13 #1083075
>>1083045

>А демонстрации этого есть?


https://www.vicarious.com/2017/10/26/common-sense-cortex-and-captcha/
>>1083062
неа

>>1083058

>разрабатывают свою альтернативу нейроночкам,



Интересно, на чем она основана?
F2.large146 Кб, 1280x1110
#14 #1083078
>>1083075

>Интересно, на чем она основана?


“Rapid inference on a novel AND/OR graph for object detection, segmentation and parsing,”

Это получается на энд ор графах? Т.е. задача сводится к тому, чтобы построить такой граф входных данных к выходным?
#15 #1083079
>>1083075

>Интересно, на чем она основана?


Все пошло от книги On Intelligence Джеффа Хоукинса и разработанной им теории НТМ, вычислительной модели работы мозга: https://en.wikipedia.org/wiki/Hierarchical_temporal_memory
Дальше Numenta долго разрабатывала алгоритмы, основанные на этой теории. Над ними в числе прочих работал Джордж Дилип, который потом основал Vicarious.
#16 #1083082
>>1083079
Интересно было бы увидеть чатбота на этой модели.
#17 #1083093
>>1083082
Они там по-моему угорают по зрению, так что разве что кто-то еще сделает. Почему бы тебе самому не попробовать?
#18 #1083189
>>1083093
Да пока не силен что там да как делать. А так если они хороши в обобщении с малым количеством данных, то текстовая инфа была бы самым подхлдящим, чтобы проверить их эффективность.
#19 #1083245
#20 #1083249
Блин, как вкатиться в эти нейросети, уже год хожу вокруг да около, а никак не могу начать, нашел единственный пример на хабре где распознаются буквы, но мне хотелось бы чтобы нейросеть была универсальной, и не фокусировалась чем-то одном. Где такое можно поизучать, в максимально доступной форме(желательно на плюсах, а то везде питон, а его я не знаю)
#21 #1083257
>>1083249

>распознаются буквы


лол, это швабропидоры тебе так красиво написали?
#22 #1083262
>>1083257
А что в этом такого? Там и демонстрационный пример даже был
#23 #1083264
>>1082917
Ну хуй с ним с запиливанием, хоть алгоритм (структуру выходных и входных данных предложите).
Самое сложное - как учесть нейронке, какие комбинации уже сделаны/заполнены и какую комбинацию стремиться заполнить
#24 #1083267
>>1083262

>демонстрационный пример даже был


а, тогда ладно, это же показатель.
#25 #1083378
Так, посаны, а если сеть научить кодировать в md5 текст? Возможно такое за разумное время? А если наоборот, из md5 в текст?
#26 #1083389
>>1082641 (OP)
Сап, только вкатываюсь, пишу простую нейросетку для распознавания рукописных цифр. Перцептрон с одним скрытым слоем. Получается точность до 90%, выше не выходит. Что я делаю не так?
#27 #1083400
>>1083378
для этого нейросеть вроде и не нужна. как я это вижу?
кодировать наверное все умеют, а вот декодировать приходится брутфорсом или по таблицам хешей
сеть лучше обучать распознавать стартапы/пирамиды/хайпы в которые можно влошиться под овер 9к% и подавать сигнал на съеб/вывод_средств после анализа выплат, например
#28 #1083401
>>1083400
Да пишут что невозможно такое. Интересно сеть вообще можно обучить функции x mod 5 например? Она же не непрерывная и походу сеть обломается.
#29 #1083415
>>1083401

>пишут что невозможно такое


а где почитать об этом? нашел только
http://forum.clusterdelta.com/archive/index.php/t-1183.html
но там более сложные задачи, зависящие от многих факторов. интереснее было бы запилить сеточку, основанную на граббинге и анализе opendata
#30 #1083420
>>1083389
Это нормальная точность для выбранной тобой архитектуры. Для повышения точности используй сверточные сети.
#31 #1083421
>>1083401
Если тренировать с нуля на примерах текст -> мд5, то ничего не получится. Нужно собирать алгоритм постепенно, сначала научив сеть элементарным операциям, потом их комбинациям. Это тоже очень сложно и в целом на данный момент никто такого сделать не может, пока только гораздо более примитивные примеры работают. См. differentiable neural computer.
#32 #1083427
>>1083249
В оппосте все расписано. "Не знаю питон" (как и "не знаю английского") это не тот уровень, на котором ты сможешь вкатиться, сначала нужно иметь элементарные навыки по компьютер саенсу и математике, так чтобы незнание языка программирования не ставило тебя в тупик. В материалах из оппоста все что нужно дается.
#33 #1083435
>>1083420
увеличение количества слоёв не даст увеличение точности?
#34 #1083442
>>1083435
Даст до некоторого предела, если будет много тренировочных данных. Сверточная сеть будет в любом случае гораздо эффективнее.
#35 #1083457
>>1083442
Тогда скажи, есть ли смысл писать свёрточную целиком руками или лучше даже для начала воспользоваться каким-нибудь tensorflow?
Я хочу разобраться досконально.
#36 #1083467
>>1083442
нейронобляди, когда вы хотя бы дорожные знаки научитесь распознавать?
#37 #1083547
>>1083457
Руками - это формулы для градиентов расписать? Не имеет особого смысла имхо, чисто механическая работа. Лучше это время потратить на изучение матана, если ты в себе не уверен на этом фронте. А так производная и есть производная.
Свертку вручную ты сам достаточно эффективно не напишешь. В TF сейчас используется cuDNN, который использует недокументированные возможности новых видеокарт Nvidia и показывает на них чудовищную производительность. Уже, наверное, в тысячи раз быстрее наивного кода на ЦПУ.
#38 #1083565
>>1083467
Лучше спроси себя, когда ты научишься гуглить.
https://medium.com/towards-data-science/recognizing-traffic-signs-with-over-98-accuracy-using-deep-learning-86737aedc2ab

Вообще этим вопросом ты показываешь свою полнейшую безграмотность. Любая задача распознавания сейчас может быть решена, вопрос только в данных. Наука уже лет 5 как ушла вперед и занимается гораздо более сложными проблемами. Например, мне не нужны тысячи примеров какого-то дорожного знака, чтобы научиться его распознавать: это называется one shot learning, и по этой теме в последние годы было много работ. Более того, часто я могу догадаться, что означае какой-то знак, даже увидев его впервые. Это называется zero shot learning, тоже горячая тема исследований сейчас.
#40 #1083705
>>1083547
Свёрточная нейросеть распознавания цифр, надеюсь, удовлетворится моим процессором без видеокарты?
Я не сомневаюсь, что библиотечные функции эффективнее, они же, в конце концов, оптимизировались под это дело.
С матаном тоже никаких проблем нет.
Я имел в виду, прописывать полностью структуру сети, я не знаю, как точно описать, т.к. не знаю, как это делается в библиотеках. Ну, например, утрируя, датасет я разделяю с помощью sklearn.train_test_split(), хотя я мог бы и вручную - я просто уже представляю, как и зачем это делается. Но если бы не представлял - я бы, наверное, написал бы функцию сам.
Вопрос у меня в том, слишком ли это будет сложно для свёрточной сети - всё досконально писать руками вместо готовой библиотеки?
#41 #1083810
>>1083565
по твоей же ссыле негр вырезает знак и тыкает им в нос нейросети, а я тебе про норапльное динамическое распознование на дороге. юдасити кстати, ели раздилительную полосу детектит.
#42 #1083948
>>1083705
Это не мега-сложно, просто муторно, и внимательно надо все делать, чтобы не набажить. Структура сети там простая. Начать можно с какого-нибудь LeNet без пулинга, это всего 3-4 слоя. Точность такой сети уже должна быть гораздо выше всего, что можно сделать без сверток.
Без видеокарты медленно будет, свертки очень прожорливые. Небольшая сеть с датасетом размера MNIST'а вполне нормально пойдет, но для более-менее интересного проекта придется либо арендовать облако, либо покупать себе видеокарту.
#43 #1084098
>>1083948
Да у меня ноут, хотя довольно мощный. Не могу позволить себе пока что купить нормальный компьютер.
Мне пока что разобраться с основами, ради действительно интересных проектов можно и облако арендовать. Если достаточно интересный будет.
#45 #1084106
>>1082641 (OP)
Хочу написать ИИ, который захватит мир. В какую сторону копать?
#46 #1084111
>>1084104
сам то смотрел? он там больше половины знаков проебывает. а вот черный крест на желтой ебе, это да, заметил.
#47 #1084112
>>1084111
олсо, зеленые и синии знаки в упор не видит, лол.
#48 #1084113
>>1084098
Ну если прямо хочешь именно все самому сделать, советую начать с обычной свертки. Объяснения, туториалы найдешь в интернете. Пулинг (когда берется максимум из нескольких соседних значений) уже реально замороченная штука: там при вычислении градиента нужно запоминать, какое именно значение было максимальным. Код получается гораздо сложнее. Когда наиграешься с ручной реализацией, бери ТФ или Керас какой-нибудь, там все уже как надо сделано. Свои реализации тоже можешь с ними сверять по входам/выходам для дебага.
Советую побыстрее проходить начальный этап и догонять передний край науки. Рекуррентные архитектуры, GAN'ы, differentiable neural computer, это уже настолько сложные вычисления, что ручная реализация там непрактична.
#49 #1084339
Нейроночка-переводчик от гугла обезумела, сумеешь ли ты совладать с ней?
#50 #1084388
>>1084339
привет из 2012
#51 #1084647
>>1084113
Насчёт трудоустройства в рф посоветуешь что-нибудь или пошлёшь в шапку треда?
Спасибо, я надеюсь побыстрее пройти этот начальный этап.
#52 #1084661
>>1084647
1. Шапка. Серьезно, шапка.
2. ПхД в западной стране.
3. Если сейчас где-то работаешь, пораскинь мозгами, составь план и выдвини начальству предложение по внедрению МЛ на твой проект. Вызовись сам все делать, скажи что давно изучаешь, горишь желанием, покажи домашние заготовки. Хайтек все любят, весьма велика вероятность, что тебе разрешат. Вот и будешь сиви наполнять для шапки.
#53 #1084750
>>1084661
Ноуп, нигде не работаю. Мл занялся, чтобы сделать на гитхаб один интересный проект для резюме.
ПхД в западной стране могу получить через несколько лет (около 5) вообще в другой области.
#54 #1084759
>>1083058

>Про более серьезные попытки сделать альтернативу CNN, сегодня пришло: https://arxiv.org/abs/1710.09829 Сам не разбирался пока, но Хинтон фигни не делает.


https://github.com/nishnik/CapsNet-PyTorch

Первые попытки реализовать.

>Dynamic Routing Between Capsules.



Это что, получается будут списки использоваться? А как на это GPU будет реагировать? Не будет ли это замедлять сильно работу?
#55 #1084770
>>1084759
Новые модели разрабатываются без оглядки на оптимизации в настоящий момент. Если будут крутые результаты, оптимизации подтянутся. Сейчас целые библиотеки заточены под CNN, для этого тоже наверняка можно будет сделать.
#56 #1084774
Сап, нейро-антуаны
Пару вопросов:
1) Мб есть у кого опыт по внедрению ML в робототехнику (reinforced learning, robovision) ?
А то у меня есть робот и таска для него. Пока решаю ифами-элсами и вроде норм, но интересно как туда можно всунуть упомянутое выше.
контроллер National Instruments MYRIO
код пока на c++ и kotlin

2) Мб кто-нибудь делал кастомные загрузчики для ImageFolder в pytorch. мне бы хотелось узнать как все же загружать изображение как одноканальное, а то я с opencv беру один канал, а оно шлет меня в Ж ошибку потом могу приложить
3) По тому же pytorch: пусть загрузил изображение в формате 1х32х32, как к нему прихерачить ещё и лейбл и скормить вместе с изображением в свёрточный слой? или есть варианты лучше?
#57 #1084775
>>1084774
для 3) лейбл допустим в формате one-hot
#58 #1084785
>>1084774
1) Нужно запихать питон. Для этого Rasberry PI берут. Чтобы было быстро с cuda берут Jetson TX2. Опыта у меня нет.
#60 #1084792
>>1084774
Из того, что я видел, применение РЛ в робототехнике это дело будущего. Сейчас для РЛ нужны миллионы семплов, что нереально получить на устройстве. Почти все работы делаются в симуляторах. Просто зрение элементарно делается, набери данных да тренируй, используй уже натренированные на imagenet модели для быстроты.

Лейбл к сверточной сети можно сделать дополнительными каналами. Т.е. делаешь еще один канал 1х32х32 и копируешь в каждый пиксель одно и то же значение. Для 1-хот, соответственно, n дополнительных каналов. В альфаго так делали.
#61 #1084808
Результат опроса о жизни, вкате в дата саенс на кегле: https://www.kaggle.com/surveys/2017
#62 #1084878
>>1084792
>>1084774
Допустим, мл будет проводиться в симуляции, потом применяться на живом роботе - и на ходу будут корректироваться недостатки симуляции. Такой подход может сработать?
#63 #1084890
>>1084792

> Лейбл к сверточной сети можно сделать дополнительными каналами. Т.е. делаешь еще один канал 1х32х32 и копируешь в каждый пиксель одно и то же значение. Для 1-хот, соответственно, n дополнительных каналов. В альфаго так делали.


А не дофига ли каналов? И если допустим я буду вместо лейбла оригинал картинки присовывать? Пишу gan
#64 #1084895
>>1084878
Думаю может, но пока я это сделать не смогу наверное (
Спасибо, мб над этим поработаю
#65 #1084896
>>1084890
Вернее не gan, а cgan
#66 #1084930
>>1084890
Дофига ли каналов - это тебе решать. Если тебе не надо лейблы обязательно в фильтры подавать, можешь их прицеплять отдельным входом, конкатенируя с одним из dense слоев ближе к выходу. Вообще нужно пробовать и так, и сяк. Никогда не знаешь заранее, что работает, а что нет.
#67 #1085021
>>1084774

> пусть загрузил изображение в формате 1х32х32, как к нему прихерачить ещё и лейбл и скормить вместе с изображением в свёрточный слой


Не понял, ты хочешь еще сразу обучать прямо на роботе?
#68 #1085044
>>1085021
cgan не в роботе, а так, ради интереса пишу)
в робота я пока не особо придумал, что и как всунуть
вопрос про кастомный лоадер все ещё актуален
#69 #1085157
>>1084878
Как раз на эту тему свежий пост от гугла: https://research.googleblog.com/2017/10/closing-simulation-to-reality-gap-for.html
#70 #1085163
>>1085157
гуглобляди соснули
#71 #1085604
Допустим, я совершенно далекий не только от ML, но и от \pr\ обыватель с win7 и мне захотелось поиграться с нейросетями работающими с текстом типа таких
https://nplus1.ru/news/2016/08/05/neurokad
нагуглил, что использовалась вот это нейросеть
https://github.com/karpathy/char-rnn
из описания осознал что мне нужен некий Torch, а из его описания, что нужен Линукс.
Вопрос, как мне минимизировав пердолинг поиграться с нейросетями генерирующими текст? Есть ли какие-то чисто обывательские проги подобного плана. Я не имею в виду генераторы текста из 00-х типа Delirium, хотелось насладиться именно современными продуктами
#72 #1085654
>>1085604
вот нашел за тебя на питоне

https://github.com/sherjilozair/char-rnn-tensorflow
#73 #1085666
>>1085604
Максимум, что ты можешь, это смотреть как играются другие. Никаких продуктов для текста нет, кроме гугл транслейта, наверное.
#74 #1085939
Кто-то понял как capsnet организовать? Может сделаете подробное описание на русском?
#75 #1085947
>>1085939
сори, но только на ангельском
мб поможет
https://www.youtube.com/watch?v=VKoLGnq15RM
#76 #1085977
>>1085939
Выше давали ссылку на попытку реализации на питорче, посмотри. Если непонятно, можно обсудить конкретные вопросы.
#77 #1085992
Вот как это перевести?

The second layer (PrimaryCapsules) is a convolutional capsule layer with 32 channels of convolutional 8D capsules (i.e. each primary capsule contains 8 convolutional units with a 9×9 kernel and a stride of 2). Each primary capsule output sees the outputs of all 256×81 Conv1 units whose receptive fields overlap with he location of the center of the capsule. In total PrimaryCapsules has [32,6,6] capsule outputs (each output is an 8D vector) and each capsule in the [6,6] grid is sharing their weights with each other. One can see PrimaryCapsules as a Convolution layer with Eq. 1 as its block non-linearity.
The final Layer (DigitCaps) has one 16D capsule per digit class and each of these capsules receives input from all the capsules in the layer below.

Не пойму чем отличается от обычной сверточной сети и причем тут маршруты.
#78 #1085997
>>1085992
Маршруты в этом параграфе не обсуждаются. См. введение, чтобы понять, что это такое.
Капсулы нижнего уровня - это и есть CNN, вычисляющие свои активации, которые затем маршрутизируются к капсулам следующего уровня. Так и написано: "One can see PrimaryCapsules as a Convolution layer with Eq. 1 as its block non-linearity."

Капсулы последнего уровня это как dense слои, насколько я понял, т.е. они на входе получают активации нижних капсул, развернутые в вектор.
#79 #1086198
>>1085997
Тогда же получается что капсулы и выполняют задачу многослойности, только теперь между ними соединение не простое, а с условиями, если я правильно понял.
#80 #1086229
Короче теперь людям приходится расшифровывать, что там Хинтон выдал, жаль, что на китайском.

https://www.zhihu.com/question/67287444/answer/251460831
#81 #1086281
>>1086198
Да, капсулы располагаются по слоям. В целом архитектура подобна LeNet, но вместо maxpool у них маршрутизация между капсулами. Соединения организуются так: каждая капсула пытается предсказать активацию капсулы на следующем слое, на вход которой нужно передать свою активацию. Чем лучше это предсказание, тем с большим весом происходит передача активации. И это все вычисляется несколько раз, пока процесс не сойдется.

Это все мое понимание статьи, которое может быть неправильным.
#82 #1086287
>>1086229
Четкий сайт, кстати. Это китайский клон quora, вроде бы, но т.к. там сидит весь Китай, то экспертов по всем вопросам там гораздо больше.
#83 #1086839
Более полная реализация капсул, опять на питорче: https://github.com/gram-ai/capsule-networks
#84 #1087396
#85 #1087440
>>1084106
хаскель
#86 #1087506
>>1082641 (OP)
Курс по основам нейронных сетей на русском языке. Используемый язык программирования Python:
https://stepik.org/course/401/syllabus
#87 #1089703
Моя видеокарта стала отключаться очень быстро под тензорфлоу. Кажется, придется менять. Новенькая совсем, странно.
#88 #1089720
Поясните пожалуйста пару моментов.
1) Дип лернинг == поиск практически брутфорсом математической формулы по получению Y из X?
2) Есть гайд как выбирать структуру и кол-во слоев сети в зависимости от задачи?
#89 #1089732
>>1089720

>1) Дип лернинг == поиск практически брутфорсом математической формулы по получению Y из X?


Да.

>2) Есть гайд как выбирать структуру и кол-во слоев сети в зависимости от задачи?


Нет.
#90 #1089747
>>1089732
В принципе верно, но например для картинок, ясное дело, нужно CNN брать. Для речи тоже вроде на чем-то сошлись, то ли LSTM, то ли опять же CNN по времени. Кароч, гайд в Крации такой: смотришь последние N статей по своей задаче и выделяешь то, что часто используется.
#91 #1090221
Анон, насколько полезно знать статистику и быть знакомым с иными методами машобуча?
#92 #1090235
>>1090221
Машоб. Или машинное обучение. За "машобуч" у нас на районе... не знаю, пока таких лохов не было.
Если ты хочешь быть простым слесарем и сыпать данные в модель пока хоть как-то что-то не начнет напоминать ожидаемый результат - пользуйся конструкторами от гугола, там вообще никаких знаний не надо. Если хочешь заниматься машобом серьезно, то статистику и иные методы знать необходимо, это просто санитарный порог.
#93 #1090238
>>1089720

>Дип лернинг == поиск практически брутфорсом математической формулы по получению Y из X?


Аппроксимация функциональной зависимости Y от X, Y = f(X). Это суть всего машоба, диплернинг - только один из возможных методов такой аппроксимации.

>Есть гайд как выбирать структуру и кол-во слоев сети в зависимости от задачи?


Для нейроночек - не было, нет и не будет.
#94 #1090552
Господи, чому я такой тупой. fit(X, y) и все, больше я ничего не могу. Да и это тоже.
#96 #1090662
https://ria.ru/economy/20171111/1508616511.html
Сбербанк извинился, что раскупил почти все видеокарты на российском рынке

Причиной дефицита на рынке видеокарт был Сбербанк, скупавший видеокарты для своей лаборатории искусственного интеллекта.

Так что те из вас, кто еще жаждет нейроработы в рабских вымиратах, могут попробовать сбертех или где там у них эта "лаборатория искусственного интеллекта".
#97 #1090666
>>1082641 (OP)
посоветуйте проект чтобы в резюме написать плиз
#98 #1090672
>>1090666
В резюме домашние проекты имеет смысл ставить, только если они в какой-то степени успешны, т.е. одобрены сообществом. Идеально это если ты опубликовал по ним научные статьи, ну тут тебе никто не посоветует, ясное дело. Гораздо слабее даже захудалого журнала или конференции, но в какой-то мере все же могут котироваться звезды на гитхабе. Тут смотри горячие темы (r/machinelearning), ищи что сегодня актуально и близко тебе, и делай. Вариантов тут много. Вот несколько примеров домашних проектов, которые вполне себе годятся для сиви, но недостаточно хороши для статей:
https://github.com/nagadomi/waifu2x
https://github.com/makegirlsmoe/makegirlsmoe_web
https://github.com/rameshvarun/NeuralKart
https://github.com/gram-ai/capsule-networks
https://github.com/andabi/deep-voice-conversion
#99 #1090744
>>1090616
Я вижу там только математику. Математику я могу понять, я и сам учусь на прикладного математика. У меня просто особо нет идей по тому, что делать с данными на каггле. Ну запущу я случайный лес или градиентный бустинг, ну покручу параметры или выкину слабо коррелирующие, чтобы модель не переобучилась, а что еще можно делать - не знаю.
#100 #1090843
>>1090672
Проектов, одобреных сообществом в принципе не может быть столько же сколько в сообществе членов, как тогда остальные вкатывались?
#101 #1090882
>>1090672

>https://github.com/gram-ai/capsule-networks



>Одна из самых интересных моделей последнего полугодия от одного из отцов машин лернинга


>Недостаточно хороша для статьи

#102 #1090888
Сап аноны, хотел прочитать Бишопа, но понял что слишком плохо знаю тервер и матстат, теперь решил повторить весь тервер с самого начала, что посоветуете для таких целей?
Желательно чтобы было подробно все описано, без объяснений на пальцах.
#103 #1090896
>>1090882
Это реализация той статьи, сделанная каким-то челом, пытающимся пиарить свой стартап. В принципе так можно хорошо звезд срубить, реализовывая новье без нормальных реализаций. Но нужно угадать со статьей, чтобы не реализовывать никому не интересные вторичные работы.

>>1090888
Jaynes "Probability Theory: The Logic of Science"
#104 #1090925
Анон, учу C, хочу попробовать себя в написании нейронок.
Нейронки можно писать на С? Какую литературу посоветуешь для совсем уж еблана, который ничего не знает?
#105 #1091012
>>1090925
думаю, даже на икселе можно писать. Сверху диплернинг бук, из прошлых тредов Бишоп и прочие книжки.
#106 #1091018
>>1090925
В гугл не научился? https://pjreddie.com/darknet/
https://github.com/pjreddie/darknet
Один из топовых репозиториев по Си на гитхабе кстати.
#107 #1091034
>>1091018
Ничоси, там даже куда поддерживается. Не знал про такую либу.
#108 #1091069
>>1091012
на икселе она необучаемая получится
#109 #1091085
https://medium.com/@karpathy/software-2-0-a64152b37c35
Нейроночки - это software 2.0. Понятно, салаги? Так сказал Director of AI at Tesla Андрей Карпати.
409386 Кб, 600x701
#110 #1091111
>>1091085
Идишекопф!
Мать этого малчика не умъёт от нищеты!
#111 #1091115
>>1091111
Ахаха, в точку. Этот малчик оседлал волну ИИ-хайпа как боженька! На реддите проходил слух с год назад, что еще до того, как он защитился, какая-то финансовая контора сделала ему оффер на >1млн. $$$ в год. Учитесь продавать себя.
Вообще сам факт того, что твое трудоустройство обсуждают в r/ml это... ну не знаю... выше этого только быть Хинтоном.
#112 #1091271
>>1091085
мдя, не думал, что у теслы дела настолько плохи
#113 #1091276
>>1091115
Что там на реддите? Жопой чую, помойка чсвшных мрахей хуже двача.
#114 #1091656
>>1091069
сверху макрос на вба
#115 #1091658
>>1091111
сообщество все-таки плохо восприняло этот софтвеир 2.0, так что еще ничто не гарантировано
#116 #1091662
>>1091085
В И З И О Н Е Р
И
З
И
О
Н
Е
Р
#117 #1091909
>>1091085

>Нейроночки - это software 2.0


Читать научись, дегенерат. Software 2.0 это не нейроночки, а решение задач нейроночками, записанное в терминах весовых коэффициентов, обеспечивающих решение задач (регрессия, классификация,...) на данном датасете. Т.е. в терминах аппроксимации зависимости выходов от входов y=f(x), Software 2.0 это набор векторов f, решающих заданную датасетом задачу.

>In contrast, Software 2.0 is written in neural network weights. No human is involved in writing this code because there are a lot of weights (typical networks might have millions), and coding directly in weights is kind of hard (I tried). Instead, we specify some constraints on the behavior of a desirable program (e.g., a dataset of input output pairs of examples) and use the computational resources at our disposal to search the program space for a program that satisfies the constraints.


>>1091115
Мамку он твою оседлал как боженька, чучело.
#118 #1092135
Поясните за кросс валидацию.
Вот мы разбили датасет на какое-то количество одинаковых кусков, один кусок выкинули, на остальных надрочили свою модель и потом делаем валидацию на выкинутом куске. Потом выкидываем следующий кусок, а первый возвращаем обратно и тренируем заново с теми же гиперпараметрами и так далее со всеми кусками? Я так понимаю это так работает?
#119 #1092152
#120 #1092251
>>1090744
неистово плюсую, подскажите че делать
#121 #1092255
>>1092251
Я пока для себя решил, что когда выдастся время, посмотрю записи Яндекс.Тренировок и решения от победителей на Каггле.
Снимок85 Кб, 1280x454
#122 #1092485
Анончики помогите! нужно в матлабе сделать прогноз по выборам региональным с помощью нейронки, не могу найти нормальной инфы как это сделать. по похожему примеру нихера не получается. подскажите кто, что может пожалуйста
голосоватор111 Кб, 604x454
#123 #1092496
>>1092485

>в матлабе сделать прогноз по выборам региональным с помощью нейронки


Экий вы, батенька, неформал. По одному наблюдению на каждый участок делать прогноз, да еще нейронкой да еще в матлабе. Надо несколько результатов на каждый участок, но поскольку речь видимо о выборах в госдуру, то смысла делать прогноз вообще нет, за такой промежуток времени меняется вообще все. Впрочем, 65%+ для ПЖиВ на любом участке я тебе без всякой нейронки предскажу.
#124 #1092499
>>1092496
про бессмысленность такого прогноза я говорила преподу, тогда мне было дано задание по 2м годам сделать, 2012 и 2017, но легче мне от этого не стало. может есть аналог матлаба, но для тупеньких? мне было сказано выбрать прогу с нейронкой, матлаб был единственной знакомой. вообще точность расчетов и их правильность мне не важна, главное хоть какой-то расчет чтобы вставить в курсач
#125 #1092502
>>1092499
Ну если просто посчитать, чтобы хоть что-то было, тогда суть в том, что столбец за 2012 это вход, за 2017 - выход. Тогда тестовые данные - это столбец за 2017. Если не принципиально, в чем делать - делай в Statistica (только чтобы там был модуль с нейронками). Это самый простой вариант, как по мне - намного проще матлаба, . Ради одного курсача R а тем более пистон осваивать смысла вообще нет. Книжка в тему - http://gen.lib.rus.ec/book/index.php?md5=E17EF63162B31C544C3B5B3788F75789 там полно примеров. Хотя, конечно, то что тебе надо, можно регрессией в екселе сделать без всяких нейронок.
#126 #1092512
>>1092502
спасибо большое!
#127 #1092548
>>1083249

>Блин, как вкатиться в эти нейросети, уже год хожу вокруг да около, а никак не могу начать, нашел единственный пример на хабре где распознаются буквы, но мне хотелось бы чтобы нейросеть была универсальной, и не фокусировалась чем-то одном. Где такое можно поизучать, в максимально доступной форме



Не стоит вскрывать эту тему, srsly. Она на треть из ЕХАЛ ХИНТОН ЧЕРЕЗ ХИНТОН, еще на треть из ГУГЛ ОБУЧИЛ ОМСКУЮ СЕТКУ НА ЙОБАБАЙТЕ СРАНОГО ГОВНА, на треть из НЕВНЯТНЫЙ ХУЙ УЛУЧШИЛ СoТА НА 0.18% НА СКВАДЕ, и на треть из кудахтающих долбоебов с кагла. А. И еще немного школьников, клепающих очередную ПРИЗМУ, но они сильно пересекаются с каглерами. Вкатывайся, когда пена осядет.

>(желательно на плюсах, а то везде питон, а его я не знаю)


Вот щас толсто было.
#128 #1092562
>>1092548

>


>>(желательно на плюсах, а то везде питон, а его я не знаю)


>Вот щас толсто было.



Я кстати то-же всюду питон вижу.
Но нам же программировать хуже чем червя пидора кушать. Язык - гной.
Kickback62 Кб, 382x480
#129 #1092618
>>1092562

>Я кстати то-же всюду питон вижу.


Самого главного ты не видишь, питон у него, дооооооооооооооооо
#130 #1092632
>>1092618
Я не понимаю, что ты хочешь сказать.
Прошу, разверни.
#131 #1092637
>>1092548
Хинтона и прочих старперов можно особо не слушать - не они AlexNet придумали, а 30 лет ебали мозг всякой хуитой. Кто-нибудь вспоминает такую хуиту, как deep belief network? Эти хуи реально занимались подобным вместо идеи ReLU слоя и дропаута.
Вот с этими капсулами та же хуйня будет - тормозная хуево работающая на видюхах хуйня, которая как-то там обходит state of art на MNIST - ебать достижение.
А я могу объяснить, почему это хуйня. Он пишет о недостатках сверточных сетей, что они не умеют поворачивать фичи - и это их фатальный недостаток. Только вот люди тоже с трудом работают с повернутыми фотками (гугли оптическая иллюзия перевернутое лицо), и ничего, при этом обучаются быстро и особо не страдают от этого.
У сверточных сетей конечно есть фатальный недостаток - один и тот же фильтр накладывается во всем поле зрения, тогда как в мозге это, очевидно, не так, и в разных местах поля зрения разные фильтры, но это не решается капсулами.

>ГУГЛ ОБУЧИЛ ОМСКУЮ СЕТКУ НА ЙОБАБАЙТЕ СРАНОГО ГОВНА


Я бы тоже о таком пиздел. Но по факту просто деньги девать некуда, а если есть конкретные идеи, то все гораздо проще.

> и на треть из кудахтающих долбоебов с кагла


Кагл вообще рак, который никакого отношения к реальным задачам не имеет.
ИРЛ у тебя всегда есть датасет любого размера, который тебе нужен, а за дрючево лишних пары процентов никто тебе деньги платить не будет, если для бизнеса 80% - ок (что вряд ли), то ебать 2 месяца мозги, чтобы получить 82% никто не будет. Бизнесу нужно или 99% или иди нахуй, а для этого нужны не йоба-спецы, а толпа макак, которая увеличит датасет в 10-100 раз.
А на кагле наоборот, датасет фиксирован, за пару дней кто-то достигает 80%, и в оставшееся время все сидят и пиздятся за оставшиеся 2%. Абсолютно тупейшее и бесполезное умение, по типу как олимпиады по программированию соотносятся с методичным кодингом.

Поэтому не смотрите на хайп и вкатывайтесь - одного 1080TI сейчас хватает для очень крутых штук, главное уметь готовить датасет и иметь терпение подбирать гиперпараметры.
#131 #1092637
>>1092548
Хинтона и прочих старперов можно особо не слушать - не они AlexNet придумали, а 30 лет ебали мозг всякой хуитой. Кто-нибудь вспоминает такую хуиту, как deep belief network? Эти хуи реально занимались подобным вместо идеи ReLU слоя и дропаута.
Вот с этими капсулами та же хуйня будет - тормозная хуево работающая на видюхах хуйня, которая как-то там обходит state of art на MNIST - ебать достижение.
А я могу объяснить, почему это хуйня. Он пишет о недостатках сверточных сетей, что они не умеют поворачивать фичи - и это их фатальный недостаток. Только вот люди тоже с трудом работают с повернутыми фотками (гугли оптическая иллюзия перевернутое лицо), и ничего, при этом обучаются быстро и особо не страдают от этого.
У сверточных сетей конечно есть фатальный недостаток - один и тот же фильтр накладывается во всем поле зрения, тогда как в мозге это, очевидно, не так, и в разных местах поля зрения разные фильтры, но это не решается капсулами.

>ГУГЛ ОБУЧИЛ ОМСКУЮ СЕТКУ НА ЙОБАБАЙТЕ СРАНОГО ГОВНА


Я бы тоже о таком пиздел. Но по факту просто деньги девать некуда, а если есть конкретные идеи, то все гораздо проще.

> и на треть из кудахтающих долбоебов с кагла


Кагл вообще рак, который никакого отношения к реальным задачам не имеет.
ИРЛ у тебя всегда есть датасет любого размера, который тебе нужен, а за дрючево лишних пары процентов никто тебе деньги платить не будет, если для бизнеса 80% - ок (что вряд ли), то ебать 2 месяца мозги, чтобы получить 82% никто не будет. Бизнесу нужно или 99% или иди нахуй, а для этого нужны не йоба-спецы, а толпа макак, которая увеличит датасет в 10-100 раз.
А на кагле наоборот, датасет фиксирован, за пару дней кто-то достигает 80%, и в оставшееся время все сидят и пиздятся за оставшиеся 2%. Абсолютно тупейшее и бесполезное умение, по типу как олимпиады по программированию соотносятся с методичным кодингом.

Поэтому не смотрите на хайп и вкатывайтесь - одного 1080TI сейчас хватает для очень крутых штук, главное уметь готовить датасет и иметь терпение подбирать гиперпараметры.
#132 #1092641
>>1092512
По-моему, проблема не в инструменте, а в теме проекта. Лучше бы ты взяла какой-нибудь контест с каггла и прочитала к нему решения, люди зачастую выкладывают. А про выборы как-то маловато данных.
#133 #1092666
>>1092632
Пилим, заносим, пилим, заносим, пилим, заносим, пилим, заносим, пилим, заносим, пилим, заносим, пилим, заносим, пилим, заносим, пилим, заносим, пилим, заносим, пилим, заносим, пилим, заносим, пилим, заносим, пилим, заносим, пилим, заносим, пилим, заносим, пилим, заносим, пилим, заносим, пилим, заносим, пилим, заносим, пилим, заносим, пилим, заносим, пилим, заносим, пилим, заносим, пилим, заносим, пилим, заносим, пилим, заносим, пилим, заносим, пилим, заносим, пилим, заносим, пилим, заносим, пилим, заносим, пилим, заносим, пилим, заносим, пилим, заносим, пилим, заносим, пилим, заносим, пилим, заносим, пилим, заносим, пилим, заносим, пилим, заносим, пилим, заносим, пилим, заносим, пилим, заносим, пилим, заносим, пилим, заносим, пилим, заносим, пилим, заносим, пилим, заносим, пилим, заносим, пилим, заносим, пилим, заносим, пилим, заносим, пилим, заносим, пилим, заносим, пилим, заносим, пилим, заносим, пилим, заносим, пилим, заносим, пилим, заносим, пилим, заносим, пилим, заносим, пилим, заносим, пилим, заносим, пилим, заносим, пилим, заносим, пилим, заносим, пилим, заносим, пилим, заносим, пилим, заносим, пилим, заносим, пилим, заносим, пилим, заносим, пилим, заносим...
#134 #1092667
Анон, поясните примеров реальных задач, которые как-то помогают бизнесу и относятся к машинлернингу.

Задрочил более-менее теорию, сделал пару классификаторов жанров фильмов, пару распознователей на конволюшенах, но это несколько искуственные примеры.

Хочется сделать что-нибудь более приближенное к реальному миру. Так может по аналогии чего-нибудь придумаю.
#135 #1092670
>>1092667
Рекомендательные системы. По слухам, после внедрения фич "покупатели, которые смотрели это, смотрели также и вот это", выручки больших интернет-магазинов возрасли в несколько раз.
#136 #1092674
>>1092670
Похоже, здесь >>1092666 я был прав.
#137 #1092679
>>1092670
А что там используют какой-то рокет саенс стейт оф зе арт? Я думал там примитивная хуйня по типу корреляции пирсона с некоторыми дополнениями.
#138 #1092680
>>1092666

>пилим, заносим, пилим, заносим


Это мне понятно.
Мне непонятно, причем тут питон.
Сириусли, я пытаюсь тебя понять.
47z32 Кб, 500x331
#139 #1092682
>>1092680
На такие «проекты» нанимают исключительно молодых, и объяснения этому нет.
#140 #1092694
>>1092679
Я не понял твоего вопроса, но ты можешь начать погружение в тему, погуглив recommendation systems.
#141 #1092759
>>1092641
тему я увы менять не могу, сроки сгорели еще в начале ноября, поэтому должна хоть что-то сделать с этими выборами
app-removes-makeup-makeapp-fb3553 Кб, 1200x630
#142 #1093122
Парни, что надо чтобы сделать подобное приложение?
#143 #1093216
Ого, эти треды теперь здесь постоянные. Зачем шапку-то так порезали? Вроде даже в самом первом треде наговнякали большой FAQ со ссылками на книжки и прочее.
ОП первых двух тредов год назад.
#144 #1093261
>>1093216
Там было нерелевантное, устаревшее на десятилетия говно мамонта, которое все равно никто не будет читать. Теперь остался только топчик.
#145 #1093262
>>1093122
Надо быть в теме.
#146 #1093291
>>1093216
Ты работаешь в этой области?
#147 #1093307
>>1093261

>EoSL, Bishop


>Нерелевантное, устаревшее говно


Понятно, хипстеры и тут одолели
>>1093291
Работал, сейчас в большом отпуске, потому что устал.
#148 #1093309
Поддерживаю >>1093307, какого хуя есл с Бишопом не в шапке? Это же ОСНОВЫ.
#149 #1093612
Уже deeplearningbook 2016 устарел, область развивается лавинообразно, а вы про наскальную живопись Бишопа 2006. 150 страниц жевания линейных моделей, 100 страниц про SVM (>разбираться в деталях устройства SVM >2017), и полкниги про вероятностные модели, интересные только узкому и стремительно сужающемуся кругу исследователей, и нигде не использующиеся в быту. Почти ничего про нейроночки, из которых современный МЛ состоит почти полностью (и неудивительно - в 2006 диплернинга еще не было). Офигенные основы у вас. Уж пусть тогда лучше нубы древних философов читают, оно хоть не устаревает.

То, что вы называете хипстерством, это суть прогресс, который отбрасывает старые знания, когда появляется нечто лучшее. Иногда это происходит стремительно, как сейчас, и то что вчера было основами и вершиной прогресса, сегодня валяется, забытое, на помоечке. То, что вы потратили годы на изучение R, нечетких моделей, или SVM, никак не меняет ситуацию, и если вы будете вместо развития бухтеть, что мол хипстеры все заполонили и не чтят дидов, то так и останетесь на помоечке вместе с вашими любимыми технологиями.
#150 #1093638
>>1093612
Ну а что сейчас на острие трендов?
Я сейчас смотрю видеокурс стенфорта по сверточным сетям, годнота, помню года 3-4 назад, когда впервые столкнулся с нейроночками силился понять суть бэкпропегейшна и нигде нормального объяснения не было ПОЧЕМУ ЭТО РАБОТАЕТ, а тут по полочкам разложили за час. Но и там уже походу слегка устаревшие вещи я смотрю уже всякие caffe 2 появились и т.д.

Что сейчас самое hot?
Где брать современные научные публикации по машинлернингу?
Какие фреймворки юзают?
#151 #1093643
>>1093612
А ничего, что вся нейронная сеть - это перемножение тензоров? И те самые линейные модели, которые ты хуесосишь - кирпичики, из которых сделана нейронка?
#152 #1093654
>>1093638
В шапке базовый вкат, далее нужно следить за статьями, смотреть что обсуждается, на чем делают SotA.
ПОЧЕМУ ЭТО РАБОТАЕТ до конца не знает никто. Вся теория, столетиями разрабатываемая статистиками, отправилась стройными рядами на помоечку, т.к. по классическим представлениям модели с таким диким количеством параметров должны моментально заоверфитить датасет. Этого не происходит, вместо этого нейроночки учатся обобщать, и на практике оказалось, что сеть можно расширять неограниченно, при этом обобщение обычно улучшается, вопреки предсказаниям, которые ты можешь прочесть у Бишопа.
Объяснение этого всего по-хардкору есть в deeplearningbook.

Самый хот сейчас по моим представлениям: GANs, reinforcement learning, differentiable neural computer. Это все меняется день ото дня, например последние несколько дней много обсуждения капсул Хинтона. Неизвестно, забудут ли их на следующей неделе, или через год забудут все остальное, а останутся только капсулы.
Из фреймворков на данный момент на троне питорч, претендует на трон тензорфлоу.
#153 #1093658
>>1093643
А что если я скажу тебе, что
- ты не знаешь, что значит слово тензор
- в книге Бишопа это слово не употребляется
- 99% теории о линейных моделях, изложенной у Бишопа, применимо исключительно к линейным моделям и не работает в нейроночках
- нейроночка сделана не из линейных моделей
#154 #1093660
>>1093654

>Это все меняется день ото дня, например последние несколько дней много обсуждения капсул Хинтона.


А где ты все эти обсуждения читаешь?
#156 #1093720
>>1093658

>- 99% теории о линейных моделях, изложенной у Бишопа, применимо исключительно к линейным моделям и не работает в нейроночках



1. Кто тебя заставляет читать из всего Бишопа только линейные модели?
2. Линейные модели это половина продакшена, свои фамильярные кукареки прибереги для кружка каглеров.
#157 #1093752
>>1093658
А я знаю, что такое тензор.
#158 #1093754
>>1093752
Респект.
#159 #1093826
Правильно ли я понял, что в GAN сетях в генерирующей сети входов может быть сколько душе захочется(там они сами распределятся какие входы какому параметру соответствуют при обучении), а выход - 32D тензор в случае генерации изображения, а дискриминативная сеть имеет 32D вход и два выхода - сгенерированное изображение и наше изображение или можно даже один выход(в этом случае ждем когда при генерации будет выход 0.5 в большинстве случаев)
#160 #1093834
>>1093826
Архитектуры разнятся, но принцип ты понял верно. Выход у дискриминатора, естественно, один - это сигмоид, выдающий оценку вероятности того, что картинка настоящая.
#161 #1093836
>>1093826

>32D тензор


три 2D тензор

>генерации будет выход 0.5 в большинстве случаев



точнее не 0.5 а выше 0.5 т.е. сеть не отличает от натуральной картинки(1-натуральная картинка)
#162 #1093837
>>1093836
Это как раз не важно. Мы не ждем, когда дискриминатор будет выдавать какие-то определенные значения. Критериев сходимости для GAN в принципе нет, насколько я знаю. Также разработано много вариантов функций потерь.
#163 #1093861
>>1093654

>ПОЧЕМУ ЭТО РАБОТАЕТ до конца не знает никто. Вся теория, столетиями разрабатываемая статистиками, отправилась стройными рядами на помоечку,


На помоечку отправляются хипстеры с коворкингами. Конечно, вы не знаете, почему это не работает, потому что вы дегенераты, считающие устаревшим все, написанное до ноября 2017 года. А на самом деле, никуда вы не уйдете от теории статистического обучения Вапника, которая объясняет работу всех вообще возможных алгоритмов машоба. Но дебилы Вапника не читали, потому что все равно не осилят, отсюда и кукареканья "никто не знает как это работает". Вы себя за всех-то не выдавайте.
#164 #1093866
>>1093861
А что у Вапника читать? "The Nature of Statistical Learning Theory"?
#165 #1093867
>>1093866
Да.
#166 #1093897
>>1093861
Ну вот тут ты не прав, бро. Хипстеры хуесосы, но VC-теория – штука непрактичная и мало что объясняет. Ну или приведи пример, где бы хотя бы VC-размерность нейронки как-то корректно оценивали.
#167 #1093920
Как называются задачи, когда нужно не только распознать объект на изображении, но и определить его положение?
#168 #1094000
>>1093920
Object localisation
#169 #1094021
>>1093897

>приведи пример, где бы хотя бы VC-размерность нейронки как-то корректно оценивали.


По перцептронам полно таких работ. Насчет чего-то более другого - а кто будет этим заниматься? Хипстеры? Так там мозги нужны. Дело в том, что нет понимания, что все алгоритмы машобчика считают примерно одно и то же. И подобные >>1093654 кловны несут заведомую хуйню, кукарекая, что все эти новомодные манянейроночки делают что-то отличное от аппроксимации функций от многих переменных суперпозицией частичных функций от пары переменных, и что все это ололо магия, которую придумали в этом году, а все написанное до 2017 нинужно. Это же просто смешно.
#170 #1094052
>>1094021

>аппроксимации функций от многих переменных суперпозицией частичных функций от пары переменных


Сказочный долбоеб. Ну и что? Все алгоритмы могут быть исполнены с помощью машины тьюрига, это еще в 30 годах придумали. И что теперь, не нужно было развивать языки, операционные системы, придумывать различные специализированные алгоритмы? Много маняматематики создали практически применимых вещей?
#171 #1094079
Так поясните раз и навсегда что такое машоб, statistical learning, deep learning и чем последнее отличается от просто применения нейронок которым всё это и называли до 2010 года, как это всё друг с другом относится и чем друг от друга отличается?
#172 #1094082
бамп вопросу >>1093122
#173 #1094083
>>1094082
Автоэнкодер и фото одних и тех же лиц с макияжем и без.
#174 #1094085
>>1094083 а где они столько фоток подобных нашли? (глупый вопрос конечно)
#175 #1094089
>>1094085
может пару тысяч отфотошопили
#176 #1094090
>>1094079
Возьми да загугли.
#177 #1094093
>>1094079
А может, ты просто возьмешь и прочтешь шапку? Могу дать тебе персональные уроки, 5 биткоинов в час. Будем вместе читать deeplearningbook вслух и с выражением.
#178 #1094167
>>1094052

> Все алгоритмы могут быть исполнены с помощью машины тьюрига, это еще в 30 годах придумали.


И хуле тогда пиздеть про какую-то магию хипсторских манянейроночек? Это элементарная математика, не идущая за пределы теории Вапника. Развитие никто не отвергает, просто нужно понимать, что делаешь. А не закатив глаза кукарекать что статистика хуйня, математика хуйня, все вообще хуйня кроме хипстерских пейперов за последний месяц. Шляпу соси с такой пропагандой.
#179 #1094172
>>1094167
Ты и понятия не имеешь о чем ты говоришь, дебил.
151037992779301 Мб, 500x312
#180 #1094189
>>1094172
Или обосновывай или иди гори в другом месте.
#181 #1094230
>>1094189
Обосновал тебе за щеку, проверяй.
#182 #1094246
>>1092667
Добро пожаловать. Пожуй говна теперь, саентист мамкин. Можешь открывать свои курсы по ДИПЛЕРНЕНГУ и рассуждать 300к/с это норм или маловато будет.

>>1092670
С разморозкой, маня. Netflix Prize прошел 10 лет назад.
#183 #1094271
>>1092667
Распознавание номеров машин. Номеров знаков.
Распознавание и парсинг сканированных документов.
Screenshot from 2017-11-19 16-37-23132 Кб, 746x877
как жить-то, блядь, как жить #184 #1094287
Ну что я могу сказать. С NLP все не просто плохо, это полный, леденящий душу пиздец. Я на этой параше писал уже на эту тему. Суть в том, что мне нужен хоть какой-то метод рассчитывающий расстояние между фразами например, в векторном пространстве. Есть совершенно замечательные методы для этого, реализованные в виде либы для R - LSAfun. Единственная проблема в том, что оно не работает с большими датасетами, т.е. если нужен хотя бы уровень дампа педивикии - бреешься. Я тут просил подсказать альтернативы, однако никто нихуя не знает и мне пришлось искать самому, попутно общаясь с авторами (т.к. кроме них опять же никто внятно не смог ответить). Честно говоря, я просто в ахуе.
1) fasttext. хуе-мое, у нас только расстояния между словами, с фразами никак - для этого есть word's mover distance, для R оно реализовано в виде пакета text2vec.
2) text2vec. хуе-мое, у нас только отдельные слова, фразы итд не завезли.
3) word2vec. в R вообще не представлен как нечто цельное (угадайте, что выбрасывают во всех реализациях - да, работу с фразами).
4) word2vec, оригинальный код. выпилен, но доступен на гитхабе (ничего не вырезано, не перекодироавано!). В примере использован левый датасет (100мб, первый миллиард слов из педивикии), в оригинальном пейпере другой (3,5гиг, гугловский, вроде обработанный дамп чего-то из новостных источников). Итого - пикрелейтед, меньше 2% точности.
Да вы что прикалываетесь штоле?!
#185 #1094312
>>1094287

>NLP


добро пожаловать в мир ии, там кругом жопа, если ты конечно же не маняпетухатик-теоретик. нахуй тебе векторное пространстао? начитался всякой хуиты и удивляешься, что она не работает
#186 #1094316
>>1094167
Я не знаю где там про магию пиздят? Про то что это обычный аппроксиматор в каждой дырке объясняют. Но хуже нейроночки от этого не становятся.
Если ты хочешь чтобы было строгое мат. доказательство того что такая-то нейроночка с такими то параметрами распознает песьи анусы с такой-то точностью то ждать тебе придется очень долго. С другой сторны ты же пользуешься софтом, операционками, двачем, в котрых и не пахнет математическим обоснованием того что это работает и магией это не считаешь.

Ну вот я знаю и статистику и математику, и твою манятеорию вапнику, однако из практической пользы оно только удовлетворяет мое любопытство и помогает легче читать особо хипстерские пейперы.

А вот несколько пейперов где наглядно показывают как решить конкретную задачу пользы дают не в пример больше и внезапно там тоже никакой магии, все расписано почему были приняты такие-то решения. Я не тот анон, который засирал математику, но соснут шляпу как раз математикодрочеры.
#187 #1094317
>>1094312

>нахуй тебе векторное пространстао? начитался всякой хуиты и удивляешься, что она не работает


Тебе известны другие варианты представления слов для нужд NLP? Да, там ровно два стула - dtm (document-term matrix) и tcm (term co-occurence matrix). Именно с ними (или с их взвешенными вариантами типа tfxidf) работают все алгоритмы.
#188 #1094319
>>1094287

>Суть в том, что мне нужен хоть какой-то метод рассчитывающий расстояние между фразами например, в векторном пространстве.


>в виде либы



Так тебе метод нужен, или либа?
Я с вас, вкатывальщики, немножко в ахуе.
#189 #1094320
>>1094317

>нужд NLP


а кокая нужда? перевод, синтез, расспознавание?
#190 #1094324
>>1094312

> там кругом жопа


Мне как раз нужно публиковаться. Давай, дай мне 10 тем котороые надо развить.
#191 #1094325
>>1094317

>Тебе известны другие варианты представления слов для нужд NLP? Да, там ровно два стула - dtm (document-term matrix) и tcm (term co-occurence matrix). Именно с ними (или с их взвешенными вариантами типа tfxidf) работают все алгоритмы.


Какой извращенный бред.
Как изысканно.
#192 #1094329
>>1094319

>Так тебе метод нужен, или либа?


Либа.
>>1094320
Расстояние между фразами (семантическая близость разных фраз).
>>1094325
Как будто ты знаешь альтернативы.
#193 #1094333
>>1094324

>надо развить


начни с простого, с синтеза русской речи, с учетом просодии.
#194 #1094334
>>1094329

>семантическая близость разных фраз


нереализуема. юзай синонимы и статистику.
#195 #1094338
>>1094329

>Нужно все готовое и чтобы за меня все сделали


>Как будто ты знаешь альтернативы.


Может и знаю, но пожалуй промолчу.

>>1094334

>нереализуема. юзай синонимы и статистику.


А как же гугл?
#196 #1094339
>>1094334
Давно реализуема. И ты с такими знаниями что-то советовать будешь?
#197 #1094340
>>1094338

>Может и знаю, но пожалуй промолчу.


Нихуя ты не знаешь.
#198 #1094341
>>1094338

>А как же гугл


у них статистические методы, прчем все это говно более менее работает только для такого примитивного языка как английский, а вот с тем же русским они уже сосут, флексии и все такое.
#199 #1094342
>>1094339

>Давно реализуема


пруфы
#200 #1094351
>>1094333
Зачем мне синтезировать русскую речь, если я хочу опубликовать это?
#201 #1094352
>>1094351
ясно, школотрон опубликовальщик.
#202 #1094353
>>1094352
Русский язык никого не волнует, трата времени.
#203 #1094354
>>1094351

>опубликовать


для школьной стенгазеты можешь выбрать тему полегче.
#204 #1094355
>>1094353

>Русский язык никого не волнует, трата времени


ну так уебуй в редедет
#205 #1094356
>>1094341
Ну в общем да, гугл не торт. Ну и ладно.

Накатал простыню, но удалил.
Так-то да, семантическую схожесть считать очень трудно.
#206 #1094357
>>1094355
Эта вата порвалась, несите новую.
#207 #1094360
>>1094357

>вата


пятак, как ты сюда пробрался?
#208 #1094452
>>1094342

>пруфы


Я же даже название алгоритма написал - word's mover distance. Алсо, LSA в это может еще с 90-х годов.
#209 #1094463
>>1094452

>word's mover distance


неработоспособное говно
#210 #1094467
>>1094463
Ты так сказал? Почему ты такой тупой? Ты в госдуме работаешь?
#211 #1094469
>>1094287
Банальный doc2vec не пробовал? В Gensim на питон есть, про остальное не знаю.
Можешь придумать что-то на основе TextRank, но будет медленно.
Или очередной банальный word2vec, k-means кластеризацию и там попробовать посмотреть на расстояния до кластеров?
Еще я сейчас погуглил - на R есть tensorflow, а написать word2vec, особенно не самый быстрый, не так уж и сложно. Я уверен, что он уже реализован на гитхабе при этом.
А еще с тензорфлоу ты можешь всегда взять сделать простую сиамскую нейроночку, и давать на выходе - одна и та же фраза или нет, как многие делали в quora question pairs. Выходная сигмоида (или другая функция) и будет твоим расстоянием.

Хотя лет 5 назад, когда я в последний раз запускал R, он у меня валился уже на csv в 100мб. Не уверен, что R возможно использовать, если они ничего не поменяли.

А в LSA матрицы разрастаются до сотен гигабайт на больших выборках (хотя и не очень даже и больших), поэтому и не работает, но, наверное, ты и сам это знаешь.
#212 #1094478
>>1094469
Ему нужно именно СЕМАНТИЧЕСКОЕ расстояние.
Что как бы предполагает большую базу данных для сколь нибудь вменяемых результатов.
165 Кб, 559x373
#213 #1094485
Пикрелейтед примерно то, о чем я говорю. Фразы "Obama speaks to the media in Illinois" и "The President greets the press in Chicago" после того как из них убираются stopwords не имеют ни одного общего слова. Синтаксически это абсолютно разные фразы, а семантически - ровно одна и та же хуйня. Задача - алгоритм, который мог бы выявить сходство именно подобных словосочетаний.
#214 #1094486
>>1094246

>Netflix Prize прошел 10 лет назад.


И чо? Рекомендательные системы везде сейчас, и везде нужны. Уже скоро венда будет предлагать "люди, которые запускали эту программу, запускали так же и вот эти".
Алсо, то, что выиграло нетфликс прайз это неюзабельное нагромождение моделей.
#215 #1094493
>>1094485

>а семантически - ровно одна и та же хуйня


Лол нет.

>Задача - алгоритм, который мог бы выявить сходство именно подобных словосочетаний.


word's mover distance
Инвалид ты такой этакий.
#216 #1094501
>>1094469

>Gensim


Интересная вещь, но я в пистон не умею.
#218 #1094509
>>1094485
Казалось бы а чего ты хотел для общего случая. Чтобы слово "иллинойс" было близко к "чикаго" во всех подобных фразах, а в других фразах было близко к чему-то другому?
Какими-то плясками с бубном вы тут занимаетесь, ребята.
залётный математик
тупая-пизда-бляди-3244136 Кб, 550x414
#219 #1094510
Короче читал-читал книги по мл, но заебался и бросил.
#220 #1094576
>>1094502

>Подкину сюда же


https://www.kaggle.com/c/text-normalization-challenge-russian-language#description

ебать какое дно этот ваш гугл
#221 #1094581
>>1094576
это соревнование действительно странное, учитывая, что данные аннотированы автоматически и неправильно. Но гугл большая компания, у них куча денег, и они просто дают гранты.
К самому гуглу, думаю, эти люди имеют опосредованное отношение.
#223 #1094587
>>1094586
з.ы. вполне себе проффесор из гугла

https://research.google.com/pubs/RichardSproat.html

я спокоен за нлп, эти клоуны не затмят моего гения
#224 #1094620
Здравствуйте, коллеги. Прошу помочь с одним вопросом. Требуется написать программу, которая принимала бы на вход изображение. На изображении имеется прямоугольный объект размером с банковскую карту. Требуется обрезать изображение или найти границы объекта максимально точно. Фон может быть совершенно разным, объекты всегда похожи. Имеет ли смысл использовать какую-то предобученную сеть (учитывая то, что объектов для обучающей выборки много найти не удастся)? Или же использовать стандартные подходы компьютерного зрения с градиентом и т.п.?
#225 #1094626
>>1094620
Нейроночки только во вред. Попробуй хаар-каскады же.
#226 #1094628
Почему все нейроночки сейчас делают на питоне? Разве нет никаких более достойных языков программирования?
#227 #1094637
>>1094628
Есть torch, он топ. Часто делают на питоне, потому что датаслесарисаентисты математики, а не кодеры, и не хотят разбираться в программировании. И что характерно, это правильный подход.
#228 #1094638
>>1094628
Если угораешь по няшной сишке, пользуй черную магию - https://pjreddie.com/darknet/
#229 #1094645
>>1094626
Я читал какое-то исследование, что нейроночки в очко ебут каскады.
#230 #1094647
>>1094628
Так питон - это типа сахар сверху,, а сами нейронки конвертируются во что-то более низкоуровневое.
#231 #1094649
>>1094645
Я читал какое-то исследование про то что твою мамку.
Найти прямоугольник на картинке быстро и эффективно это к каскадам. Найти что-то сложное - к нейронкам.
#232 #1094653
>>1094628
А на чем ты хочешь? Чем тебя не устраивает питон?
Сами нейронки пишут на плюсах или сишке.
#233 #1094655
>>1094649

>Найти что-то сложное - к нейронкам


дооооо, как там в мяняматических фантазиях?
#234 #1094664
>>1094620
Смотри по тегу image segmentation. Здесь объясняются текущие топ архитектуры: http://blog.qure.ai/notes/semantic-segmentation-deep-learning-review
Это и есть стандартный подход компьютерного зрения.
#235 #1094768
Наконец-то нейронки начали генерировать наркоманскую годноту.
#236 #1094789
#237 #1094808
Свежий обзор по последним GAN'ам: http://guimperarnau.com/blog/2017/11/Fantastic-GANs-and-where-to-find-them-II
#238 #1094842
>>1094768
Суть ДИПЛЕРНЕНХА одним предложением.
#239 #1094886
>>1094808
Два чаю, годная статься.
#240 #1094974
>>1082641 (OP)
Ребзя, нормальный ли курс на степике по нейросетям ? стоит ли с него вкатываться

stepik[точка]org/course/401/syllabus
dbb70e92b3b9dd88e1a8afd2c4d0c068[1]350 Кб, 1131x707
#241 #1095153
>>1094974
Да, он простенький и приятный. Не то чтобы после него ты сделаешь пикрил, но много нового узнаешь.
sage #242 #1095242
>>1082641 (OP)
Прочитал, что машинный интелехт использует для принятия решения предыдущие наблюдения, и из каждого наблюдения берёт такие-то параметры, например, цвет, форму, размеры и тд. Но как качество переходит в количество, то есть как программа после N наблюдений должна определить нечто, что подходит под общее правило описания объекта (абстракцию), но может быть непохожим на предыдущие наблюдения ?
#243 #1095259
>>1095242
Если есть какие-то скрытые зависимости между параметрами, которые ты используешь в обучении(цвет, форма, размер и т.д.) то методы машоба могут найти эти зависимости в явном или неявном виде.

На языке маняматематики это как правило выражается тем что ты пытаешься найти глобальный минимум функции потерь в многомерном пространстве. А тренировочные данные(в данно случае все предыдущие наблюдения) определяют рельеф функции в этом пространстве.
#244 #1095339
>>1095242
Любой машоб это аппроксимация функций зависимости выходов от входов, либо группировка наблюдений по степени их схожести, например по минимуму расстояния между векторами в евклидовом пространстве.
>>1095259

> На языке маняматематики э


Уебывай, чучело. Кроме математики там нет ничего, а ты уже сто раз показал, что не в теме абсолютно.
#245 #1095478
>>1095339

>ты уже сто раз показал, что не в теме абсолютно.


Иди галоперидольчику ебани сперва.

>Кроме математики там нет ничего


Хех, не более.
#246 #1095686
>>1095478
Ты дурной тупень.

Мимокрокодил.
#247 #1096121
>>1095686

>мимокрокодил


Кекус
#248 #1096125
>>1082641 (OP)
Есть на русском языке мануалы?
#249 #1096142
#250 #1096279
test
neural-manifold35 Кб, 390x411
#251 #1096280
Еще один годный блогпост про состояние дел в нейроночных науках на сегодняшний день: http://blog.evjang.com/2017/11/exp-train-gen.html
#252 #1096343
А топовое место у нас в области нейронок и диплёринга это по-прежнему яндекс и циб?
#253 #1096367
>>1096343
Топовое место не у нас.
#254 #1096570
>>1096367
Так к неунам с нулём опыта не возьмут, нужно же где-то руки набивать.
#255 #1096571
>>1096570
Набивай руки на PhD
#256 #1096575
>>1096571

> PhD


> в рашке

#257 #1096576
>>1096575
Поступай не в России?
#258 #1096580
>>1096576
Сомневаюсь что меня куда-то возьмут с пидорахошарагой.
А заного 4 года бакалавра брать как-то ну его нахуй.
#259 #1096581
>>1096580
В некоторых странах бакалавриат всего 3 года и ты можешь перезачесть часть предметов если у них примерно одинаковое название, описание и количество часов/кредитов ECTS.
Безымянный17 Кб, 917x228
#260 #1096588
Здравствуйте, я хочу попробовать scikit. Я ничего не знаю, просто хочу попробовать задачу регрессии. Нашёл на хабре пост с примером программы: https://habrahabr.ru/post/206306/

Программа: https://ideone.com/36rgGb

https://ideone.com/36rgGb

Я не могу запустить эту программу, потому что выходят следующие ошибки, которые показаны в прикрепленной картинке. Подскажите, пожалуйста, как справиться с данными ошибками.

Я пробовал всяко преобразовать X и Y, то .values, то в array, то в asarray, но всё-равно ошибка не дает запуститься, только ошибка меняется на Unknown label type: 'continuous' using sklearn in python.

Помогите, я ничего не понимаю, это ж пост из хабра, раньше же эта прога, наверное, как-то же работала.
#261 #1096603
>>1096588
Гугли ошибку она в конце вывода.

>пост с хабра


Хабр - кусок говна. На сайте сайкита же есть примеры кода для разных методов, не?
#262 #1096604
>>1096603
Я в английском - кусок говна, поэтому я не могу воспользоваться англоязычным сайтом.

Я гуглил на английском, я мало что понял, ибо я плохо знаю английский, вроде, там в трех ситуациях советовали 1).value поставить, 2)в 1D преобразовать asarray-ем и 3)преобразовать с помощью помощью array()

Я попытался и там получилась другая ошибка Unknown label type: 'continuous' using sklearn in python.

Ну и все, я облажался по полной.
#263 #1096658
Поясните человеческим языком, что такое регуляризация. В педивикии ероглифы какие-то.
#264 #1096669
>>1096658
Тебе 10 лет и у тебя есть суровый батя. Ты хочешь, например, заниматься математикой, а он заставляет ходить на какой-нибудь футболобаскетбол. И если вдруг палит, что ты вместо спорта опять своими уравнениями в частных производных балуешься, то неистово пиздит тебя с коэффициентом, пропорциональным количеству пропущенных занятий. Но ведь нельзя же без математики, а то совсем бревном останешься! Поэтому ты начинаешь совмещать спорт и свои анальные заигрывания с абстракциями.
#265 #1096675
>>1096658
Не стоит вскрывать эту тему.
#266 #1096702
>>1096571
А есть что?
#267 #1096745
>>1096581
Так есть-то что? Заебали советчики с миллионами долларов в шкафу, для которых это не проблема.
#268 #1096747
>>1096745
Получай стипендию, проси больше стипендий, еще больше стипендий, и если ты девушка - то есть специальные стипендии для тян в технических науках от успешнотян с деньгами. А еще есть студенческие кредиты.
#269 #1096750
>>1096604
Олег, ты?

for i in range(Ytrn.shape[1]) - вот тут что происходит? Что такое Ytrn.shape[1]? Это же число, как ты по нему итерируешься?
#270 #1096751
>>1096747
Щас бы визу дали без счета в банке или гранта.
В Германии вон требуется минимум 9к евро на счету для учебы.
#271 #1096756
>>1096751
Если у тебя денег нет и ты не можешь их заработать - нахуй на дваче срёшь об этом? Они так не появятся же. Или ты думаешь, что здесь дадут каких-то секретных советов?
#272 #1096799
Здравствуйте, скажите, пожалуйста, полиномом какой степени можно более-менее смоделировать экспоненту? Степень желательно как можно меньше.

Я смотрел видео и там нейронка подобрала полином 3 степени для синусоиды. Подскажите, для экспоненты степень какая подойдет?
#273 #1096828
>>1096799

>дравствуйте, скажите, пожалуйста, полиномом какой степени можно более-менее смоделировать экспоненту? Степень желательно как можно меньше.


>


>Я смотрел видео и там нейронка подобрала полином 3 степени для синусоиды. Подскажите, для экспоненты степень какая подойдет?



1 степень.
Спасибо за вопрос, взлольнул.
#274 #1096840
>>1096756
Нет, просто заебали охуительные советы вида "зачем тебе стажерство Яндекса, просто поступи в MIT".
#275 #1096844
>>1096840
Хороший совет, вообще говоря.
#276 #1096853
>>1096828
В чем смех? Я не знаю математики, и просто хочу узнать минимальную степень, которую можно задать полиному для tensorflow, чтобы моделировать экспоненту.

Угадать степень я не могу, ибо помимо степени надо ещё и learning_rate и коэффициенты для регуляризации угадывать.

Поэтому интересуюсь у анонимуса
#277 #1096859
>>1096853
1) смотришь на график экспоненты
2) профит!

Ты из джаваскрипт-треда сюда протек, что не знаешь, как выглядит экспонента?
#278 #1096865
>>1096859
Тогда я могу выбрать слишком большую степень, потому что могло оказаться, что можно было выбрать намного меньшую, если удачно подобрать learning_rate и коэффициенты для регуляризации.

Эффективнее узнать у знающих людей, чем ошибиться и никогда об этом не узнать.
#279 #1096866
>>1096853

>В чем смех?


Экспонента моделируется экспонентой.

>Я не знаю математики, и просто хочу узнать минимальную степень, которую можно задать полиному для tensorflow, чтобы моделировать экспоненту.


1 степень.
Первая степень.
По буквам нужно повторять?
#280 #1096867
>>1096853
Подучи теорию, пес.
А вообще в случае со сраной экспонентой ты бы мог добавить пару строчек чтобы пробежать по всем степеням и посмотреть где меньше ошибка.
#281 #1096870
>>1096866

>Экспонента моделируется экспонентой.


Допустим я не знаю, что это экспонента и ищу полином с какой-то степенью.

Первая степень - это такой троллинг насмехающийся о том, что я написал слово "минимальная"?
#282 #1096873
>>1096867

>где меньше ошибка.


Самая меньшая ошибка может быть у переобученной модели с слишком большой степенью
#283 #1096874
>>1096867
Да и бегать по всем степеням тоже от удачи зависит, ведь к каждой степени надо будет свои learning_rate и коэффициенты для регуляризации подбирать. Можно ошибиться и не узнать, что какая-то степень могла бы быть удачной
#284 #1096910
И раскладывоешь экспоненты в ряд тейлорса, и берёш первых n членсов, и отбрасываеш остольные и оставляеш нейропарашу даунам которые матёшку не знают.
#285 #1096912
>>1096865
Ты графики полиномов тоже не видел? х квадрат там, х куб.
#286 #1096934
>>1096840
в рашке выше конкуренция, чем в штатах или европе, так как у нас образование и знания получить легко, бабок ни у кого нет и все готовы за еду работать
#287 #1096936
>>1096912
Видел, квадрат похож, если половину графика удалить и ветвь подкорректировать.
Куб тоже чем-то похож, если часть отсечь.

Короче, я не знаю, не могу понять как тензорфлоу отсечет не нужное, поэтому мне остается только спрашивать у вас, ибо вы же умудренные многолетней практикой, а я только сегодня начал.
#288 #1096938
>>1096910
Спасибо
#289 #1096939
>>1096934
Образование в Рашке получить легко? Еьать дебил
#290 #1096940
>>1096912
>>1096910
Ещё с толку сбивает, что на stepic.org лысый парень объяснял, что для синусоиды достаточно полинома 3 степени. А на habrahabr, постивший человек, для синусоиды полином 30 степени сделал в тензорфлоу.

Я поэтому вообще ничего не понимаю.
#291 #1097004
>>1096870

>>Экспонента моделируется экспонентой.


>Допустим я не знаю, что это экспонента и ищу полином с какой-то степенью.



>Первая степень - это такой троллинг насмехающийся о том, что я написал слово "минимальная"?



Нет, это не троллинг, тебе нужна первая степень.
Безымянный11 Кб, 604x432
#292 #1097008
>>1097004
Синяя кривая - то что должно получиться. Оранжевая прямая -то выходит при первой степени
#293 #1097009
>>1096936
>>1096940
>>1097008
Ты хуйней какой-то сейчас занимаешься.
Подтяни теорию минимально, а потом уже берись за код @ задавай вопросы. Потому что сейчас у тебя вопросы что-то на уровне где поставить точку запятой в проге на си.

Умудренные тут сидят или нет, но врядли у кого-то будет желание сидеть и разжевывать тебе все как первокласснику.
#294 #1097010
>>1097008
И кстати на графике у тебя не экспонента, если что.
#295 #1097011
>>1097009

>у кого-то будет желание


Если вдруг у кого-то будет, то пусть кто-нибудь подскажет степень
#296 #1097013
>>1097010
Развернул её в другую сторону, по форме тоже самое
#297 #1097014
Хотя может и она, а я в глаза ебусь, на кусок гиперболы это все таки меньше похоже, но не суть.
#298 #1097017
>>1097008

>Синяя кривая - то что должно получиться. Оранжевая прямая -то выходит при первой степени


Что-то не так делаешь значит.
#299 #1097018
>>1097017
>>1097008
Ты сеть хоть обучаешь или как?
#300 #1097020
>>1097017
>>1097018
Вроде есть какое-то некачественное обучение, при какой-нибудь 20-30 чуть больше походит на синюю. К чести, первой степени, оранжевая линия внизу здорово совпала с синей.

Ну это неважно, ибо всё-равно я не знаток тензорфлоу и я не мог с ходу качественно всё сделать.
Вообще всё о чём я интересовался - это о степени полинома, не хотел так много писать здесь ненужные подробности.
#301 #1097146
>>1096939
легче, чем в штатах. А чего сложного в образовании в рашке? Корочку получает даже пьяный зомби, а бишопа прочитать и в интернете можно.
#302 #1097152
>>1097146

>А чего сложного в образовании в рашке?


Коррупция, глупость, бюрократия для бюрократии.

>Корочку получает даже пьяный зомби


Мы же об образовании говорим, а не о корочке.
А так да, пьяные зомби ее легко и получают.
#303 #1097160
Нагуглил щас Бишопа алгоритмы мл, и там ни одной ебучей мат.формулы. Какой-то уебок итт посоветовал мне Маршланда, ссу ему в рот.
#304 #1097403
А правда, что роботы с нейронками вытеснят с работ людей? Не будет пролетариата, не будет бухгалтеров и экономистов. У богачей будут роботы, будет ещё больше, прямо море денег и ресурсов и они будут насиловать толпами юных женщин и устраивать гладиаторские бои между мужчинами?
#305 #1097484
>>1097403
Да, все будет именно как ты написал.
#306 #1097485
>>1097484
А как спасаться? Сами кодить нейронки учиться?
#307 #1097491
>>1097485
Да, конечно. Ведь сейчас каждый богач закодит нейронку на тензорфлоу с закрытыми глазами.
#308 #1097495
>>1097485
Поднимаешься на ту ступеньку соц. лестницы, которая в ближайшем будущем еще будет нужна и ебешь систему в рот и раздвигаешь булки навстречу прогрессу.
#309 #1097501
>>1097491

>каждый богач закодит нейронку


Они себе Блина Гейтса купят
#310 #1097507
>>1082641 (OP)
хочу майнить писечки
#311 #1097566
>>1097403
Скорее бы!
#312 #1097659
>>1097566
Не терпится поучаствовать в гладиаторских боях?
#313 #1097663
>>1097659
Хочу шлепать других мужиков обмазанных маслом.
#314 #1097670
Как делать нейроночки не умея программировать?
#315 #1097673
>>1097670
Как все. импорт слесарный_инструмент как си
#316 #1097711
>>1097670
Ни один машинный обучатель не умеет погромировать.
149340690967347 Кб, 1080x540
#318 #1098386
Как сейчас обстоят дела с шифрованием нейроночек, чтобы они обучались, и при этом нельзя было скопировать?
#319 #1098400
Обычно, как я понял, всё что подаётся на вход, для того, чтобы это процессить, в дальнейшем усредняется определённым образом, т.е нет никакой фильтрации входного/промежуточного сигнала: всё всегда смешивается в усреднённую "кашу с закономерностями". Есть ли какие-то способы обрабатывать сигнал в процессе исключая лишнее?
#320 #1098570
>>1098386
Тонкая пикча. А про шифрование не понял. Что должно быть нельзя скопировать? Тренировочные данные?
#321 #1098572
>>1098400
Слишком абстрактно говоришь. Ну не подавай свое лишнее на вход, и не будет оно в кашу смешиваться.
#322 #1098575
>>1098386
скопировать можно все
единственный способ защиты нейронки - гонять ее на своем сервере
#323 #1099385
Почему ещё никто не сделал нейронку которая будет раздевать девушек на фото?
#324 #1099386
>>1099385
У того кто может написать такую нейронку нет проблем с тем чтобы раздевать девушек.
#325 #1099440
>>1099385
дай базу данных, сделаю
#326 #1099640
>>1099385
Как коммерческий проект - мутновато с законностью и монетизацией.
Как проект для сиви - слишком девиантно, мало кто оценит, может отпугнуть работодателя.
Просто ради фана - слишком трудно.

Но наверняка кто-нибудь сделает кривоватую программу в ближайшие годы. Может, уже сделали - надо гитхаб прошерстить.
#327 #1100499
анонарии, подкиньте ресурсов, где удобно искать модные пейперы по нейроночкам
#329 #1100628
>>1100592
Спасибо, дорогой :3
#330 #1100647
https://hightech.fm/2017/11/30/ai-prof

Крупнейшие технологические компании делают ставку на искусственный интеллект, разрабатывая голосовых помощников и самоуправляемые автомобили. Однако специалистов в области искусственного интеллекта не хватает. Чтобы заполучить их, IT-гиганты готовы выплачивать даже начинающим разработчикам нейросетей суммы, поражающие воображение. Как ни странно, это только увеличивает дефицит ИИ-кадров.

Ждите волну вкатывальщиков.
#331 #1100655
>>1100647
В сраной нет айти-гигантов, а сумма, поражающая воображение, это 1000$/мес. В Америке, Индии волна уже пошла вообще-то.
sage #332 #1100675
>>1100655

Студенты вон за 100 баксов готовы жить на галерах ради САЛАРИ ГРОСС когда-нибудь и НЬЮ ЭКСПИЕРЕНС.
#333 #1100680
>>1100647

Ты переоцениваешь способности среднего российского студента. Там линейная регрессия уже вызывает перенапряжение межушного пространства и панику.
#334 #1100687
>>1100647

>волну вкатывальщиков.


Такая-то ирония посреди треда для вкатывальщиков.
#335 #1100689
>>1100687
Ой, ну ладно тебе, области всего несколько лет считай. Сейчас все вкатывальщики, просто кто-то немного дальше продвинулся.
>>1100675
Эти студенты абсолютно беспомощны и никому не нужны, у кого в конторах есть время их обучать нормально?
#336 #1100873
>>1100680

>линейная регрессия


Кто ещё переоценивает. Перенапряжение и панику вызывают уже численные методы, а статистика - это вообще ебучий рокет сайенс.
мимостудент
#337 #1100924
>>1100873

>Перенапряжение и панику вызывают уже численные методы


Потому что их хуево преподают. Помню нам сразу хуярили по лицу формулами какого-нибудь метода зейделя и кривым куском кода на паскале с четырьмя вложенными циклами.
Если нормально объяснять то и методы, и статистика - несложная занимательная прогулка, но увы, это не про шараги даже топовые
#338 #1100992
>>1100647
Кек. Я как раз сейчас прохожу курс по машинке в ШАДе.
Каждый клоун с ФКН проходит майнор по машинке - а с этого года в вышке вводится data-culture, в результате чего через пару лет каждый обоссаный гуманитарий будет знать машобчик хотя бы на энтри левеле.
В то же время хуи из яндекса утверждают, что хайп на машобчик сдуется года через четыре - текущие алгоритмы уже выжимают из данных максимум (оставшиеся 1-2% точности в индустрии никого не ебут). В теме останутся только высокоуровневые теоретики и ограниченное число макак, которые будут крутить ручки гиперпараметров.
Вообще, эти ваши нейроночки - ГРАФЫ ВЫЧИСЛЕНИЙ - дно полное. Банальные композиции линейных и нелинейных функций. С ИИ эта хуйня и рядом не валялась.
#339 #1101020
>>1100992

>Вообще, эти ваши нейроночки - ГРАФЫ ВЫЧИСЛЕНИЙ - дно полное. Банальные композиции линейных и нелинейных функций. С ИИ эта хуйня и рядом не валялась.


Ну ещё бы, маняматику гамалогий и тапалогий не завезли, значит ненужно.
#340 #1101034
>>1100924
Хуй знает, я привык к почти полному самообразованию - не понимаю, зачем преподавать числаки, которые можно самому разобрать на раз, это ж не матан с алгеброй.
#341 #1101043
>>1101034
Ну вот когда я сам попробовал освоить нормально разные вещи, которые преподавали в шараге и от которых у меня было отвращение, понял что самому проще и лучше освоить, матан и алгебру в том числе. Универ по сути только саботировал мое обучение.
#342 #1101059
>>1100992

>оставшиеся 1-2% точности в индустрии никого не ебут


>робомобиль давит одного пешехода из сотни

#343 #1101073
>>1084895
смотри на канале spacex презентацию о симуляции процессов в двигле, используют адаптирующуюся сетку, возможно, в этом направлении стоит копнуть
Screenshot from 2017-12-01 17-12-3169 Кб, 870x208
#344 #1101076
Господа, при обучении перцептрона многократный проход по данным - норм? У меня 540тыс цифр разной степени замусоренности, лучше подгонять за несколько проходов по ним или пытаться в один проход?

перцептрон сосёт, попробую реализовать пикрелейтед
#345 #1101080
>>1101059
Все еще лучше пидорахи за рулем.
#346 #1101145
>>1100992

>ограниченное число макак, которые будут крутить ручки гиперпараметров


Ими уже крутят нейроночки.
#347 #1101272
>>1101059
Робомобили ездят на длинных лесенках ифов, мария, попуститесь.
#348 #1101275
>>1101020
Двачую адекватного анона. Это долбоеб с шизтеха, биоробот с туннельным зрением, смейтесь над ним.
#349 #1101282
>>1100992
Ну и что такое ИИ?
#350 #1101315
>>1101282
Искуственный Интеллект
#351 #1101363
>>1101315
Я не про это, а про то, чем упомянутый ИИ отличается от МЛ и набора ифов.
#352 #1101375
>>1101363
Никто не знает. Вполне возможно, что через пару лет текущий подход выйдет на плато и не сможет предложить ничего нового и все маняфантазии про замену юристов и погромистов на роботов разобьются о твёрдые скалы "Хуй его знает" на следующие 50 лет.
#353 #1101379
>>1100689

>области всего несколько лет считай


Вкатывальщик не палится.
#354 #1101393
>>1101363

>Я не про это, а про то, чем упомянутый ИИ отличается от МЛ и набора ифов.


Тот дурень видимо имел ввиду "сильный ИИ".

>>1101375

>Никто не знает.


Ну охуеть теперь.

>>1100992

>курс по машинке в ШАДе.


Впрочем ладно, для тебя и это уже много.
#355 #1101550
>>1101363
Ничем, искусственный интеллект, по определению, это то, что схоже с мыслительным аппаратом человека, а мозг человека это и есть нейронка и набор ифов.
#356 #1101576
>>1101550
Ну вот, а что тогда подразумевал предыдущий ответчик про сильный ИИ >>1101393 ?
#357 #1101594
>>1101576

>Ну вот, а что тогда подразумевал предыдущий ответчик про сильный ИИ >>1101393 ?


Сильный ИИ - универсальный ИИ, способный учится чему угодно как угодно. Другими словами, приближенный к способностям человека.

Интеллект - способность решать нетривиальные задачи(нелинейной оптимизации).

Вот, что я подразумевал.
#358 #1101598
>>1101594
Но его же пока не существует. Зачем сравнивать рабочие методы с мечтами?
#359 #1101613
Чем лучше классифицировать картинки?
#360 #1101624
>>1101550
Мозг человека не такая нейронка, которая в tensor flow. Кароче это всё маняпредположения, по факту никто не знает как мозг работает. Может ещё скажешь, что машина Тюринга ничем не отличается от мозга человека патамушта наборв ифов?

>>1101598
Ну как видишь тут фантазёров хватает, которые путают ИИ уровня человека и машобчик.
#361 #1101630
>>1101613
Господи, в рот я ебал все эти библиотеки, хуй что установишь, вечно какая-то ебала с ними, нахуй так жить вообще. Ебаный тензорфлоу, ебаный теано, ебаное все.
#362 #1101632
>>1101598

>Но его же пока не существует. Зачем сравнивать рабочие методы с мечтами?


Я не понимаю того, что ты говоришь, перефразируй.
#363 #1101641
>>1101630
Первые раза 3-5 это боль, зато когда немного поебешься и привыкнеш, сможешь любую хуйню ставить, хоть на расте с мокрописьками и без ос.
#364 #1101753
>>1101624

>Мозг человека не такая нейронка


Так и "нейронные сети" это не одна конкретная сеть, а набор разных подходов.

>по факту никто не знает как мозг работает


Мы знаем то что мозг состоит из клеток, сообщающихся сигналами, это достаточно для абстрагирования. То как именно устроены и работают отдельные его части мы конечно же не всегда знаем, но мы и не можем заранее ответить на вопрос как именно будет обучаться и работать от балды нарисованная нейронка.
#365 #1101761
>>1101753

>это достаточно для абстрагирования


нет.
#366 #1101865
>>1101624

>Мозг человека не такая нейронка, которая в tensor flow. Кароче это всё маняпредположения, по факту никто не знает как мозг работает. Может ещё скажешь, что машина Тюринга ничем не отличается от мозга человека патамушта наборв ифов?


Нейронные сети в IT имеют мало отношение к мозгу человека. Это всеобщее знание не требующее лишнего упоминания.
#367 #1101872
>>1101753

>Мы знаем то что мозг состоит из клеток, сообщающихся сигналами, это достаточно для абстрагирования


А вот и нихуя.
#368 #1101949
>>1101865
Схуяли? Мозг - большая нейронка.
#369 #1101954
Процессор пекарни - это много транзисторов. Мы знаем, как работают транзисторы. Но процессоры слишком сложные на уровне транзисторов, чтобы в них разобраться. Поэтому схему процессоров человек генерирует с помощью САПР.
Мозг - это много нейронов. Мы знаем, как работают нейроны, и уже можем составлять из них простые схемы.Но до сложности мозга еще очень далеко, а САПР нет, как и нет понимания архитектуры схемы мозга.
sage #370 #1101987
Этим троллям, видимо, мало еженедельных тупых тредов об аи в б, они и сюда перекатились.

>>1101954
Любому дауну это понятно. Тебя траллируют же.
#371 #1102001
>>1101987

>Любому дауну это понятно


Савельеву непонятно
#372 #1102092
>>1102001
Ты про его эфир на радио про ИИ? Мне показалось, что он набросил, как обычно. Да и отчасти правильно сказал, что долбоёбы в сми подняли дикий ажиотаж вокруг сраных алгоритмов, создав иллюзию ебического прорыва в ноуке для дебилов.
#373 #1102093
что за хуйня посоны?
решил я написать приложение на php с использованием reinforced algorythm.
теории в инете дохуя, но мне нужен пример рабочего кода.
Гуглю. И что же? Сплошные примеры на питоне с использованием готовых либ типа нампи и тензоверфлоу!
И нахуй так жить? Я хочу писать на пхп или любом другом языке, почему меня принуждают к питону и готовым либам??
#374 #1102104
>>1102093

>Я хочу писать на пхп или любом другом языке


<b>Fatal error: Allowed memory size of 268435456 bytes exhausted (tried to allocate 43 bytes) in /var/www/user/data/www/site.ru/GameEngine/Database/db_MYSQL.php on line 2986</b>
54121-sweet-theatre---viola-dark-mint-chocolate-bar-normal100 Кб, 720x684
#375 #1102151
>>1101949

>Схуяли?


Стоит ли вообще с тобой разговаривать?

>Мозг - большая нейронка.


Мозг из живых клеток состоит.
Функционирование этих клеток в отдельности, и в целом, не имеет ничего общего с нейронными сетями в IT. Количество этих самых нейронов играет тут последнюю роль.
54119-sweet-theatre---miranda-sea-salt-milk-chocolate-bar-n[...]128 Кб, 719x684
#376 #1102156
>>1101954

>Мы знаем, как работают нейроны


Нет.

> и уже можем составлять из них простые схемы


В смысле из живых?

>>1101987

>Этим троллям, видимо


По мне так жирный тролль тут ты.
#377 #1102203
>>1102151
Ты же биолог какой-нибудь, да? Что ты вообще делаешь в /pr/?
Мы знаем, какую функцию выполняет нейрон, этого достаточно. Тысячи раз тут приводили аналогию: никто не рассчитывает аэродинамику всех чешуек пера, и не воспроизводит их, чтобы сделать самолет.
#378 #1102224
>>1101761
>>1101872
Кто-то нам запретит?
#379 #1102225
>>1102104
ну ахуеть вообщем. и что мне теперь уэб на джанге писать7
54120-sweet-theatre---lady-macbeth-dark-orange-chocolate-ba[...]128 Кб, 720x684
#380 #1102260
>>1102203

>Мы знаем, какую функцию выполняет нейрон, этого достаточно.


Вы? И какую-же?

> этого достаточно. Тысячи раз тут приводили аналогию: никто не рассчитывает аэродинамику всех чешуек пера, и не воспроизводит их, чтобы сделать самолет.


Работа живого нейрона отличается кардинальный от сумматора с нелинейной функцией(искусственного нейрона).

Ты бредишь, фактически ты утверждаешь.

>Мы знаем, какую функцию выполняет поезд(перевозит грузы), этого достаточно чтобы построить континентальную систему грузоперевозок на лошадиных упряжках по бездорожью.


Нет, подобного знания принципиально недостаточно.
#381 #1102303
Решил вкатиться в нейронки. Сейчас читаю introduction to computation and programming using python. Стоит ли сразу начинать с книги в шапке или стоит дочитать ту, которую я сейчас читаю? И ещё подскажите, какие разделы математики стоит подтянуть, чтобы потом не охуеваеть?
#382 #1102343
>>1102303
Если ты не умеешь кодить, то сначала научись кодить, шапка этому не научит. Из матеметики нужен линал, матан, базовый матстат.
#383 #1102353
>>1102343
А если умею кодить, но не питоне(жс)?
#384 #1102355
>>1102353
Если кодинг на питоне представляет для тебя какую-то проблему, то твой кодерский уровень недостаточен.
#385 #1102378
>>1102343

>линал


анал
#386 #1102395
>>1102378
Ангем
#387 #1102396
https://kunuk.wordpress.com/2010/09/24/q-learning/

попытался вот отсюда переписать алгоритм с жавы на пхп, но соснул с массивами.
чет не вдубляю как их в пхп использовать.

мой код:
https://ideone.com/XedDk5
#388 #1102402
Хочу серьезно вкатиться в машоб. На данный момент заканчиваю знакомство с питоном. Достаточно ли будет книги, указанной в шапке?
#389 #1102405
>>1102402
Нет и если ты думаешь, что сможешь освоить машоб по одной книге, то он не для тебя.
#390 #1102408
>>1102402
Кто хочет серьезно вкатваться на дваче такой хуйни не задает. Просто забей, машоб для полубогов, обычным рандомхуям можно даже не пытаться.
#391 #1102412
>>1102260
мне на мозг наплевать, так как при таком количестве нейронов даже обычный персептрон забрутфорсит и даже аллаха, но на вики написано, что relu выполняет функцию нейрончиков человеческих
#392 #1102415
>>1102402
Эта книга это начало пути. Как букварь для начинающего писателя.
#393 #1102416
>>1102412
ну, и повторять мозг вообще не нужно, что как бе естественно
#394 #1102417
>>1102396
Не майся херней, нейроночки требуют больших массивов, PHP их не потянет.
#395 #1102422
>>1102405
Нет, я так не думаю.

>>1102408
А где задавать?

>>1102415
Перефразирую вопрос. Достаточно ли будет для позиции джуна, написанного в той книге?
#396 #1102445
>>1102422

>что relu выполняет функцию нейрончиков человеческих


Полная хуйня.
#397 #1102473
>>1102417
т.е. мне накатывать нампи и тензорфлоу и писать уэб с нейронками на джанге?
#398 #1102486
>>1102473
Ты ещё не научился писать фронтенд и бэкенд на разных языках? Не рано тебе в машобчик?
#399 #1102487
>>1102260

>фактически ты утверждаешь


Фактически утверждается что сложность работы мозга может быть воссоздана из таких же элементарных нейронов (ну или "нейронов" если это задевает твои религиозные чувства), при этом конкретные технические детали и различия (как, например, то что человеческие нейроны из мяса, а не из абстракций в коде) большой роли не играют.
#400 #1102495
>>1102487
По-моему, ты свято веришь, что нынешняя теория нейронок верна, что уже само по себе не есть хорошо.
#401 #1102496
>>1102487

> большой роли не играют


Гуманитарные фантазии.
#402 #1102501
>>1102486
бэкенд только на похапе пока что писал.

просто не знаю, как-то передергивает от джанги. сразу всплывают перед глазами голодные студенты из бауманки.
#403 #1102504
>>1102422

>Достаточно ли будет для позиции джуна, написанного в той книге?


Теории там достаточно. Изложено в принципе все, кроме самых-самых последних достижений. Кроме этого нужно иметь хотя бы минимальную практику (тоже см. шапку), ну и если нет иного базиса (профильное образование, статьи), то свой проект крайне желателен (фактически необходим, и хороший).
#404 #1102512
>>1082641 (OP)
Посмотрел штук 20 вакансий на indeed. Почти все требуют phD или master degree. Ну и как тут быть?
#405 #1102514
>>1102512
Дрочить на обочине пока умные дядьки не спустят нам, черни, либы для тупых с конкретными конфигурациями сетей.
#406 #1102515
>>1102512
Получать мастера и пхд.
#407 #1102518
>>1102515
Рашкинские ноунейм мастера подойдут? Я за два года гораздо больше сам освою чем буду лизать анусы докторам наук и дрочить устаревшее говно из 70х
#408 #1102519
>>1102518

>чем если


фикс
#409 #1102521
>>1102518
Вряд ли, есть шанс, что топовые кафедры в топовых вузиках уважают, типа математиков из вышечки, а вот компутер саентунов могут и в хуй не ставить, если эти кафедры никак себя не проявили.
#410 #1102522
>>1102518
Формально подойдут, рашкинские все ноунейм. Даже МГУ никто не знает.
ПхД я настоятельно рекомендую делать за границей. Рашкинский несовместим формально, плюс все знают что >рф 2к17 >наука.
#411 #1102529
>>1102521
В рашке вообще разве есть кафедры камплюхтер ссаенса? Даже само словосочетание никак на канцелярский язык не переводится.
#412 #1102530
>>1102529
Компуктер сайенс это не математика и не сайенс. И даже от компуктеров далеко.
#413 #1102539
>>1102529
https://cs.msu.ru/departments
Ну вот такая шняга есть.
#414 #1102547
>>1102487

>из таких же элементарных нейронов


>элементарных нейронов


>элементарных


Биологические нейроны очень не элементарные.

>>1102495

>По-моему, ты свято веришь, что нынешняя теория нейронок верна


Ну, нейробиология и биохимия продвинулись довольно далеко.
До раскрытия всех тайн еще конечно далековато, но кое какие представления имеются.

Опять таки, нелинейный элемент с сумматором не имеет никакого отношения к живым нейронам.

От живых нейронов в компьютерных нейронных сетях только одно название.
#415 #1102563
>>1102539
Третий поток можно назвать CS, но на факультете в целом 90% программы это математика. От кафедр там пара курсов и спецсем, а в дипломе может быть большая вариация тем. Может быть упор на программирование, или на математику, на любой кафедре.
#416 #1102792
>>1102495
Теории не могут быть верными или неверными
>>1102496
Дед из совкоНИИ порвался
>>1102547

>Опять таки, нелинейный элемент с сумматором не имеет никакого отношения к живым нейронам.


Ты всё повторяешь и повторяешь свой тезис. Подтверди уже чем-нибудь.
54118-sweet-theatre---juliet-white-chocolate-bar-normal136 Кб, 720x684
#417 #1102799
>>1102792

>Ты всё повторяешь и повторяешь свой тезис. Подтверди уже чем-нибудь.


Предлагаешь мне, тебя убеждать?
Приведу ссылки на описание работы нейронов, сразу после того, как ты раскроешь основания для собственных суждений.
На какие исследования ты опираешься? Выше говорил о функции нейронов - какова их функция?
#418 #1102807
>>1102792

>Теории не могут быть верными или неверными


Нихуя себе заявочки, я посмотрю ты спец. по науке. Т.е. ты не можешь сказать верна ли частная теория относительности?

>Ты всё повторяешь и повторяешь свой тезис. Подтверди уже чем-нибудь.


Подтверди уже свой тезис, что relu это тоже самое, что нейрон в мозге человека.
#419 #1102816
>>1102799

>Приведу ссылки на описание работы нейронов


Да никому это не нужно - понимать его работу, кроме нейробиологов.
Нейрон передает сигнал, это его основная функция. Мы можем замерить сигнал на входе и выходе, построить мат. модель и реализовать в кремнии, этого достаточно. Совершенно ни к чему ковыряться в электрохимии нейрона, ведь мы не делаем компьютеры из мяса.
#420 #1102818
>>1102816

>Нейрон передает сигнал, это его основная функция.


Он его ОБРАБАТЫВАЕТ, это его основная функция.

>Мы можем замерить сигнал на входе и выходе


Можем. Правда, не всегда, и не везде, и не полностью.

>построить мат. модель


С этим пока туго.

>и реализовать в кремнии


Этого пока нет даже для самых простых моделей.

>Совершенно ни к чему ковыряться в электрохимии нейрона


Ты невежда.
Buypageimage100047485110 Кб, 1000x474
#421 #1102824
>>1102818
Ты выдаешь лишь оценочные суждения, и ноль аргументов, поэтому считаю тебя троллем и прекращаю разговор.
sibo53 Кб, 326x500
#422 #1102833
>>1102824
Это уже воинствующий обскурантизм.
Я кажется понял пафос твоего бреда, это любимая тема советских шизофренических учоных - мол все можно на свете циферками посчитать.
#423 #1102860
>>1102518
Нахуя рашкинские, если изи можно получить вышку в той же сша?
#424 #1102964
>>1102816

>построить мат. модель


Модели во всех современных нейронах очень далеки от модели нейрона в мозгах.
#425 #1102965
>>1102860
Дистанционно?
#426 #1102973
>>1102860
Не, если ты дочь Пескова, то рашкинские не имеют никакого смысла, естественно.
#427 #1103026
>>1102964
Ну это понятно, нейрон у математиков - не нейрон, ведь настоящий живой нейрон ДУМОЕТ.
#428 #1103031
>>1102799

>Предлагаешь мне, тебя убеждать?


Предлагаю сказать хоть что-нибудь дельное кроме вынепровыясказал.
#429 #1103034
Увидел вакансию, где пилят на аи софт для медицины. Моя тема, сам вынашиваю идею имлпемента аи алгоритмов для постановки диагнозов.
Сам я фронтендер, но в свободное время читаю книжки по аи, вот numpy накатил - буду разбираться.
Там требуется фронтендер, но я немного не подхожу. т.к. не знаю Реакта, визуальных 3D либ для жс и опыта на год меньше. Как думаете откликаться?
#430 #1103040
>>1103034
Странный вопрос, я-то откуда знаю? Если там в требованиях веб, то им ты там и будешь заниматься, а не нейроночками. Если ты хочешь заниматься нейроночками, то подавайся на соответствующую вакансию. Впрочем, ничто не мешает тебе откликнуться и предложить себя в качестве нейронщика, а не фронтэндера.
#431 #1103048
>>1103034

>вынашиваю идею имлпемента аи алгоритмов для постановки диагнозов


Открыл Америку.

>numpy накатил - буду разбираться


Лол, что там разбираться? Поставил задачу - нагуглил методы, а в процессе обучаешься. Это же обычная либа для алгебры.
Какой-то ты подозрительно зелёный
#432 #1103071
>>1103034

>Увидел вакансию в Boston Dynamics


>Моя тема, сам вынашиваю идею имплемента Робокопа

#433 #1103078
>>1103034

>numpy накатил


Нихуя себе, аж нумпай накатил. Ну все, щас компетенция поползет вверх как на стероидах.
b1q0p012 Кб, 246x264
#434 #1103090
>>1103031

>Предлагаю сказать хоть что-нибудь дельное кроме вынепровыясказал.


И какой мне в этом прок?
Ладно бы если бы ты, хотел разобраться в вопросе, так ты ничего не знаешь, и знать не желаешь, при этом, ведешь себя крайне вызывающе, агрессивно.
При этом, требуешь принудительного диалога, мол я обязан тебя убеждать.
На лицо сумасшествие, а безумие заразно.

Попробую сформулировать свою мысль максимально просто. То, что ты считаешь для себя интеллектуальным подвигом, для меня немыслимая деградация.
Посему, не считаю диалог возможным в принципе.

>>1103026
Существует множество различных функциональных моделей нейронов.
Та, что массво используется в comp science, была актуальна лет 100 назад, и быстро списсана со счетов.

Чуть более адекватная спайк модель, далека от совершенства, и самое главное, не реализуема в железе.

>живой нейрон ДУМОЕТ


В живых нейронах обнаружены органы набитые тысячами органических кьюбитов. Так что нейроны "думоют" на грани возможностей мат реальности, и по выч мощности один нейрон превосходит всё компьютеры когда либо созданные людьми.

Не говоря уже о таких незначительных аспектах как близко-клеточная коммуникация(шепот), использовать которую могут кстати не только нейроны.

Не говоря уже о таких мелочах, как способность образовывать какие угодно связи с какими угодно нейронами.
Созданные людьми вычислительные машины неспособны на подобны физически.
И даже формирование связей между слоями требует рост выч мощностей экспоненциально кол нейронов.

Чтобы обрабатывать ЧБ 8битное изображение 1920x1080пикселей, нужна матрица весов размером 2073600*кол нейронов в слое. байт.
для 1000 нейронов это 2073,6GB. Если добавить цвета и разрешения, то любой суперкомпьютер сдувается. А это, один единственный кадр изображения и один единственный слой нейронов.
b1q0p012 Кб, 246x264
#434 #1103090
>>1103031

>Предлагаю сказать хоть что-нибудь дельное кроме вынепровыясказал.


И какой мне в этом прок?
Ладно бы если бы ты, хотел разобраться в вопросе, так ты ничего не знаешь, и знать не желаешь, при этом, ведешь себя крайне вызывающе, агрессивно.
При этом, требуешь принудительного диалога, мол я обязан тебя убеждать.
На лицо сумасшествие, а безумие заразно.

Попробую сформулировать свою мысль максимально просто. То, что ты считаешь для себя интеллектуальным подвигом, для меня немыслимая деградация.
Посему, не считаю диалог возможным в принципе.

>>1103026
Существует множество различных функциональных моделей нейронов.
Та, что массво используется в comp science, была актуальна лет 100 назад, и быстро списсана со счетов.

Чуть более адекватная спайк модель, далека от совершенства, и самое главное, не реализуема в железе.

>живой нейрон ДУМОЕТ


В живых нейронах обнаружены органы набитые тысячами органических кьюбитов. Так что нейроны "думоют" на грани возможностей мат реальности, и по выч мощности один нейрон превосходит всё компьютеры когда либо созданные людьми.

Не говоря уже о таких незначительных аспектах как близко-клеточная коммуникация(шепот), использовать которую могут кстати не только нейроны.

Не говоря уже о таких мелочах, как способность образовывать какие угодно связи с какими угодно нейронами.
Созданные людьми вычислительные машины неспособны на подобны физически.
И даже формирование связей между слоями требует рост выч мощностей экспоненциально кол нейронов.

Чтобы обрабатывать ЧБ 8битное изображение 1920x1080пикселей, нужна матрица весов размером 2073600*кол нейронов в слое. байт.
для 1000 нейронов это 2073,6GB. Если добавить цвета и разрешения, то любой суперкомпьютер сдувается. А это, один единственный кадр изображения и один единственный слой нейронов.
#436 #1103095
>>1103048>>1103071>>1103078
Накинулись на новичка, как гиены, лол. Пусть работает человек - у него благая, хорошая задумка. Область эта нужная, востребованная в научных и приближенных к ним кругах. Это уж гораздо лучше, чем мечтать зделоть робата для торговли биткойнтами на нейтронках.
#437 #1103099
>>1103094
Дата саенс и кампутир саенс это совершенно разные вещи, почти не пересекающиеся.
#438 #1103100
>>1102504
Спасибо! А что подразумевается под собственным хорошим проектом?
#439 #1103125
>>1103095
Ещё один?

>мечтать зделоть робата для торговли биткойнтами на нейтронках


Нахуй ёрничаешь?

>благая, хорошая задумка


>нужная, востребованная в научных и приближенных к ним кругах


Да не особо. В России этим 3,5 калеки занимаются, остальные хуй взлетят, раз к ним такие вкатывальщики хотят попасть простите, если это очередной гений с двачей, не признал.
#440 #1103151
>>1103099
Сорян, пропиздоглазил. Тогда http://mit.spbau.ru/department#cs
#441 #1103155
>>1103151
Да, это оно самое. Кекнул с "ведущий научный сотрудник ПОМИ РАН".
#442 #1103169
>>1103125
В России по науке вообще почти ничего нет, а в других странах биомедицинские исследования это топчик, где работает оргомное количество людей. И сейчас там почти везде требуется машоб, все пытаются приспособить нейроночки к делу. Вычислять диагнозы на нампи это, конечно, наивный взгляд нуба, но тут главное стремление. Пару лет покопается в этом, да под хорошим руководством, и будет вполне себе годные идеи генерировать.
#443 #1103227
>>1103095
Сдуется через 2 недели - месяц. Можешь скринить.
#444 #1103242
>>1102965
Да. Уж 5к бачей за бакалавриат и 20к рублей на экзамен по инглишу у тебя найдется.
#445 #1103250
>>1103242
Не понял, т.е. мне еще сначала надо их бакалавриат получить и только потом на мастес? Да ну нахуй тогда.
#446 #1103342
>>1103090

>органы набитые тысячами органических кьюбитов


Ты это, давай, лечись там, не запускай
#447 #1103408
>>1103090

> икакоймневэтомпрокметатьбисерпередсвиньямимневасжаль


Мань, если хочешь сливаться, делай это без подобной тошнотноворной словесной эквилибристики, достойной жжшной тп образца 2008 года. Тут не настолько параша, подобного не ценят.
#448 #1103501
>>1103408

>многабукав


>Мань


>Тут не настолько параша

#449 #1103508
>>1103342

>Ты это, давай, лечись там, не запускай


http://www.sciencedirect.com/science/article/pii/S0003491615003243

Безмозглый, злобный, малолетний, придурок.
#450 #1103515
>>1103508
Как там скочать

Мимо
phisher153 Кб, 825x487
#451 #1103536
>>1103508
О, наконец-то удалось добиться от тебя хотя бы ссылки. Жаль только, что ты притащил статью объебоса и поехавшего научного фрика, над которым потешаются коллеги.
#452 #1103543
>>1103536
Лол, я когда начал читать, казалось сейчас пойдет переделанная паста про страуструпа и лямбду.
#453 #1103545
>>1103543
Что за паста? всё лучше чем читать фантазии байтослесарей про ИИ на relu
#454 #1103562
>>1103545
Давно читал, сейчас уже не вспомню. Там хейт плюсов и байтоебов со стороны функционалоилитки.
#455 #1103575
>>1103536
Кстати то, как паста на твоем скрине сделала match(возможно и неправильно) в моем мозге с той пастой про летающие лямбды навело на скорее всего очевидную для спецов мысль что именно моделями распознавания наша память и хранит "воспоминания".
Т.е. когда запоминается лицо твоей еот (если говорить об этом в категориях компьютерных нейроночек) по сути какая-то часть мозговой сеточки тренируется распознавать ее лицо на освное каких-то входных данных(визуальная, твое эмоциональное состояние) связывая ее с какими-то выходными триггерами(мысленным образом "красивая", мысленным образом "ее уже ероха ебет" или активацией стояка).
Т.е. в мозгах храниться не конкретный набор как-то закодированных чувств, образов, а сам распознаватель(то, что в машобе называют модель). Это хорошо объясняет почему бывает очень трудно что-то вспомнить, например какое-то слово, но если тебе будут перечислять слова и какое-то из них то самое, ты моментально его распознаешь или то, что воспоминания визуальных образов очень недетализированы, т.е. если попытаться нарисовать то, что часто видишь и хорошо знаешь(сычевальня, например) получиться очень схематичная и убогая хрень с упущением кучи деталей)
Про ассоциативную память на нейронных сетях я слышал и раньше, но вот такой инсайт как конкретно это работает нахлынул только сейчас.
#456 #1103587
>>1103575

>не конкретный набор как-то закодированных чувств, образов, а сам распознаватель


Это вытекает из архитектуры вычислений, когда один нейрон уже сам по себе распознаватель
#457 #1103646
>>1103090

>Чтобы обрабатывать ЧБ 8битное изображение >1920x1080пикселей, нужна матрица весов >размером 2073600*кол нейронов в слое. байт.


>для 1000 нейронов это 2073,6GB. Если >добавить цвета и разрешения, то любой >суперкомпьютер сдувается. А это, один >единственный кадр изображения и один >единственный слой нейронов.


у тебя неправильная математика
b1q0p02314.jpg77 Кб, 300x300
#458 #1103702
>>1103646

>у тебя неправильная математика


Покажи правильную.

Ну то есть, допустим если мы кластеризуем, одно единственное изображение, то по пикселям можно прогонять, тогда у нас 2 координаты и интенсивность, но хрен редьки не слаще, это обычный метод наименьших квадратов получается, почти, и толку от такого счастья, мы теперь упираемся в классические последовательные вычисления. И теперь у нас экспоненциальный рост требований к вычислительной мощности, а не памяти.
Screenshot from 2017-12-05 22-40-00347 Кб, 2574x1125
#459 #1103773
Олдскульные шахматные программы вроде stockfish можно сдавать в утиль: https://arxiv.org/abs/1712.01815
#460 #1104215
Что скажете о темпоральных базах данных, голограммах и метаграфах?
#461 #1104236
>>1104215
Ты не туда зашел.
#462 #1104273
>>1082641 (OP)
Делаем поссонами лабы по машобчику, сейчас пилим детектор огня...

Вот ложняки и не очень..

А ты чем занят, анон?
#463 #1104288
>>1104273
Лучше бы делали не лабу, а либу. Убийцу тензорплова
#464 #1104358
сап. Хочу вкатиться в анализ данных и прочее. Насколько понимаю, одни из основных инструментов - Python и R. Вопрос - юзать анаконду под виндой нормально или сорт оф и над на линух уезжать?
сори за даунские вопросы, но тем не менее
#465 #1104364
>>1104358
Большая часть фреймворков и кода под них может работать на винде. Но установить их трудно и заставить работать всегда проблема. Линукс это основная платформа.
#466 #1104390
>>1104288
Вот только не надо взрывать мне жопу!

Писать либы - удел настоящих датасаентистов, а не начинающих быдлокодеров
2382 Кб, 800x450
#467 #1104393
>>1082641 (OP)
Кто знает, как в keras обмазать обычную сверточную сеть временем через TimeDistributed?

А то я хотел приделать низ от CNN к классификатору последовательностей фич (3D-сверточный SVC), но ниасилил ...

Примеры с гитхаба, стековерфлоу, докуменации не помогли...
#468 #1104394
>>1104393
И да, модель ни разу не Sequential!
#469 #1104400
>>1104393
Керас не может в кастомные архитектуры. Делай на голом тф, а лучше на питорче. В любом случас совершенно непонятно, что ты пытаешься сделать, и для получения какой-то конкретной помощи тебе придется выложить свой код.
#470 #1104477
>>1104400
Пока сделал на голом питоне:
1. Фичи кадров считаются в керасе
2. Запихиваются в примитивный ФИФО
3. Векторы из ФИФО конкатенируются по времени для каждого столбца выходного блока подаются на LinearSVC из sklearn.
4. ??????
5. PROFIT!
#471 #1104480
>>1104358
Юзаю анаконду из докера из под линуха, мне кажется это самый оптимальный вариант. Систему не засоряешь этой анакондой и работает все быстро
#472 #1104482
>>1104358
Юзаю анаконду из-под восьмерки. Все нормально. Установка самая обычная(далее->далее->далее->установить).
R тоже работает без проблем.
#473 #1104518
>>1104477
В общем, FAIL, а не профит, детектор дает ложняки на относительно неподвижное изображение огня.

т.е. если зажигалка перед камерой двигается - оно выдает отрицательный результат, если стоит на месте - положительный; если распечатать фото огня и не шевелить его - дает "положительный" результат.

Пипец, день коту под хвост.
#474 #1104527
>>1104518
Керас этот вообще мразь писала, от версии к версии API меняет, я сегодня день убил на исправления.
#475 #1104530
>>1102816

>Мы можем замерить сигнал на входе и выходе, построить мат. модель и реализовать в кремнии, этого достаточно. Совершенно ни к чему ковыряться в электрохимии нейрона, ведь мы не делаем компьютеры из мяса.


Совершенно верно, это называется идентификация системы по типу черного ящика, аппроксимация функциональной зависимости выхода от входов. В границах допустимых значений выхода и входов оно будет работать как биологический нейрон. Ты >>1102818 этого не понимаешь. Обработка сигнала нейронов - это в точности функция(и), аппроксимируемая(ые) идентификацией этой системы. Однако, зачем это надо, если задачу машинного обучения можно поставить без отсылок к нейрону, и показать оптимальные методы решения такой задачи? Чем и занимается теория статистического обучения Вапника.
#476 #1104534
>>1093861

>никуда вы не уйдете от теории статистического обучения Вапника, которая объясняет работу всех вообще возможных алгоритмов машоба


Опять этот сектант всплыл, лол. Ну ладно, дадим тебе шанс доказать преимущества твоей Вапникосекты.
1)Оцени мне на глазок VC размерность VGG-19
2)Объясни, почему Resnet позволяют обучить больше слоёв, опять же с позиции VC
Не осилишь, будешь публично обоссан.
#477 #1104535
>>1104534

>1)Оцени мне на глазок VC размерность VGG-19


>2)Объясни, почему Resnet позволяют обучить больше слоёв, опять же с позиции VC


И то и другое - хуйня и путь в никуда, т.к. все упрется в вычислительные мощности, которые придется наращивать бесконечно, т.к. манянейроночки - только асимптотически-эффективная хуйня.
#478 #1104537
>>1104535

>бульк бульк бульк бульк

#479 #1104548
>>1103773

>можно сдавать в утиль


Статья одна большая фальсификация. В качестве теста рассматривалась специальная олимпиада с партиями по 1 минуте времени на ход. Подозреваю, что это был единственный режим, где они добились успеха против stockfish. Пусть приезжают на TCEC и сыграют нормальные партии 120 minutes + 30 seconds. Но они не приедут, т.к. обосрутся.
sameelo26 Кб, 473x275
#480 #1104552
>>1103773
В качестве косвенного пруфа того, что у них не получился прорыв в шахматах против stockfish, можно рассматривать пикрил. Нарисовали, что рейтинг ЭЛО их нейросетевой программы на самую чуточку больше stockfish (для го и другой хуйни у них отрыв на порядок).

Поэтому и были выбраны партии по 1 минуте. Время партии/время на ход — это гиперпараметр. Они оптимизировались по нему, чтобы их программа выигрывала, чтобы можно было высрать маркетинговую статью и дальше ебать инвесторов на бабки.

Нужна независимая проверка их высера.
#481 #1104555
>>1104530

>cтатистического обучения Вапника.


Посоветуй что можно почтитать? Какой бекграунд для понимания нужен?
41DGQZQJh9L.SX327BO1,204,203,20025 Кб, 329x499
#482 #1104558
>>1104555
The nature of statistical learning theory, бэкграунд обычный, как и для любого машоба - матанализ, теория вероятностей, местами линейная алгебра.
#483 #1104561
>>1104530

>Совершенно верно, это называется идентификация системы по типу черного ящика, аппроксимация функциональной зависимости выхода от входов. В границах допустимых значений выхода и входов оно будет работать как биологический нейрон.


Линк на конкретную модель или фантазёр.
#484 #1104564
>>1104561
По первой же ссылке в гугле "system identification neuron" https://www.ncbi.nlm.nih.gov/pubmed/16776594 там и других работ полно.
#485 #1104565
>>1104564
Номер страницы, где определяется модель.
#486 #1104568
>>1104564
https://en.wikipedia.org/wiki/Sensory_neuron
Нахуй ты это говно сюда принёс?
#487 #1104569
>>1104564
Кароче, братишка, всё ясно. Ты ДУМАЕШЬ, что так можно сделать, но сделал ли это кто-то ты нихуя не в курсе и даже не пытался узнать. Так что пошёл нахуй с общими заявлениями про биологические нейроны.

Гуглер, блять.
layers70 Кб, 947x946
#488 #1104577
>>1104565>>1104568

>Номер страницы, где определяется модель.


А номер значка в формуле не представить, тупень?
>>1104569
Дегенерат малолетний, нейросети на основе моделей биологических нейронов создавались еще в 90-х, Кохоненом, Коско и т.д. Но, внезапно, выяснилось что они ничем не превосходят любые другие существующие алгоритмы машинного обучения. А потом вылезли Лекун с Хинтоном, которые показали, что хуету можно стыковать, и понеслась пизда по кочкам. До сих пор всякая индусня именно этим направлением и занимается, попробуй объясни чурке-свидетелю наращивания слоев, что асимптотически-эффективная модель это путь в никуда. Но быдлу заходит, одна нвидия на своих видюхах поднимается на 800% в год. Видюхи крутятся - баблишко мутится. Кто же будет рабочую тему убивать. А нахуй ты идешь вместе с родителями, чучело.
#489 #1104585
>>1104577

>А номер значка в формуле не представить, тупень?


Всё ясно, саму статью ты сегодня первый раз в жизни увидел. Ч.т.д.

>>1104577
Пиздец аргументы уровня "васян где-то чёто делал в 90-х", линки на нерелевантное говно, которое ты погуглил потому что я тебе сказал (сам ты видимо недостаточно сообразительный, чтобы это сделать 10 лет назад).

Вот тебе факты жизни:
1. нет принципиального понимания как работает человеческий мозг (в том числе на уровне нейронов) и как из этой работы получается сознание/человеческий интеллект.
2. нет общих принципов построения ANN, всё что есть феноменологическое вуду (которое основано на самых очевидных свойствах биологического мозга), которое производит модели с кучей параметров, которые выставляют с потолка.

Как вы, тупые макаки, делаете вывод из 1 и 2, что сильный/человеокоподобный ИИ уже решённая задача мне просто непонятно. Точнее понятно, фантазёрство, proud ignorance syndrome, непонимание принипов научного познания.

https://en.wikipedia.org/wiki/AI_winter
На почитай и извлеки уроки из прошлого.
#490 #1104588
>>1104585

>2. нет общих принципов построения ANN, всё что есть феноменологическое вуду (которое основано на самых очевидных свойствах биологического мозга), которое производит модели с кучей параметров, которые выставляют с потолка.


Именно. Потому что сами нейроночки начались не с того. Естественно, что ничего хорошего и получиться не могло. Нахуярить от балды слоев, гиперпараметров и прочей хуйни без минимального представления зачем все это и при этом получить что-то ценное - нереально. Поэтому и шаманство и отсутствие даже внятных путей настройки под конкретные задачи кроме "ебись с фичами, гиперпараметрами и смотри что получится". Правильный подход - это формальная постановка самой задачи машинного обучения, от чего и нужно танцевать во всем, вплоть до вывода конкретных алгоритмов из этих же соображений. Т.е. все тот же Вапник.
#491 #1104590
>>1104585

>нет принципиального понимания как работает человеческий мозг


На уровне нейронов понимание есть. На уровне сознания человека - пока нет, но это вопрос времени. Винда и процессоры Пентиум тоже не сразу появились после изобретения транзистора.
#492 #1104591
>>1104390
красота
#493 #1104605
>>1104590

>На уровне нейронов понимание есть


объясняй. я вот считаю, что сознание и мысли лежат за пределами физ. тела.
#494 #1104607
>>1104605

>я вот считаю, что сознание и мысли лежат за пределами физ. тела.


Ты в это веруешь, а не считаешь. Чтобы так считать, нужны основания, а их у тебя нет, одна швитая вера в хуйню.
#495 #1104608
>>1104588

>Потому что сами нейроночки начались


форс этого говна начался, когда стал понятен охуительный потенциал экспертных систем и что бы макаки остались макаками им набросили это нейронное говно
#496 #1104609
>>1104607

>Чтобы так считать, нужны основания, а их у тебя нет, одна швитая вера в хуйню.


основания есть и это вполне популярная теория в академических кругах, а вот, то что мысли рождаются в мозгу это полнейший и не обоснованный бред
#497 #1104612
>>1104609

>не обоснованный

piramida-grema35 Кб, 800x550
#498 #1104613
>>1104609

>это вполне популярная теория в академических кругах

#499 #1104616
>>1104612
>>1104613
дарвинист, плез
#500 #1104618
>>1104609

>основания есть


Нет оснований. Ты верунец = сосешь конец. Источник высшей нервной деятельности - это ЦНС, что доказано всеми возможными способами, начиная с 19 века. А манятеории верунцов это бред чучелоидов, не имеющих вообще ни одного подтверждения.
#501 #1104619
>>1104616
Ну и что ты сделаешь?
#502 #1104620
>>1104619
Намаз
#503 #1104622
>>1104620
Хороший гой.
#504 #1104624
>>1104618

>что доказано всеми возможными способами


типа ебнули по башке, стал дураком? то что мозг управляет телом никто не спорит, но не более.
#505 #1104625
>>1104619
в очередной раз посмеюсь с утенка
#506 #1104627
#507 #1104628
>>1104618

>ЦНС


можно ли считать школьника цнс?
#508 #1104629
>>1104625
Уроки доделай.
#509 #1104632
>>1104629
сам доделай
#510 #1104633
>>1104577
Нейронки решают определенные проблемы, которые не могли нормально решить до этого(распознавание изображений), так что какие проблемы?

Ты ведь знаешь что машоб это вообще не про сильный ии?
#511 #1104634
>>1104632
Ясно.
#512 #1104636
>>1104633

>распознавание изображений


нихуяшеньки они там не решили, не ври. даже ocr в жопе
#513 #1104650
>>1104636
I M A G E N E T
#514 #1104652
>>1104650
сОсИхУеЦ
#515 #1104654
>>1104652
Ну рас ты скозал что они ничего не решили, то ладно, пойду сосать. нет
#516 #1104655
>>1104654
не забудь челендж II: Object detection
http://image-net.org/challenges/LSVRC/2016/index
#517 #1104656
>>1104655
Find face тоже сосет потому что ты скозал что нейронки путь в никуда, а те теории, которыми именно ты интересуешься тру?
#518 #1104660
>>1104656

>Find face тоже сосет


возможно
#519 #1104693
>>1104552

>самую чуточку больше stockfish


>разница 100 эло


Независимая проверка была бы полезна, но она невозможна из-за необходимости огромных вычислительных ресурсов. Они, наверное, под миллион долларов сжигают на такие исследования, это никому больше не под силу.
Ну и ясно, что они свой лучший результат показывают, не худший же показывать? Скорее всего, одна минута на ход была выбрана ради экономии ресурсов.
Лично мне совершенно ясно, что со вчерашнего дня низкоуровневые оптимизации альфа-бета поиска официально мертвы. Это тупиковая ветвь. Нейроночки можно еще развивать и развивать, но даже в текущем виде старая программа не выиграла ни одного матча из 100. Вангую полную остановку работ по старым программам и перевод их на нейрорельсы, как это случилось с го.
#520 #1105062
я школьник-х@хол, хорошо знаю на школьном уровне, хотя меня как раз не он интересует и люблю, олимпуады там всякие. всё время думал связать свою жизнь с программированием не всю жизнь, конечно, работу нужно менять, чтобы мозги не застыли, потом больше определился -- кибербезопасность в хохляндии хорошо развита, вроде. совсем недавно вот начал на питонтьюторе изучать пайтон, вроде получается. скоро начну ещё всякие книжечки читать. так вот, к чему эта охуеть длинная предыстория: в последнее время начали привлекать нейрончики, тем более, что это ближе к науке, чем остальное программирование. два вопроса:
1) насколько это перспективно?
2) как и куда вообще вкатываться, если ты живёшь в залупе мне кажется, даже в рашке есть в каких-то университетах специальности, с этим связанные?
#521 #1105070
>>1105062
Какие вы хохлы меркантильные.
Я школотой задрачивал ассемблер просто потому, что мне это интересно было, а вам всем перспективы подавай.
#522 #1105075
>>1105070
просто хочу съебать отсюда
#523 #1105078
тошнит от окружающих людей
#524 #1105087
>>1105075
Все хотят съебать, а перспективы есть только у детей олигархов.
Мое мнение - машоб не тот случай, где потребуется много спецов. Это не бухгалтерия, где тысячи 1С-ников ковыряют одинаковые формы, и не веб, где тысячи макак пилят одинаковые сайты.
Все типовые задачи для машоба скоро будут решены, и рыкон захватят компании-гиганты с умниками-профессорами в штате.
#525 #1105088
>>1105087

>рынок

#526 #1105092
>>1105087
в принципе, вроде очевидно, но спасибо, что обратил на это внимание. даже если подпаду когда-нибудь под определение умника-профессора, на корпорацию мне вкалывать точно не хочется.
#527 #1105130
>>1105062
ФИВТ МФТИ, КТ ИТМО, ФКН ВШЭ, СПбАУ, с натяжкой ВМК МГУ и матмех СПбГУ. Стань призером Всеукраинской и поступишь без экзаменов. Алсо, можешь загуглить поступление для граждан иностранных государств на сайтах этих вузов.
#528 #1105143
>>1105130
При чём здесь СПбАУ? У них упор не на машоб, а на жёсткий компутер сосаенс, не? хохол про дата сайенс спрашивает вроде
#529 #1105229
>>1105143
Это такая школа жизни, после которой машоб будет казаться таблицей умножений (ну так оно и есть).
#530 #1105250
Где глянуть краткое описание видов сетей, ну и примеры того для чего они все применяются, так сказать краткий обзор чтобы понять куда именно лучше вкатываться ?

То есть чтобы понять что именно лучше подходит под заранее известную задачу, чтобы потом, подобрав нужный инструмент, уже плотно заниматься именно им.
#531 #1105299
>>1103575
Нервная модель стимула. Соколов, 60-е годы. Нихуя у вас тут авангард научной мысли. Лет через 20 до нечёткой логики додумаетесь.
#532 #1105363
>>1103702

Потому что нет там никаких 2к гигабайт, изображение на входе будет весить 2мб, после первой свертки, допустим 2гб, что уже не в каждую видеокарту влезает, но дальше уже меньше и не будет там 2к гигабайт.
Просто так долго тренировать и батч в 1 картинку будет, что еще ухудшит качество.
INPUT: [224x224x3] memory: 2242243=150K weights: 0
CONV3-64: [224x224x64] memory: 22422464=3.2M weights: (333)64 = 1,728
CONV3-64: [224x224x64] memory: 224
22464=3.2M weights: (3364)64 = 36,864
POOL2: [112x112x64] memory: 11211264=800K weights: 0
CONV3-128: [112x112x128] memory: 112112128=1.6M weights: (3364)128 = 73,728
CONV3-128: [112x112x128] memory: 112
112128=1.6M weights: (33128)128 = 147,456
POOL2: [56x56x128] memory: 5656128=400K weights: 0
CONV3-256: [56x56x256] memory: 5656256=800K weights: (33128)256 = 294,912
CONV3-256: [56x56x256] memory: 56
56256=800K weights: (33256)256 = 589,824
CONV3-256: [56x56x256] memory: 5656256=800K weights: (33256)256 = 589,824
POOL2: [28x28x256] memory: 2828256=200K weights: 0
CONV3-512: [28x28x512] memory: 2828512=400K weights: (33256)512 = 1,179,648
CONV3-512: [28x28x512] memory: 2828512=400K weights: (33512)512 = 2,359,296
CONV3-512: [28x28x512] memory: 2828512=400K weights: (33512)512 = 2,359,296
POOL2: [14x14x512] memory: 1414512=100K weights: 0
CONV3-512: [14x14x512] memory: 1414512=100K weights: (33512)512 = 2,359,296
CONV3-512: [14x14x512] memory: 1414512=100K weights: (33512)512 = 2,359,296
CONV3-512: [14x14x512] memory: 1414512=100K weights: (33512)512 = 2,359,296
POOL2: [7x7x512] memory: 77512=25K weights: 0
FC: [1x1x4096] memory: 4096 weights: 775124096 = 102,760,448
FC: [1x1x4096] memory: 4096 weights: 40964096 = 16,777,216
FC: [1x1x1000] memory: 1000 weights: 40961000 = 4,096,000

TOTAL memory: 24M 4 bytes ~= 93MB / image (only forward! ~2 for bwd)
TOTAL params: 138M parameters
#532 #1105363
>>1103702

Потому что нет там никаких 2к гигабайт, изображение на входе будет весить 2мб, после первой свертки, допустим 2гб, что уже не в каждую видеокарту влезает, но дальше уже меньше и не будет там 2к гигабайт.
Просто так долго тренировать и батч в 1 картинку будет, что еще ухудшит качество.
INPUT: [224x224x3] memory: 2242243=150K weights: 0
CONV3-64: [224x224x64] memory: 22422464=3.2M weights: (333)64 = 1,728
CONV3-64: [224x224x64] memory: 224
22464=3.2M weights: (3364)64 = 36,864
POOL2: [112x112x64] memory: 11211264=800K weights: 0
CONV3-128: [112x112x128] memory: 112112128=1.6M weights: (3364)128 = 73,728
CONV3-128: [112x112x128] memory: 112
112128=1.6M weights: (33128)128 = 147,456
POOL2: [56x56x128] memory: 5656128=400K weights: 0
CONV3-256: [56x56x256] memory: 5656256=800K weights: (33128)256 = 294,912
CONV3-256: [56x56x256] memory: 56
56256=800K weights: (33256)256 = 589,824
CONV3-256: [56x56x256] memory: 5656256=800K weights: (33256)256 = 589,824
POOL2: [28x28x256] memory: 2828256=200K weights: 0
CONV3-512: [28x28x512] memory: 2828512=400K weights: (33256)512 = 1,179,648
CONV3-512: [28x28x512] memory: 2828512=400K weights: (33512)512 = 2,359,296
CONV3-512: [28x28x512] memory: 2828512=400K weights: (33512)512 = 2,359,296
POOL2: [14x14x512] memory: 1414512=100K weights: 0
CONV3-512: [14x14x512] memory: 1414512=100K weights: (33512)512 = 2,359,296
CONV3-512: [14x14x512] memory: 1414512=100K weights: (33512)512 = 2,359,296
CONV3-512: [14x14x512] memory: 1414512=100K weights: (33512)512 = 2,359,296
POOL2: [7x7x512] memory: 77512=25K weights: 0
FC: [1x1x4096] memory: 4096 weights: 775124096 = 102,760,448
FC: [1x1x4096] memory: 4096 weights: 40964096 = 16,777,216
FC: [1x1x1000] memory: 1000 weights: 40961000 = 4,096,000

TOTAL memory: 24M 4 bytes ~= 93MB / image (only forward! ~2 for bwd)
TOTAL params: 138M parameters
#533 #1105499
Перекатил: >>1105498 (OP)
#534 #1105657
>>1104693

>Ну и ясно, что они свой лучший результат показывают, не худший же показывать?


Тут "ноука" или что?
#535 #1105659
>>1104273
Хорошая идею подбросили - ОБYOBЫВАТЕЛЬ.
#536 #1105906
>>1105130
родители в ЗАГНИВАЮЩУЮ РАШКУ не отпустят. они, в принципе, нормальные, но в этом плане их переубедить сложно, ссориться не хочется, да и без их поддержки в другую страну я не перееду. в идеале бы поступить куда-то в канаду..................................................................................................
#537 #1106087
>>1105906
Угу, в Канаду он собрался. Ну если ты долларовый миллионер, то езжай.
Обновить тред
Двач.hk не отвечает.
Вы видите копию треда, сохраненную 26 декабря 2017 года.

Скачать тред: только с превью, с превью и прикрепленными файлами.
Второй вариант может долго скачиваться. Файлы будут только в живых или недавно утонувших тредах. Подробнее

Если вам полезен архив М.Двача, пожертвуйте на оплату сервера.
« /pr/В начало тредаВеб-версияНастройки
/a//b//mu//s//vg/Все доски