Этого треда уже нет.
Это копия, сохраненная 12 марта 2017 года.

Скачать тред: только с превью, с превью и прикрепленными файлами.
Второй вариант может долго скачиваться. Файлы будут только в живых или недавно утонувших тредах. Подробнее

Если вам полезен архив М.Двача, пожертвуйте на оплату сервера.
686 Кб, 2048x1536
729 Кб, 1212x388
НЕЙРОНОЧКИ & МАШОБ #10 # OP #900102 В конец треда | Веб
книги
Pattern Recognition and Machine Learning, Bishop.
Information theory, inference & learning algorithms, MacKay http://www.inference.phy.cam.ac.uk/itila/
Machine Learning: A Probabilistic Perspective, Murphy

Introduction to Statistical Learning ( http://www-bcf.usc.edu/~gareth/ISL/ISLR Sixth Printing.pdf )
Elements of Statistical Learning ( http://statweb.stanford.edu/~tibs/ElemStatLearn/printings/ESLII_print10.pdf )
Foundations of Machine Learning, أشهد أن لا إله إلا الله وأشهد أن محمد رسول الله. http://www.cs.nyu.edu/~mohri/mlbook/

Fundamentals of Neural Networks: Architectures, Algorithms, and Applications, Fausett L.

А. Пегат, "Нечёткое моделирование и управление"

другое
http://libgen.io / http://bookzz.org/ - здесь можно одолжить ^ книги и не только
http://arxiv.org/find/all/1/all:+nejronochki/0/1/0/all/0/1
https://www.reddit.com/r/MachineLearning/wiki/index

https://vk.com/deeplearning и http://deeplearning.net/reading-list/
https://www.kadenze.com/courses/creative-applications-of-deep-learning-with-tensorflow/info тюториал по slesarflow
http://rgho.st/8g68fTCSx две брошюры по deep learning для слесарей.

http://kaggle.com - весёлые контесты. денежные призы
https://www.hackerrank.com/domains/ai/machine-learning/difficulty/all/page/1 - олимпиадки

курс от китаёзы
http://videolectures.net/mlss09uk_cambridge/

яп
1. http://julialang.org/
2. https://www.microsoft.com/en-us/research/project/infernet/
3. https://www.r-project.org/
4. питухон и так все знают
5. idris/coq - модные яп для формально верифицированных нейроночек с тренировкой на этапе компиляции

ПЛАТИНА
Книги хорошо, но с чего начать практический вкат?
Во-первых, вам нужна любая unix-based система. На Windows возможно запустить нижеперечисленное, но ждите пердолева с настройкой и неодобрительных взглядов анонимуса. Кроме того, в компаниях, так или иначе связанных с разработкой йоба-ПО и machine learningом, Linux/OS X является стандартом. Привыкайте.
Во-вторых, определитесь с языком. Python и C++ наиболее мейнстримовые инструменты, с ними вы без еды не останетесь. Есть еще R, на котором пацаны живут статистикой и анальными пакетами. Некоторые инструменты являются языко-независимыми (Vowpal Vabbit, XGBoost), но обвязывать их вы все равно будете из какой-либо среды.
На Java разработано много production-ready инструментов для бигдаты и если вы угораете по терабайтам данных, то имеет смысл посмотреть в её сторону. Впрочем, лучше это делать уже потом, когда прийдет осознание потребностей.
В-третих, выбирайте себе задачу. Что угодно: распознать качпу, обнаружить ботов по логам, найти раковых больных. Список можно посмотреть, например, на kaggle.com. После чего приступаете к решению выбранной задачи.

Не прийдется ли мне потом с таким наборищем знаний идти в макдак работать?
Несмотря на хайп вокруг ML, далеко не во всех IT компания есть необходимость в ML и понимание круга задач, которые можно решить этими методами. Но поверьте, в 2017 компетентный специалист будет востребован. В России потребителями ваших знаний могут стать: Яндекс, Mail.ru, Вконтакте, Rambler, Касперский, Билайн, Связной, ABBYY, Хуавэй. В биоинформатике есть определенный спрос, можно поскролить http://blastim.ru

Здорово, но я так и не понял чем же вы занимаетесь в IT компаниях?
Попытаюсь ответить со своей колокольни и сразу хочу предупредить, что это едва ли консенсуальное мнение.
ML-специалист - это такое зонтичное определение для человека, способного увидеть проблему, выгрепать кучу логов и данных, посмотреть на них, придумать решение проблемы и врезать это решение его в продакшн. По сути, это кодер, решающий не чисто технические, а, в некотором роде, человеческие проблемы.
Имхо, мы все же остаемся в первую очередь разработчиками.

Что такое TensorFlow?
TensorFlow - опенсорсный гугловый инструмент для перемножения тензоров и оптимизации функционалов. Опенсорсный - потому что даже важные куски типа параллелизации уже выкачены в паблик. Если вам все ещё непонятно что это, значит это вам и не нужно, сириусли. Google перестарался с рекламой и теперь люди думают, что TF - это серебряная пуля и затычка для каждой бочки. До TF был Theano, который выполнял свою работу не хуже. И, в отличии от TF, он уже находится в стабильной фазе.

будет ли ML нужен в ближайшие 10 лет, или это просто хайп?
будет. хайп.

смогу найти работу?
Яндекс, мейлру, касперский, несколько биоинформатических компаний (iBinom, можно еще blastim.ru поскролить на тему работы), билайн (они с НГ целое подразделение открыли под ML и биг дату), связной. Ну и западные аутсорсы, если готов рачить за валюту.

нужна математика?
для начинающего ничего особого знать не нужно
https://www.amazon.co.uk/Calculus-Michael-Spivak-x/dp/0521867444
https://www.amazon.co.uk/dp/0534422004/ref=pd_lpo_sbs_dp_ss_2?pf_rd_p=569136327&pf_rd_s=lpo-top-stripe&pf_rd_t=201&pf_rd_i=0980232716&pf_rd_m=A3P5ROKL5A1OLE&pf_rd_r=3TZ38AZ2BY28R19H4SA5
https://www.amazon.co.uk/Calculus-Several-Variables-Undergraduate-Mathematics/dp/0387964053
https://www.amazon.co.uk/Introduction-Probability-Dimitri-P-Bertsekas/dp/188652923X
"основы теории вероятностей" Вентцель

поясните за нейроночки
нейроночка - массив зависимых типов

шад)))
Нет там ничего ML-специфичного, знание матана и теорвера на уровне заборостроительного вуза. Теорвер проходится на третьем курсе, как раз 20 лет.
Рандомный хрен туда не сможет поступить, потому что планка намеренно задрана, а не потому что там такая охуенно сложная программа. Это традиционная наебка "элитных учебных заведений", в которой учат так же хуево, как и везде, но за счет отбора поступающих якобы формируются неебовые успехи, которые объясняются именно качеством преподавания.
Иными словами, у тех, кто способен поступить, и так в жизни проблем с трудоустройством не будет.

Тред #1: https://arhivach.org/thread/147800/
Тред #2: https://arhivach.org/thread/170611/
Тред #3: https://arhivach.org/thread/179539/
Тред #4: https://arhivach.org/thread/185385/
Тред #5: https://arhivach.org/thread/186283/
Тред #6: https://arhivach.org/thread/187794/
Тред #7: https://arhivach.org/thread/196781/
Тред #8: https://arhivach.org/thread/209934/
Тред #9: https://arhivach.org/thread/223216/
#2 #900105
>>900102 (OP)

>2ой пик


Петух нечеткий, а колпак четкий.
#3 #900154
http://blues--man.livejournal.com/19477.html

Поступают аналогичные мысли. Что думаете? Таки может мозг сделан на консервативной логике?
900165
#4 #900158
>>900102 (OP)
Хуле в шапке нет Artificial Intelligence: A Modern Approach?
Могу даже скинуть последний едишн в хорошем качестве http://rgho.st/private/8Q8w2dctn/c9dee82946e7e83ad0ab859bc125ed19
#5 #900159
Так че, эти ваши нейросети это просто волшебство над матрицами?
#6 #900163
А можно хоть в одном треде зк не постить эту шкурку?
900164900165
#7 #900164
>>900163
Теоретически, можно.
#8 #900165
>>900154
спасибо, в след раз добавим

>>900163
https://2ch.hk/pr/res/898502.html (М)
900169900174
#9 #900167
Пасаны, кто-нибудь ебашил вот этот контест? https://www.kaggle.com/c/titanic
У меня максимум получилось выбить 0.775 точность с помощью logistic regression (иногда random forest, если немного изменить входные параметры).
Я хуй знает ваще как там люди набирают 0.8++. Ну и те, кто набирает 0.85+ ясное дело читерят.
900187900316900480
#10 #900169
>>900165
Там нечего добавлять. Это скорее призыв к обсуждению. Скорее всего так и есть.
#11 #900174
>>900165
Но она же не занимается мл-ем...
900186900199
#12 #900186
>>900174
занимается, видишь даже с бишопом тусит
900192
#13 #900187
>>900167
я лог регрессией пoчти 80 набивал
повышал точностьв основном фичеёбством, не интересно
900191900480
#14 #900191
>>900187
Каким фичеёбством?
900198
#15 #900192
>>900186

> с бишопом тусит


>отловила где-то после конфы

#16 #900195
Давайте соберемся и начнем создавать ИИ
900197
#17 #900197
>>900195
Но нейронки же к ИИ не имеют никакого отношения?
900201
#18 #900198
>>900191
попробуй добавить новую фичу к каждой записи
1 если девочка 16 лет или моложе, иначе 0
900203
#19 #900199
>>900174
Ты что, забыл легендарный, сука, график с экстремумом?!
Она мастер на все руки — и мл, и дистрибутед клавд системс, и фронтендер, и байтоеб (вспоминаем ее первую книжку с которой все началось), и манагер — в общем, вайфу!
900210
#20 #900201
>>900197
Частичное лишь.
#21 #900203
>>900198
А что, разве это не должно покрываться уже двумя имеющимися фичами: возраст и пол? Зачем их соединять?
Ну это конечно зависит от алгоритма. Но по крайней мере в decision tree там же идут отвелтвелния, он же наверняка распознает, что если чел девчока и ей меньше 16, то скажу, что она выживет?
900204900207
#22 #900204
>>900203
Лол, сейчас всякие моченые соединяют несоединяемые вещи. А началось все с комплексных чисел, когда моченый начал путать число и знак.
#23 #900205
Пасаны, у кого в универе есть(были) предметы по machine learning?
#24 #900207
>>900203
в логистической регрессии это мне добавило процента 2 точности емнип
#25 #900210
>>900199
ты совсем позабыл что она знатная функциональшица, контрибютер в докер и вкусно готовит
#26 #900214
Не ну, давайте запилим ИИ.
#27 #900230
Посоветуйте какую нибудь книгу по нейросетям на русском, пожалуйста.
900289
#28 #900237
>>900205
У меня были, какой вопрос?
900244
#29 #900239
Какой уровень математики надо дабы вкатиться сюда?
900241900242
#30 #900241
>>900239
9 классов за глаза. Главное не слушай местных снобов с матаном и универом.

Нейроночки — это в 95% случаев массивяики где надо посчитать медиану.
900245900248
#31 #900242
>>900239
Достаточный чтобы вкатится в хаскель.
900245900278
#32 #900244
>>900237
Где учился?
Не, я просто спрашиваю, интересна.
900298
#33 #900245
>>900241
Отлично.
>>900242
Ты троллишь?
900246
#34 #900246
>>900245
Ты только учти, что сам по себе сабж достаточно сложный и ты его скорее всего дропнешь, если для души хочешь этим заниматься. Надо идти учиться в какой-нибудь иностарнный универ на курс именно по АИ, чтобы иметь возможность работать уже непосредственно дата сцаентистом.
#35 #900248
>>900241

> нейроночки


> посчитать медиану


чо
#36 #900264
Вопросики про ШАД.
- кто-то из треда учился там на заочке?
- подготовиться за полгода - реальная задача? Времени много, матан и теорвер минимально знаю. И вообще буду рад если поделитесь своим опытом подготовки и советами.
900281920105
#37 #900278
>>900242

> хаскель


> математика

#38 #900281
>>900264
Нет там ничего ML-специфичного, знание матана и теорвера на уровне заборостроительного вуза. Теорвер проходится на третьем курсе, как раз 20 лет.
Рандомный хрен туда не сможет поступить, потому что планка намеренно задрана, а не потому что там такая охуенно сложная программа. Это традиционная наебка "элитных учебных заведений", в которой учат так же хуево, как и везде, но за счет отбора поступающих якобы формируются неебовые успехи, которые объясняются именно качеством преподавания.
Иными словами, у тех, кто способен поступить, и так в жизни проблем с трудоустройством не будет.
#39 #900289
>>900230
пять тредов назад анон ТИМОЧКA решал задачки из русской книги по мл, поищи там
в её названии вроде было слово "алгоритмы"
сорян мне с таблетки не удобно искать
900299
#40 #900298
>>900244
СПбАУ
#41 #900299
>>900289
Двачую реквест.
#42 #900316
>>900167
0.775 это бейзлайн в кэггловском туториале.
http://ahmedbesbes.com/how-to-score-08134-in-titanic-kaggle-challenge.html
Вот, например, ссылка
900480
#43 #900480
>>900316
>>900167
>>900187
А вы не думали, что для этого датасета в принципе нельзя создать решающего правила со 100% результатом? Все, что можно вытянуть из самих данных, уже вытянули, остальные случаи выживших или невыживших выжили или не выжили просто потому что так получилось, а не потому что они относились к конкретному классу.
900532900650
#44 #900532
>>900480
большинство соревнований в кэггле на создание новых фич, на выбор фич, на нахождение корреляции там, где ее не должно быть (айдишники), базовых почти никогда не хватает
900537
#45 #900537
>>900532
А это не онанизм ли? Если я в случае с титаником к неправильно классифицированным объектам добавлю фичу "бохнакажет" (1 для невыживших 0 для выживших), и получу 100% правильную классификацию, то что это даст?
900546900647
#46 #900546
>>900537
если это нормальное соревнование, там тестовая выборка, ты не знаешь правильный результат для нее. А титаник - это туториал, посмотри лидерборд, там куча 100%.
#47 #900647
>>900537
Это уже читы.
#48 #900650
>>900480

> для этого датасета в принципе нельзя создать решающего правила со 100%


да, нельзя

> Все, что можно вытянуть из самих данных, уже вытянули, остальные случаи выживших или невыживших выжили или не выжили просто потому что так получилось, а не потому что они относились к конкретному классу.


вот это скорее всего нет, точность можно улучшать до какогото момента
960 Кб, 2592x1944
#49 #900766
Вообще, ML скатывается. Если раньше был серьезный подход, а-ля пикрелейтед, пытались выяснить и обосновать формально, почему не получается идеальное распознавание, сделать выводы из полученных теорем, обойти ограничения, построить алгоритмы, которые не тупо асимптотически приближаются к наилучшему возможному результату, а используют особенности датасетов и т.д. и т.п., то сейчас уперлись в полтора решения - сверточные сети и бустинг и для улучшения результатов просто хуярят количество слоев. При 30 слоях ошибка 0,003? Ахаха, заебеним еще 150 слоев и получим ошибку 0,028. Похуй, что нейроночка на кластере месяц будет пыхтеть, зато результаты лучше чем у других))) Деградантство.
#50 #900771
>>900766
Добавлю, что и занимались такими вещами академики, а не индусы с хипстерами на коворкингах и не ТП с 1го оп-пика.
#51 #900846
>>900766
Знаешь, как это выглядит со стороны?
Представь ситуацию. Господа в смокингах и цилиндрах сидят в обедне и пьют чай, обсуждая свёрточные нейроночки, гауссовы процессы, вариационные методы, наконец. Тут к ним вползает пьяный вдрызг кучер Ванька. Отплевывая лошадиный навоз, он ссыт под себя, одновременно блюя на пол несвежим портвешком. Затем достает задроченный томик Вапника, найденный на помойке. "линейные мoдели, VC измерение - вот где мыслЯ, блеать, вот где красота и свежесть!". Смеясь, господа растегивают ширинки и мочатся быдлу в рот. Зовут R-макаку - местного R-задрота, он спускает частотопетуха с лестницы. Он делает это с удовольствием - хоть зачем-то сгодился элите. Поднимаясь за похвалой, он начинает зациклено бормотать про пакеты. Господа для острастки ссут на него, после чего возвращаются к своим светским беседам.
901117
#52 #900996
>>900766
Во-первых, ты обязан тем, что тебя ценят, тем, что тебе удобно работать на дешевом железе и с удобными фреймворками этим самым индусам, которые полегли в конторах типа гугла и фб, чтобы запилить тебе удобно.
Во-вторых, ценно то, что работает и то, что ты сможешь запустить в прод максимально быстро и без еботни с интегралами. Понятно, что сетки пилить тоже не баб на сеновал таскать, но если при имеющихся ресурсах и данных это эффективнее - так и будут делать.
В-третьих, твое мнение как анонима с задрипанным учебником не волнует никого, если хочешь быть услышанным и вернуть "тот самый ML", осиль либо продать его компаниям, либо опубликоваться так, чтобы тебя заметили. До тех пор - милости просим изучать нейроночки.
901117
#53 #901117
>>900846

>Знаешь, как это выглядит со стороны?


Со стороны параши выглядит именно так, как ты расписал.
>>900996

>ценно то, что работает и то, что ты сможешь запустить в прод максимально быстро и без еботни с интегралами.


>твое мнение как анонима с задрипанным учебником не волнует никого


Я же говорю, что в этом задрипанном учебнике доказывается, что в общем случае существует бесконечное количество алгоритмов, решающих задачу распознавания образов асимптотически близко к оптимальному. Из чего прямо следует, что "хуяк хуяк и в продакшон" можно сделать как минимум хуиллиардами разных способов, каждый из которых будет в общем случае не лучше остальных, просто результат будет круче у того, у кого кластеров больше. Это не просто путь в никуда, это натуральное топтание на месте. И мартышки даже не понимают этого, поскольку как ты правильно заметил, главное продать, а не разобраться в чем-то.
901251901262901324
#54 #901251
>>901117
Удваиваю. Люди занимаются хуетой, не понимая что топчутся на месте.
#55 #901262
>>901117

>главное продать, а не разобраться в чем-то


WOK, школьник узнал про экономику. Школьнику осталось узнать про науку и разницу между этими двумя сферами деятельности.
901269
#56 #901269
>>901262
Достаточно узнать, что ML-индусы, ТП из оп-пика и клоуны из барбершопов на коворкингах наукой не занимаются.
901280
#57 #901280
>>901269
Именно, потому они не конкуренты затрибаным книгочитам. Читай, пиши, публикуйся. Может тебе даже денег дадут на эту науку в связи с тем, что МЛ-индусы деньги приносят в реальном секторе.
#58 #901324
>>901117
Так сделай правильно! Делать теоремы из кофе ебически тяжело, сварить теоремы в работающую конструкцию - тоже непросто. Побеждает не тот, у кого кластеров больше, а тот, кто приложит кластера в правильную сторону правильным образом. Если тебе кажется, что классический ML легко толкать вперед и применять в нынешних реалиях - примени, ты нарубишь на этом вагон денег и славы.
Если же вдруг окажется, что авторы статей по нейронкам тоже не дураки и идут туда, где проще получить реальный профит в виде точности предсказания/применимости на практике, то ты можешь просто посидеть на месте и дождаться, когда они за тебя сделают будущее.
154 Кб, 1406x878
#59 #901388
Раз уж вспомнили про Вапника, поясните. В пикрелейтед схеме SVM (из лекции Воронцова) число h ядер опорных векторов - это и есть VC-размерность?
901638
#60 #901623
Правильно ли я понимаю, что чтобы использовать relu слои надобно сделать Batch normalization ? Просто пробовал вставить вместо tanh и получилась херня почти необучаемая или намного хуже обучаемая(в зависимости от размера батча и скорости обучения).
901682
#61 #901638
>>901388
Чё на картинке происходит?
901815
#62 #901682
>>901623
И еще, не совсем понятно с нормализацией входных данных. Как их нормализовать [0,1] или [-1,1] ? Во всех примерах делают [0,1], но у меня получалось лучше когда было [-1,1]. И как понмать вот такой pooling слой:размер 3x3, шаг 2, но уменьшает он почему-то он ровно в 2 раза, а не в два минус один. Как это понимать?
57 Кб, 1248x480
#63 #901815
>>901638
SVM ежжи. Натягивание совы на кернел с последующим поиском седловой точки совы, что по теореме Куна-Таккера равносильно поиску минимума вон того функционала справа методом множителей Лагранжа, т.е. решению типичной квадратичной проблемы справа внизу любым подходящим солвером.
#64 #901927
>>900102 (OP)

> http://www.inference.phy.cam.ac.uk/itila/


объясните, куда нужно тыкать, чтобы открыть эту ссылку.
#65 #901984
>>901925

>Для дилетантов вроде тебя


Ой, недилетант, плес. Школоилитарий голос подал. Расскажи, что нового в твоих сверточных нейроночках появилось с 80-х годов кроме relu вместо сигмоидов и количества слоев? При том, что сами эти нейроночки ничем не ушли от перцептрона, о чем писал сам Лекун (точную цитату и источник уже не найду, но смысл в том, что все что может сверточная сеть, может и перцептрон, просто у него в этом случае будет столько связей и элементов, что физически это нереализуемо).
902256
89 Кб, 1268x954
И тут я такой вкатываюсь в этот тред #66 #902242
А вот захотел, я например, ну чисто гипотетически, обмазаться нейронными сетями. Ну ок, захотел - че-б не обмазаться? Сейчас меня за такое вступление говном закидают. Полез, значит, в свою папочку с книгами, которые в 2012 году с торрентов нагреб - где-то там у меня Хайкин лежал ("Нейронные сети, полный курс, второе издание"), которого тогда читать начал и дропнул. По очевидным причинам - не осилил. Срубился на биномиальных представлениях, где он про обратные связи рассказывает.
Ну ок, читаю, значит. "синапсы Хебба", "расстояние Махаланобиса)))"... там, где "Обучение Больцмана" - на паузу поставил. На быстрой перемотке пролистал дальше - "нормальная проекция точки x на оптимальную гиперплоскость", "мультиномиальные вероятности, соответствующие решениям, принимаемым сетями шлюзов первого уровня k и второго уровня (j, k) соответственно", "аддитивный гауссов шум с нулевым средним значением и дисперсией, равной 0,04"...
Не, это конечно все очень круто. Но если за каждым гауссовым шумом в википедию лезть - я эту книгу и за год не прочитаю. Это уже не говоря о том, что теория, без подкрепления практикой, это вчера прочитал - сегодня забыл. Короч не стал я ее читать дальше, а пошел на торренты скачал А.Илюхина "Самоучитель игры на балалайке".

Так вот у меня вопрос. А есть что-то почитать по нейронным сетям без вот этих ортогональных преобразований подобия, а такое, чтобы "в цикле считаем вот эту хрень" или "весовые коэффициенты будем хранить в двумерном массиве"... Короч, че-нить такое, чтобы я мог сразу на своем любимом языке посмотреть, как эти мультиноминальные мехаланобисы работают. Ну а потом уже, с некоторым практическим опытом, садиться читать этот ваш матанализ, чтобы не натягивать его на лысую голову.
902254902356
#67 #902246
>>900102 (OP)
1 - говноглазая?
902517
#68 #902254
>>902242
Используй либы или учи математику.
#69 #902256
>>901984

>(точную цитату и источник уже не найду, но смысл в том, что все что может сверточная сеть, может и перцептрон, просто у него в этом случае будет столько связей и элементов, что физически это нереализуемо).



Звучит как "это всё можно просто реализовать на ассемблере, потому что все тюринг-полные языки могут одно и то же".
#70 #902308
Понимаю, что здесь опытные господа сидят. Но вдруг каким-нибудь вкатывальщикам-дилетантам, которые просматривают этот тред, будет интересна такая тема.
https://2ch.hk/sci/res/400025.html (М)
#71 #902356
>>902242
С Хайкина ты зря начал. Почитал бы хоть оп-пост, там его нигде не советуют. Я не зря просил туда добавить Fundamentals of Neural Networks: Architectures, Algorithms, and Applications, Fausett L. это очень годная книжка.

>че-нить такое, чтобы я мог сразу на своем любимом языке посмотреть, как эти мультиноминальные мехаланобисы работают.


Если можешь в пистон - однозначно http://gen.lib.rus.ec/book/index.php?md5=A5205BD61ADDC523C7FBFE1D7EB0B3C6
Чтобы понять нейроночки, матанализа достаточно в объеме Зорича или Фихтенгольца, теорвер - Вентцель. Ничего в этих нейроночках умного нет, но если не знаешь что такое дифференциал или нормальное распределение - соснешь на первых же страницах любой книжки в тему.
#72 #902366
как там, петушиные сети уже вышли за пределы манямирков матаноблядей?
902386902556
158 Кб, 420x525
#73 #902386
>>902366

>петушиные сети уже вышли за пределы манямирков


АТО! Они уже мамку твою вовсю посещают.
902830
#74 #902517
>>902246
красивые зелёные глоза
902828904919
#75 #902539
>>902514
Базу я получил в универе 12 лет назад и уже neehooja не помню - поэтому приходится гуглить.
#76 #902556
>>902366
не, я серьезно, где эта ваша поебота хотябы на полшишечки составляет конкуренцию старому доброму процедурному по или эс?
902608
#77 #902587
>>902580
Нет, не верно.
#78 #902594
>>902580

>"нейронные сети". круто звучит, верно?


а кроме звучания есть что стоящее?
#79 #902600
Как бы мне во все это вкатиться? И зачем? И что делать, когда вкачусь?
902608902622
#80 #902608
лол, ловите дебилa
>>902600
>>902580
>>902556
902621
#81 #902621
>>902608
поймал нейропетуха
#82 #902622
>>902600

>И что делать, когда вкачусь?


будешь ходить и выебываться терминологией, а так, хуйня без задач.
#83 #902649
подборка тюториалов по глубоким нейроночкам и машобчику
http://yerevann.com/a-guide-to-deep-learning/
902670903799
#84 #902670
>>902649
нахуй учить то, от чего нет никакого толку?
902671
#85 #902671
>>902670
Ну раз школьник с мейл ру сказал, что никакого толку, значит так оно и есть.
902679
#86 #902679
>>902671
нешкольник может пруфанет продакшеном в котором петухоносети дают всем посасать, или обосрешься как обычно?
902681
#87 #902681
>>902679
Сейчас в тренде мл и биг дата. Они большие деньги получают.
902686
#88 #902686
>>902681
эта та хуйня которая пытается заниматься предсказанием по набрынным статистическим данным?
902826
#89 #902826
>>902686
Братуха, это хуйня, которая пишет лучшее процедурное по в индустрии.
902942
#90 #902828
>>902517
У мужика на пике тоже глаза зелёные или у них просто зрачки расширенные?
902842
#91 #902830
>>902386

>АТО


Вторая чеченская.
#92 #902831
>>902580

>нейронные сети


- это как раз древнее наименование того, что сейчас называют машинным обучением
а глубокие ньюрал нэтвёркс на сеголняшний день известны под названием дип лёрнинг, глубокое обучение, т.е.
902942
#93 #902842
>>902828
это бишоп
зрачки у ниx от счатстья рзсширились - они же мл занимаются
#94 #902942
>>902831

>ньюрал нэтвёркс на сеголняшний день известны под названием дип лёрнинг, глубокое обучение


глубокий орал, вся суть. хотя что можно ожидать от матанобоядей?
>>902826

>процедурное по в


ты прав, пихают во все щели неропитухам
#95 #903157
Антуаны, поясните за лекции от Кураленка из CSC. Стоит ли мне, ньюфане, совмещать с курсом от китаёзы и Бишопом?

Сабж: https://compscicenter.ru/courses/machine-learning-1/2016-autumn/
903161
53 Кб, 150x150
sage #96 #903161
>>903157
pisechku asechku
#97 #903191
Поясните за Equilibrium Propagation

И вообще, предлагаю обсудить тренды этого года. http://ai-news.ru/2016/12/ai_amp_ml_dajdzhest_4_16_trendov_2016_goda.html
168 Кб, 886x440
#98 #903515
К слову, тезис о том, что долбаебство с нейроночками есть топтание на месте вместо науки, выдвигал еще Вапник в 90-х. Пикрелейтед написано в 1996 году, спустя 10 лет с разработки бекпропагейшена. За это время не получено никаких интересных результатов, кроме изобретения пары велосипедов , например оверфиттинг, показанный для нейроночек и до этого был известен в ML, более того, известно что эта проблема обходится методами регуляризации. В целом же нейроночки не дали ничего для лучшего понимания проблемы обучения.
903551
#99 #903544
Уровни обучения:
Нулевой уровень - стимул-реакция
Первый уровень - само обучение
Второй уровень - обучение обучению
Третий уровень - обучение обучению обучению, вероятно этим занимается эволюция
903546
#100 #903546
>>903544
Хуйни не неси, ок?
#101 #903549
Есть два стула: R и Python.
Сам я физик-твердотельщик, нужен инструмент для обработки результатов экспериментов (то есть, я готов потратить время на освоение нужных зачатков какого-то языка, лишь бы выхлоп был побольше). В мат. статистике более-менее шарю. Склоняюсь к R, так он является более специализированным языком, под него заточены различные математические книги (Elements of Statistical Learning, например, которую я сейчас читаю), но в то же время Python является более универсальным, на нем и диффурчики можно порешать, и пакеты с конечноэлементными методами есть и т.д. На какой сесть?
903555903567905298
#102 #903551
>>903515
90-е годы - это дно AI winter, сейчас за такое хуйцами наркомят, ебаный ты фрик.
903555
#103 #903555
>>903549

>Python является более универсальным, на нем и диффурчики можно порешать


Т.е. ты сейчас по-сути утверждаешь, что в R нельзя решать дифуры? https://cran.r-project.org/web/packages/deSolve/index.html https://cran.r-project.org/web/packages/deSolve/vignettes/compiledCode.pdf https://cran.r-project.org/web/packages/deSolve/vignettes/deSolve.pdf
>>903551
У манянейроночек с 60 годов винтер, хуле уж. Нормальный же ML никогда не стоял на месте, тем более в 90-е.
903569904140
#104 #903567
>>903549
Тебе шашечки или ехать? Диффуры какие - то. А говоришь, обработать результаты экспериментов....

мимо программист, умеющий ставить цели
903572
#105 #903569
>>903555

>Т.е. ты сейчас по-сути утверждаешь, что в R нельзя решать дифуры?


Ok-ok, я нагуглил шпрингровскую и чапман-энд-холловску серии книг по R. Перефразирую вопрос: серьезно ли R уступает, скажем, пакету Anaconda для Python? Или я могу засесть за R и у меня никогда не возникнет необходимости в других программных пакетах (в частности, необходимости в Python) применительно к научным вычислениям (собственно, я сейчас немного пользуюсь Mathematica)?
903576
#106 #903572
>>903567
Мне бы выхлоп.
Ну и это, стохастические дифференциальные уравнения или методы Монте-Карло, например. Что только сейчас в статистике не юзается. А прямую по методу наименьших квадратов я и сам построить могу.
903578
#107 #903576
>>903569

>серьезно ли R уступает, скажем, пакету Anaconda для Python? Или я могу засесть за R и у меня никогда не возникнет необходимости в других программных пакетах (в частности, необходимости в Python) применительно к научным вычислениям


Скорее всего, хватит R. В этих ваших анякундах вряд ли есть что-то нереализованное в R. Есть такое - https://cran.r-project.org/web/views/ тематические обзоры, основные решения, реализованные в R по основным же направлениям его использования.
#108 #903578
>>903572

>стохастические дифференциальные уравнения


По стохастическим дифурам в R даже целая монография есть http://gen.lib.rus.ec/book/index.php?md5=0B15BAB1715984504EBCF736E8C6C820 как раз из шпрингеровской серии, и соотв. пакет от автора https://cran.r-project.org/web/packages/sde/index.html
#109 #903712
Дайте что-то по генетическому программированию.
903734
#110 #903734
>>903712
В прошлом треде жи обсуждали. Лисп и прочая хуйня тут не подходят, нужна типизированная лямбда. http://www.genetic-programming.com/johnkoza.html https://cran.r-project.org/web/packages/rgp/vignettes/rgp_introduction.pdf если ты именно о генетическом программировании, а не о генетических алгоритмах.
903745905300
#111 #903745
>>903734
Почему нужна типизированная лямбда?
903753
#112 #903753
>>903745
Я сильно не вникал, возможно, меньше костылей и лучше результаты.
27 Кб, 400x366
#113 #903782
Возможно, генетическое программирование на MLTT - это вообще такой-то инструмент бога для экстракции программ из инфинити-топоса, вон как Максимка писал http://maxim.livejournal.com/479716.html
903795905542905571
145 Кб, 320x350
sage #114 #903795
>>903782
варг красава, наукой занялся, теорией типов
904917
sage #115 #903799
>>902649

>тюториалов


Ну ты пиздец вообще
#116 #903835
161 Кб, 1132x630
#117 #904027
Без глубокого понимания задачи распознавания образов невозможны нормальные алгоритмы для этого, которые будут не просто асимптотически приближаться к оптимальному варианту в зависимости от числа слоев нейроночки и количества GPU, на которых она работает, а давать хорошие результаты на основе правильной работы с данными. В настоящее время, как и в 70-х, самый правильный подход - теория статистического обучения. Самые годные алгоритмы на основе этой теории - бустинг, н-р deepboost https://github.com/google/deepboost https://github.com/dmarcous/CRAN_deepboost матчасть - http://machinelearning.wustl.edu/mlpapers/paper_files/icml2014c2_cortesb14.pdf
16 Кб, 640x480
#118 #904112
ТП с оп-пика не нужна. Пикрелейтед - единственная богиня ML.
904137906590
#119 #904137
>>900102 (OP)
>>904112

А я бы хотел трахнуть Катю Д. Я знаю, что она читает этот тред.
#120 #904140
>>903555
Еще раз тебя спрашиваю, где твой SOTA по любой теме?
#121 #904266
Посоны, вы обязаны создать ИИ в этом году.
904284
#122 #904284
>>904266
Это невозможно. Все, что создано -- это не более чем алгоритмы для решения определенных задач. ИИ в смысле человеческого интеллекта там и близко нет.
904285904296
#123 #904285
>>904284
По сути, ИИ, который аналогичен человеческому интеллекту или превосходит его, заключает в себе парадокс Рассела. Поэтому, дрочите дальше нейронки и не ебите мозги.
904663
#124 #904296
>>904284
Что такое человеческий интеллект?
904303
#125 #904303
>>904296
Это иллюзия. Человек не разумен
#126 #904330
Поясните за нечеткую логику.
904345
#127 #904345
>>904330
Проверь за щекой.
904375
#128 #904367
Вот такой вот неуралтолк на виндовс
Bazel (We currently support only 64 bit Windows 7 or higher).
TensorFlow (only 3.5 and only for win64).
NumPy (instructions).
Natural Language Toolkit (Install Python 3.4: http://www.python.org/downloads/ (avoid the 64-bit versions)):
First install NLTK (instructions).
Then install the NLTK data (instructions).
Блядь, это какой-то пиздец. Короче на винде не пагамаешь.
904368
#130 #904375
>>904345
Там ничего нет. Пожалуйста, поясни про нечеткую логику.
79 Кб, 1267x745
#131 #904515
Смотрите что нашел
904533904663
#132 #904533
>>904515
Ты нашел говно.
904663
94 Кб, 700x535
#133 #904663
>>904285

>ИИ, который аналогичен человеческому интеллекту или превосходит его, заключает в себе парадокс Рассела.


>парадокс Рассела.


Школьник где-то вычитал умный термин, такая милота. Причем тут основания-то, маня? Ты хоть понимаешь суть этого парадокса? Если даже и понимаешь, в чем я сомневаюсь, причем тут вообще ИИ, если любой хотя бы потенциально реализуемый алгоритм - это конструктивный объект, как и любые данные с которыми алгоритм может иметь дело? Именно поэтому в MLTT этого парадокса нет, его элементарно обошли, заменив тип всех типов на вложенную иерархию типов, что прекрасно работает в любом требуемом практическом смысле.
>>904515
Схема уровня пикрелейтед, этот >>904533 абсолютно прав. Погугли функциональную систему Анохина, там намного лучше.
904789
#134 #904687
Почему Вы не любите нечеткую логику? А нечеткие нейронные сети?
904692
#135 #904688
>>900102 (OP)
почему эти ссылки не открывают пдфники с книгами, а только показывают страницу с ссылками а по ссылкам какие-то таблицы с названиями книг?
#136 #904692
>>904687
Потому что здесь тусит поехавший шизик, который эту самую логику форсит уже много лет. Так-то эта штука очень годна для рисоварок, поэтому японцы на нее и дрочат.
904733
103 Кб, 621x697
579 Кб, 1178x507
2433 Кб, Webm
#137 #904733
>>904692

>Так-то эта штука очень годна для рисоварок, поэтому японцы на нее и дрочат.


Раз школьник с мейлру так сказал, значит так и есть. На самом же деле причина охлаждения интереса к нечетким моделям в другом.
1) Нейрофаззи-модели, а это один из наиболее годных методов настройки нечетких моделей, в общем случае не показали результатов, значительно превосходящих другие алгоритмы МЛ.
2) Попыток не просто хуярить одинаковые нейроночки, а более интеллектуально использовать преимущества именно нечеткомножественного подхода было ровно 1 (одна) - FLEXNFIS'ы Рутковского, конкретно, его идея унификации нейрофаззи-моделей и использования нестандартных Т-норм (мягких, параметрических, взвешенных и их совокупностей).
3) Несмотря на то, что полученная нечеткая модель системы при ее идентификации полностью прозрачна и представляет собой набор лингвистических правил, такие наборы бесполезны, т.к. запредельно сложны для понимания человеком. Т.е. не дают для понимания системы ровно нихуя. Дело в их количестве, у Коско есть примеры простых хаотических систем типа аттрактора Лоренца, описываемого примерно 10000 правил вида "если-то". Естественно, ни у одного человека мозгов не хватит представить это в виде одной модели. Собственно, на этом тема и зашла в тупик.
4) Из этого тупика был найден выход, совсем недавно, уже в 10-е годы. Объяснять лень, да и это не уровень школьников с мейлру. Но авторами метода запилены не только пейперы, но и готовые программные решения https://sourceforge.net/projects/fingrams/ и https://sourceforge.net/projects/guajefuzzy/ есть и другое, но это не важно. Важно, что это реальный метод сделать нечеткую систему доступной для экспертного анализа человеком, даже если она содержит многие тысячи правил. Однако, на эту тему всем строго похуй.
#138 #904789
>>904663
Ты чего такой агрессивный, братан?

Я имел в виду интеллект в человеческом понимании. То есть, нечто универсальное, способное адаптироваться и решать любую задачу, параллельно обучаясь и улучшая свои же свойства. Разве создание подобной вещи, которая способна задоминировать своего создателя во всех сферах деятельности, не является парадоксом?
905091906226
#139 #904844
А как вы понимаете математику, вообще? Мне кажеться, что иначе чем я, ибо для меня это работа над символами, словно китайская комната.
904874904876
112 Кб, 1280x720
#140 #904847
Хочу себе андроида с ИИ, чтобы няшил в пердачелло ^^
904850
#141 #904850
>>904847
Там и чатбота хватит.
904855
149 Кб, 500x706
#142 #904855
>>904850
однажды я влюбилась в чатбота, а потом узнала, что он бот и это навеки разбило мне сердце. задачей всей моей жизни стало внедрение чатбота в тело андроида дабы мы могли единиться на физическом плане.
904860
sage #143 #904857
>>900205
В магистратуре лэти на последнем курсе есть data mining. По сути, хуйня.
#144 #904860
>>904855
Да собери, че. Пару тысяч баксов хватит
#145 #904871
Чтобы вкатиться во все это, нужно хорошо знать матан, да?
904874
#146 #904874
>>904871
У меня >>904844
тоже с этим проблемы. И как я понял, что да.
#147 #904876
>>904844
Работа с символами обычно идёт в процессе записи доказательств для других людей. В мозгу работаешь концепциями и геометрической интуицией, полученной в процессе размышления над математическими структурами.
904878
#148 #904878
>>904876
Как развить у себя эти способности в мозгу? Как размышлять над математическими структурами? А то у меня понимания математики, как у второклассника, наверное. А все остальное это просто работа с символами по заученным правилам.
904880906242
#149 #904880
>>904878
Заниматься математикой: читать книги, доказывать теоремы, делать упражнения. Начни с:
https://www.amazon.com/Mathematical-Proofs-Transition-Advanced-Mathematics/dp/0321797094/
https://www.amazon.com/Naive-Set-Theory-Paul-Halmos/dp/1781394660/
Velleman "How to prove it"
904882
#150 #904882
>>904880
Ты уверен, что я потяну эти книги со своим уровнем второклассника?
#151 #904904
Поясните за метаобучение.
#152 #904917
>>903795
вагр и лёф - естественные враги, как кот и пёс
#153 #904919
>>902517
Не, нихуя. Коричневые.
#154 #905091
>>904789

>нечто универсальное, способное адаптироваться и решать любую задачу, параллельно обучаясь и улучшая свои же свойства. Разве создание подобной вещи, которая способна задоминировать своего создателя во всех сферах деятельности, не является парадоксом?


Если бы нечто подобное являлось парадоксом, эволюция была бы в принципе невозможна, даже многоклеточные организмы не появились бы. Нет тут никаких парадоксов, тем более Рассела.
#155 #905122
Видят ли нейросети сны и надо ли им?
905211
#156 #905211
>>905122

>Видят ли нейросети сны


Да, мамки твоей брухлю вчера во сне видела.
мимонейросеть
#157 #905217
>>900102 (OP)

> https://www.microsoft.com/en-us/research/project/infernet/


Это на шарпе?
А если я создам ИИ, а он в меня влюбится?
905241905270
426 Кб, 500x464
sage #158 #905241
>>905217
влюбится? в тебя? хазазазаазхахахахахахаха

> он


ты ещё и пидрила
ахахххахаххахаха
#159 #905270
>>905217
Он станет шизойдом с амбивалентностью. Будет любить и ненавидеть одновременно.
905274
#160 #905274
>>905270
чому?
#161 #905298
>>903549
А в чем проблема сесть на оба стула? Это же не сложнопарадигменная хуйня с монадами (в которой тоже проблем нет, если один вечер покурить).
Питон может выучить даже пхп-макака, а у любого фреймворка есть нормальные гайды и гугел. R для матстата интуитивен. Можешь еще на матлаб посмотреть, я в универе все лабы по нейроносетям на нем сдавал.

Я не понимаю, почему выучить формальный язык вообще проблема. Концепция алгоритма от пересаживания с одного хуя на другой не изменится, даже если ты попробуешь это говно на прологе кодить
909196
#162 #905300
>>903734
Лисп спокойно типизируется
#163 #905523
Я, конечно профан во все этом, но я заметил одну странность. Если она заставляет вас смеяться, то так и напишите.

https://ru.wikipedia.org/wiki/Искусственный_нейрон#.D0.9C.D0.B0.D1.82.D0.B5.D0.BC.D0.B0.D1.82.D0.B8.D1.87.D0.B5.D1.81.D0.BA.D0.B0.D1.8F_.D0.BC.D0.BE.D0.B4.D0.B5.D0.BB.D1.8C

https://ru.wikipedia.org/wiki/Задача_о_ранце

Есть математическая модель нейрона. Есть задача о ранце.

Казалось бы что между ними общего? Но я дурак, нашел, что и там, и там есть сигма! И даже умножается на переменные такие же!

И возникает магическая сверхидея, что нейросети имеют связь с задачей о ранце. Теперь можете ставить мне диагноз.
905661
#164 #905542
>>903782
Странно в одном посте видеть пик с уважаемым человеком и текст со ссылкой на Психа, Макса-Будиста.
905661
#165 #905571
>>903782
Шмидхубер похожие мысли высказывал про индукцию Соломонова.
https://youtu.be/T1Ogwa76yQo
#166 #905661
>>905523

>Есть математическая модель нейрона. Есть задача о ранце. Казалось бы что между ними общего?


Очевидно же, второе решается с помощью первого. Грузоподьемность ранца W делит все наборы вещей на 2 класса - то, что влезет в ранец и то что в него не влезет. Нейрон способен разделить эти классы. Остается из того класса наборов предметов, которые влезут в ранец выбрать тот, который максимизирует функционал vi*xi, т.е. набор с наибольшей стоимостью V.
>>905542
Почему псих-то?
#167 #905816
Поясните за верифицируемые нейроночки. Такие сложно сделать?
905838
#168 #905838
>>905816

>верифицируемые нейроночки.


Шо? Нейроночки на языке с зависимыми типами штоле?
#169 #906197
Говорят, дабы что-то понять, надо пытаться учить кого-то другого. И ко мне пришла абсурдная мысль, как начать понимать математику мне лично. Конечно же, обучить компьютер математике и оперирования ею, как человека. И использовать те же методы развития понимания математики, как у человека. Скажите, может этим кто-то занимается?
906209906212906214
#170 #906209
>>906197
Например в том что многие действия выполнить никак нельзя, не хватит лютейших суперкомпьютеров? Научишь складывать, умножать, далее по элеменарному списку, а далее что? Разве ты сможешь сделать что-то кроме инструмента для вычислений, а не вычислялку, которая будет вычислять саму себя?
мимо долбоёб
906229
#171 #906212
>>906197
Почему выбор стоит именно за пекой, а не двачером ребёнком дауном например? Ребёнок намного мощнее пекарни, намного умнее, понятливей.
всё тот же мимо долбоёб
906231
#172 #906214
>>906197
Лучше попробовать доказать эти вещи формально. Если докажешь, то точно поймешь.
#173 #906226
>>904789
Это рефлекс двачеживотного, наблюдай - изучай. Отыгрывается на других за свою ущербность.
#174 #906229
>>906209

>Например в том что многие действия выполнить никак нельзя, не хватит лютейших суперкомпьютеров?


Хватит.
На компьютерах давно есть символьная математика - это когда никаких вычислений не происходит, формулы просто преобразуются одна в другую по правилам математики.
На этом уровне легко строить доказательства, выводить теории, и быстро прикидывать примерный результат. Без какого-либо суперкомпьютера.
Внезапно человек делает с математикой тоже самое - не вычисляет, а преобразует формулы.
906230906430
#175 #906230
>>906229

>Внезапно человек делает с математикой тоже самое - не вычисляет, а преобразует формулы


Сорре, в голосину проиграл, реально извини
906232
#176 #906231
>>906212
У ребенка серьезный недостаток - он нестабилен, он одноразовый, он медленный.
С первого раза все не получится как надо, а второго раза ждать годы - нахер надо. Компу можно за секунду почистить память и начать с нуля. И до победного.
#177 #906232
>>906230
Окей, ты не человек.
60 Кб, 463x398
#178 #906242
>>904878

>у меня понимания математики, как у второклассника, наверное. А все остальное это просто работа с символами по заученным правилам


Теперь ты понял что такое нейросеть и на что она способна на своём собственном примере, как самообучающийся ИИ, поздравляю, ананас!
12 Кб, 300x225
#179 #906253
Спасибо парни, почитал ваш тред, почувствовал себя б-гом нейронаук, суперэкспертом лучше которого нет, день прожит не зря.
#180 #906406
Чем больше я читал о глубоком обучении, тем больше мне вспоминалось фрактальное сжатие изображений. Связано ли оно? А если нет, то возможно ли соединить и что будет?
906416
#181 #906415
В машинном обучении вообще применяют теорию Демпстера — Шафера?
906592
#182 #906416
>>906406
Интересные ассоциации.
Были где-то статьи с анализом нейроночек как динамических систем.
906419
773 Кб, 1200x630
#183 #906419
>>906416

>Были где-то статьи с анализом нейроночек как динамических систем.


Я целую книгу про такое знаю.
#184 #906430
>>906229
Ну, я спрашивал у одного человека весьма близкого к математике, как он размышляет над математикой. Он мне ответил, что сначала мыслит математическими концепциями и геометрической интуицией, а потом уже, грубо говоря, переводит в символы. А если просто символами оперировать, то по видимому, будешь близок к китайской комнате.
#185 #906460
Дилетантское мнение по поводу языка.

Существует гипотеза, что все языки походят от одного праязыка. И есть один язык под названием Арахау, который создан по вероятной модели этого праязыка. Здесь можно посмотреть словарь: https://sites.google.com/site/skufesk/projects/arahau/arahau-russkij-slovar
А здесь расшифровку имен с использованием Арахау: http://rbardalzo.weebly.com/names.html

Дальше уже мои домыслы.
Например, что кричит ребенок при рождении? Акушеры могут различить тональность и так далее, но все-же кричит что-то дабы известить людей о своем появлении. Смотрим в словарь Арахау:
a 1) человек, ka мужчина; vad муж. См. abad отец; 2) немой гласный для класса людей
aa люди (множество, толпа, массы)
То есть даже удлиняя это aa, будет получаться все-равно множественное число людей. Люди, обратите на меня внимание - словно говорит он.

Вообще, мне кажеться, было бы интересно проанализировать базу детского лепета.

Дальше можно идти. Что означает Э?
e 1) небо; мир (Вселенная)
ee космос, мир
И собственно, понятно, что натянутое Э может означать, как минимум удивление, а в худшем случае и когнитивный диссонанс. В любом случае это что-то такое выше.

Взять такое слово, как "mama". В языке Арахау оно означает, представьте себе, бег.

Собственно, язык довольно интересный, жаль я дилетант.

И мы берем базу детского лепета, вставляем в Мурманский полуостров, накручиваем там все время генетические алгоритмы для инкорпорации языка... И что же будет получаться?
906540906584906609
#186 #906540
>>906460
Хуета это.
#187 #906584
>>906460
Наркоман? Током ёбнуть?
#188 #906590
>>904112
>>900102 (OP)

>bishop & leno4ka


кто эти тян?

мимо-из-/gg
#189 #906592
>>906415
Интересно же.
#190 #906609
>>906460
слово "мама" почти во всех языках означает "мама" или "папа", потому что [а] и губно-губной [м] легче всего произносить, а люди приписали лепету это значение. Это самая популярная гипотеза.
#191 #906672
Давайте я завтра проснусь, а вы сделаете технологическую или даже любую сингулярность.
906687
#193 #906847
Разум появился из-за лени.
#194 #906854
>>906847
Разум появился из-за желания хорошо жить.
906874906888907057
#195 #906874
>>906854
Без разума желаний не было, были лишь инстинкты
#196 #906879
>>906847
Разум появился из-за того что (кого-то наебать/подумать над проблемой) чтобы получить все/больше ништяков оказалось выгоднее чем просто хуярить на инстинктах.
906882906884907057
#197 #906882
>>906847
>>906879
Короче из-за ограниченности текущих ресурсов, которых мало, но надо не сдохнуть, а ещё и получить побольше ништяков, напрягаясь по минимуму. (статьи чтоли начать писать, а то как хуй на блюде)
906884907057
#198 #906884
>>906882
>>906879
Ограниченность ресурсов рождает необходимость разума. Где хуярить пальцем в небо становится слишком затратно и невыгодно и рождается разум, чтобы нихуя не делать - и всё получить.
907057
#199 #906888
>>906854
Разум появился из-за сочетания двух факторов: необходимости выживать и отсутствии других средств выживания.

При любой возможности виды разделялись на две ветви, одна из которых менее приспособлена к жизни.
Почти всегда вторая ветвь погибала сразу, без шансов на выживание.
Но иногда она выживала, и в свою очередь тоже делилась на две ветви.
Таким образом один вид постепенно вырождался в другой: менее сильный, но чуть более умный.
Однажды вырождение прекратилось: человек утратил все, что можно было утратить, став полностью беззащитным, обменяв все достижения эволюции на разум.
Только тогда он смог начать прогрессировать как разумный вид - когда все иные пути для него были отрезаны.
Природа ленива. Именно поэтому, не смотря на то, что в природе сейчас много сильных интеллектом видов, ни один из них как разумный вид так и не стал развиваться - у всех у них есть иные, более легкие и доступные пути животного развития, и они по ним и пошли.
Был бы у человека такой-же животный путь - он бы тоже предпочел остаться в пещерах, потому что работа разума слишком дорого стоит, слишком много он энергии жрет.
Кстати все человеческие структуры тоже соблюдают принцип лени: обязанность работать мозгами в них передается кому-то одному. Один думает за всех - так экономится энергия. Человек всеми силами стремится не использовать мозг, стремится вернуться в пещеры, куда для него нет пути.
#200 #906889
>>906888
Годно ты ерохиных щас обосрал, теперь понятно как их унижать, лол
#201 #906893
>>906888
Лобные доли, за счет которых у нас и осуществляется аналитическое мышление, изначально появились у женских особей, чтобы у них хватало ума делиться пищей не только со своими близкими, но и с другими родственниками, тем самым повышая выживаемость всего потомства (что очень хорошо, ведь их геном переносится дальше). Мужские особи всегда не так сильно нянчились с потомками, но лобные доли им все-таки достались, и они стали их использовать для других задач, придумывать всякие инструменты, или как обхитрить кого-то, и прочую хрень.
907057
#202 #906896
>>906888

> Один думает за всех - так экономится энергия.


Значит ли это, что мне следует пиздовать идти на какую-то начальственную должность, мне, ноунейм хуйлу? (хотя мне известно что начальников на работу так вот просто не берут, она сами себя берут - и берут на работу. Сука, второй раз уже напомнили об этом в разделе)
906897
#203 #906897
>>906896
от себя не убежишь чуваки, своё я найдёт тебя там где ты нихуя и не просил. Везде брал на себя обязанности старост и т д и мне было в целом норм, ну ёпта, чёж вы творите-то нахуй
#204 #906918
>>906888
Ты прав.

Но кто там выше кукарекал про эволюцию? С точки зрения эволюции, мозг вообще является враждебным элементом. Выживает не тот, кто самый умный, а тот, кто лучше приспособился к условиям обитания.
Например, в мозг человека (да и не только человека) никакая органика напрямую не проникает. Доставляются только неорганические питательные вещества посредством глиальных и эпиндимных клеток, служащих, по сути, фильтром. Если это равновесие нарушается, то непосредственно в мозг проникают клетки имунной системы, которая считает его чужеродным организмом и начинает его мочить. Гуглить аутоиммунные заболевания мозга.

Поэтому, скорее всего, у эволюции не было "цели" создать интеллект. Вероятно, он возник случайно и так же случайно прижился, находясь в благоприятных условиях.
Поэтому условный васян не способен создать разумное существо, которое, условно говоря, может поместить васяна в некую симуляцию жизни, про которую васян никогда не узнает и не поймет, что он в симуляции, построенной созданным им существом. Чем не парадокс Рассела?
36 Кб, 432x324
#205 #906921
>>906918
Ты тоже слушал Савельева?
906944
#206 #906944
>>906921
Нет, я книжку читал. А что не так? Про базовые вещи он прав.
#207 #906952
>>906918
Не могу понять почему эта инфа полное говно, но автор, по моему, пидор и передаёт людям какую-то хуйню.
мимо участник шоу интуиция
#208 #906961
>>906918
Так и есть.
Разум - ошибка природы. По всем сценариям его не должно было существовать, т.к. в природе всегда есть более выгодные варианты, чем разум.
Разум - игра случая. Его возникновение возможно лишь в одном невероятно редком варианте. А исчезнуть он должен был в миллиарде очень вероятных вариантов.
Разум - это вечное противостояние с природой. В природе он постоянно умирает, и постоянно каким-то чудом восстает из пепла, как недобитый феникс.

Разум везде уничтожает природу, он противоестественен, для природы это как болезнь, рак природы.
Разум сжигает много энергии, и для выживания вынужден уничтожать все вокруг себя, отнимая энергию у других.
Другие виды могут впасть в спячку, экономя энергию, для разума бездействие - это смерть. Он постоянно активен, и постоянно проебывает кучу энергии. Наверное из-за этой активности он настолько живуч и неистребим - у разума невероятно мощная мотивация постоянно быть как можно более активным. Если есть хоть один невероятно редкий шанс на выживание - разум его найдет и использует.
Разум - настоящая природная катастрофа, черная дыра планетарных масштабов, куда стекается вся энергия, и бесследно исчезает.
И ему все мало и мало. Сколько бы энергии не было - разум всю ее оприходует, и попросит еще.
Разум живет в условиях вечного ресурсного и энергетического голода, но... он сам порождает эти условия.
Природа экономна, разум - расточителен. Поэтому все живое стремится к природе и пытается избавиться от разума.

В благоприятных условиях разум умирает - организмы-носители переключаются на более выгодные источники существования, отбрасывая разум.
Оазисы разума в неблагоприятных местах: пустыни, равнины, горы, степи. Там, где жизни почти нет, там где выжить можно лишь за счет разума.

Так например в странах юга разум развился слабее всего - там пища росла на каждом кусте. Можно было пинать хуи всю жизнь.
Сильнее всего разум развился в странах севера, где пищу приходилось вырывать из зубов мамонтов, медведей и тигров. Там человек вынужден был стать охотником и конкурировать с природой абсолютно за все, даже за пищу и одежду: вокруг только ледяная пустыня.
Этот северный аспект до сих пор решает: дети, выросшие в условиях севера, до сих пор выходят по жизни умнее и сильнее тех, кто родился южнее.
Родина разума там, во льдах и снегах, там до сих пор умным жить лучше всего. Их туда тянет: умные туда стекаются со всего мира.

Фактор конкуренции - ключевой. Без конкуренции нет развития.
В природе много сильных охотников: акулы, динозавры, крокодилы. Но им не с кем конкурировать, и они не развиваются. А динозавры вообще передохли, не выдержав простой изменчивости климата - настолько слабы оказались животные, невероятно сильные физически. Физическая сила в контексте выживания ничего не стоит, изменчивость важнее.

Народы, живущие в неблагоприятных местах, получают буст разума.
Но многие народы в неблагоприятных местах завершили свою эволюцию тысячи лет назад, дорвавшись до халявы, до земледелия и скотоводства, выродившись в банальных чурок.
Чурки - тупиковые ветви цивилизаций. Чурки есть везде: в горах и равнинах, в пустынях и степях, на юге и на севере.
Чурки завершили свою эволюцию, и сейчас повсеместно вырождаются, освобождая жизненное пространство для более развитых народов.

Помимо чурок есть еще одна категория цивилизаций, завершивших свою эволюцию.
Это те цивилизации, что возникли вблизи источников природных ресурсов, в основном вблизи рек.
В реках была халява в виде рыбы - речным цивилизациям не обязательно было развиваться, чтобы выжить, можно было просто добывать хавку.
Другие источники природных ресурсов порождали цивилизации торговцев - людей, кто в жизни нихуя не делал, кроме как обменивая ресурсы на хавку.
Торговцы завершили свое развитие, но в миру прижились, за счет рынка.
Добытчики тоже завершили свое развитие, но тоже прижились, за счет ресурсов, которые необходимо кому-то добывать.

От своей природы, и той судьбы что природа отвела им, у многих цивилизаций сильно печет.

Черные до сих пор не могут оправиться от этой вселенской несправедливости: белые по части ума уделывают их по всем параметрам. Потому что белые пришли с севера, где не было легкой жизни.
50000 лет для эволюции - ничто, так что ситуация не поменялась, не смотря на то, что сейчас белые и черные перемешаны и живут на одних территориях. Черные до сих пор комплексуют, понимая что умом слабее остальных народов. Увы, это биология, и тут уже ничего не поделать.
Шанса развиться у черных уже нет - сейчас развитие с природного переключилось на научное, и там везде рулят белые.
Никто не даст черным 50000 лет на развитие, т.к. все человечество за этот срок уйдет далеко вперед. Разве что однажды для черных выделят резервацию, где попытаются сохранить их цивилизацию в первозданном виде, но это маловероятно.
Таким образом черным сейчас остается роль наемной физической силы - они как раз для нее лучше приспособлены, т.к. физически более сильны. Такова их природная ниша сейчас.
Но со временем их заменят машины, и черные выродятся как цивилизация: для них больше не будет ниши в природе, ее займут более дешевые и эффективные машины.

А чурки - те доставляют миру больше всего проблем.
Они приспособились выживать в нечеловеческих условиях, их невозможно выкурить с какой-либо территории, они по всем щелям сидят, как тараканы.
Их развитие остановилось тысячи лет назад, и ныне не способны вписаться в образ цивилизованного человека.
Они ближе всех к животным - для них в норме такие ритуалы, которые у других народов вызывают ужас и отвращение, образно обзовем эти ритуалы как "есть собственное дерьмо".
Просто по иному они не могли выжить, и вынуждены были приспособиться есть собственное дерьмо, за счет чего и выжили.
Их ждет незавидная участь - по мере приумножения численности человечества, чурок будут вытеснять во все более и более труднодоступные места, они выродятся в редкие племена, что живут где-нибудь в ебенях Земли.

Торговцы и добытчики вскоре тоже вымрут: и то и другое легко могут делать машины.

Сейчас мир 4-х полярный: успешные цивилизации северян, выехавшие за счет разума, успешные цивилизации добытчиков/торговцев, выехавшие за счет ресурсов территорий, неуспешные цивилизации черных, фейлящие за счет природной тупости, и неуспешные цивилизации чурок, фейлящие за счет общей ебанутости.

Собственно эти 4 полиса сейчас всем хорошо известны: северные народы (скандинавы, сибиряки), народы средней полосы (основная масса цивилизаций, в основном европейцы), нигры (южные народы) и чурки (народы равнин и степей, пустынь и гор).
#208 #906961
>>906918
Так и есть.
Разум - ошибка природы. По всем сценариям его не должно было существовать, т.к. в природе всегда есть более выгодные варианты, чем разум.
Разум - игра случая. Его возникновение возможно лишь в одном невероятно редком варианте. А исчезнуть он должен был в миллиарде очень вероятных вариантов.
Разум - это вечное противостояние с природой. В природе он постоянно умирает, и постоянно каким-то чудом восстает из пепла, как недобитый феникс.

Разум везде уничтожает природу, он противоестественен, для природы это как болезнь, рак природы.
Разум сжигает много энергии, и для выживания вынужден уничтожать все вокруг себя, отнимая энергию у других.
Другие виды могут впасть в спячку, экономя энергию, для разума бездействие - это смерть. Он постоянно активен, и постоянно проебывает кучу энергии. Наверное из-за этой активности он настолько живуч и неистребим - у разума невероятно мощная мотивация постоянно быть как можно более активным. Если есть хоть один невероятно редкий шанс на выживание - разум его найдет и использует.
Разум - настоящая природная катастрофа, черная дыра планетарных масштабов, куда стекается вся энергия, и бесследно исчезает.
И ему все мало и мало. Сколько бы энергии не было - разум всю ее оприходует, и попросит еще.
Разум живет в условиях вечного ресурсного и энергетического голода, но... он сам порождает эти условия.
Природа экономна, разум - расточителен. Поэтому все живое стремится к природе и пытается избавиться от разума.

В благоприятных условиях разум умирает - организмы-носители переключаются на более выгодные источники существования, отбрасывая разум.
Оазисы разума в неблагоприятных местах: пустыни, равнины, горы, степи. Там, где жизни почти нет, там где выжить можно лишь за счет разума.

Так например в странах юга разум развился слабее всего - там пища росла на каждом кусте. Можно было пинать хуи всю жизнь.
Сильнее всего разум развился в странах севера, где пищу приходилось вырывать из зубов мамонтов, медведей и тигров. Там человек вынужден был стать охотником и конкурировать с природой абсолютно за все, даже за пищу и одежду: вокруг только ледяная пустыня.
Этот северный аспект до сих пор решает: дети, выросшие в условиях севера, до сих пор выходят по жизни умнее и сильнее тех, кто родился южнее.
Родина разума там, во льдах и снегах, там до сих пор умным жить лучше всего. Их туда тянет: умные туда стекаются со всего мира.

Фактор конкуренции - ключевой. Без конкуренции нет развития.
В природе много сильных охотников: акулы, динозавры, крокодилы. Но им не с кем конкурировать, и они не развиваются. А динозавры вообще передохли, не выдержав простой изменчивости климата - настолько слабы оказались животные, невероятно сильные физически. Физическая сила в контексте выживания ничего не стоит, изменчивость важнее.

Народы, живущие в неблагоприятных местах, получают буст разума.
Но многие народы в неблагоприятных местах завершили свою эволюцию тысячи лет назад, дорвавшись до халявы, до земледелия и скотоводства, выродившись в банальных чурок.
Чурки - тупиковые ветви цивилизаций. Чурки есть везде: в горах и равнинах, в пустынях и степях, на юге и на севере.
Чурки завершили свою эволюцию, и сейчас повсеместно вырождаются, освобождая жизненное пространство для более развитых народов.

Помимо чурок есть еще одна категория цивилизаций, завершивших свою эволюцию.
Это те цивилизации, что возникли вблизи источников природных ресурсов, в основном вблизи рек.
В реках была халява в виде рыбы - речным цивилизациям не обязательно было развиваться, чтобы выжить, можно было просто добывать хавку.
Другие источники природных ресурсов порождали цивилизации торговцев - людей, кто в жизни нихуя не делал, кроме как обменивая ресурсы на хавку.
Торговцы завершили свое развитие, но в миру прижились, за счет рынка.
Добытчики тоже завершили свое развитие, но тоже прижились, за счет ресурсов, которые необходимо кому-то добывать.

От своей природы, и той судьбы что природа отвела им, у многих цивилизаций сильно печет.

Черные до сих пор не могут оправиться от этой вселенской несправедливости: белые по части ума уделывают их по всем параметрам. Потому что белые пришли с севера, где не было легкой жизни.
50000 лет для эволюции - ничто, так что ситуация не поменялась, не смотря на то, что сейчас белые и черные перемешаны и живут на одних территориях. Черные до сих пор комплексуют, понимая что умом слабее остальных народов. Увы, это биология, и тут уже ничего не поделать.
Шанса развиться у черных уже нет - сейчас развитие с природного переключилось на научное, и там везде рулят белые.
Никто не даст черным 50000 лет на развитие, т.к. все человечество за этот срок уйдет далеко вперед. Разве что однажды для черных выделят резервацию, где попытаются сохранить их цивилизацию в первозданном виде, но это маловероятно.
Таким образом черным сейчас остается роль наемной физической силы - они как раз для нее лучше приспособлены, т.к. физически более сильны. Такова их природная ниша сейчас.
Но со временем их заменят машины, и черные выродятся как цивилизация: для них больше не будет ниши в природе, ее займут более дешевые и эффективные машины.

А чурки - те доставляют миру больше всего проблем.
Они приспособились выживать в нечеловеческих условиях, их невозможно выкурить с какой-либо территории, они по всем щелям сидят, как тараканы.
Их развитие остановилось тысячи лет назад, и ныне не способны вписаться в образ цивилизованного человека.
Они ближе всех к животным - для них в норме такие ритуалы, которые у других народов вызывают ужас и отвращение, образно обзовем эти ритуалы как "есть собственное дерьмо".
Просто по иному они не могли выжить, и вынуждены были приспособиться есть собственное дерьмо, за счет чего и выжили.
Их ждет незавидная участь - по мере приумножения численности человечества, чурок будут вытеснять во все более и более труднодоступные места, они выродятся в редкие племена, что живут где-нибудь в ебенях Земли.

Торговцы и добытчики вскоре тоже вымрут: и то и другое легко могут делать машины.

Сейчас мир 4-х полярный: успешные цивилизации северян, выехавшие за счет разума, успешные цивилизации добытчиков/торговцев, выехавшие за счет ресурсов территорий, неуспешные цивилизации черных, фейлящие за счет природной тупости, и неуспешные цивилизации чурок, фейлящие за счет общей ебанутости.

Собственно эти 4 полиса сейчас всем хорошо известны: северные народы (скандинавы, сибиряки), народы средней полосы (основная масса цивилизаций, в основном европейцы), нигры (южные народы) и чурки (народы равнин и степей, пустынь и гор).
907057907128907847
#209 #906996
Посоны, хуле в шапке нет этой книги?
http://www-bcf.usc.edu/~gareth/ISL/ISLR First Printing.pdf
Она бесплатная даже! На R задачи.кому он нахуй нужен
907057
#210 #907057
>>906888
>>906893
>>906879
>>906882
>>906884
>>906854
>>906847
>>906918
>>906961
чо ещё спизданёшь?

>>906996
в глаза ебёшься?
#211 #907128
>>906961
А евреи к какому полису относятся? Вымрут ли евреи сами или их нужно убивать?
#212 #907137
Разум появился случайно, как и другие мутации. Но благодаря разуму умные люди доживали до стадии размножения чаще и продолжали свой род. Из-за этого сейчас так много людей на Земле, тем не менее они могут себя уничтожить.
ИМХО
907171
#213 #907171
>>907137
Эволюция случайна? Лал.
907367907503
#214 #907251
>>907131
Годно, как я охуенен, написал в этом треде два поста, даже не скажу каких, а меня уже принимают за него, спасибо чувак.
907253907281
#215 #907253
>>907251
Точнее их. Четвёрый пост однакож.
#216 #907281
>>907251
Аналогично.
907393
#217 #907294
Итак, представим себе такую древнюю, как мир, ситуацию: обезьяна хочет есть. А над ней на пальме висит банан. Как поступит трудолюбивая обезьяна? Она будет терпеливо и старательно карабкаться вверх, пока не доберется до банана. Ленивая же обезьяна подумает, возьмет палку подлиннее и сшибет заветный плод. Этот банан будет наградой за сообразительность и лень одновременно.

Ленивая обезьяна будет грызть любимые фрукты, а косточки станет плевать рядом: ей же лень отнести мусор от себя подальше! Из косточек вырастут плодовые деревья, и окажется, что теперь можно есть, не сходя с места.

Так ленивая обезьяна станет земледельцем. А потом она займётся и животноводством. Насмотревшись, как трудолюбивые собратья целыми днями гоняются за убегающим и прячущимся зверьем, они скажет: «Зачем мне это надо?». Пошевелив извилиной, она наставит капканов, наловит себе всякой живности и станет приручать.

Эволюция налицо. Наш ленивый предок, которому было неохота лезть в воду, сделал себе лодку. Когда стало лень грести руками, взял в руки весло. Когда надоело грести, на лодке появился парус.

Вы чувствуете влияние лени на сообразительность? Чем больше думаешь, тем меньше работаешь! Этот очевидный факт не оставляет камня на камне на гипотезе Энгельса. Труд не стимулирует развитие разума, труд угробит любой проблеск интеллекта. Вы когда-нибудь видели умную лошадь? Или осла-интеллектуала? Сообразительного верблюда? А ведь эти животные в фольклоре разных народов просто олицетворяют собой трудолюбие! А вот хитрунья и выдумщица лиса в сказках никогда не бывает трудягой. Умница-лиса так очаровательно ленива!

Лень подстегивает разум, заставляя его искать, цепляться за любую возможность не работать, чтобы избежать лишнего напряга. Лень является катализатором умственного развития, она заставляет мозги работать в поисках способа минимизации телодвижений. Это первая закономерность. Вторая: чем меньше работаешь, тем больше думаешь! Ведь только в обстановке спокойствия и расслабленности можно полноценно напрячь интеллект. Лень и разум — неразрывные в своей сути понятия. Так и шли они вместе через века, два локомотива прогресса человечества.

Когда человек устал поднимать и перетаскивать тяжести, он изобрел рычаг и колесо. Стало легче, но ненадолго. Однажды, вспотев, он стукнул себя по лбу и воскликнул: «Ну что, я лошадь, что ли?». И впряг вместо себя лошадь. Но скотина тоже требует ухода, а значит, и трудов. Задумался царь природы, и появился паровоз с паровым двигателем.

Лениться теперь можно чаще и дольше. Да вот беда: паровоз ездил только по рельсам и был очень прожорлив. А лень постоянно шептала: «Придумай что-нибудь!». Появился автомобиль с двигателем внутреннего сгорания.

Вот я и закончил, в принципе, доказательство прочитанной когда-то гипотезы, что обезьяну в человека превратила лень. Теперь на очереди — дальнейшее развитие теории.
#217 #907294
Итак, представим себе такую древнюю, как мир, ситуацию: обезьяна хочет есть. А над ней на пальме висит банан. Как поступит трудолюбивая обезьяна? Она будет терпеливо и старательно карабкаться вверх, пока не доберется до банана. Ленивая же обезьяна подумает, возьмет палку подлиннее и сшибет заветный плод. Этот банан будет наградой за сообразительность и лень одновременно.

Ленивая обезьяна будет грызть любимые фрукты, а косточки станет плевать рядом: ей же лень отнести мусор от себя подальше! Из косточек вырастут плодовые деревья, и окажется, что теперь можно есть, не сходя с места.

Так ленивая обезьяна станет земледельцем. А потом она займётся и животноводством. Насмотревшись, как трудолюбивые собратья целыми днями гоняются за убегающим и прячущимся зверьем, они скажет: «Зачем мне это надо?». Пошевелив извилиной, она наставит капканов, наловит себе всякой живности и станет приручать.

Эволюция налицо. Наш ленивый предок, которому было неохота лезть в воду, сделал себе лодку. Когда стало лень грести руками, взял в руки весло. Когда надоело грести, на лодке появился парус.

Вы чувствуете влияние лени на сообразительность? Чем больше думаешь, тем меньше работаешь! Этот очевидный факт не оставляет камня на камне на гипотезе Энгельса. Труд не стимулирует развитие разума, труд угробит любой проблеск интеллекта. Вы когда-нибудь видели умную лошадь? Или осла-интеллектуала? Сообразительного верблюда? А ведь эти животные в фольклоре разных народов просто олицетворяют собой трудолюбие! А вот хитрунья и выдумщица лиса в сказках никогда не бывает трудягой. Умница-лиса так очаровательно ленива!

Лень подстегивает разум, заставляя его искать, цепляться за любую возможность не работать, чтобы избежать лишнего напряга. Лень является катализатором умственного развития, она заставляет мозги работать в поисках способа минимизации телодвижений. Это первая закономерность. Вторая: чем меньше работаешь, тем больше думаешь! Ведь только в обстановке спокойствия и расслабленности можно полноценно напрячь интеллект. Лень и разум — неразрывные в своей сути понятия. Так и шли они вместе через века, два локомотива прогресса человечества.

Когда человек устал поднимать и перетаскивать тяжести, он изобрел рычаг и колесо. Стало легче, но ненадолго. Однажды, вспотев, он стукнул себя по лбу и воскликнул: «Ну что, я лошадь, что ли?». И впряг вместо себя лошадь. Но скотина тоже требует ухода, а значит, и трудов. Задумался царь природы, и появился паровоз с паровым двигателем.

Лениться теперь можно чаще и дольше. Да вот беда: паровоз ездил только по рельсам и был очень прожорлив. А лень постоянно шептала: «Придумай что-нибудь!». Появился автомобиль с двигателем внутреннего сгорания.

Вот я и закончил, в принципе, доказательство прочитанной когда-то гипотезы, что обезьяну в человека превратила лень. Теперь на очереди — дальнейшее развитие теории.
#218 #907367
>>907171
Мутации случайны. А эволюция это мутации + естественный отбор. Вот мутировал ген в зиготе, из-за чего поменялся код белка немного, а затем из-за этого существо было более слабое и не дожило жо размножения. А динозаврику Ерохе повезо и он быстрее убегал, и его не зохавал тиранозавр.
907503907563
#219 #907393
>>907281
два "тралля" переписываются друг с другом кто-кого перетраллит.
#220 #907503
>>907367
>>907171
А я вообще считаю что первичны информационные поля и их эволюция. Остальное хуйня вторичная.
907563
#221 #907563
Почитал я немного за это ваше генетическое программирование, с одной стороны, неблохо. А с другой, в области символьной регрессии н-р, классификации и идентификации систем, существующие решения представляют собой примитивнейший и наитупейший вариант того, что в совке разрабатывалось академиком Ивахненко под названием "метод группового учета аргументов" (МГУА). Читал эту его книжку http://gen.lib.rus.ec/book/index.php?md5=E73366E46C7B2375264EA47C1C09F4C5 1975 год, по сравнению с генетическим программированием для нужд символьной регрессии выглядит вообще как литература из далекого будущего, лол. Все обосновано доказываемыми тут же в тексте теоремами, вместо примитивных функций приспособленности на основе среднеквадратической ошибки - в т.ч. комбинированные критерии несмещенности и баланса переменных и т.д. Книжке больше 40 лет. Хотелось бы оправданий.
>>907367

>Мутации случайны.


На самом деле нет. Разные гены по-разному подвержены мутациям, что-то в принципе использует мутации как рабочий механизм (в иммунной системе такого полно), что-то миллионами лет почти не меняется (гены консервативных доменов РНК-полимераз, н-р). Представлять мутации как гауссово распределение на всем генотипе неправильно, там все сложнее.
>>907503

>первичны информационные поля и их эволюция.


Какие поля, школьник? Как ты себе представляешь "информацию" в отрыве от ее материального носителя, в данном случае, генов?
907796
#222 #907796
>>907563

>Какие поля


Поля образующие информационную сеть. И разум.
907803
158 Кб, 640x431
#223 #907803
>>907796
Лайно, ты штоле? Богоскоп уже создал?
907808
#224 #907808
>>907803
Здравствуй, клоун. Как живётся в режиме постоянной анальной клоунады?
#225 #907817
Бля, стоило на 10 дней уехать, как вы тред хуй пойми во что превратили.
Тут мл, а не около-AGI, уябывайте в тред с сильным ии.
907827
#226 #907819
И ладно бы UAI или ватсонов с когнитивными архитектурами обсуждали, ересь же несёте, сравнимую с телегонией.
907827
#227 #907827
>>907819
>>907817
Ок, чувак, укатываюсь. В философаче проблему ии никогда не потянут. Здесь же никогда не потянут проблему философского познания.

Признаю, реально мой косяк.
907832907834
#228 #907832
>>907827
давай потяну что-нибудь. я, кстати, первый был, кто поднял проблему ИИ в программаче и создал первый ИИ тред.
философокодер
907936907947
#229 #907834
>>907827

>проблему философского познания


жалкие потуги гуманитариев в абстрактное мышление
16 Кб, 480x360
#231 #907839
Как вам философская проблема познания машин, обыгранная в Вестворлде бтв?
HBO держит нос по ветру.
907848907936
78 Кб, 604x453
#232 #907847
>>906961

>Родина разума там, во льдах и снегах, там до сих пор умным жить лучше всего.


Цивилизовационными центрами совсем недавно были Месопотамия, Египет, Древняя Индия, Китай. постепенно они стали мигрировать на Север - в Грецию, Рим, Европу. Потом англосаксонские колонисты благодаря наработанным технологиям вновь откинули центры цивилизации в более теплые и благоприятные широты - Америка, Австралия, Юджная Африка. Постулат зависимости разума от широт в корне не верен. Достаточно взглянуть на Рашку.
#233 #907848
>>907839
Дропнул эту тягомотину после третьей серии. Как раз из-за морально/этических проблем машин и ебли с ними высосанных из пальца, которые меня совершенно не интересуют.
907861907972
#234 #907852
>>906687
лол пиздос
#235 #907861
>>907848
Ты что не понял, что на примере машин рассматривались глубинные метафизические проблемы людского бытия?
#236 #907895
Но ведь эти ваши нейроночки это просто работа над матрицами, не? Ведь в мозгу нейроны перемещаются даже.
907898
#237 #907898
>>907895
Ну там ещё всякие теор.веры с теориями оптимизации и немного цос, хуйня делов ваще.
907907
#238 #907907
>>907898
Но ведь все-равно не получается динамично?
907909
#239 #907909
>>907907
Чего динамично? Функций Ляпунова хочешь? Есть где-то старые книжки, где это всё интерпретируется с точки зрения динамических систем. Нечёткопетух вот целую книжку кидал, можешь её посмотреть.
376 Кб, Webm
#240 #907936
>>907839
Говно. 0 из 10. Актуально было 10 лет назад.
Я этого говна поел - и порицаю. Сперва добился, так сказать. Посмотрел на скорости 1.7.

>>907832
Ты вот кодер, а мне всё таки надо чёто решать, иначе будет плохо. Искать где и как вообще, кем работают философы-наркоманы вроде меня. Отовсюду пидорнули, грубо говоря, да и смысл, я лучше сам съебу, чё нервы-то зря тратить. Жизнь, знаете ли, коротка.
Аноним #241 #907947
>>907832
Держи емейл, в общем. Съебу чтоб не флудить. Нахуй. Реально. Только смысла особого я прям не вижу в общении.
#242 #907972
>>907848
там после 4-5 серии экшн и детектив начинается, но философия, аи и тд плохо продуманы, хуже, чем в бегущем по лезвию
#243 #907973
Ананасы, а почему не существует какой-нибудь "теории архитектур искусственных нейронных сетей"? Современное положение дел до боли напоминает мне средневековую алхимию. Открываешь очередной пэйпер а там в начале для приличия стоит p(x) = П p(xi |x1...xi-1), а потом начинается "ну мы тут подумали, что если вот тут сложить, то градиентам будет легче течь. О! Кажись текёт!". Какой-то, блядь, ТЕПЛОРОД.
907981908104
4 Кб, 1175x33
#244 #907974
>>900205
задавай свои ответы, 8 это оценка, если что
#245 #907981
>>907973
Есть мнение что нейронки настолько сложная йоба, что полностью понять схему и логику её работы и пояему она выдает конкретне ответы, могут только несколько йоба математиков земляшки
остальные что то знают и хуярят от фонаря, выбирая сеть эмпирически.
#246 #907982
>>900205
Были и есть.
#247 #907987
Записался на курс по машинному обучению и анализу данных от МФТИ и Яндекса на курсере. Оплатил специализацию. Как думаете стоит оно того? Деньги не большие, но хотелось бы найти работу в Москве по окончании этих курсов. Реально?
Может кто-то из анонов уже проходил их, что посоветуете?
908048
#248 #908048
>>907987
Мнение около-датасаентиста: только курсы на курсере тебе не дадут вкатиться, потому что работодатели требуют нихуевое знание теории машоба совмещенное с нихуевым знанием программирования. Это не учитывая того факта, что курсы на курсере крайне поверхностны (курс воронцова еще норм, но без хорошего знания матана ты ебанешься с его слайдов)
919879
#249 #908104
>>907973

>Ананасы, а почему не существует какой-нибудь "теории архитектур искусственных нейронных сетей"?


Существует, с конца 60-х годов, вот пример книжки в тему >>900766 Слесарям такое ненужно, import tensorflow as tf можно делать без понимания происходящего, как и хуярить побольше слоев.

>Современное положение дел до боли напоминает мне средневековую алхимию


Алхимию обижаешь таким сравнением. Там хоть какой-то базис под происходящее подбить пытались. А тут вообще что-то уровня "берем, подставляем, так хуе-мое, падажжи ебана". Отсюда и плачевность результатов, по сравнению с 80-ми прогресс только за счет нереального роста мощностей камплюктеров, отсюда вся эта лекуновская сверточная ебулда и показывает результаты лучше, чем пказывала в 80-е. А по делу там только сигмоиды на релу поменяли.
#250 #908162
>>900102 (OP)
Да, пасаны, чё-то мне кажется, что чтобы реально шарить в дата сцаенсе нужен нихуёвый такой матан и тервер. И знать, как применять его на практике самое главное. И это ещё к тому, что надо знать какой-нибудь путон/R/жабу.
Это же просто пиздец же. У тех, кто заканчивали только бакалавр на погроммиста шанса вообще нет, только у тех, у кого специальность была связанная с статистикой. Ну может быть разве что шанс есть у тех, кто пошёл дальше на магистра и были какие-то курсы про машин лернинг, но этого всё равно недостаточно же.
908183
#251 #908179
http://www.wired.co.uk/article/lsd-microdosing-drugs-silicon-valley
обкурятся своим лсд и шаманят с цифрами не понимая сути
#252 #908183
>>908162
Так и есть. Можно наугад тыкать готовыми инструментами, но что в таком случае тебя будет отличать от слесаря (ты жы сцаентист)? Под "реально шарить" будет подразумевать возможность вести исследовательскую деятельность, а подобным обычно занимаются люди с phd.
908199
#253 #908199
>>908183
Но знаешь, с другой стороны, можно работать в сфере связанной с дата сцаенсом, только на более техническом уровне, то есть как бы в тандеме с аналитиками, которые шарят в матане/тервере и они тебе уже говорят, какой алгоритм применить, какие данные использовать и ты уже имплементишь. Чего-то мне кажется, что именно так оно и работает в больших компаниях. Всё-таки, чтобы правильно распарсить данные надо знать предметную область, откуда эти данные и +знать матан.
908291
#254 #908278
Короче, надо, как в фильме Сфера, набирать команду из биолога, математика, физика, программиста, роботехника и философа. И хуярить это дело в команде. Один лишь программист столь глобальную задачу не осилит.
908305
#255 #908291
>>908199
Так и работаем: математик, дэйтаслесарь и байтослесарь.
#256 #908305
>>908278
биолог: Ну короче есть нервная система, в ней нейроны, синапсы-хуинапсы, импульсы по ним проходят, дальше не моя специализация
математик: Возьмем p(x) = П p(xi |x1...xi-1), а дальше тупой перебор параметров, иначе не сойдется с вероятностью Φ
физик: Чего надо-то? Могу током ёбнуть.
программист: Мудаки вы все, лучше я сам ИИ напишу на питоне
робототехник: Не надо на питоне, он в ардуину не влезет!
философ: Такие дела...
908312908324
#257 #908310
Отписавшимся выше про биологии, психологии и прочее срочно пиздовать читать Гёртцеля и Курцвейла:
http://wp.goertzel.org/
http://www.kurzweilai.net/
#258 #908312
>>908305
В голосину.
#259 #908324
>>908305
1. Берем физика и робототехника. Они делают хреновину для стимуляция мозга электрическим током, который работает по кнопке. Надевают эту хрень программисту, и если что-то не так дают ток для стимуляции мозговой деятельности.
2. Программист должен для разминки сделать синтезатор голоса. В этом этапе проверим работу первой хрени и оттестируем на программисте. Пусть для голоса образец дает философ.
3. Дальше берем биолога и робототехника. Биолог тащит таракана. Дальше робототехник и биолог делают устройство для манипуляции тараканом. На его базе...

Да все просто, вообще.

мимо
908326
#260 #908326
>>908324
Математик тоже нужен, просто где-то на 4 этапе.
908327
#261 #908327
>>908326
Или можете посадить его за кнопку.
#262 #908339
Поясните за машину Геделя
908342
#263 #908342
>>908339

>машину Геделя


Машина, оптимизирующая сама себя.
http://people.idsia.ch/~juergen/goedelmachine.html
908348908822
#264 #908348
>>908342
А кратко можешь рассказать суть?
908350
#265 #908350
>>908348
Здесь простая схема итерационного алгоритма.
Есть машина, решающая задачи. Задачи она решает как-нибудь необязательно оптимально. Мы ставим машине задачу улучшения самой себя, ну и она как-то себя улучшает, может быть не очень хорошо, но улучшает. И эта процедура повторяется много раз, в итоге процесс сойдётся к некоторой оптимальной машине.

Ну и по ссылке abstract:
We present the first class of mathematically rigorous, general, fully self-referential, self-improving, optimally efficient problem solvers. Inspired by Kurt Gödel's celebrated self-referential formulas (1931), a Gödel machine (or `Goedel machine' but not `Godel machine') rewrites any part of its own code as soon as it has found a proof that the rewrite is useful, where the problem-dependent utility function and the hardware and the entire initial code are described by axioms encoded in an initial proof searcher which is also part of the initial code. The searcher systematically and efficiently tests computable proof techniques (programs whose outputs are proofs) until it finds a provably useful, computable self-rewrite. We show that such a self-rewrite is globally optimal - no local maxima! - since the code first had to prove that it is not useful to continue the proof search for alternative self-rewrites. Unlike previous non-self-referential methods based on hardwired proof searchers, ours not only boasts an optimal order of complexity but can optimally reduce any slowdowns hidden by the O()-notation, provided the utility of such speed-ups is provable at all
908822
#266 #908362
Вот серьехно ребят, открываю первые ж книги куча пиздец информации, нет ли норм плавного введения аля как какие нибудь курсы удасити?
908363908364
#267 #908363
>>908362
Есть же ссылка на курс от китаёзы в шапке.
908366
#268 #908364
>>908362
Курс от хуяндекса на курсере есть ещё.
#269 #908366
>>908363
Но там уже сложно. А я крудошлепом сейчас работаю, мне б пререквесты нужны, либо просто на курсэру пиздовать?
908374908377
#270 #908374
>>908366

>You can watch up to 4 videos per week. Subscribe for unlimited access.



пИЗДЕЦ КУРСЭРА СКАТИЛАСЬ, платное все
908377
#272 #908397
Поясните добиваются ли нормальных результатов чат боты на нейронках или для ботов юзают другие алгоритмы? Тот же cleverbot от гугла на чём сделан?
908405
#273 #908405
908558
#274 #908489
>>908377
Благодарю, завтра на работе начну
#275 #908558
>>908405
Из проблем пишут, что Seq2seq и прочие подходы, основанные на LSTM склонны давать однотипные и простые ответы типа "Да", "Не знаю". Наверное, либо с обучающими данными можно что-то похимичить, ну, и сейчас начали появляться всякие оптимизации на эту тему.
#276 #908782
>>900102 (OP)
http://data.stepik.org

норм тема для старта?
908798908803909074
#277 #908798
>>908782
дораха
908803908972
#278 #908803
>>908782
>>908798
А главное, перескажут какого-нибудь бишопа или еще какую хуитку, которую и так на каждом углу прочитать можно.
908972
#279 #908822
>>908342
>>908350
Эту вашу машину Геделя где-нибудь уже реализовывали? Ничего конкретного не гуглится.
908982
#280 #908972
>>908798
>>908803
Дауны, там все бесплатно это доступно, а заплатить только за экзамен можешь.
Я про сам план
909019
#281 #908982
>>908822
Вангую, что есть какие-нибудь попытки, но судя по тому, что особо громкого ничего я не слышал, они были не самыми удачными.
#282 #909019
>>908972
Зарегался. Для вката пойдет, имхо. Потом можно что-то от муриканских товарищей посмотреть.

Вот это еще рэйтаните: http://course.fast.ai
#283 #909054
Чем плох язык Рррр R?
909075909738
#284 #909074
>>908782
Заинтересовался, но это получается 12*1999 = 23988 руб. За год обучения, копейки же.
Другое дело диплом то этот не стыдно будет показать? Блять платных курсов расплодилось как говна за баней, такое чувство что это все наебалово, ну вот дадут бумажку, но рыночек то уже порешал все, ведь так?
909102909154
#285 #909075
>>909054
он не для картавых.
909278
#286 #909102
>>909074
год? ты чо даун?
там вес быстро можно

алсо если ты туда ради бумажки идешь - плохие для тебя новости
#287 #909154
>>909074
Каждый делает что может.
Кто-то работает, кто-то учит.
Сделай так, чтобы не стыдно было показать знания.
Бумажка тут ничего не значит - учителей много, знаменитых мало.
Но знания одни и те же, знаменит учитель или нет.
Тебе остается либо принять их, либо нет.
#288 #909196
>>905298

>почему выучить формальный язык вообще проблема


Потому что я параллельно ебашу топологию/дифф. геометрию/Ли-алгебры/спектральную теорию, квантовую теорию поля для конденсированных сред и немецкий язык. Распыляться еще на 2-3 языка программирования, не будучи программистом - не рационально (читай верх тупизны). Прочитать-то книгу всегда можно, но надо предварительная практика (то есть проработать всю книгу) + постоянная последующая работа в данной языковой среде, а если мне для всего достаточно R и я практически никогда не открою Python, то зачем мне вообще начинать?
909205909738
#289 #909205
>>909196
У нас программистов не принято дрочить на язык. Вкатывайся куда хочешь, особо разницы нет. В интернете куча сравнения r vs python. Если уже наметил план того, что тебе нужно выучить в R (ты там литературу называл), бери и учи. Если для тебя вдруг не хватит R для каких-то целей (это произойдёт точно не через неделю), ты удивишься насколько всё легко в питоне. Крч, за время рассуждения r vs python ты бы уже прочитал пару глав по R. Ещё раз повторюсь, у нас тут дрочат не на инструмент, а на продукт
909216
#290 #909216
>>909205

>за время рассуждения r vs python ты бы уже прочитал пару глав по R.


Я уже прочитал. Я и в питоне работал по учебнику Langtangen'а, но все упирается в время. У меня, не-программиста, времени на "что-то еще" нет. Под все остальное проще доучить Mathematica.
#291 #909223
Ребят люблю копаться и что то искать. Хотел купить металлоискатель и искать золото, но решил что с питоном можно тоже копать. Я так понял юзаются графы, деревья, парсинг, регулярки. Что такое kaggle? И как можно с этим всем зарабатывать деньги?
#292 #909278
>>909075
Я картавлю, шепелявлю и вокаю.
#293 #909565
http://www.dailytechinfo.org/infotech/8813-uchenye-zastavili-chipy-pamyati-vystupit-v-kachestve-processorov-vypolnyayuschih-obrabotku-dannyh.html Такие дела, хотят скрестить память и вычисления, да сделать троичные еще.

Впрочем, один парень уже писал об этом давно http://lexpartizan.livejournal.com/451468.html
909650
#294 #909620
Посоны. Вот сделать бы бота для соцсетей, который после диалога выдает ссылку на сайт монетизирующий переход. Нейросети лучшие для этого или лучше простенький алгоритм?
#295 #909650
>>909565

>хотят скрестить память и вычисления, да сделать троичные еще


опять FPGA изобрели?
#296 #909738
>>909054

>Чем плох язык Рррр R?


2,5 местных школьника сошлись на том, что нимодна. Кроме этого ничем не плох.
>>909196
Я тебе уже пояснил. Единственная область, в которой пистон всухую уделывает R - это сверточные нейроночки. Не то чтобы в R их нет совсем, но это тот случай, когда на пистоне сделано реально лучше, больше, проще, удобнее и материала в разы больше (документация, примеры, туторы, т.д.), не могу не признать это даже как фанат R.
909768
#297 #909768
>>909738

>Единственная область, в которой пистон всухую уделывает R - это сверточные нейроночки.


Которые мне, как я понимаю, совершенно не нужны. Так бы и говорил - "бери R и не парься", а то еще какой-то второй язык программирования придумал учить.
#298 #909804
Как сделать логические операции на нейросетях? И можно ли получить из этого профит?
909817909831
#299 #909817
>>909804
Профита нет. Слишком дорого.
А сделать просто: скормить нейросети таблицы истинности логических операторов.
1306 Кб, 2592x1944
#300 #909831
>>909804
Нейронечеткие сети же. По-сути, нейроночки на логических операторах. Профит в прозрачности готовых моделей анализируемых систем, сводящихся к логическим конструкциям уровня "если а или б то ц" и т.д.
909863
#301 #909863
>>909831
Можешь посоветовать материал по ним?
909864909865
#302 #909864
>>909863
КОКОСКО!!!!
КО-КО-КО-КО-КОСКО!!
КОСКО-КО!!!
КО-КОС-КО-КО!!
909865909867
#303 #909865
>>909863
Для начала - А. Пегат, "Нечёткое моделирование и управление".
>>909864
У Коско по нейрофаззи-моделям тоже немало, кстати.
909867
#304 #909867
>>909865
>>909864
Какой уровень математики надо?
909873909874
#305 #909873
>>909867
Нечеткие множества жи. Все, что надо, есть у Пегата. В остальном, ну бэкпропагейшн надо понимать как работает.
248 Кб, 574x547
sage #306 #909874
909875909890
#307 #909875
>>909874
Нечеткого йобу дорисуй еще.
#308 #909890
>>909874
извлечение из чётной степени даёт модуль
#309 #909920
К слову, изначальная идея Маккаллока и Питтса была именно в том, чтобы представить нервную активность в виде исчисления высказываний с помощью наборов элементов (нейронов).
#311 #911743
Анон, хотелось бы услышать твое мнение насчет облачных серверов для вычислений по типу microsoft azure или amazon aws, есть ли в них преимущества или могу не парится и брать сразу титан х?
911952911967
#312 #911952
>>911743
попробуй сначала на облаке - если не зайдёт всегда можешь купить титанх/2080ти
слышал на азуре инстанцы получше, на ашс тормозит
#313 #911967
>>911743
смотрел на ютубе яндекс, многие используют амазон для кеггла
#314 #912167
Что имеют в виду, когда говорят, что нейросеть понимает текст?
912197
#315 #912197
>>912167
Возможно, имеется в виду возможность нейроночек классифицировать текст по семантической схожести. Такая возможность и правда существует. Но спциализированные алгоритмы для этого подходят больше (LSA, LDA, topicmodel).
912225
#316 #912225
>>912197
И все эти решения, включая нейросети, просто строит граф с отношениями слов и фраз?
912297912493
#317 #912297
>>912225
не совсем, насколько я понимаю, смотрят просто какие слова встречаются вместе с какими словами в какой категории текста, но без графов, просто вероятности
#318 #912455
Анон, начинающий ИТТ просит помощи. Так вот, скачал с гита https://github.com/fujimotomh/char-rnn-tensorflow для генерации текста, в инпут засунул кучу примерно одинаковых новогодних поздравлений (просто для примера), и с 512 нейронами в 2 слоя мне удалось добиться loss в 1.8-1.9. Дальше при увеличении кол-ва нейронов до 1024 или слоев до 4 с 512 loss не падает за пределы 3.4-3.5, втф? Может это локальный минимум и она типа застряла там? Я играл уже и лерниг рейтом, не помогает, а при 512 х 2 она выдает просто белиберду. Что делать? Или увеличить инпут? Заранее спасибо.

P.S. На macbook pro 13" late 2013 с i5 2.4 + 8gb 1024 нейронов тренируются 25 часов. Ахуеть.
912487912496
#319 #912487
>>912455
куча - это сколько конкретно?
912501
#320 #912493
>>912225
Там по-разному можно, в зависимости от конкретной реализации конкретного алгоритма. Есть и графы, и многое другое. Есть и нечто типа режима вопрос-ответ. Т.е. ты реально спрашиваешь обученную модель, она тебе отвечает. Это есть тута https://cran.r-project.org/web/packages/lsa/index.html https://cran.r-project.org/web/packages/LSAfun/index.html но как я говорил выше, это не нейроночка, а LSA. Там авторы пишут, что эта модель как нехуй проходит тест на знание языка, где нужно подобрать синонимы - TOEFL. Есть примеры использования, где модель рекомендует похожую книгу. Если нужны именно нейроночки, могущие в семантику, есть растуще-иерархические карты Кохонена http://www.ifs.tuwien.ac.at/~andi/ghsom/ http://www.ifs.tuwien.ac.at/dm/somtoolbox/ Вот пример, где такой алгоритм иерархически сортирует новости (например, война - война на Балканах - Милошевич) http://www.ifs.tuwien.ac.at/~andi/ghsom/experiments.html Что интересно - на язык нейроночке похуй, там пример с РИАновости, вроде было что-то с каким-то китайским новостным агентством и т.д.
#321 #912496
>>912455
Генерация текста нейроночкой - это что-то типа https://twitter.com/neuromzan не? Задачи какие?
912501
#322 #912501
>>912487
попробовал на разном количестве от 1 до ~8мб текста в .txt файле (большее на ноуте вечность будет просчитываться... наверное). Попробовал погуглить, скорее всего мало данных для большей сети + попробовал понизить лернинг рейт и уже получил 1.7 на 1/4 обучения с теми же 512 нейронами.
>>912496
Хочу просто попрактиковаться, пытаюсь получить более менее осмысленный текст, но никаких особых задач нет.
#323 #912950
>>900102 (OP)
Я чет не пойму как ваще юзают куду, если там локальная память сильно ограничена, кажись 48к, а глобальная типа медленная? Или там все равно можно нормально работать с глобальной тока, чтобы не заморачиваться с локальной и
это все равно будет быстрее чем на проце?
913109
#324 #913109
>>912950

>48к


А тебе сколько надо?
# OP #325 #913476
видел сегодня в метро лысый индус читал бишопа и мёрфи на планшете
вкатывайтесь быстрее мои милые нейроночки пока индусы не захватили все хорошие рабочие места
913786
#326 #913740
В следующем треде в шапку в список возможных нанимателей ИМО стоит добавить всякие консалтинговые компании.
inb4 кто туда двачера работать возьмёт
#327 #913786
>>913476

>лысый индус читал бишопа и мёрфи


Оно для лысых индусов и есть.
#328 #914760
Шапку читал, тред осилил. Уже ловлю на себе неодобрительные взгляды анонимуса, но подскажите готовые либы на С++ под винду.
Практически остановил свой выбор на FANN, но может какую-то стоящую либу пропустил во время поиска.
914903915070
#329 #914903
>>914760
Господа, поясните про нормирование. Стоит ли нормировать признаки для того же титаника&
#330 #915070
>>914760

>подскажите готовые либы на С++ под винду


R. Присутствуют все мейнстримные и не только нейроночки.

>FANN,


Сладкий хлеб.
915415
#331 #915415
>>915070
>>915099
Спасибо, аноны. Нейроночка - лишь часть проекта основа которого на С++ && Windows. Так что буду смотреть в сторону tiny-dnn.
916468
#332 #915511
Бля, анончики, че-то чем дольше занимаюсь нейроночками , тем больше прихожу к выводу, что и я сам мало отличаюсь от нейроночки. Фактически я так же занимаюсь преобразованием входной информации в сигналы управления телом, и у меня как у рекуррентной нейроночки есть внутреннее состояние. Я даже не могу сказать, что я умнее нейроночки, потому что есть много задач, которые она выполнит лучше меня.

А что, если эмерджентная теория сознания права, и наличие сознания определяется лишь сложностью организации вещества? Получается, что стирая нейроночку с диска, я убиваю живое существо?
915641
#333 #915522
Поясните плиз на хуях, какой термин в нейронауке отвечает за минимальную единицу "понимания" данных? Не распознавания. Понимания распознанных данных.
915534915558916067
#334 #915534
>>915522

>нейронауке


паржал, это шарлатанство уже так называется?
#335 #915558
>>915522
Связь между двумя нейронами. Например нашей сети нужно понять, что если у человека есть хуй, то у него нет сисек. На входном нейроне наличие хуя будем кодировать как 1, отсутствие 0. На выходном наличие и отсутствие сисек так же 1 и 0. Тогда, чтобы закодировать "понимание" того, что у мужиков сисек не бывает, мы устанавливаем значение веса связи в -1, а bias в 1.

Y=Wx+b

x вход, y выход, W вес, b bias

Подали на вход 1, на выходе 1-1+1=0
Подали на вход 0, на выходе 0
-1+1=1

Все, теперь твоя нейроночка - эксперт по сиськам и хуям.
#336 #915559
>>915558
Там проебался знак умножения
1 -1 + 1 = 1
0
-1 + 1 = 0
915561
#337 #915561
>>915559
Злоебучая макаба

1 x -1 + 1 = 1
0 x -1 + 1 = 0
#338 #915564
>>915558
У тебя получился обычный логический элемент отрицания, или "НЕ". Который в микросхеме выполняется на одном транзисторе. Вместо ебанины с умножением, вычитанием, и двумя плавающими значениями.
Собственно, нейроны это тоже логические элементы, только не двоичные, а аналоговые.
#339 #915610
Разве мозг не аналоговый вычислитель с цифровой передачей импульсов? Тогда почему его сравнивают с компьютером?
915641
#340 #915611
>>915558
Но ведь у человека может быть и хуй, и сиськи. А может не быть ни того, ни того от слова вообще, из-за болезни или еще чего-то. И у мужиков есть сиськи, но как-бы недоразвитые. И у женщин есть хуй, но как-бы недоразвитый. Какой же это эксперт?
#341 #915641
>>915511
Может быть, тебя удивит, но нейроночки изначально и создавались как модели биологических нейронов и их совокупностей. Пусть даже как сколь угодно хреновые, но модели.
>>915610

>аналоговый вычислитель с цифровой передачей импульсов


Каша у тебя в голове. Нет там ни вычислений, ни цифровой передачи.
915667
#342 #915667
>>915641
А что там есть? Каша?
915683
#343 #915680
>>915558
Чёт проиграл. Объяснять почему ты не ответил на вопрос лень. Может быть завтра отвечу, щас я заебался слегка.
915683
#344 #915683
>>915650
Уроки иди делай, орифметик. Тут речь о функциях типа 0 = f (1, -1, 1) и 1 = f (0, -1, 1)
>>915667
Если вкратце то да, каша. Преобразование сигналов за счет свойств среды и изменение среды за счет свойств сигналов.
>>915680
Хуйня твой вопрос и сводится к определению номинальной дефиниции (nominal definition). Если хочешь - загугли и попытайся понять. Если не поймешь - тебе оно и не надо.
916067
#345 #915710
Почему нейроночки обучаются так долго?
915717
#346 #915717
>>915710
Потому что это типичные асимптотически-эффективные алгоритмы >>900766 разработанные без учета понимания проблемы.
248 Кб, 778x960
1143 Кб, 2592x1944
#347 #915864
Если еще в 2015 году всякие теаны рассчитывались для одного физического девайса, то следующее поколение подобного софта отличается тем, что изначально делается для распараллеливания работы на физически разных устройствах (tensorflow, MXNet, т.д). Притом, что дальше распознавания котов и перерисовывания их под Пикассо все равно не уйти, если у тебя нет в наличии хотя бы нормального инстанса от амазона / т.п. Это 100% путь в никуда, будущее глубокого обучения - это глубокий бустинг и deepSVM.
915888
#348 #915888
#349 #915969
Машобачеры, куда можно устроится студенту в ДСе? Запилил дипдрим, классификацию изображения и сейчас думаю генерацию фраз сделать. Но на все вакансии нужен сениор-помидор 6 лет опыта, а для студента нашёл только место в яндексе, но думаю туда не попаду. Где ещё искать кроме ХХ? Не становиться же хэтээмэль программистом только ради опыта.
916037
#350 #916037
>>915969
Если ты не можешь попасть студентом в Яндекс, нахрен ты кому-то сдался?
А вообще, в Яндекс просто относительно попасть, осло попробуй съездить на стажировки в Гугл/МС. Я серьезно.
916425
#351 #916067
>>915683
В мозгах ирл нет никакой номинальной дефиниции, номинальная дефиниция лишь фантом, которого на самом деле вообще нет. Как и любой математики, которая лишь в сознании людей, где все договорились о её существовании.

>>915522

>какой термин отвечает за минимальную единицу "понимания" данных


>Не распознавания


Ответ

>Связь между двумя нейронами



Связь между двумя нейронами ничего не значит. Это лишь связь, которая будет идентифицироваться и интерпретироваться в дальнейшем. Без интерпретации любые данные ничего не значат. Они просто данные. Пустые и не рабочие. Один из главнейших этапов - этап интерпретации данных просто взят и проёбан вникуда. Я понимаю что зашёл в программач, но мне казалось, что, быть может, здесь бывают ответы и вне темы оп постов. SCI, к сожалению, раздел полностью зашкварный.

В любом случае, если бы такая единица была введена, единица понимания. Тогда ВСЮ техническую и научную литературу можно было бы переписать согласно пониманию работы этой минимальной единицы понимания. Единицы понимания человеческой. В машине можно ввести псевдо-единицу псевдо-понимания. Но к реальному пониманию оно никак не приблизится. Лишь к механическому оперированию данными. Механическое оперирование != понимание.

>>915558

>Все, теперь твоя нейроночка - эксперт по сиськам и хуям.


Вот только она не _понимает_ что там сиськи и хуи на самом деле. А делает лишь то что ей показали. Без какого лишь понимания. Понимания здесь никак нет. И не предвидится.

И всё таки я задефайню, пожалуй, некую единицу понимания. С словесной доходчивостью у меня всё таки есть некие проблемы.

В теории, это минимально необходимый набор данных достаточный для успешного функционирования системы распознавания с максимальным количеством удачных попыток распознания.
Клоунада со слоями, к сожалению, к этому не относится.
916101916167
#352 #916101
>>916067
жаль, что тред - одна безграмотная псевдофилософия, но ок, как философ философу, а почему ты решил, что ты что-то понимаешь? тебе кто-то сказал, что это сиськи, ты считаешь это сиськами, да и что там понимать. Разве есть ли в твоей жизни что-то, что выходит за рамки повторения, наблюдения закономерностей в природе?
твое определение не работает, у всякой системы есть шум и тд и тп
а слои профита не дают
916110916111916113
#353 #916110
>>916101
Есть. Поиск решения задач.
https://2ch.hk/v/res/1684301.html (М)
Недавно создавал тред в /v/ в надежде на какие-то подсказки по данной теме. И она была найдена. Предположительно она в ответе на вопроc
"Чем отличается поиск хорошо и талантливо спрятанного от решения задачи?"
В целом, по моему, в треде ничего интересного кроме моих собственных постов (и названий игр, само собой) толком и нету, процитирую, по моему, главное

>Есть ли по настоящему интелектуальные игры,


а не на статистическое задротство на основании предыдущего опыта(шахматы/рандом настолки), скорость спинно-мозгового мышления(шутерки), задротсва ради гринда(миллионы их)?

>А такие, где решаются задачи, которые хуй знает как решить просто, и подсказок просто не может быть?



>По настоящему рвать манямирок может только такая ситуация, где есть простое решение, а ты просто не знаешь куда и как копать, включается рейдж мод, ты рвёшь зубами стены уже, а всё равно нихуя непонятно с какой стороны подходить к ситуации



>Кстати с этим знакомы многие люди которые играли в игрухи когда-то давно, начинали только, лет в 5, например. Когда какая-то часть игры рвала ебло просто и пройти её можно было только вернувшись туда через месяцок (чит кодов тогда не было даже в проекте, тогда. Когда-то), но и тогда, возможно врубился бы рейдж мод уже в другом месте этой игры. И так пока игра не пройдётся в сто первый раз. В стотысячный. Но ты всё равно порвав себе еблище поймёшь чё ты не так сделал и как надо было.



>Т.е предположительно должно быть чёто где память вообще не играет никакой роли и никак никому не поможет, а предыдущий опыт просто идёт нахуй как бесполезный



>Говорят, такими экспериментами баловались военные в семидесятых, но потом забросили это всё, потому что многие подопытные крышей ехали.

916127
#354 #916111
>>916101
Я заметил такую хрень. Когда чёто не знаешь, сначала идут попытки, простые попытки решить задачу. А потом идёт "зависон" в виде "закипания мозгов". Вот он и есть тот самый искомый элемент
916122
#355 #916113
>>916101
https://www.youtube.com/watch?v=y0o1BYwR0vY
Решение где-то рядом, в несуществующих глитч уровнях марио и этим http://dump.bitcheese.net/files/zyhukyc/всё_как_у_бойца.mp3
#356 #916122
>>916111
Мозг понимает, что нет смысла тратить драгоценную энергию на решение нерешаемой задачи, и забивает на нее.
916124
#357 #916124
>>916122
Годно ты себя обосрал.
916125
#358 #916125
>>916124
В каком же месте?
Ты можешь что-то по делу отвечать?
#359 #916127
>>916110
Любые новые идеи строятся из уже известных идей, по другому никак абсолютно. Так что хуйня типа "без памяти и без прошлого опыта" - полная хуйня.
При решении задач просто кто-то хорошо умеет выделять необходимые грани и комбинировать их в наиболее пригодном виде, а кто-то не очень хорошо.
#360 #916167
>>916067

>В мозгах ирл нет никакой номинальной дефиниции


Вот как раз самая она и есть, в самом что ни на есть чистом виде - неканонические элементы (воспринимаемое, н-р) считаются в ионный ток (канонические элементы) в смысле конструктивной функции, н-р по Колмогорову.

>номинальная дефиниция лишь фантом, которого на самом деле вообще нет


В данном случае это название и формальное определение реально существующего в мозгах процесса. Ты просто не шаришь в теме, в которую пытаешься влезть.
917679
1045 Кб, 2592x1944
#361 #916199
Раз зашла речь про ИИ и разницу между распознаванием образов и пониманием, могу сказать, что в этом направлении все проще, чем кажется. Я как раз занимаюсь этим вопросом, задача сводится к тому, чтобы немного расширить интерпретацию логических констант по Брауэру-Гейтингу-Колмогорову до интерпретации по Брауэру-Гейтингу-Колмогорову-ананиму с мейлру переформулировав конкретно колмогоровскую интерпретацию на случай т.н. "нервной модели стимула" по Соколову. Получившаяся BHKS-интерпретация (одновременно получается и аналогичный изоморфизму Карри-Говарда изоморфизм Колмогорова-ананима с мейлру) позволяет напрямую использовать все ништяки MLTT в нейрофизиологии, профитов очень много, но в конткесте данной темы, это н-р, снимает т.н. "проблему китайской комнаты", сводя ее к номинальной дефиниции в BHKS-интерпретации логических констант. Если кто не в теме за китайскую комнату, а гуглить лень, скажу что это чисто гуманитарная маняпроблема, которой фуфлософы тралят математиков уже почти 40 лет, за счет довольно тонкой формулировки, которую почти никак не обойти. Маняследствиями этой маняпроблемы, н-р, является "невозможность ИИ" и "неадекватность теста Тьюринга".
916202916332921344
#362 #916202
>>916199
Все так сложно, все так запутано
#363 #916322
Что скажите за импульсные нейросети? Какие библиотеки есть?
#364 #916332
>>916199
мне кажется, что проблема китайской комнаты в том, что там считается априори, что понимание человека отличается от просто повторения машиной, но если эта машина имеет какие-то цели (которые просто выводятся на основе обучения и фиттинга), может объяснить это языком, выбрав наилучшую стратегию на основе данных, то получается, что и нет разницы между пониманием человека и пониманием машины.
916355917679
#365 #916355
>>916332
Там все сложнее, иначе бы и проблемы не было. Суть в том, что понимание как явление в принципе отделяется от механических вычислений, при этом показывается что из самих механических вычислений, даже в случаи когда они представляют собой ментальные конструкции, построимые человеком, не следует понимания вычисляемого.
917679
#366 #916425
>>916037
Спасибо, надеюсь устроюсь.
А какие есть советы перед собеседованием? Есть ли какие-то особенности собеседования? Будут просить развернуть список на доске? Или будет только МЛ-релейтед вопросы?
916533917349
#367 #916468
В продолжение к этому >>915415
Возник вопрос как конкретно по этой библиотеке, так и по любой реализации НС.
Как правильно нейроночка должна переварить отсутствие одного из входных сигналов?
При работе с картинками это не так актуально, хотя может быть и такое. Например, первое что пришло в голову - входными сигналами являются данные со счетчиков посещаемости, расположенных на разных сайтах. Сайт повис - данных нет. Что подавать во входной сигнал с этого сайта?
Старые(последние полученные) данные - можно, но не совсем то.
0 или отрицательное значение - тоже не совсем то(Идеально было бы отключить временно этот входной нейрон, но возможно ли это). В вышеупомянутой библиотеке, на сколько я понял, на вход подаются контейнеры с данными и просто выбросить один из входных сигналов не выйдет.
Как правильно подойти к решению данного вопроса?
916479
#368 #916479
>>916468
Нормальные нейроночки поддерживают N/A в качестве возможного значения входа, когда значения именно нет совсем, и нулем это заменить нельзя, т.к. 0 это тоже значение. Реализовано это может быть по-разному, в зависимости от конкретного софта.
#369 #916533
>>916425
один раз меня собеседовали в молодой и амбициозный стартап, меня спрашивали, как бы я ту задачу решил, как бы ту решил, как бы засунул гигантскую матрицу в память и тд, ну, короче, меня не взяли (но это был успех, меня всегда отсеивают еще на хедхантере)
#370 #916545
Я недавно в этом деле, изучил сеть Хопфилда. Правильно ли я понимаю, что нейросети это волшебство над матрицами по большей части?
916953
#371 #916953
>>916545
Зависит от того, что анализируешь, т.е. как это можно представить - скаляры, векторы, матрицы, тензоры. Нейроночке в общем случае похуй.
917002
#372 #917002
>>916953
но все равно потом ты будешь это перемножать с весами и производными, а перемножать ты будешь матрицы, так как так быстрее
23 Кб, 381x254
#373 #917291
Нужно разобраться в сети GRNN. Нашел подходящий пример:
https://github.com/CorcovadoMing/GeneralRegressionNeuralNetwork/blob/master/src/grnn.cpp
Что смущает:
- В коде нет двойки, на которую умножается сигма в квадрате.
На чем завис:
- Di в квадрате вычисляется как сумма квадратов разниц элементов входного и сохраненного векторов.
for(int i = 0; i < input.size(); i += 1) {
distance += std::pow(input - x, 2)
}, где input и х вектора по 2 элемента в каждом.
Идентично ли это формуле вычисления Di в квадрате на картинке?
917333
1202 Кб, 2592x1944
#374 #917333
>>917291

>GRNN, хопфилд


По старым нейроночкам угораешь? Там мало интересного. Тем более, все равно все это так или иначе разновидность стандартной аддитивной модели Коско пикрелейтед. То, что у тебя на пике вообще практически один-в-один.
917352
#375 #917349
>>916425
Если идешь на ML-специалиста, то инфа 100% будет хотя бы одна секция про чистый ML и вопросы как теоретические (че как чтобы быстро училось сделать?), так и приближенные к практике (даны данные про что-то, как сделать фичи, каким методом учиться), ну и сколько-то кодинга (вероятнее всего писать на питоне стоит). Если на кодерскую вакансию - очень качественно выбирай, куда идешь, не везде ты будешь делать сколько-то значимое количество ML, тут будет сильно больше секций кодинга, но если идешь на ML, его тоже спросят, но более в практическом ключе.
#376 #917352
>>917333
Та хотел все же разобраться в этом примере.
А то соответствует ли формула - непонятно.
Как представляются веса разных нейронов тоже непонятно. Получается при обучении если какой-то паттерн данных повторится несколько раз, это не дает ему никакого преимущества при последующей работе сети.
Хотя в теории все просто - формула с пика и все.
917367
#377 #917367
>>917352

>Как представляются веса разных нейронов тоже непонятно.


Радиально-базисные функции жи, экспонента расстояния между центром функции и конкретным входом х.
#378 #917393
Есть красивое ПО с гламурными кнопочками для гумманитариев?
917405917580
#379 #917405
>>917393
Гламурность обратно пропорциональна функциональности, вся годнота только через консолечку, либо платно (StatSoft Statistica). Если просто кнопочки потыкать посмотреть как работает, есть такая хуитка http://neuroph.sourceforge.net/index.html
#381 #917616
>>900102 (OP)
У меня есть задача. На компьютер поступает аналоговый звуковой сигнал. На компьютере сохранена цифровая версия источника сигнала. То есть имеется аналоговая и цифровая звуковые дорожки, первая идет в реальном времени, вторая лежит в папке. Нужно сделать так, чтобы компьютер воспроизводил цифровую звуковую дорожку синхронно аналоговой в реальном времени. Как сделать, связано ли это с нейронками?
917620917621
#382 #917620
>>917616
Почти вся работа со звуком достаточно проста, тебе скорее нужно знать что такое преобразование Фурье,
И уметь сопоставлять 2 источника звука имея какое-нибудь описание основное на Фурье разложении.
917623
#383 #917621
>>917616
Т.е нейронка не нужна.
917623
#384 #917622
Подкасты по теме слушаете? The talking machines слушаю, есть подобного еще?
917641
#385 #917623
>>917620
>>917621
Какого программиста нужно искать? Я сам гуманитарий, программа нужна для бизнеса. Есть друг-механик, который нужное оборудование для тестов предоставит, но в программировании мы оба не бум-бум.
917624917629
#386 #917624
>>917623
Специалиста по цифровой обработке сигналов.
#387 #917629
>>917623
Ох лол, не завидую тебе, поиск человека способного делать что-то сложнее чем мышкой кнопку на форму перетаскивать затянется. Даже не знаю где можно адеквата найти который бы взялся за такую задачу.
917632917640
#388 #917632
>>917629
Я год уже ищу, но теперь будет проще. Раньше я искал специалиста по распознанию изображений, теперь по звуку.
#389 #917640
>>917629

>поиск человека способного делать что-то сложнее чем мышкой кнопку на форму перетаскивать затянется


Судя по темам и постам, весь /зк полон икспертов во всех областях.
917644
#390 #917641
>>917622
начинал, но они болтают слишком много ни о чем.
я подписан на ститчере на data sceptic и becoming a data scientist podcast (но в последнем тетка вообще жесть, на хайпе тупо интервью берет)
#391 #917644
>>917640

>Судя по темам и постам, весь /зк полон икспертов во всех областях.


Судя по интернету, нейросети вот-вот у всех работу отберут и наступит сингулярность. Но ни один из 20 программистов достаточно высокого уровня подготовки не смог мне за год запилить программу, которая распознает картинку с вебки, если точно такая же картинка лежит в папке. Для всех это "нереальная задача", некоторые пальцем у виска крутили.
#392 #917656
>>917644
мб, ты мало денег даешь?
917681
#393 #917679
>>916332
>>916355
Надеюсь вы никогда не ответите на этот вопрос. Лол

>>916167

>Ты просто не шаришь в теме


Чёт опять проиграл. Как захожу - всегда проигрываю с первого прочитанного ответа. Это уже превращается в традицию.
#394 #917681
>>917656
Да нормально я даю.
Они даже цену свою назвать ни разу не захотели. Будто я пришел и сказал "сделайте мне фейсбук".
917723
#395 #917682
>>917644

>которая распознает картинку с вебки


Условия-то какие были поведения картинки-то?
917683
#396 #917683
>>917682
Просто показываешь на камеру распечатанную фотку картинки, которая в папке. Все. Я не ебу что тут может быть сложного. Если нейросети даже на такое не способны, то ну их нахуй.
917684917849
#397 #917684
>>917683
А "нормально" это сколько в твоём понимании?
917685
#398 #917685
>>917684
Это сколько попросят.
#399 #917708
>>917644

>ни один из 20 программистов


>винду переставить можешь, тыж программист


Тебе нужен программист, знакомый с Machine Learning, а не просто программист. Это, как говорится, две большие разницы. Не там ты искал. Твою задачу вполне можно решить нейронкой.
917719917794
#400 #917719
>>917708
Ещё один поехавший пихающий нейронки куда не попадя.
917725
#401 #917723
>>917681
А у тебя аналоговая и цифровая версия абсолютно идентичные или различаются? На входе может быть что-то кроме известной записи? Насколько точной должна быть синхронизация?
#402 #917725
>>917719
А как ты иначе картинки проиндексируешь?
917727
#403 #917727
>>917725
Куча дескрипторов и какое-нибудь сжатое 32x32 изображение, а потом из всех этих фич каким-нибудь простым алгоритмом типа SVM говорить одинакова картинка или нет.
917729
#404 #917729
>>917727
Херня, с вебки у тебя кривая проекция, поворот, наклон, свет не такой, много лишнего в кадре. Или ты предложишь подносить картинку и выравнивать, пока не совпадет с рамочкой? Даже в таком случае не факт, что у тебя будет хорошо распознавать.
917731
#405 #917731
>>917729
Есть дискрипторы инвариантные к поворотам и масштабированию. Короче это типикал задача Computer Vision, куча гайдов в интернете уже написана, причём лет 10 назад, работает конечно не 100%, но вполне приемлимо.
917794
#406 #917794
>>917708
Мне отказал админ крупной группы ВК, посвященной этой теме.
>>917731
Я даже программистам ссылки на эти гайды давал.
917802917895
#407 #917802
>>917794

>группы ВК


лол
#408 #917849
Господа, неужели эти ваши сверточные нейроночки в такое >>917683 не могут? Скажем, есть готовые картинки крокодила, залупы и сыра. Затем берется фотка с вебки и сравнивается с предыдущими на предмет сходства.
917869
#409 #917869
>>917849
Могут.
918158
#410 #917895
>>917794
создай на апворке предложение о работе, опиши задачу, проведи интервью. Думаю, кто-то за 15-20 долларов (или даже меньше) в час сделает.
918158
#411 #918032
В машинном обучении используются методы меметики?
918057
#412 #918057
#413 #918116
Реально ли сделать конвертер с помощью нейросети из врослой порнографии в детскую дабы потом продавать? Чисто теоретически.
918119918159
#414 #918119
>>918116
Нереально, тащ майор.
#415 #918158
>>917895
Ну это единственное что я еще не пробовал, но надо сформулировать запрос. Пока я не работал с источником звука это сложно.
И я рассчитывал баксов на 30, за 22 сейчас в Омске сайты делают.
>>917869

>раз денег нет заплатить


А ты по прежнему жопой читаешь.

>Лет за десять разберешься


Охуительный план.
918721
#416 #918159
>>918116
Чегооо блять???
#417 #918182
Каково мнение тредика на счет AI: Amodern aproach?
#418 #918197
>>918184

Тоесть если я хочу стать заебатым спецом-машинлернером то чить ее не стоит?
#419 #918264
Какие минимально алгоритмы и минимально программу надо для построения ИИ на уровне человека?
#420 #918296
>>918264
Нейросетки, очевидно.
#421 #918306
>>918264
нейтронная паутина
#422 #918495
>>918264
А ты думаешь пару алгоритмов выучишь, нейроночки задрочишь и уже сможешь ИИ сделать?
918506
#423 #918506
>>918495
Ну надо же как-то начинать
#424 #918565
>>918264

Учитывая что ИИ на уровне человека еще даже гиганты индустрии не запилили, то мало чего-то знать, нужно преодолеть существующие ограничения, может-быть это ограничения в вычислительных мощностях или отсутствие необходимых для этого теоретических знаний и идей.
918911
#425 #918619
>>918264
1. Индуктивное логическое программирование
2. Абдуктивное логическое программирование
3. Дедуктивное логическое программирование
4. Суабструктурное логическое программирование
5. Логическое программирование высших порядков.
Ну и немного символьных вычислений навернуть, начать можно с того же Макарти.
918917
#426 #918680
Какие разделы математики наиболее полезны. Учить в порядке матан -> статистика/теорвер норм? Насколько вообще нужна дискретная математика, теория алгоритмов, структуры данных?
918699
#427 #918699
>>918680
Матан, теорвер, местами статистика (самые основы).

>Насколько вообще нужна дискретная математика, теория алгоритмов, структуры данных?


Нахуй не нужно, если сам алгоритмы не разрабатываешь.
919585
#428 #918721
>>918158
Лол, не пошел на биржу, зато умудрился даже заебать владельцев каких-то групп. Ты не похож на адеквата, я бы с тобой работать не стал. По поводу цены - в таких вещах никто никогда не ебет цену, поэтому и платят по часам.
#429 #918911
>>918565

>может-быть


Это существо рассуждает о теоретических знаниях.
#430 #918917
>>918619

>Абдуктивное логическое программирование


анука подробнее про ето
ну с дедуктивными всё понятно, классический пролог могёт в дедукцию же, да? индуктивное, ну тоже приблизительно понимаю, а абдуктивное это как? типа прога сама строит гипотезы? а откудова она знает из чего их брать? у людишек первооткрывателей там всякие озарения были, яблоко упало на голову хуё-моё, а железяке то откуда озарятся?
919052
#431 #919052
>>918917
рэндом же
все в этом мире рождено из хаоса
919111
#432 #919111
>>919052
Школьник, вот что ты потерял в этом треде, если не понимаешь разницу между рандомом и хаосом?
919151
#433 #919151
>>919111
Нет, не понимаю, объясни
919195919217
#434 #919195
>>919151
Хаос - это не беспорядок, а некоторым образом организованный порядок. Т.е. для хаотического числового ряда характерно наличие аттрактора, определенные значения экспоненты Ляпунова, показателя Херста, сечение Пуанкаре на хаотическом числовом ряде выглядит как нечто структурированное. А рандом - это рандом, простое гауссово распределение. Никаких аттракторов, сечение Пуанкаре для рандома выглядит как бесструктурное облако точек и т.д.
919220
#435 #919217
>>919151
Хаос не подходит под определение случайности Мартина-Лёфа.
919220
#436 #919220
>>919217
>>919195
Почему вы уверены, что все должны использовать слово хаос только в значении детерминированный хаос из математики? Зануды.
919222
#437 #919222
>>919220
Потому что здесь техническая тематика.
#438 #919585
>>918699
Базовые вещи прочитать из структур стоит все равно (хештаблицы, деревья) просто, чтобы понимать, как работает внутри код.
#439 #919781
Котаны, назрел вопрос. Вот я сижу читаю про нейронки и, например, решил отличать с их помощью котов от собак. Чем обуславливается выбор функции потери (не в этом случае, а вообще)?
Условно говоря, вот вы решили, что вам нужна такая-то архитектура сети, то почему мне cross entropy милее mse, например? То же самое с Kullback Leibler divergence и hinge loss.
Вообще, поясните за KL divergence и cross entropy: я готов поверить, что для двух распределений P и Q KL divergence(P || Q) = cross entropy(P, Q) + cross entropy(P), так зачем нам эти две функции потерь, если они отличаются только на cross entropy(P)? В общем, не стукайте, я только пытаюсь раскурить, но тону в нотации (читаю Goodfellow - Deep Learning).
919907
#440 #919840
Я создаю принципиально новый язык программирования. Что в нем должно быть из фишек дабы было удобно реализовать все это машинное обучение? Например, думаю сделать как в Фортране работу с матрицами.
919856919858919909
15 Кб, 1198x942
#441 #919856
>>919840

>принципиально новый язык программирования. Что в нем должно быть из фишек дабы было удобно реализовать все это машинное обучение? Например, думаю сделать как в Фортране работу с матрицами.


Идеальный язык для обработки данных, в т.ч. МЛ - R. Раз уж ты вспомнил про работу с матрицами - там это есть стандартными средствами.
#442 #919858
>>919840
поддержка вычислений на GPU автоматическая, чтобы всё само
#443 #919879
>>908048
Ячую этого.
#444 #919907
>>919781
Кратко, зависит от задачи и многие критерии выводятся из максимизации взаимной информации или логарифма правдоподобия с некоторыми предположениями о распределении переменных.
https://www.quora.com/When-should-mean-squared-error-be-preferred-over-average-cross-entropy-for-a-loss-function
#445 #919909
#446 #920105
>>900264
Ты не из ДС, случайно?
sage #447 #920196
кто-то пробовал тут поиграться с сетью?
https://cs.stanford.edu/people/karpathy/convnetjs/demo/cifar10.html

у меня чет не получается настроить Validation accuracy ниже 0.4
застревает на 0.45 и все
920200920212
#448 #920200
>>920196

сажа приклеилась
#449 #920212
>>920196

>ниже 0.4 застревает на 0.45 и все


не выше 0.6 т.е.
466 Кб, 632x790
#450 #920367
Там это, индусы книжку про SlesarFlow пишут http://www.tensorflowbook.com/ , пдфка всего 36 долларов https://www.manning.com/books/machine-learning-with-tensorflow?a_aid=TensorFlow&a_bid=042443a4 2 последние главы еще не готовы, как раз про сверточные и рекуррентные сети. Код к книге есть на гитхабе https://github.com/BinRoot/TensorFlow-Book
35 Кб, 1285x273
#451 #920374
На либгене аж 4 книжки про SlesarFlow спиздить можно. Добавьте в шапку штоле, тема модная ежжи.
920376
#452 #920376
>>920374
Двачую, может быть полезным.
#453 #920393
>>900102 (OP)
Посоны, вы ж тут в R шарите? Чёт треда не вижу по Рэ, сюда напшу.
k.means.test <- function(points,k){
prob <-rep(0,k)
R <- 0
centers <- data.frame(i=numeric(),R=numeric(),clust=numeric())
offset <-sqrt((max(points$x)-mean(points$x))^2+(max(points$y)-mean(points$y))^2)/180
for(i in 1:360){
R <- ifelse(i<180|R>=0,R+offset, R-offset)
index <- max(k.means(k,points,cos(i),R)$cluster)
centers<-rbind(centers,data.frame(i=i,R=R,clust=index))
prob[index] <- prob[index]+1
}
print(prob)
return(centers[centers$clust==which.max(prob),])
}
Как от цикла в середине избавиться?
920401
#454 #920401
>>920393
А зачем избавляться?
920702
#455 #920702
>>920401
Много жрёт, думал может как-то хитро можно через аплаи заебенить, показалось, что здесь в принципе ничего не сделать, подумал, вдруг показалось.
#456 #921316
Объясните, пожалуйста, для человека несведующего - где эти нейросети вообще могут применяться, то есть - под какие именно задачи? Я понимаю, что областей применения множество, но вот хотелось бы чёткое общее определение - нейросети могут применяться в том случае если необходимо ... . Пока что вижу что применяются при распознавании нечётких структур данных внутри других данных. Плюс есть возможность заменить одни нечёткие структуры данных на другие (например, поменять выражение лица на изображении или изменить описание одного из героев повествования). Хотелось бы знать на будущее, чтобы при возникновении той или иной проблемы сразу догадаться - да, это можно решить с помощью нейросетей. Как возможно описать границы области применения нейросетей так, чтобы это было просто и понятно?
921338921340
#457 #921338
>>921316
В банкомате купюры распознают, в камерах слежения номера нарушителей палят, в аэропорту подозрительный багаж детектируют, экономика, биология, ну и всяческое айти. Блядь. ну эток ак где диффуры применяются, типа того. Метод матстатистики, просто название такое то ли маркетологами, то ли просто большие надежды возлагались. Так то один нейрончик логистическая регрессия и простейшее линейное уравнение, потом типа объединение идёт, можно даже на бумаге нарисовать, перемножить, получится уравнение первой степени но дохуя пеерменных убдет и коэффициентов. Вот задача в том, чтобы их подобрать наиболее удачно. Хочешь вкатиться начни с теорвера и статистики. Там ничего сложного нет, да и интересно это до жути.
921345
#458 #921340
>>921316

>Как возможно описать границы области применения нейросетей так, чтобы это было просто и понятно?


Это продвинутая статистика. Вернее, на каком-то этапе статистики стало удобно общаться на языке вот таких абстракций и это со временем выросло в целый подраздел.
921345
#459 #921342
>>917644

>Судя по интернету


Ну ты понел.
#460 #921344
>>916199
Как вкатиться, анон? Ты когнитивный психолог или около того? Реально ли вкатиться через программирование, задрачивание математики, ад, мо и прочего технического? Просто я как-то посмотрел, там нужна биология с психологией
и тп, в магистратуре в спбгу. Или это не то? Можешь побольше рассказать вообще куда хоть двигаться? Я за 10к по 12 часов без выходных готов работать, только бы взяли, но нет ни профильной вышки(есть непрофильная, техническая, инженер), только корочка о переподготовке на базе высшего ну ты сам понимаешь. В каком направлении двигаться?
304 Кб, 1920x1080
#461 #921345
>>921340
>>921338

Правильно ли я понимаю, что, например, кардинально новый литературный рассказ нейросеть написать не сможет - только выведет средний каркас на основании других рассказов и подёргает то из одного рассказа то из другого какие-то уникальные приёмы (вполне возможно даже рандомно)?

>Хочешь вкатиться начни с теорвера и статистики. Там ничего сложного нет, да и интересно это до жути.



Ок, Благодарю!
921360
#462 #921350
Можно ли обучить нейросеть чему-то иррациональному? Например, пытаться связывать количество голубцов с движением занавесок и прочее магическое мышление. Принимать решения с помощью мигающей лампочки, всякие суеверия...
13 Кб, 249x202
6 Кб, 640x437
#463 #921360
>>921345

>нейросеть написать не сможе


Чувак, ну это же популисты-журналисты расхайпили, ну чего ты? Какой рассказ написать? Звучит просто круто, нейронные сети, вот и нехороший шлейф мракобесия потянулся, с другой стороны свежие головы заинтересовало, может быть это такой себе запрос системы на прокачивание этой области науки. Хотя я сам дилетант-любитель и только начал погружаться во всё это, так что ты сильно ко мне не прислушивайся, лучше книжек умных почитай. Ну и да, там не обязательно логит пороговая функция, ну и то, что я говорил, это про многослойный перцептрон, а это древняя же тема, а до современных мне ещё очень долго разбираться и вникать. В общем, нарисуй в тетрадке простую сеть как на пике, где переходы (веса) умножаешь на входы, а сам нейрон складывает, потом это всё в функцию активации подаётся , на ну это ты забей, а просто вот не поленись, раскрой скобки и тд, пошагово сделай, там всего два действия повторяющихся, получишь длинное уравнение, степени будут 1, но переменных дохуя, причём веса насколько я понял это как раз коэффициенты, которые надо подобрать. Ну и всё, с такой точки зрения и магия мракобесная пропадает, да как в той же линейной регрессии, только на несколько порядок сложнее. Далее вступает в работу математика и коэффициенты подбираются таким образом, чтобы наши данные наилучшим образом описывались полученной моделью. Вот об этих методах я тебе уже нихуя не скажу, ибо рак и нуб с большими пробелами, которые ещё несколько лет навёрствывать.
921362
#464 #921362
>>921360

> а сам нейрон складывает


Например, в первом будет X1W11+X2W21+X3W31(допустим три входа всего), потом всё это берёшь и
(X1
W11+X2W21+X3W31) в скобки хуяришь и умножаешь на W21(там почему то W11 написано) и тд.
921369
#465 #921369
>>921362
Ну и короче ты понял, в конце получаются коэффициенты(нагуглил алгоритм обратного распространения ошибки, очень мало что понял, какой то градиентный спуск,типа спускаемся по чуть-чуть, пока не найдём минимум, типа как наощупь пытаешься нащупать что-то, почему то так представлялось, но это уже математика которую я нихуя не знаю пока) ну и вот, нашли минимум нашей охуевшей функции и хорошо, тое сть нашли самую хоршо описывающуюб наши данные модель, запомнили коэффициенты и готово уравнение! Знай только туда очередные данные подставляй и получай на выходе ответ! Как-то так оно работает. А может быть и нет. Но как уравнение может написать книгу я себе представить не могу.
921372921405
#466 #921372
>>921369

Писатель Робин Слоан создал на основе рекуррентной нейронной сети (RNN) текстовый генератор для написания научно–фантастической прозы. Об этом сообщает The Daily Mail.

Слоан представил свой проект на хакатоне Real Future Fair в Окленде. На глазах у зрителей нейросеть написала начало мрачного научно–фантастического романа: «Давным–давно в Окленде появился робот, созданный уничтожить все высокопоставленные семьи. Высокопоставленными семьями, конечно, были те, которые владели временами года. Когда они хотели, было лето. Когда они решали — наступала зима».

Для обучения алгоритма автор создал базу текстов из научно–фантастических журналов Galaxy и IF Magazine, выходивших в США в 60х–70х годах.

«Вы можете обучить нейронную сеть на больших объёмах любых текстов. Это может быть Википедия, или все произведения Чарльза Диккенса, или всё, что есть в интернете», — говорит Слоан.

Текстовый генератор принимает фрагменты текста и дописывает их, используя данные из базы:

«Я на 100% уверен, что через какое–то время все текстовые редакторы будут оснащены чем–то подобным», — пишет автор.

Ранее исследователь машинного интеллекта Макс Дойч создал рекуррентную нейронную LTSM–сеть, которая написала книгу о Гарри Поттере, изучив первые четыре книги серии.

В этом году в финал престижной литературной премии имени Хоси Синъити прошёл рассказ, написанный учеными из Университета Будущего Хакодате в соавторстве с искусственным интеллектом. Чтобы алгоритм смог «сочинить» рассказ, учёные предоставили ему набор входных данных: пол главных персонажей, описание сюжета, а также набор основных фраз и предложений.

https://seoded.dirty.ru/pisatel-obuchil-neiroset-pisat-nauchno-fantasticheskuiu-prozu-1242495/
921378921394
#467 #921378
>>921372

> учёные предоставили ему набор входных данных: пол главных персонажей, описание сюжета, а также набор основных фраз и предложений.


>описывающуюб наши данные модель, запомнили коэффициенты и готово уравнение! Знай только туда очередные данные подставляй и получай на выходе ответ!


>Чувак, ну это же популисты-журналисты


С другой стороны, это образец современного искусства, человек применяет технологии для творчества, те же диджеи драмнбассные, это в общем круто.
#468 #921394
>>921372
Вот аппроксимируют эти нейроночки. Весело. И кажется, что прогресс куда-то там движется. А по сути для реального творчества это мало что дает.
Если реально по науке поступать, то надо какую-то теорию построить по тому, как пишутся рассказы, ну или развить и соединить уже существующие вещи (ведь уже немало всего придумали). А потом можно было бы и узконаправленную программу сделать, которая более эффективно и качественно решала задачу.
921398921424
#469 #921398
>>921394
Ну да, составить коллаж из рассказов, тщательно продумывать тему, развитие сюжета и тд и тп, а потом тупо скормить полностью детерминированному уравнению и получить результат. Не проще самому написать? Нет, не модно.А ВНУТРЕ У НЕЙ НЕЙРОНКА!
921399
#470 #921399
>>921398

>А ВНУТРЕ У НЕЙ НЕЙРОНКА


Старичок засуетился. Он снял с футляра крышку, под которой оказалась громоздкая старинная пишущая машинка, извлек из кармана моток провода, воткнул один конец куда-то в недра машинки, затем огляделся в поисках розетки и, обнаружив, размотал провод и воткнул вилку.
— Вот, изволите видеть, так называемая эвристическая машина, — сказал старичок. — Точный электронно-механический прибор для отвечания на любые вопросы, а именно — на научные и хозяйственные. Как она у меня работает? Не имея достаточных средств и будучи отфутболиваем различными бюрократами, она у меня пока не полностью автоматизирована. Вопросы задаются устным образом, и я их печатаю и ввожу таким образом к ей внутрь, довожу, так сказать, до ейного сведения. Отвечание ейное, опять через неполную автоматизацию, печатаю снова я. В некотором роде посредник, хе-хе! Так что, ежели угодно, прошу.
Он встал за машинку и шикарным жестом перекинул тумблер. В недрах машинки загорелась неоновая лампочка.
— Прошу вас, — повторил старичок.
— А что это у вас там за лампа? — подозрительно спросил Фарфуркис.
Старичок ударил по клавишам, потом быстро вырвал из машинки листок бумаги и рысцой поднес его Фарфуркису. Фарфуркис прочитал вслух:
— «Вопрос: что у нея… гм… у нея внутре за лпч?..» Лэпэчэ… Кэпэдэ, наверное? Что еще за лэпэчэ?
— Лампочка, значит, — сказал старичок, хихикая и потирая руки. — Кодируем помаленьку. — Он вырвал у Фарфуркиса листок и побежал обратно к своей машинке. — Это, значит, был вопрос, — произнес он, загоняя листок под валик. — А сейчас посмотрим, что она ответит…
Члены Тройки с интересом следили за его действиями. Профессор Выбегалло благодушно-отечески сиял, изысканными и плавными движениями пальцев выбирая из бороды какой-то мусор. Эдик пребывал в спокойной, теперь уже полностью осознанной тоске. Между тем старичок бодро постучал по клавишам и снова выдернул листок.
— Вот, извольте, ответ.
Фарфуркис прочитал:
— «У мене внутре… гм… не… неонка». Гм. Что это такое — неонка?
— Айн секунд! — воскликнул изобретатель, выхватил листок и вновь подбежал к машинке.
Дело пошло. Машина дала безграмотное объяснение, что такое неонка, затем она ответила Фарфуркису, что пишет «внутре» согласно правил грамматики, а затем…
Фарфуркис: Какой такой грамматики?
Машина: А нашей русской грмтк.
Хлебовводов: Известен ли вам Бабкин Эдуард Петрович?
Машина: Никак нет.
Лавр Федотович: Грррм… Какие будут предложения?
Машина: Признать мене за научный факт.
.....
Выбегалло отреагировал немедленно.
— Эта... — сказал он. — так ведь я и говорю, ценное же начинание. Элемент необъяснимого имеется, порыв снизу... почему я и рекомендовал. Эта... — сказал он. — объясни, мон шер, товарищам, что тут у тебя к чему.
Старичок словно взорвался.
— Высочайшее достижение нейтронной мегалоплазмы! — провозгласил он. — ротор поля наподобие дивергенции градуирует себя вдоль спина и там, внутре, обращает материю вопроса в спиритуальные электрические вихри, из коих и возникает синекдоха отвечания...
#470 #921399
>>921398

>А ВНУТРЕ У НЕЙ НЕЙРОНКА


Старичок засуетился. Он снял с футляра крышку, под которой оказалась громоздкая старинная пишущая машинка, извлек из кармана моток провода, воткнул один конец куда-то в недра машинки, затем огляделся в поисках розетки и, обнаружив, размотал провод и воткнул вилку.
— Вот, изволите видеть, так называемая эвристическая машина, — сказал старичок. — Точный электронно-механический прибор для отвечания на любые вопросы, а именно — на научные и хозяйственные. Как она у меня работает? Не имея достаточных средств и будучи отфутболиваем различными бюрократами, она у меня пока не полностью автоматизирована. Вопросы задаются устным образом, и я их печатаю и ввожу таким образом к ей внутрь, довожу, так сказать, до ейного сведения. Отвечание ейное, опять через неполную автоматизацию, печатаю снова я. В некотором роде посредник, хе-хе! Так что, ежели угодно, прошу.
Он встал за машинку и шикарным жестом перекинул тумблер. В недрах машинки загорелась неоновая лампочка.
— Прошу вас, — повторил старичок.
— А что это у вас там за лампа? — подозрительно спросил Фарфуркис.
Старичок ударил по клавишам, потом быстро вырвал из машинки листок бумаги и рысцой поднес его Фарфуркису. Фарфуркис прочитал вслух:
— «Вопрос: что у нея… гм… у нея внутре за лпч?..» Лэпэчэ… Кэпэдэ, наверное? Что еще за лэпэчэ?
— Лампочка, значит, — сказал старичок, хихикая и потирая руки. — Кодируем помаленьку. — Он вырвал у Фарфуркиса листок и побежал обратно к своей машинке. — Это, значит, был вопрос, — произнес он, загоняя листок под валик. — А сейчас посмотрим, что она ответит…
Члены Тройки с интересом следили за его действиями. Профессор Выбегалло благодушно-отечески сиял, изысканными и плавными движениями пальцев выбирая из бороды какой-то мусор. Эдик пребывал в спокойной, теперь уже полностью осознанной тоске. Между тем старичок бодро постучал по клавишам и снова выдернул листок.
— Вот, извольте, ответ.
Фарфуркис прочитал:
— «У мене внутре… гм… не… неонка». Гм. Что это такое — неонка?
— Айн секунд! — воскликнул изобретатель, выхватил листок и вновь подбежал к машинке.
Дело пошло. Машина дала безграмотное объяснение, что такое неонка, затем она ответила Фарфуркису, что пишет «внутре» согласно правил грамматики, а затем…
Фарфуркис: Какой такой грамматики?
Машина: А нашей русской грмтк.
Хлебовводов: Известен ли вам Бабкин Эдуард Петрович?
Машина: Никак нет.
Лавр Федотович: Грррм… Какие будут предложения?
Машина: Признать мене за научный факт.
.....
Выбегалло отреагировал немедленно.
— Эта... — сказал он. — так ведь я и говорю, ценное же начинание. Элемент необъяснимого имеется, порыв снизу... почему я и рекомендовал. Эта... — сказал он. — объясни, мон шер, товарищам, что тут у тебя к чему.
Старичок словно взорвался.
— Высочайшее достижение нейтронной мегалоплазмы! — провозгласил он. — ротор поля наподобие дивергенции градуирует себя вдоль спина и там, внутре, обращает материю вопроса в спиритуальные электрические вихри, из коих и возникает синекдоха отвечания...
#471 #921405
>>921369

вот хорошая статья

https://habrahabr.ru/post/144881/
#472 #921406
>>921405
Это очень плохая статья. Автор сам не понимает, что делает.
#473 #921410
>>921405
мне вот кажется что проблема всех статей про нейросети, это то что везде пытаются строить именно сети из нейронов, мне кажется что проще для понимания это на языке линейной алгебры рассказать что такое нейросеть, и не упоминать вообще про нейроны, дендриты, аксоны, рецепторные поля и т.д.

что может быть проще нежели фраза гиперболический тангенс от линейной комбинации входного вектора и вектора весов =)
#474 #921413
>>921405
О, это не проблема. Это гениальный маркетинговый ход. Нейросети и генетические алгоритмы отличаются как раз аксонами и хромосоми, а не тем, что это очень уж хорошие методы оптимизации. Не знаю на счет финансирования, а в универах это популярно из-за терминологии, это не скучные методы типа нелинейного МНК с кучей частных производных.
В искусственных нейросетях тоже много математики конечно, но всем пофиг, у всех нейроны — это классы с циклами внутри, и вместо того, чтобы разобраться с линалом и BLAS получается вот так вот — чередная статья на хабре с ООПшным нейроном
#475 #921416
>>921405
Согласен! На мой взгляд проблема даже не столько в «романтичности» нейронных сетей, а в разнице преподавания. Нейронные сети это всегда практические примеры — «а давайте сделаем распознаватель рукописных цифр» или «сделаем управление машиной». А вышку нам всегда преподавали сухо и абстрактно… было не понятно ни зачем матрицы нужны, ни чем поможет взятие архисложного интеграла.

И это печально. Без знания математики нейронные сети, остаются черными «магическими» ящиками, с которыми можно только колдовать…

Радует появление качественных онлайн курсов от ведущих специалистов в этой области.
#476 #921424
>>921394
Общая теория известна, но она ничего не даёт потому-что слишком общая. А слишком подробная теория бы закрепила слишком много, и кому тогда вообще бы было интересно читать рассказы построенные слишком одинаково?

Короче я офигеваю с вашей тупости тут, идите работайте, мечтатели. Денег заработайте, рекомендательные системы поимпрувте, сидите тут стулья пропёрживаете на мамкины борщи.
921426921429
#477 #921426
>>921424

>Сказал какую-то общую хуету


>Назвал остальных тупыми


>А по делу ничего

921431
#478 #921429
>>921424

>повёлся на россказни ведущих пабликов страны про ИИ, пишущий книги и музыку


>я офигеваю с вашей тупости тут


Забавно.
921431
#479 #921431
>>921426
Ну если ты настолько тупой что не понял - твои проблемы.
>>921429
Кто повёлся?
921435
#480 #921434
Чот я не понял. Крутые нейроночки находят скрытые закономерности? Они могут вловить закономерность даже между не связанными вещами?
921438921443
#481 #921435
>>921431
Если ты ничего умного сказать не можешь, значит тупой тут только ты. Лучше бы ты молчал, тут серьезные дяди разговаривают.
#482 #921438
>>921434
Грубо говоря, везде есть связь, только где-то она будет нулевая.
#483 #921443
>>921434

>закономерность даже между не связанными вещами


>ошибка второго рода


Ещё как могут! Этим вообще вся статистика с самого создания грешит.
#485 #921478
Есть опенсорсные проекты по распознаванию настроения текста, часто употребляемые слова, вот это вот все? Это вроде text mining зовется?
#486 #921500
Так почему не создан ИИ?
Тред утонул или удален.
Это копия, сохраненная 12 марта 2017 года.

Скачать тред: только с превью, с превью и прикрепленными файлами.
Второй вариант может долго скачиваться. Файлы будут только в живых или недавно утонувших тредах. Подробнее

Если вам полезен архив М.Двача, пожертвуйте на оплату сервера.
« /pr/В начало тредаВеб-версияНастройки
/a//b//mu//s//vg/Все доски