Этого треда уже нет.
Это копия, сохраненная 2 мая 2017 года.

Скачать тред: только с превью, с превью и прикрепленными файлами.
Второй вариант может долго скачиваться. Файлы будут только в живых или недавно утонувших тредах. Подробнее

Если вам полезен архив М.Двача, пожертвуйте на оплату сервера.
516 Кб, 944x1195
749 Кб, 1212x388
35 Кб, 1285x273
НЕЙРОНОЧКИ & МАШОБ #11 sage # OP #921502 В конец треда | Веб
книги
Pattern Recognition and Machine Learning, Bishop.
Information theory, inference & learning algorithms, MacKay http://www.inference.phy.cam.ac.uk/itila/
Machine Learning: A Probabilistic Perspective, Murphy

Introduction to Statistical Learning ( http://www-bcf.usc.edu/~gareth/ISL/ISLR Sixth Printing.pdf )
Elements of Statistical Learning ( http://statweb.stanford.edu/~tibs/ElemStatLearn/printings/ESLII_print10.pdf )
Foundations of Machine Learning, أشهد أن لا إله إلا الله وأشهد أن محمد رسول الله. http://www.cs.nyu.edu/~mohri/mlbook/

Fundamentals of Neural Networks: Architectures, Algorithms, and Applications, Fausett L.

А. Пегат, "Нечёткое моделирование и управление"

другое
http://libgen.io / http://bookzz.org/ - здесь можно одолжить ^ книги и не только
http://arxiv.org/find/all/1/all:+nejronochki/0/1/0/all/0/1
https://www.reddit.com/r/MachineLearning/wiki/index

https://vk.com/deeplearning и http://deeplearning.net/reading-list/
https://www.kadenze.com/courses/creative-applications-of-deep-learning-with-tensorflow/info тюториал по slesarflow
http://rgho.st/8g68fTCSx две брошюры по deep learning для слесарей.

http://kaggle.com - весёлые контесты. денежные призы
https://www.hackerrank.com/domains/ai/machine-learning/difficulty/all/page/1 - олимпиадки

курс от китаёзы
http://videolectures.net/mlss09uk_cambridge/

яп
1. http://julialang.org/
2. https://www.microsoft.com/en-us/research/project/infernet/
3. https://www.r-project.org/
4. питухон и так все знают
5. idris/coq - модные яп для формально верифицированных нейроночек с тренировкой на этапе компиляции

ПЛАТИНА
Книги хорошо, но с чего начать практический вкат?
Во-первых, вам нужна любая unix-based система. На Windows возможно запустить нижеперечисленное, но ждите пердолева с настройкой и неодобрительных взглядов анонимуса. Кроме того, в компаниях, так или иначе связанных с разработкой йоба-ПО и machine learningом, Linux/OS X является стандартом. Привыкайте.
Во-вторых, определитесь с языком. Python и C++ наиболее мейнстримовые инструменты, с ними вы без еды не останетесь. Есть еще R, на котором пацаны живут статистикой и анальными пакетами. Некоторые инструменты являются языко-независимыми (Vowpal Vabbit, XGBoost), но обвязывать их вы все равно будете из какой-либо среды.
На Java разработано много production-ready инструментов для бигдаты и если вы угораете по терабайтам данных, то имеет смысл посмотреть в её сторону. Впрочем, лучше это делать уже потом, когда прийдет осознание потребностей.
В-третих, выбирайте себе задачу. Что угодно: распознать качпу, обнаружить ботов по логам, найти раковых больных. Список можно посмотреть, например, на kaggle.com. После чего приступаете к решению выбранной задачи.

Не прийдется ли мне потом с таким наборищем знаний идти в макдак работать?
Несмотря на хайп вокруг ML, далеко не во всех IT компания есть необходимость в ML и понимание круга задач, которые можно решить этими методами. Но поверьте, в 2017 компетентный специалист будет востребован. В России потребителями ваших знаний могут стать: Яндекс, Mail.ru, Вконтакте, Rambler, Касперский, Билайн, Связной, ABBYY, Хуавэй. В биоинформатике есть определенный спрос, можно поскролить http://blastim.ru

Здорово, но я так и не понял чем же вы занимаетесь в IT компаниях?
Попытаюсь ответить со своей колокольни и сразу хочу предупредить, что это едва ли консенсуальное мнение.
ML-специалист - это такое зонтичное определение для человека, способного увидеть проблему, выгрепать кучу логов и данных, посмотреть на них, придумать решение проблемы и врезать это решение его в продакшн. По сути, это кодер, решающий не чисто технические, а, в некотором роде, человеческие проблемы.
Имхо, мы все же остаемся в первую очередь разработчиками.

Что такое TensorFlow?
TensorFlow - опенсорсный гугловый инструмент для перемножения тензоров и оптимизации функционалов. Опенсорсный - потому что даже важные куски типа параллелизации уже выкачены в паблик. Если вам все ещё непонятно что это, значит это вам и не нужно, сириусли. Google перестарался с рекламой и теперь люди думают, что TF - это серебряная пуля и затычка для каждой бочки. До TF был Theano, который выполнял свою работу не хуже. И, в отличии от TF, он уже находится в стабильной фазе.

будет ли ML нужен в ближайшие 10 лет, или это просто хайп?
будет. хайп.

смогу найти работу?
Яндекс, мейлру, касперский, несколько биоинформатических компаний (iBinom, можно еще blastim.ru поскролить на тему работы), билайн (они с НГ целое подразделение открыли под ML и биг дату), связной. Ну и западные аутсорсы, если готов рачить за валюту.

нужна математика?
для начинающего ничего особого знать не нужно
https://www.amazon.co.uk/Calculus-Michael-Spivak-x/dp/0521867444
https://www.amazon.co.uk/dp/0534422004/ref=pd_lpo_sbs_dp_ss_2?pf_rd_p=569136327&pf_rd_s=lpo-top-stripe&pf_rd_t=201&pf_rd_i=0980232716&pf_rd_m=A3P5ROKL5A1OLE&pf_rd_r=3TZ38AZ2BY28R19H4SA5
https://www.amazon.co.uk/Calculus-Several-Variables-Undergraduate-Mathematics/dp/0387964053
https://www.amazon.co.uk/Introduction-Probability-Dimitri-P-Bertsekas/dp/188652923X
"основы теории вероятностей" Вентцель

поясните за нейроночки
нейроночка - массив

шад)))
Нет там ничего ML-специфичного, знание матана и теорвера на уровне заборостроительного вуза. Теорвер проходится на третьем курсе, как раз 20 лет.
Рандомный хрен туда не сможет поступить, потому что планка намеренно задрана, а не потому что там такая охуенно сложная программа. Это традиционная наебка "элитных учебных заведений", в которой учат так же хуево, как и везде, но за счет отбора поступающих якобы формируются неебовые успехи, которые объясняются именно качеством преподавания.
Иными словами, у тех, кто способен поступить, и так в жизни проблем с трудоустройством не будет.

Тред #1: https://arhivach.org/thread/147800/
Тред #2: https://arhivach.org/thread/170611/
Тред #3: https://arhivach.org/thread/179539/
Тред #4: https://arhivach.org/thread/185385/
Тред #5: https://arhivach.org/thread/186283/
Тред #6: https://arhivach.org/thread/187794/
Тред #7: https://arhivach.org/thread/196781/
Тред #8: https://arhivach.org/thread/209934/
Тред #9: https://arhivach.org/thread/223216/
Тред #10: https://arhivach.org/thread/234497/
#2 #921527
Так почему не создан ИИ?
921528
#3 #921528
>>921527
Создан. Осмотрись вокруг. Почти в каждой компьютерной игре он есть.
#4 #921533
Есть опенсорсные проекты по распознаванию настроения текста, часто употребляемые слова, вот это вот все? Это вроде text mining зовется?
921577
#5 #921560
>>921502 (OP)

> reinforcement learning


> bayesian method


Всё так же уныло.
#6 #921577
>>921533
Это называется sentiment analysis. Есть контесты на Kaggle по этой тематике, там можно много интересного почерпнуть. Ну и гуглится довольно неплохо.
254 Кб, 2048x1536
#7 #921599
Типикал слесари итт.
921610
#8 #921610
>>921599
А кто не слесарь? Архитектуру сетей придумывают единицы, да это и не нужно всем
921621
#9 #921615
Ну так что, котаны, почему вы так насасываете?

http://fpi.gov.ru/activities/konkurs/spacemap

Время продлили на овердохуя, по прежнему 4 тела на всю расею с адекватными результатами, срсли?
#10 #921621
>>921610

> НИНУЖНО


Проиграл. На самом деле ты прав, конечно, но всё равно смешно.
#11 #921665
>>921615
Охуеть, ты где это отрыл?
Мы тут за пределы своих заводов редко выглядываем, разве что за брошюрками
#12 #921681
>>921615

>Только для граждан РФ


Ну и идите в жопу, я резидент юрлицо, хули надо еще? Обмазались тут своей бюрократией до опизденения, на каждом шагу, четыре года с ней ебусь, даже конкурс этот - почитай документацию, там только требований отпечатка ануса на официальном бланке организации не хватает.
извините, бомбанул
#13 #921683
Саб двачю. На связи гуманитарий. Можьно ли ваш машин-лёрнинг использовать для извелечения профита с букмекерских контор? То есть на основе огромного количества данных об уже сыгранных матчах научить компутер предсказывать исход грядущих точнее, чем это делают незадачливые букмекеры?

Или эти самые букмекеры уже наняли армию студентов-датасаентистов с такой же целью?
921761921912
#14 #921761
>>921683
Погугли: Владимир Келасев, «Движение цен: случайность или закономерность?»
1222 Кб, 2592x1944
116 Кб, 1260x671
#15 #921912
>>921683
Хуй там. Я сам пытался угореть по ставочкам. Простые модели работают плохо, хоть и угадывает больше 50% результатов, но при среднем кэфе 1.75 это вообще ниочем. Тута все сложнее - нужно ебашить идентификацию динамической системы, простой аппроксимацией апостериоров не добьешься ничего, базарю. К слову, у букмекеров такие же васяны сидят, у меня бывали результаты правильнее, чем в конторах (ну они же стараются предсказывать чтобы заведомому победителю кэф поменьше поставить). Думаю, идентификацией state-space моделей динамической системы можно поинтереснее результаты получить, но пока не занимался - лениво.
#16 #921924
Кароче! Как сделать так чтобы эта штука делала за меня домашку?
#17 #921995
>>921935
Меня тогда родаки дропнут
Ты думай что ты говоришь
922167
#18 #922135
Анон, вкратце отличия от статистики можешь описать?
На данный момент ощущение что работает как стат анализ + некая вероятностная функция
922201
#19 #922167
>>921995
И правильно сделают.
1143 Кб, 2592x1944
#20 #922201
>>922135
Теория статистического обучения, н-р, и рассматривает МЛ с точки зрения статистики.
922911
#21 #922832
>>921502 (OP)
Довны, вы хоть сами себе можете объяснить, чем нечёткие множества от банального теорвера отличаются?
922880
#22 #922880
>>922832
Я не только себе, я и тебе это могу объяснить. Нечеткость - это вид неточности, не сводимый к вероятности (а вот вероятность, наоборот к нечеткости свести можно, что доказал Коско в нечеткой теореме Байеса). http://sipi.usc.edu/~kosko/Fuzziness_Vs_Probability.pdf
922887922906
#23 #922887
>>922880

> http://sipi.usc.edu/~kosko/Fuzziness_Vs_Probability.pdf


> Electrical Engineering Department


А можно чего-нибудь написанное математиками, а не технарями? А то технари известны своей "способностью" "разбираться" в математике. Например, среди авторов доказательств Большой Теоремы Ферма в три строчки (конечно же, неверных доказательств) большинство — всякие инженеры и прочие к.т.н.
923077
#24 #922906
>>922880
Ненужная антинаучная хуита.
#25 #922911
>>922201
Откуда берётся элемент случайности при каждой итерации нейросети?
Диффура же одинаково решается в при идентичном исходном уравнении.
922926
#26 #922926
>>922911
1) Исходные веса инициализируются случайно
2) На каждой итерации при обучении берется только часть (практически случайно выбранная) обучающей выборки - батч. Градиент вычисляется на основе батча и такой метод оптимизации называется стохастический градиентный спуск.
922928922980
#27 #922928
>>922926
И это ещё без всяких дропаутов, добавления шума и семплирования в некоторых архитектурах.
#28 #922929
>>921615
Кстати довольно неплохая задача, требующая чуть больше мозгов, чем МАМ СМОТРИ Я СОБРАЛ АНСАМБЛЬ ИЗ 30 ГУГЛЕНЕТОВ И РЕСНЕТОВ И У МЕНЯ НА 0.0001% ЛУЧШЕ КЛАССИФИКАЦИЯ. Начать с того, что данные у них битые и разметку делала паралимпийская команда, а закончить тем, что 10-мегапиксельную картинку надо жахнуть за 15 секунд на говне вместо видюхи.
#29 #922980
>>922926

>Исходные веса инициализируются случайно


В к-средних пиздец много от выбора центроидов зависит, а тут?
923032
#30 #923032
>>922980
Важно выбрать начальные веса так, чтобы градиент не взорвал всё к хуям в начале и чтобы протёк через всю сетку нормально до первых слоев. А так - пофигу ваще. Все юзают алгоритм xavier и забивают болт на это.
923038923049
#31 #923038
>>923032
Как вкатиться, анон? Ты учёный?
923055
#32 #923049
>>923032

>алгоритм xavier


> xavier algorithm that automatically determines the scale of initialization based on the number of input


>пофигу ваще


>забивают болт


Так наоборот же,как раз потому и юзают, что от грамотной инициализации много зависит, видимо, или не? Кстати, это ж похоже на детерминированный хаос или как-то так, эффект бабочки типа, когда от начального состояния много зависит? Нейросети часом не динамические системы ?
923069923119
#33 #923055
>>923038
Первым делом учишь английский, потом ищешь курсы по ML, желательно с практикой (у Яндекса с МФТИ нормальный, но, вроде платный), проходишь.

После того, как понял ключевые вещи в ML и попробовал всякие деревья и SVMы на игрушечных датасетах - ставишь себе любой deep learning фрейм и разбираешься в нём.

Дальше начинаешь пробовать силы на настоящих датасетах и в конкурсах, читаешь свежие статьи с arxiv, реализуешь, начинаешь переписывать deep learning фрейм под себя.

Как работу искать тут я хз, но нормальных людей, которые могут хотя бы эксперименты гонять на питоне с уже написанной моделью днём с огнём не сыщешь.

Я - ML инженер, работаю в НИИ над компьютерным зрением по всяким заказам на автоматизацию (военные, медики). Юзаю Caffe.
923066
#34 #923066
>>923055
Выглядит просто. Подозреваю, что за этим потянется ещё куча математики.

>читаешь свежие статьи с arxiv


Насколько свежие статьи? Расскажи последние новости, типа не перцептрон 70-х годов, а современные модели/алгоритмы, а лучше ресурсы новостные тематические. Около года назад нагугливал Spiking Network , причём в рунете вообще ничего не было про это, сейчас уже видел переводы. Вообще, как с доступностью информации дело обстоит? Мне почему-то казалось, что чем глубже, тем меньше инфы и нужно уже поступать куда-то магистратуру/аспирантуру, чтобы доступ к упубликациям иметь.
923076
#35 #923069
>>923049
У тебя задача оптимизации функции в охуительно многомерном пространстве (число измерений = число весов сетки). И ты юзаешь градиентный спуск. Насколько я понимаю никто в душе не ебет как исследовать поведение такой системы и никакой теории нету.

Но есть инженерная практика, которая показывает, что в локальных минимумах в таком пространстве мы не застреваем и что в целом оно сходится к какому-то хорошему состоянию из любой точки, если градиентный спуск не взрывается и обновляет веса всех слоев.

Большее внимание уделяют не оптимизации, а другим проблемам сеток, например, обобщению и регуляризации.
923073
#36 #923073
>>923069

> исследовать поведение такой системы и никакой теории нету.


Хз. вот читаю на вики про теорию хаоса, вроде похоже, да и по запросам теория динамических система нерйонные сети много чего есть.
#37 #923076
>>923066
Математика не нужна. Если хочется - можешь пройти курсы по линейной алгебре и теорверу, тогда сможешь разобраться и написать сам какой-нибудь variational autoencoder. Который не нужен, лол, потому что все перешли на гораздо более простые adversarial networks.

Информации вагон (если знаешь английский, конечно) и будет становиться все больше. Один дядя илонмаск чего стоит с его проектом https://openai.com/

Я, по сути, читаю только hacker news, там достаточно ссылок на свежак на arxiv. Ну или ищу под конкретную задачу - как это сейчас делают.

Еще можно ходить или смотреть всякие конфочки и известных людей типа yann lecun или pedro domingos (у него, кстати, офигенный курс по ML был). Рекомендую походить сюда - http://www.machinelearning.ru/wiki/index.php?title=Структурные_модели_и_глубинное_обучение_(регулярный_семинар), если в ДС
923079923098
7 Кб, 233x350
#38 #923077
>>922887
Лол. Коско и есть математик, ученик Заде, к слову (это создатель теории нечетких множеств, если кто не в курсе). Просто помимо прочего он возглавляет какой-то институт по электронике, т.к. еще в 80е годы пилил пентагоновские гранты на системы наведения для ракет и т.п. В математике он разбирается, даже не сомневайся.
923095923147
#39 #923079
>>923076
Большое спасибо, а что такое хаотическая нейронная сеть?
http://sprott.physics.wisc.edu/pubs/paper451.pdf
923081923088923089
#40 #923081
>>923079
Загуглил типа dynamic chaos neural network
923087923089
#42 #923088
>>923079
Это не нейроночка хаотическая, там перцептрон простой, а идентифицируемая система.
923125
#43 #923089
>>923079
>>923081
Понятия не имею. Направлений дохрена же, что нравится - то и изучаешь. Я двигаюсь в сторону deep symmetry networks, например, т.к. существующие свёрточные сетки - говнище какое-то.
#44 #923095
>>923087
На основе уравнений Ходжкина-Хаксли действительно делались нейроночки, в том числе вот этим >>923077 чуваком. Целая книга есть http://gen.lib.rus.ec/book/index.php?md5=CCC0771774E761EB91EE2019A244305B
923106
#45 #923098
>>923076

> Структурные_модели_и_глубинное_обучение_(регулярный_семинар)


Забыл сказать, вот там всё таки бывает довольно лютый матан. В наиболее оторванных от практического применения докладах, лол.
#46 #923100
>>923087
Короче, насколько я понял, это уже из подраздела МЛ не об анализе данных, а именно об ИИ, как раз вот тогда помню охуел с существования Spiking(импульсные в переводе вроде?) сетей, думал типа это ж какой прорыв и тд. Так там импульс видимо просто подавался, а это уже модификация приближенная к реальности, моделирование по принципу как в мозге.

> Nerve membranes have their own nonlinear dynamics which generate and propagate action potentials, and such nonlinear dynamics can produce chaos in neurons and related bifurcations.


Прям нейронная эволюция какая-то, лол.
923103
#47 #923103
>>923100

>нейронная эволюция какая-то


Собственно, да, жутко интересно ресурс бы найти, в идеале обзорную статью с классификацией методов обучения и моделей, историей создания, развитием, современным положением, взглядом, идеями и список открытых проблем. Вряд ли, но может есть такая?
923104
#48 #923104
>>923103

>в идеале обзорную статью


Хотя, там наверное книга должна быть.
#49 #923106
>>923095

>Dynamical Systems Approach to Machine Intelligence


Круто, спасибо, скачал.
#50 #923119
>>923049

>Нейросети часом не динамические системы ?


До зимы в ИИ была куча исследований на эту тему. Нечёткие ребята любят ещё эту тему обсуждать, но их никто и никогда не слушает, ибо нахуй это никому не надо.
923132
#51 #923125
>>923088

> не нейроночка хаотическая


>chaotic artificial neural networ


Ну хз. Да и матмодель нейрона там другая вроде бы: если там сумматор произведений весов на входы, ну перцептрон линейный классификатор, линейное уравнение, то тут

Chaotic neuron model

A chaotic neuron model that qualitatively reproduces chaos in nerve membranes observed in squid giant axons and the Hodgkin-Huxley equations can be described by the following simple 1-dimensional map (Aihara et al., 1990):

Chaotic neuron model

A chaotic neuron model that qualitatively reproduces chaos in nerve membranes observed in squid giant axons and the Hodgkin-Huxley equations can be described by the following simple 1-dimensional map (Aihara et al., 1990): y(t+1)=F(y(t))≡ky(t)−αf{y(t)}+a,(1)

where y(t) is the internal state at discrete time t , k is the decay factor, α is the scaling factor of refractoriness, a is the bias including both the threshold and the temporally constant input, and output x(t) is obtained by x(t)=f{y(t)} with, for example, the logistic function

f{y(t)}=1/{1+exp(−y(t)/ϵ)} .
923126
#52 #923126
>>923125

Насколько я понимаю, а я не понимаю воообще, это эволюционное уравнение
Ну вот
As a simple example, start with the number on your calculator and continually press the cosine button.
Это типа рекуррентное соотношение/дифур как я понял. Где-то ещё видел вроде эволюционное уравнение термин или уравнение эволюции
А, во уравнение эволюции квантовых состояний, уравнение Шредингера, дифур короче.
923128923129
#53 #923128
>>923126
One-dimensional maps (sometimes called difference equations or iterated map) are mathematical systems that model a single variable as it evolves over discrete steps in time.
923130
#54 #923129
>>923126
Ну если это нейроночка на стохастических дифурах, значит нечто типа ABAM/RABAM Коско или на всяких разновидностях адаптивного резонанса Гроссберга.
#55 #923130
>>923128
equations or iterated maps or reыворамофвпмcurфолваыфвампs(( ion relations
Пиздос, тут рекурсион в спамлисте, моча поехала совсем что ли? Заебался искать.
#56 #923132
>>923119

>Нечёткие ребята


Кто такие? Чем знамениты? Почему никому не надо, мне кажется это годно довольно таки, не?
923137923140
#57 #923137
>>923132

> Кто такие? Чем знамениты?


Fuzzy data analysis guys.

> Почему никому не надо, мне кажется это годно довольно таки, не?


Как-то так сложилось, что интереса у общественности больше к statistical learning и классическому deep learning.
923151
#58 #923140
>>923132

> Почему никому не надо, мне кажется это годно довольно таки, не?


Результаты где? На кой хуй пытаться симулировать реальные нейроны?
923151
#59 #923147
>>923077

> Коско и есть математик, ученик Заде


> (Заде)С 1932 года жил в Иране, на протяжении 8 лет учился в Американском колледже Тегерана (впоследствии известном как Alborz[en] — миссионерской пресвитерианской школе с персидским языком обучения), затем на электроинженерном факультете в Тегеранском университете



Фрик от математики, ученик фрика от математики (насколько "фрик" может быть применимо к математике, а не естественным наукам).
От чистматовцев слова о нечёткой логике доброго не слышал ни разу.

То есть, за этой нечёткой хренью есть содержательная математика, это не пустышки. Но фрики напускают тумана.
923158923162
#60 #923151
>>923140
>>923137
https://www.researchgate.net/publication/257392356_A_novel_image_encryptiondecryption_scheme_based_on_chaotic_neural_networks
https://books.google.ie/books/about/Advances_in_Neural_Networks_ISNN_2007.html?id=G9kQvtgsBAgC
Вот бля как всегда, чуть дальше гуглишь всё по регистрации и паролям, бля.Хотя полтора года назад по спайкинг нетворкс такая же ебала была. Результаты не знаю, неправильно эти две области сравнивать, первое статистика, анализ данных, второе нейронаука или типа того. Ну и конечно бизнес платит за статистику и ждать не любит, потому количество публикаций и результатов небольшое, но вот на 4th International Symposium on Neural Networks, ISNN 2007, много освещено, значит не маргинальщина как минимум.
923157923163923166
#61 #923153
Имеет ли смысл пытаться вкатываться, если я 17 лвл и за плечами только 1 семестр матана, а статистики и теорвера вообще по нулям? Или же советуете вначале подрасти и набраться математических знаний?
#62 #923157
>>923151

> всё по регистрации и паролям


А в вузиках по любому аккаунты выдают, тут ещё можно автору написать, а обычно просто логин пароль идите нахуй, обратитесь к библиотекарю за логином и паролем. В архиве обычно уже стабильные, окончательные статьи, они выходят года за три-два, как туда попадают.
#63 #923158
>>923147
Где там фрики тумана напускают, можно пример? Я просто в нечетких множествах неплохо понимаю, ни фричества ни тумана не встречал.
#64 #923162
>>923147
Не знаю, я вот тут недавно, но не согласен, что это маргинальщина, да и логично всё это всё это выглядит.
99 Кб, 1794x893
96 Кб, 1781x902
#65 #923163
>>923151

> неправильно эти две области сравнивать, первое статистика, анализ данных, второе нейронаука или типа того


Почему неправильно, если оба подхода могут решать одни и те же задачи? Другое дело, что есть Bayesian Deep Learning и всё такое.

> вот на 4th International Symposium on Neural Networks, ISNN 2007, много освещено, значит не маргинальщина как минимум.


Да, но в одном из прошлых тредов я приводил статистику из скопуса по публикациям о нейроночках. Не маргинальщина, но разница в разы.
А здесь пацаны просят результаты на имаджнетах и других серьёзных датасетах.
923173
#66 #923166
>>923151
Сашеньку Элбакян пробовал? sci-hub.cc
923175924089
#67 #923173
>>923163

>статистику


Ну ты понел. Да ладно, я вообще ни на чём не настаиваю, я об этом час назад обо всём узнал, лол, сейчас бы в споре с работающим в МЛ аноном отстаивать позицию чуваков, про которых узнал час назад только потому, что образ мышления сходный и это тебе субъективно кажется логичным, мда
923179
#68 #923175
>>923166
Что это? Там жируха какая-то и говносайт.
923177
#69 #923177
>>923175
Ох ты ж бля, прскроллил вниз! Ну кто ж так сайты делает! ДУмал говноподелие, которое тебе любое слово найдёт и типа куча комментариев я просто отправил смс и нашёл жопа ежа!
#70 #923178
Test
81 Кб, 709x277
#71 #923179
>>923173
На самом деле, если завтра ЛеКун, Бенгио, Гуудфеллов и Салахудтинов выйдут и скажут, что нейрофаззи - збс, то хайпа около фаззи будет ебать-ебать, а мужик с вариационным выводом и нечёткопетух из ОП-пкчи поменяются местами. Только, тссс, я это по секрету.
Хотя такое вряд ли случится.
923185923186923187
#72 #923185
>>923179
Так и есть, лол.
работающий в МЛ анон
923186
#73 #923186
>>923179>>923185
То есть, сам подход не важен, важен конкретный носитель штанов@говоритель хуйни, озвучивающий подход? Пиздец, секта.
923188923189923191
#74 #923187
>>923179
Проиграл с пикчи, подумал можно такой критерий ИИ сделать, сильный ИИ после череды хуёвых ситуаций себя уничтожит, только робот безэмоциональный будет продолжать жить. Подумал и как-то выпилиться захотелось.
923189
#75 #923188
>>923186

>сам подход не важен


Важен, ты не понимаешь сути. Пиздато то, что работает. То что может работать, но пока не работает может быть как авангардом науки, так и тупиковой ветвью. И на тех и на других смотрят как на околофриков.
923189923202
#76 #923189
>>923186
А хуле ты хотел? У жены неделя моды в Милане, у меня NIPS.
А вообще вот этот >>923188 правю

>>923187
Это же дядюшка Хуттер.
https://arxiv.org/abs/1606.00652
#77 #923191
>>923186
Ну и сам пониаешь, результат нужен уже сейчас, прдеставь, как тяжело выбить финансирование на какую-то нечёткую логику и какое-то там детерминированное облако , лол.
#78 #923202
>>923188
По моему опыту изобретатели всяких новых охуительных видов нейронов оче не любят когда их спрашиваешь "а как у вас дела на мнисте?". В ход идут маняотмазки навроде "да я вообще-то кодить не умею, да и хуй знает как мой нейрон обучать вообще".
923211923213
#79 #923211
>>923202

> В ход идут маняотмазки


>да я вообще-то кодить не умею


Потому что программирование среди математиков зашквар.
#80 #923213
>>923202

>"а как у вас дела на мнисте?"


Вот такие гении и свели МЛ к мнисту.

>маняотмазки навроде "да я вообще-то кодить не умею, да и хуй знает как мой нейрон обучать вообще".


А если это не маняотмазки, а правда? Знания в области, например, нечетких множеств вообще никак не предполагают умения кодить.
923220
#81 #923220
>>923213
Ну вот поэтому Маск и ЛеКун в топе, а никому не известные львы толстые в жопе. Сильный ИИ запустит инженер, помяните мое слово.
923262
#82 #923262
>>923220
Удваиваю. Цель математика - придумать и доказать охуительную теорию. Цель инженера - шобы работало.
#83 #923294
Ебать мне мысль в голову пришла! Сети, основанные на нечёткой логике показывают хуеватые результаты на бинарном железе. Квантовые компьютеры не дают значительных результатов для обычных алгоритмов. А что, если объединить всё это? А в качестве матмодели нейрона использовать... УРАВНЕНИЕ ШРЁДИНГЕРА!111. А? А?1
https://en.wikipedia.org/wiki/Quantum_neural_network
923299
#84 #923299
>>923294

>Сети, основанные на нечёткой логике показывают хуеватые результаты на бинарном железе.


Нечеткие алгоритмы еще в 80-90-х реализовывали на аналоговом железе, на оптоэлектронных схемах и т.п. Хоть тут некоторым нибомбит с упоминаний Коско, вброшу http://gen.lib.rus.ec/book/index.php?md5=BC1EC0F44F2E619AB46D6FD0B7088514 10 глава про аппаратные реализации методов нечеткого вывода.
923307
25 Кб, 500x500
#85 #923306
Мало кто знает, что кроме нечетких множеств есть еще грубые множества Павлака, мягкие множества Молодцова, интуиционистские нечеткие множества Атанасова, а так же всевозможные их комбинации. В кратце про это рассказывается в книжке http://gen.lib.rus.ec/book/index.php?md5=A45DD396A99DEF2FD30ACA8A9D747DC8 на основе таких множеств в настоящее время нет ни одной системы вывода. Несмотря на более чем многообещающие результаты. Наверное, потому что салахутдинов не форсит.
923309923319
#86 #923307
>>923299
Хуй с ним с железом! Суть в том, что сама природа подсказала уравнение, которое можно заюзать как модель нейрона! Причём ведь и наш мозг вроде как типа квантового компьютера, может ваще круто получиться! Эх, умел бы я во всю эту хуйню, там же просто строчку в коде заменить по идее. Вот ща гуглю квантовый нейрон и там везде квантовые аналоги перцептрона обычного.
923310923326
#87 #923309
>>923306
Жалко, если всё это залупа без задач. Очень красиво выглядит со стороны.
11 Кб, 514x232
#88 #923310
>>923307

>квантовые аналоги перцептрона обычного


Вот типа.
#89 #923319
>>923306

> таких множеств в настоящее время нет ни одной системы вывода


Смотри, сделали же квантовый компьютер, ну там точно квантовая логика, может просто нахуй послать нечёткую логику, но идеи, архитектуру и прочее взять оттуда.
923326
157 Кб, 1006x749
#90 #923326
>>923307

>там же просто строчку в коде заменить по идее


Был у меня начальник, у которого это была любимая фраза. Мужик - что-то типа инженегра-недоматематика с электроники.
Когда он говорил, что уравнение можно вывести просто, у нас с ним уходили недели на выводы.
Когда он говорил, что можно поменять строку кода в работающих скриптах, у нас уходили недели на реализацию его неработающей идеи.
Мне даже трудно представить, сколько бюджетных денег мы в своё время въебали на такую российскую науку.

>>923319

> сделали же квантовый компьютер


Там как-то не очень всё, почитай внимательнее про прогресс в области.

>>923319

> просто нахуй послать нечёткую логику, но идеи, архитектуру и прочее взять оттуда.


Можно ещё нахуй послать всю стандартную теорию вероятностей и теорию информации и использовать алгоритмическую теорию информации. Там всего-то нужно нормальные аппроксимации к универсальным приорам найти.
923331
#91 #923331
>>923326

>Там как-то не очень всё


>Квантовые компьютеры не дают значительных результатов


Да, там вроде как только некая нормализация может проводиться. Корчое, совсем ещё сыро и куча проблем.

>Когда он говорил, что уравнение можно вывести просто, у нас с ним уходили недели на выводы


>Можно ещё нахуй послать


Да, да понятно, это я так, фантазирую. Было бы всё так просто давно бы уже сделали.
49 Кб, 770x496
#92 #923341
However, the nature of the behavior in the brain will sometimes change from chaotic to periodic.
These changes can be due either to an abnormality like epileptic seizures, or it could be caused
by other reasons such as an intense focus or an attempt to remember an object or solve a problem
Коллапс волновой функции

Another example is the dynamics on neuron levels (cellular and subcellular). The transportation
and storing of information in the brain is believed to be accomplished by the impulse trains
produced by the neurons. These trains of impulses or action potentials are often organized as
sequences of bursts. The combination of these impulses will result in an electrical field on the
surface of the brain, which can be recorded using EEG.
Типа энцефалограмму крысы сделали, аттрактор получился пикрелейтед.

All of the behaviors that these models exhibit can be found in their bifurcation diagram. A
bifurcation is a sudden change in the dynamics when a parameter of the system is changed [1].

Коллапс волновой функции.

From a dynamical systems point of view, neurons are excitable because they are near a
bifurcation where a transition from resting to a sustained spiking activity occurs [7]. All the
neurons undergo bifurcation by changing their states. Their new state can be periodic as in tonic
spiking (called a limit cycle), or they can be chaotic (called a strange attractor).

Сука, ну почему я не знаю математики/физики /программирования, почему я волоёбил всю жизнь, мудаак.
923386926320
#93 #923346
Да должно быть точно, надо лучше искать.
923355
#94 #923355
>>923346
Abstract

With the polarization of quantum-dot cell and quantum phase serving as state variables, this paper does both theoretical analysis and simulation for the complex nonlinear dynamical behaviour of a three-cell-coupled Quantum Cellular Neural Network (QCNN), including equilibrium points, bifurcation and chaotic behaviour. Different phenomena, such as quasi-periodic, chaotic and hyper-chaotic states as well as bifurcations are revealed. The system's bifurcation and chaotic behaviour under the influence of the different coupling parameters are analysed. And it finds that the unbalanced cells coupled QCNN is easy to cause chaotic oscillation and the system response enters into chaotic state from quasi-periodic state by quasi-period bifurcation; however, the balanced cells coupled QCNN also can be chaotic when coupling parameters is in some region. Additionally, both the unbalanced and balanced cells coupled QCNNs can possess hyper-chaotic behaviour. It provides valuable information about QCNNs for future application in high-parallel signal processing and novel ultra-small chaotic generators.
Но опять залогиниться за институт или купить. Похуй.
#95 #923360
923369
#96 #923369
>>923360
https://en.wikipedia.org/wiki/Cellular_neural_network
Короче гибрид нейросети и клеточного автомата, даже не знал, что есть такое.

>each cell can be modeled as a dissipative, nonlinear dynamical system where information is encoded via its initial state, inputs and variables used to define its behavior

#97 #923386
>>923341

> Сука, ну почему я не знаю математики/физики /программирования, почему я волоёбил всю жизнь, мудаак.



Вся суть говно-теоретиков. К слову, ~5 кубитов - предел запутывания. Так что ты соснул по всем фронтам, мань.
923394
#98 #923394
>>923386

>Вся суть говно-теоретиков.


> ты соснул по всем фронтам


Кек, ну и ладно. Пофантазировать уже нельзя. Злобный уёбок.
#99 #923614
Westworld на нейронных сетях как захуячить можно никто не знает?
23 Кб, 639x347
49 Кб, 687x688
#100 #923657

> шад)))


>Нет там ничего ML-специфичного


Пикрелейтед
923660923858
#101 #923660
>>923657

>не прошёл даже первый этап


>ШАД ХУЙНЯ Я СКОЗАЛ!11


Что ты хочешь от диванных специалистов?
923858
#102 #923858
>>923657
>>923660

>ШАД ХУЙНЯ Я СКОЗАЛ!11


Будто не хуйня. Яндекс не может ни во что кроме впаривания своей рекламы.
923907923912
#103 #923907
>>923858
Кафедра Яндекса в ВШЭ - лучшая CS шарага в РФ.
#104 #923912
>>923858
Обработка естественного языка — одна из самых сложных проблем искусственного интеллекта. Современное машинное обучение и большие объемы данных здесь играют важнейшую роль. Нам повезло, что мы живем в интересное время – на наших глазах происходит настоящая революция, связанная с успехами нейросетей в задачах понимания текста.
Наша группа входит в департамент машинного интеллекта Яндекса.
Мы занимаемся всем, что имеет отношение к тексту: морфологией, синтаксисом, семантикой, исправлением опечаток, машинным переводом и т. п. Мы ищем как исследователей, так и сильных разработчиков (можно в одном лице). Как исследователь вы будете следить за прогрессом в машинном обучении и разрабатывать новые методы. Задача разработчика — писать код под нагрузку в десятки тысяч rps и масштабировать алгоритмы машинного обучения под петабайтные обучающие выборки.
923913
#105 #923913
>>923912

> петабайтные обучающие выборки


> текст


> число параметров современных нейроночек


Что я читаю.
923914
#106 #923914
>>923913
Они слов умных начитались и пытаются кого-то наебать, что могут в МЛ. При том, что ни одного своего решения у них нет и не было.
#107 #923951
>>923920

> А что такое?


Ну как бе мощности существующих моделей пока не алё для существующих объемов текста. А нейроночки рекурсивные давно уже текст хреначат, как LSTM первые появились, и неплохо, лучше чем остальное.

Вот только буквально неделю назад публикация появилась про текст и охерительно большую нейроночку. Но что это, где же яндексеры в авторах, а? Впрочем, ничего нового.
923952923986
#108 #923952
>>923951
Ссылка отклеилась https://arxiv.org/abs/1701.06538
#109 #923961
Стоит ли первокурснику вкатываться, или же ещё рановато из-за математики?
923963
#110 #923963
>>923961
Чем раньше поймёшь, интересно это тебе или нет, тем лучше.
#111 #923985
>>923976
Статью-то хоть прочитай, мань.
#112 #923986
>>923951

> где же яндексеры в авторах


А они там должны быть? Они вроде как бизнесом занимаются, а не публикациями. Конечно, у них есть ресёрч отдел и они там тоже что-то делают, но они не научный институт, а бизнес-компания. Зато они инвестируют много в своих будущих кадров, со всей страны в ШАД собирают народ, вот они потом и покажут результаты. Ну и да, ты написал это как эталонный непризнанный гений, заваливший туда собеседование.
923994924017
#113 #923994
>>923986

> заваливший туда собеседование


Заколебали меня звать на собеседование, кстати, лол. Платят копейки, в офис ездить надо (офис красивый, но всё равно) - нахер надо. Нет у них народа и не будет, плохо всё. Мои инсайды сваливают в MS все. Такие дела.
923999
#114 #923997
>>923993
Ну я вижу как тебе ясно значение слова ансамбль, угу.
29 Кб, 480x360
#115 #923999
>>923994
Неубедительно как-то, особенно вот эта часть.

>Нет у них народа и не будет


Не обижайся, но ассоциации с пикрелейтед.
924048
#116 #924017
>>923986

>у них есть ресёрч отдел и они там тоже что-то делают,


И что они там делают? С подружками в НИИ проектируют хуи? Где хоть один программный продукт на тему МЛ этого вашего яндекса?
924024
#120 #924029
440 Кб, 3500x2940
#121 #924030
>>924024

>Reproducible Experiment Platform (REP)


>unified python wrapper for different ML libraries (wrappers follow extended scikit-learn interface) Sklearn TMVA XGBoost uBoost Theanets Pybrain Neurolab MatrixNet service(available to CERN)


>крупнейшая в рашке ИТ-компания


>Враппер на не то что не яндексовском, но и даже не российском пистоне для алгоритмов, которые опять же к яндексу и рашке никак не отеносятся. И еще полтора проекта на гитхабе уровня никиты садкова.


Ты сейчас серьезно что ли7
924037924083
#122 #924037
>>924030
https://www.extremetech.com/extreme/147320-cern-boosts-its-search-for-antimatter-with-yandexs-matrixnet-search-engine-tech
Вот ещё, ЦЕРН не хуй собачий, а на сайте у них посмотри ещё с несколько десятков решений в куче разных отраслей, то есть всё на практике в индустрии успешно используется, а не пустые теоретические статьи где-то.

> российском пистоне


>рашке


Что? Причём тут это вообще? Я всё понял, ты просто ненавидишь всё русское. Мда.
924040
#123 #924040
>>924037

>ой лал петабайтныи выбарки ой ну не могу ну тупые вруны даж ни панимают ничего в нейроначках))0))


The LHCb experiments generate colossal amounts of raw data — as much as 35GB covering 1 million events per second — which needs to be organized and filtered to find the extremely rare events that the scientists are looking.
#124 #924048
>>923999
Не ставил задачу тебя в чем то убеждать. Хочешь в яндекс - иди и пробуй. Но потом не жалуйся, что зарплату как студенту платят.
924054
#125 #924054
>>924048
Тебе-то откуда знать.
924057
#126 #924057
>>924054
От инсайдов же, жопой читал? Заебала уже шадоблять, честно.
924068924076
#127 #924068
>>924057
Таких же форумных data scientistов 3000ккк/нс?

>да чё они там в своём яндексе))0 лохи) рашка парашка ничего не производят только пиздят технологии)) мне на дваче так сказали)))

924252
#128 #924076
>>924057

>шадоблять


Да не ШАДоблядь я, просто охуел с твоей аргументации. Вангую, ты из тех, которые
кричат, что математика/алгоритмы не нужны.
924265
#129 #924083
>>924030

> хоть один программный продукт на тему МЛ


Набор инструментов для проведения различных экспериментов, МЛ, что не так?

>враппер


Ну да, в других библиотеках по 20 уникальных алгоритмов обучения и моделей сети в каждой.
924084924557
#130 #924084
>>924083
К тому же дальше враппера ты не читал походу
.
#131 #924089
>>923166

>sci-hub.cc


Да, спасибо, работает.
55 Кб, 727x205
#132 #924235
Отвлеку от срача про Коско:
продолжаю читать Deep Learning и возникают вопросы про некоторые пассажи в книге, вот, например, кусок текста.
Каким боком мы начали говорить про гауссианы (из-за предположения, что ошибки распределены нормально)? Почему нас вообще парит его среднее?
Как я понимаю из просмотра cs231n и делания заданий, общая цель обучения (в постановке обучения с учителем) - сделать функцию, которая будет на заданных входах давать правильные классы, или как это изложено в книжке минимизировать ошибку в смысле cross entropy. Так причем тут гауссиан?
#133 #924247
>>924235
Ну ты выдал кусок текста без контекста, а нам теперь гадать.

> Каким боком мы начали говорить про гауссианы (из-за предположения, что ошибки распределены нормально)?


Логично, это самое частое предположение.

> Почему нас вообще парит его среднее?


Ещё ковариационная матрица обычно парит, ибо нормальное распределение задаётся двумя моментами.

> общая цель обучения (в постановке обучения с учителем) - сделать функцию, которая будет на заданных входах давать правильные классы


Может давать классы, а может действительные значения, как в регрессии.

> или как это изложено в книжке минимизировать ошибку в смысле cross entropy


> общая цель


Общая цель - подобрать параметры так, чтобы они давали максимум правдоподобия на данных, дальше в зависимости от задачи и допущениях о распределениях вытекают минимизируемые ошибки. Ну там на самом деле ещё риски рассматривают, MAP и постериоры над параметрами, но это потом
924742
#134 #924250
>>924235
Классы тут нипричем, речь про регрессию же небось. x - вход, y - вектор на выходе, вещественный. В идеале ты бы хотел, зная вход x, получить не просто некое значение y, а распределение вероятностей по y при условии x, т.е. насколько вероятно любое значение y при данном x. Это полезно, т.к. в реальном мире в цене дома (y) есть элемент случайности, который не описывается целиком его площадью и чем там у тебя еще на входе есть (x) - и имея полное распределение вероятностей ты можешь четко понять какая может быть цена у дома.

Но это в идеале - на практике твой линейный юнит не выдаст тебе распределение вероятностей - а всего лишь некую его оценку, статистику. Самая полезная оценка самого простого предполагаемого распределения вероятностей - гаусса - это его матожидание.
924260
#135 #924252
>>924068
Друзей, сваливших из параше-яндекса в bing. Как тебе такое, а?
#136 #924260
>>924250
Мы с тобой жопой читаем, у него там hidden layer.

>>924235
Смари сюда, кароч, у тебя на хводе какая-то ебала с ошибкой, которая там скорее всего распределена по нормальному закону и какой-то там дисперсией. У тебя слой линейный, а линейное преобразование нормальной ебалы - другая нормальная ебала, с нелинейным слоем такая хуйня не канает. Поэтому у тебя пока слои линейные, там будут гауссианы по ним ходить. Кросс-энтропия это про категориал уже, это потом покажут.
924267924742
#137 #924265
>>924076

> математика/алгоритмы не нужны


Большая часть параши в шапке нахуй не сдалась для практического вката. Хотите дрочить эту хуйню и алгоритмы (какие, блять, конкретно, алгоритмов хуева тонна) сидя у мамки на шее или пописывая говносайтики - вперед.
924742
#138 #924267
>>924260
Написано же linear output layers. Я почти уверен, что там речь именно о выходе регрессии с предположением что шум модели гауссов. Но я эту херню давно читал и открывать снова влом, сорян.
924268
#139 #924268
>>924267
Значит я жопой читаю.
192 Кб, 512x512
#141 #924557
>>924083

>Ну да, в других библиотеках по 20 уникальных алгоритмов обучения и моделей сети в каждой.


Ты не понял. Российская ИТ-компания, у которой даже название не российское, а какая-то хуйня. Из программных продуктов одна реклама под андроид, весь телефон засрали, заебался вилкой вычищать на тему МЛ - полтора враппера на гитхабе. При том, что теоретически какой-то исследовательский отдел присутствует, вон выше какую-то хуету цитировали. И на этом основании я должен поверить, что эта шарашка вообще может в МЛ.
135 Кб, 493x600
#142 #924584
Посоны, важный вопрос, вы тут все крутые математики, чё там порешили на сходосе по поводу 0.99999(9) = 1 ?

>Что такое иррациональное число? Это просто те вещественные числа, которые не являются рациональными. Всё. Аксиоматика построена.


>Арифметика также утверждает, что порядок операций умножения и деления не имеет значения. Значит (1 / 3) 3 = (1 3) / 3 - так? А вот и ни фига.



В такое говно в 2017 я верить просто отказываюсь, это не заслуживает никакой критики абсолютно.
#143 #924587
>>924584
(1 / 3) x 3 = (1 x 3) / 3
#145 #924599
>>924584
>>924597
В сцы пиздуйте с этим жиром.
924600
#146 #924600
>>924599
Это не жир блядь, я реально интересуюсь. Ещё один долбоёб, решивший что это жир - здравствуй
#147 #924605

>создадим две параллельных вселенные, где у нас А равно одному и тому же значению. Равно ли А самому себе в другой вселенной?



И это тоже нихуя не жир. Куда мне обращаться с этими вопросами вообще? Ведь они чисто кэповские, и "жир" потому что "ну ты же знаешь что это жир", так чтоли?
924609
#148 #924609
>>924605
Сказали же, что в сцы, это тред нейрослесарей про нейростанки.
924623
#149 #924623
>>924609
Да похуй мне на сци. Сци - один большой зашквар.
https://www.reddit.com/r/mathematics/comments/5rlzcx/please_tell_me_where_can_i_find_answers_to_this/
Перекат короче. Хоть повод появился регнуться на реддите
924635924666
#150 #924635
>>924623
Есть доска /math/
924648
#151 #924648
>>924635
Я писал сразу в обоих т.к у меня не особо много времени ждать ответ, но видимо придётся подождать. Как ты заметил - >>924597 здесь уже сообщено о разделе math
924660
#152 #924656
Откуда у быдла вечно столько интереса к ебанутой нахуй никому не нужной хуите про параллельные вселенные, 0.(9) или нечеткую логику?
924664
#153 #924660
>>924648
0.(9) - ровно единица, ни больше, ни меньше.
1 / 3 = 0.(3)
0.(3) 3 = 0.(9)
1 / 3
3 = 1
=> 1 = 0.(9)
924664
#154 #924664
>>924656
Пошёл нахуй, псевдонебыдло

>>924660

>0.(9) - ровно единица


Схуяли? У нас оперативки столько не хватит, чтобы оно было равно ровно единице. А аутотренинги что "ну оно равно единице, ну чо ты. Равно же!" - не катят.
924667924671
#155 #924666
>>924623
4) All numbers that are not rational are irrational numbers. Really? Binary logic in 2017? Is there any alternative to "rational" or "irrational"? Any kind of meta-rational numbers maybe?

Короче исходя из этой блядской параши я считаю что
1/3 is metaraional number for 0.(3)

Не. ну серьёзно, мне где об этом спрашивать? Я же не мог тут велосипеднуть внезапно
sage #156 #924667
>>924664

> Схуяли?


он тебе доказательтво ниже написал, довн) обтекай))
#157 #924671
>>924664

>ну оно равно единице, ну чо ты. Равно же!" - не кат


Ну ты и пидорас, если тебе моё док-во не понравилось, окей, давай рассмотрим другое

Ряд 9 умножить 10^(-k), k от 1 до +inf.(0,9 + 0,09 + 0,009 ...) Это сумма бесконечно убывающей геометрической прогрессии. Можешь посмотреть школьную формулу , подставить величины И УБЕДИТЬСЯ ЧТО ТАМ ЕДИНИЦА
924674
#158 #924674
>>924671
Не, меня это не убеждает. Машине неведома бесконечность вследствие переполнения буфера. В то время как 1/3 выглядит совершенно рациональной хернёй - 0.(3) выглядит полностью иррациональным говном для аутистов.
924677
#159 #924677
>>924674

>Машине неведома бесконечность


Зато ведома аппроксимация. 0.9999999 - это аппроксимация единицы, такое число классификатор и отнесет к единице, а не к нулю, 0.5 и т.д. А теперь уебывай.
924678
#160 #924678
>>924677
Приближения и наука - никак не связанные вещи. Это лишь костыль, который помогает в аутотренинге что "всё заебись", но на самом деле это остаётся лишь костылём. Очень пиздецовым костылём. Причём в самом начале вычислений.
924682924683
#161 #924682
>>924678

>Приближения и наука - никак не связанные вещи.


Зато приближение - это суть МЛ, мягких вычислений. А это - МЛ-тред.
924684
#162 #924683
>>924678
Я тебе привёл строгое математическое доказательство с рядом. Дело в том, что, когда появляется мат. доказательство споры уже неуместны. Ты пытаешься рассуждать над цифрами не с точки зрения математической науки, а с точки зрения ссаной машины Тьюринга.
924684
#163 #924684
>>924682
Как повысишь точность без повышения количества слоёв до охулиарда - приходи, поговорим
нейронные_сети_слои_сравнение_статистика_клоун.жпг (не нашёл за нескольки минут пик)

>>924683

>математика без вычислимости


>наука


Я всё понял, подожду чьего-нибудь другого ответа.
А это простейший пример не вычислимости. Даже 1/3 - нихуя не вычисляемая штука. Терабайт оперативки. Эксабайт. Машине похуй. Можно сделать костыль - но это будет лишь костыль. Костыли - это охуенная олимпиада, конечно, но я, пожалуй, от неё откажусь.
924685924826
#164 #924685
>>924684

>нейронные_сети_слои_сравнение_статистика_клоун.жпг (не нашёл за нескольки минут пик)


Сам же и ответил на свою претензию. Да, теория статистического обучения как раз об этом, как повысит точность не асимптотически (охулиардом слоев), а правильно ставя и решая задачу обучения.
924686
#165 #924686
>>924685
Так я вроде её и ставлю её нормально, разве это не проблема современной науки?, что там костыль ебанули, потом далее, ещё пару костылей, а потом все "почему-то" охуевают чего это всё в конце по швам трещит
#166 #924688
>>921502 (OP)
оп, Theano, TF это понятно. Непонятно почему ты решил, что внимания стоит монструозный жрущий TF, который в бенчмарках совсем не блещет и вообще был унылым говном до определенного времени. Где keras, где промышленный deeplearning4j, где наконец всея нагибатор Torch, которые не просто сделан пряморукими людьми (в отличие от параши Theano) достаточно просто посмотреть на исходный код GRU модуля, чтобы у тебя встал.
Где основа основ -- ML курс от Стенфорда?
С его вкатывание как раз и надо начинать, а не с книг по 500 стр.
924693924694924700
#167 #924693
>>924688
Еще один думает, что TF это обычная пистонопараша для модного у школьников диплернинга.
924702924710
#168 #924694
>>924688
Сообщу нихуя не поддерживаемое никем мнение. Нет ничего жрущего или нет. Есть только то за что ты получишь в итоге бабло, а за что ты получшишь лишь в еблище или тебя пизданут на мороз
924696924707
#169 #924696
>>924694
или то*
#170 #924700
>>924688
Ебашим вместе с подругой нвидией всё на кофе на крестах, рвем все бенчмарки и ссым в лицо фреймворкам для даунов.
924716
#171 #924702
>>924693
только вот школьники что-то совсем не юзают его:)
#172 #924707
>>924694
офисный планктон на крестах, да еще и под виндой, что-то там рвет, лол бляяяя
924716
#173 #924710
>>924693
ну а если серьезно, TF скорее для офисных червей, которые работают работу и зарабатывают зарплату и вполне естественно, что в /pr на него дрочат. Но раз уж тред по ML, а не про TF, то и обсуждать лучше плюсы минусы всех библиотек.
924715
#174 #924715
>>924710
Все, что не поддерживает и пистон и кресты идет нахуй сразу. Особенно всякая lua параша (это ж надо было придумать юзать неподдерживаемое говно, а).
924726
#175 #924716
>>924707
>>924700

Ты не туда ответил, а я думаю чё за хуйня, ответ вроде есть, а вроде его и нет
924722
#176 #924722
>>924716
А почему под виндой-то? И почему под виндой должно быть медленнее, лалс? А, я понял, потому что нитакие школьники угорают по МААМ МААМ ЛИНУПС ЭТА КРУТА!!111.
924727
#177 #924726
>>924715
Во многом благодаря "луа параше" офисные черви вообще узнали, что такое дип лернинг. Науч. статьи совсем не читаем, да?

Torch первый релиз в 2002 и именно его юзали Deep Mind и сейчас продолжает Facebook, NVIDIA. Theano первый в 2009, университетский проект, т.е. части кода писались всякими практикантами и пхд студотой скорее всего, что как-бы намекает. И поэтому промолчим про качество кода в Theano.

И да, пистон сосет у lua если что, и соответственно Theano сосет у Torch.

Ну и вот немножечко бенчмарков вам для повышения ЧСВ.

https://github.com/glample/rnn-benchmarks
#178 #924727
>>924722
ну про скорость это ты додумал (интересно почему).
Это было к тому, что под виндой, где нет нормальных средств для разработки, а я имею в виду, нормальные редства разработки, а не ваши отмазки и костыли ни один уважающий себя кун не будет в r&d.

Заранее прошу прощения у сишарпов и с++ для которых заботливая MS слабала отличную VS у кучу других костылей.
924731
269 Кб, 1366x768
#179 #924728

> пистон сосет у lua

924889
#180 #924731
>>924727

> нормальные редства разработки, а не ваши отмазки и костыли ни один уважающий себя кун не будет в r&d.


Ну-ка ну-ка поясни за средства разработки, мне аж прям интересно стало. Сам на чем ML делаешь? Чего под винду нет?
#181 #924732
>>924235
Там рассказывается про виды выходных нейронов, их выбор зависит от того, что тебе удобнее получать на выходе в конкретной задачe.
Линейные выходы(без функции активации) подходят для задач регрессии, сигмоида для классификации 1/0,
Нормальность распределения предполагается во всех методах, использующих метод максимального правдоподобия, об этом страниц пять назад в твоей книжке написаною.
#182 #924733
>>924584
0.(9)+0=1
Что не так?
#183 #924742
>>924265
>>924260
>>924247

>е нахуй не сдалась для практического вката


>е нахуй не сдалась для практического вката


>е нахуй не сдалась для практического вката


>е нахуй не сдалась для практического вката


>е нахуй не сдалась для практического вката


>е нахуй не сдалась для практического вката


>е нахуй не сдалась для практического вката

924744
#184 #924744
>>924742
Нормальное распределение не осилил или что?
924755
#185 #924753
все распределения и вообще вся база очень хорошо разжёвываются в первых 3 книгах шапки
924792
#186 #924755
>>924744
Бред написан дичайший, а потом

>Большая часть параши в шапке нахуй не сдалась для практического вката


Как бы вся суть. И это притом, что в книжке страниц пять назад написано:

>Previously, we saw that the equivalence between


maximum likelihood estimation with an output distribution and minimization of
mean squared error holds for a linear model, but in fact, the equivalence holds
regardless of the f ( x ; θ ) used to predict the mean of the Gaussian.
An advantage of this approach of deriving the cost function from maximum
likelihood is that it removes the burden of designing cost functions for each model.
Specifying a model p (y | x ) automatically determines a cost function log p(y | x ).
Просто ёбаные дауны, то есть тут даже читать без толку, один хуй всё вылетает.

>Большая часть параши в шапке нахуй не сдалась для практического вката.


>ШАД шарага))0))0 а я умныыыый)0)0


Пиздец какой.
924791
#188 #924791
>>924755
Поток сознания какой-то. Что тебе не нравится-то, конкретно, илитарий?
924821
#189 #924792
>>924753
Для чтения книжки гудфеллоу никакой БАЗЫ не нужно.
924800924801
#190 #924800
>>924792
нужен бишоп/маккай
#191 #924801
>>924792
Чё за гудфеллоу? Нихуя не въехал.
248 Кб, 778x960
#192 #924821
>>924791
Один жопой читает книги, половину не понимая, другой несёт хуйню шизофазийную из того, что где-то когда-то услышал, гаусианы у него по слоям ходят, третий фантазёр, на ходу под ответ компилирует, в цене дома элемент случайности, будто на экзамене троечник.

> Но я эту херню давно читал и открывать снова влом, сорян.


Ну и довершает всю эту картину вишенка

>Большая часть параши в шапке нахуй не сдалась для практического вката. Хотите дрочить эту хуйню


Антракт.Ёбаный пиздец. Вы же вообще не понимаете, что делаете. То есть вообще. А от прочитанных книг только ещё большая каша становится, потому что базовых понятий нет/они неверные.
А потом такой скроллишь вверх,а в шапке

>шад)))


Нет там ничего ML-специфичного, знание матана и теорвера на уровне заборостроительного вуза
Просто мммаксимум долбоёбы. Ебать у вас тут загон.
#193 #924826
>>924684

> повысишь точность


Зачем? 0.(3),1/3 куда точнее-то? Давай тогда вместо pi или e по 1000 символов писать.
926218
#194 #924850
>>924821
Ну и вали нахуй урод, хули ты тут забыл?

The bias–variance decomposition is a way of analyzing a learning algorithm's expected generalization error with respect to a particular problem as a sum of three terms, the bias, variance, and a quantity called the irreducible error, resulting from noise in the problem itself.

В цене дома у него не может быть случайности.
#195 #924860
Что скажете насчёт https://see.stanford.edu/Course/CS229 ?
Стоит ли в шапку добавлять?
924865
sage #196 #924865
>>924860
там уже есть "курс от китаёзы"
#197 #924889
>>924728
бенчмарки не читаем, ты же не думаешь, что я настолько дурачок и буду сравнивать доступность библиотек.
924899
#198 #924891
>>924235
да это просто доп. информация, абы знал для чего еще. На твоем месте я бы прошел stanford ML coursera курс.
925127
#199 #924893
>>924821
лондан из зе кепитал оф грейт британ, уровень каждого первого российского погромиста. На их месте я бы не Bishop-а читал, а учил язык лол
925127
#200 #924897
>>924821
двачую адеквата, долбоебам, которые решили вкатится для начала надо закончить курсеру и только потом пробовать в книги. Блядь, но нет, тут же каждый в поле агроном.
925127
#201 #924899
>>924889
Ты настолько дурачок, чтобы выбирать DL либу по бенчмаркам? В которых нет половины DL либ и бенчмарк только по рекурсивкам, лол. Еще один диванный теоретик.
924919
123 Кб, 340x254
sage #202 #924911
0.(9) + 0.(9) = 0.9999... + 0.9999... = 1.9999...998
#203 #924919
>>924899
ну я знаю, что выбирать, т.к. пишу дисер по рекурсивкам. И собственно тон выбрал, чтобы потроллить немного борду и растрести нормальных кунов. Естественно, нет лучшей либы, все под свои задачи. Но шапка требует доработки, т.к. куча полезных и нужных фреймволков отсутствует вообще.
924928
#204 #924926
По-моему, все уже сошлись во мнении, что шапка - говно.
#205 #924928
>>924919
Опа-опа чё за дисер? Согласен ли ты что существующие рекурсивки (LSTM) - костыльное говнище? Что думаешь за neural turing machines?
924934924942
#206 #924929
Небольшой ревью по фреймволкам Caffe, Theano, Torch, TF от Андрюши Карпатого. Читаем, анализируем. Для нетерпеливых сразу в pros/cons.

линк: https://www.google.de/url?sa=t&rct=j&q=&esrc=s&source=web&cd=1&cad=rja&uact=8&ved=0ahUKEwjavKrF-_HRAhXJLsAKHZ3FDOwQFggaMAA&url=http://cs231n.stanford.edu/slides/winter1516_lecture12.pdf&usg=AFQjCNEruVeYhkzWmcZ2N8k-rpUHHAITYA&sig2=So34QvPzJ1NlXACB4YAfmA&bvm=bv.146073913,d.ZGg
#207 #924934
>>924928
ну вообще вопрос не совсем корректный? тут дело не в том как ты процессишь свой hidden layer вообще, т.е. не в LSTM дело. Как говорил Микола, главное это ваш корпус, фичи и настройки параметров.

Про тюренговые машинс увы я тебе ничего не скажу. Надо скачала почитать статьи по ним.
#208 #924942
>>924928
да, и что-то я не понял про LSTM, они outperform все что только можно на данный момент. Чем ты недоволен?
925032
#209 #925032
>>924942
Тем, что это просто квинтэссенция костыльной архитектуры с костылем на костыле? Одна зависимость от временного масштаба чего стоит (забывает все нахрен если частота данных большая) - и ради того, чтобы это побороть наворачивают еще костылей - гейты, которые открываются каждые K, 2K, 4K временных шагов и т.д. (влом искать статью, на прошлом семчике в ИППИ было). Просто пиздец.

То же самое со сверточными сетками, которые могут в трансляцию, но внезапно не могут в поворот и другие симметрии. Хотя казалось бы одна хуйня.

Но и там и там народ пытается придумать что-то нормальное - для симметрий Домингос придумал deep symmetry networks, для нормальной памяти - neural turing machines.

И вообще надо давно пробовать полноценные дифференцируемые программы, а не 2.5 костыля как LSTM, Колмогоровская сложность же. Попробуй заставить твой LSTM отсортировать массив, вперед.
#210 #925051
>>925032

> neural turing machines


Если в двух словах, то это нейросеть, которая помимо своего основного режима способна выполнять обычный код?
925058
#211 #925058
>>925051

>neural turing machines


Круть какая.
#213 #925124
>>924821
Ок, знаток, спасибо за твой резкий, но информативный ответ. Можешь пояснить, почему мы выбираем гауссиан как p_model?
925168925171
#214 #925127
>>924893
Я знаю английский где-то между Advanced и Proficiency, проблема не в языке, а в некотором грузе нотации + математики, тот же cs231n с course notes значительно легче воспринимается вероятно из-за формата и большей ориентированности на практику.
>>924897
>>924891
Я прошел курс, но не сказать, чтобы он дал много понимания. Да, смогу тебе зафитить и регрессию и деревья скорее всего под датасет, что теперь больше знать ничего не надо?
925152
#215 #925151
>>925032
ну по сравнению с ванильной RNN, которая похоронила все надежды на "успех" в свое время, LSTM был прорывом и благодаря именно этой архитектуре интерес к рекаррентам воскрес и сейчас мы пожинаем плоды этого "интереса" (в виде вот таких вот трололо тредов).

Конечно, одной лишь "забавной" архитектурой ты не решишь все проблемы. Другое дело, что создать что-то более менее хорошо работающее даже с LSTM далеко не так просто как кажется.
У LSTM была задача решить проблему исчезающего градиента (vanishing gradient). Они с ней справились.

Почитай еще про Highway networks -- классические FFNN только с прикрученными гейтами. Тоже ниче, успешно применяются. Гейты рулят на самом деле. Более того, зачем ебать мозг куда более сложными архитектурами, если подборка толкового корпуса и настройка параметров всегда и дешевле, и быстрее в результате.

Ну а в сравнение с представленными тобой решениями, LSTM смотрятся теоретически слабо. Но это просто ступень.
#216 #925152
>>925127
ну вот, молодца.

ну текст, который ты вывалил выглядит нормальным, хотя предложение, соглашусь, длинноватое для восприятия без перечитки.
Ты почитай дедушку Эльмана например, вот там пиздец.
Когда я не понимаю о чем речь это скорее всего от недостатка математического бекграунда. Тогда я начинаю гуглить и читать смежные темы. Да долго, но зато разбираешься.
13 Кб, 400x400
#217 #925160
>>925032

>То же самое со сверточными сетками, которые могут в трансляцию, но внезапно не могут в поворот и другие симметрии.


Как будто ты можешь.
925318
#218 #925168
>>925124
Так как пользуемся методом максимального правдоподобия для обучения сети, а он асимптотически нормален, то есть его распределение аппроксимируется нормальным распределением, которое N(y;y,I). Во втором случае мы тоже пользуемся методом максимального правдоподобия, но теперь у нас классификация, потому используется распределение Бернулли( которое есть биномиальное с н=1, которое при
больших n также нормальное).

>>Previously, we saw that the equivalence between


maximum likelihood estimation with an output distribution and minimization of
mean squared error holds for a linear model, but in fact, the equivalence holds
regardless of the f ( x ; θ ) used to predict the mean of the Gaussian.
An advantage of this approach of deriving the cost function from maximum
likelihood is that it removes the burden of designing cost functions for each model.
Specifying a model p (y | x ) automatically determines a cost function log p(y | x ).
О чём он тебе и говорит, до этого ты строил линейную регрессию с mean square error в качестве функции потерь, в итоге твои точки почти все лежали на получившейся линии. А теперь, говорит он тебе, посмотри внимательно, что ты сделал. Mean square error по-русски дисперсия, то есть разброс относительно матожидания, ну и ты его минимизировал и получил ровную линию. Дык вот, говорит нам автор,нам удалось получить соответствие между предсказанными и исходными значениями при помощи минимизацией дисперсии не потому, что наша модель линейна , а потому, что мы предполагали, что наша величина распределена нормально. Она не распределена нормально, мы предполагаем, что она распрелена нормально и на этом предположении строим приближение.
925191
#219 #925171
>>925124
Блядь, почему p-model? p(y|x), условная вероятность, p-model не обязательно нормальное, Бернулли в регрессии, например.
925173
#220 #925173
>>925171
А, лол, это и есть p(y|x). Нужна регрессия берёшь нормальное, нужна классификация берёшь Бернулли. По сути это одно и то же, хотя не совсем, вот биномиальное и Бернулли одно и то же, частный случай для n=1, а тут просто на больших n (вроде больше 30)как нормаальное себя ведёт по центральной предельной т еоремееею.
925174925177
#221 #925174
>>925173

>Нужна регрессия берёшь


Линейный выходной слой.

> нужна классификация берёшь


Сигмоиду.
Та\м об этом параграф в общем.
#222 #925177
>>925173

>это и есть p(y|x


Точнее матожидание, которое хотели получить. Вот, кстати, c этого тогда проорал:

> В идеале ты бы хотел, зная вход x, получить не просто некое значение y, а распределение вероятностей по y при условии x, т.е. насколько вероятно любое значение y при данном x. Это полезно, т.к. в реальном мире в цене дома (y) есть элемент случайности,


Внимание, правильный ответ:

>Instead of learning a full probability distribution p(y | x ;θ) we often want to learn just one conditional statistic of y given x .


Сука, ну с точностью наоборот! Чё там? Агаа, офэн мин, ну бля, видимо короче хотелось бы всё взять, а получается тока среднее и дааавай хуярить истории охуительные про полезность элементов случайности, не описывающихся площадью, аааа. Нахуя вы этим занимаетесь, понять не могу, если вам это не интересно.
925178925179
#223 #925178
>>925177

>ну с точностью наоборот


Просто типа какой смысл? Испорченный телефон по итогу, хоть 200 книг толстых прочитай, даже ещё хуже станет. Надо либо нормально заниматься, прежде всего математикой, просто чтобы понимать, что ты хоть делаешь, а не ВНУТРЕ У НЕЙ НЕЙРОНКА))0)либо не страдать хуйнёй, пизда, температура, умираю, нахъуй, походу скорую вызывать надо, зуб ебучий мудрости неделю уже охуеваю. Короче, не страдайте вы хуйнёй. Я кончил.
925191
#224 #925179
>>925177

>Точнее матожидание


Точнее условная вероятность, лол.
https://en.wikipedia.org/wiki/Multivariate_normal_distribution
925191
#225 #925191
>>925168

>Mean square error по-русски дисперсия


>>925168

> Mean square error по-русски дисперсия


F{F{F{F{{F{{F{FАСХХАХАХААЪАЪАЪ КААААРА ХАХАХАХАХУХУХХУХАХАХ >>925179

>очнее условная вероятность, лол.


>>925179

>>Точнее матожидание


>Точнее условная вероятность, лол.


>>925178

>>ну с точностью наоборот


>Просто типа какой смысл? Испорченный телефон по итогу, хоть 200 книг толстых прочитай, даже ещё хуже станет. Надо либо нормально заниматься, прежде всего математикой, просто чтобы понимать, что ты хоть делаешь, а не ВНУТРЕ У НЕЙ НЕЙРОНКА))0)либо не страдать хуйнёй, пизда,


УХХАХАХАХХАХАХАХУХХА ЕБАТЬ Я ДАААУН АААААААААААА ААА_+А++А+А+А++АААХАХАХАХА
925192
#226 #925192
>>925191
Мораль: прежде, чем копировать с вики нужно тщательно перепроверять соответствие терминов. Мда, вот так слив.
#227 #925318
>>925160
Тоже пробовал, сложно узнавать людей вверх ногами
#228 #925340
>>925032

> neural turing machines


Поясни, в чем профит и кому это выгодно?
#229 #925511
1. Что скажите за импульсные нейросети?
2. И есть ли какая-то логика, что оперирует временем, временными отношения и таким подобным? То есть, разработано ли некое формальное представление времени в формальной логической системе. Хотелось бы что-то вида деления на настоящее время и "вероятное", а во втором возможность использовать ту же нечеткую логику и теорию свидетельств. Хотя, может кто-то сделал намного лучше и логичнее.
926217
#230 #925527
То есть, можно обучить нейросеть на нескольких терабайтах кода и выходного машинного кода и таким образом оптимизировать компиляцию, лол?
925553
#231 #925553
>>925527
доброе утро! уже давно так и делают
нейроночки и аппаратно реализируются - у АМД процах бранч предиктор на нейроночках
#232 #925660
>>925647
Автоматическое доказательство теорем.
925890
193 Кб, 827x1184
#233 #925676
Нишестудент вкатился.
1. Пилю самоорганизующуюся карту Кохонена. Возник вопрос по алгоритму: зачем вводится элемент случайности при выборе элемента для представления его карте, что будет, если тупо итеративно скармливать системе весь датасет;
2. Хорошо разобрался в нечетких машинах вывода Мамдани-Заде, они моделируют мышление человека,но не понимаю смысловой подоплеки в машинах вывода Сугено, посоветуйте статейку, желательно со сравнением первого со вторым.
925681925692925845
#234 #925681
>>925676

>, что будет, если тупо итеративно скармливать системе весь датасет


Проверь.
665 Кб, 1478x2460
200 Кб, 1288x1663
#235 #925692
>>925676
1) Случайная инициализация опорных векторов - один из возможных вариантов инициализации опорных векторов. Суть в том, что даже если их задать рандомно, в итоге все сходится к оптимальному представлению опорными векторами входных данных.
2) Отличие вывода Сугено от Мамдани в дефаззификации. В модели Мамдани результирующее множество представляется в виде единственного четкого значения методами вычисления центроидов и т.д., оператор Сугено - получение единственного значения из нескольких заданных правилами синглтонов (пик2) или линейных функций (гомогенных или аффинных, пик1 - аффинные). Суть в том, что этот метод гораздо проще с вычислительной точки зрения, ну есть еще плюсы. Самая нормальная статья, внезапно оригинальный пейпер Такаги и Сугено, но там авторы сами в своей нотации запутались и знатно накосячили в некоторых формулах, исправленный вариант на пике1.
925712
628 Кб, 1079x3121
#236 #925704
Да, есть еще т.н. стандартная аддитивная модель Коско, к которой сводится любая нечеткая система вывода. В нотации Коско модель Такаги-Сугено вообще элементарно понять.
34 Кб, 363x400
#237 #925712
>>925692

1. Ты не понял, я имею ввиду не инциализацию начальных значений весов, с этим я разобрался. Я имею ввиду требование случайного порядка обхода датасета в течении одной эпохи, почему нельзя просто обходить датасет в его естественном порядке? Просто я реализовывал k-means и СLOPE, и там не было такого требования, и, вообше, было бы удобно использовать курсор базы данных и прочие итераторы.
2. Про Сугено спасибо, буду разбираться.
925721925724
#238 #925721
Есть еще очень годная книжка http://gen.lib.rus.ec/book/index.php?md5=66B1A6B5D15A0E70D7D4F036267A73AF с нуля поясняется за лисп, множества, нечеткие множества, с нуля же поясняется за синглтонный вариант модели Такаги-Сугено с кодом на лиспе.
>>925712

>Я имею ввиду требование случайного порядка обхода датасета в течении одной эпохи, почему нельзя просто обходить датасет в его естественном порядке?


Почему нельзя, можно. Просто ты говоришь о стохастическом варианте SOM, в идеале его иллюстрируют именно так - от балды берутся значения опорных векторов и элементы датасета. Если их брать один за другим - это не изменит ничего, т.к. функция плотности вероятности, заданная на датасете от этого не изменится и в итоге точно так же аппроксимируется опорными векторами.
925725
#239 #925724
>>925712

>, вообше, было бы удобно использовать курсор базы данных и прочие итераторы.


Проверь!
925728
#240 #925725
>>925721

>функция плотности вероятности, заданная на датасете от этого не изменится и в итоге точно так же аппроксимируется опорными векторами.


Точно?
925731
#241 #925728
>>925724
Если сет огромен и в память не влезает, то альтернатив-то и нет.
333 Кб, 808x489
#242 #925731
>>925725
Конечно. Датасет один и тот жи, опорные векторы одни и те же. Какая разница, в каком порядке сравнивать строки датасета с опорными векторами? Там важнее само количество предьявлений, достаточное для сходимости.
925736
7 Кб, 300x300
#243 #925736
>>925731

>Какая разница, в каком порядке сравнивать


А разве не будет разницы? Например, если мы будем каждый раз извлекать максимум, то получим вот такое распределение. Или это не играет роли? Или я хз.
925750925752925761
#244 #925750
>>925736

>А разве не будет разницы?


Откуда там будет разница? Суть-то в чем: берется вектор из датасета, для него находится лучший (с минимальным евклидовым расстоянием от него) опорный вектор, который обновляется по соотв. правилу. В каком порядке не бери векторы датасета, все равно каждый из них будет обновлять наиболее подходящий для себя опорный вектор. Важно только количество предъявлений, чтобы в итоге все опорные векторы соответствовали датасету, в т.ч. аппроксимировали плотность вероятности, имеющуюся на нем.
925760
68 Кб, 526x300
#245 #925752
#246 #925760
>>925750
Ясно.
#247 #925761
>>925736
Глянь вот эту книжку http://bookzz.org/book/460672/dd566b главу про SOM, там есть простой численный пример,прямо на пальцах показано как все считается и сходится.
#248 #925845
>>925676

>что будет, если тупо итеративно скармливать


>Depending on the implementations, t can scan the training data set systematically (t is 0, 1, 2...T-1, then repeat, T being the training sample's size), be randomly drawn from the data set (bootstrap sampling), or implement some other sampling method (such as jackknifing).


Ничего, зависит от реализации. Хотя, наверняка это как-то влияет на результат.
925859
#249 #925859
>>925845

>It has turned out in practice that ordered cyclic application of the available samples is not noticeably worse than the other, statistically stringent sampling methods.


Даже вот так, получается, всегда можно применять.
925861
#250 #925861
>>925859
всегда можно цикл юзать
#252 #925895
это тред байтоебов?
#253 #925982
долбоёбов
925999
#254 #925999
>>925982
Посраль смачно тебе в глотку.
#255 #926212
>>925032
Что за семинар? Может тоже похожу
#256 #926215
Зашёл в нить после долго перерыва, а тут шото неясное происходит. Шо за война между нечётко петухами не глубоко заглотами?

Со вторым понятно, но первые откуда лезут7
Аноним #257 #926217
>>925511
Пользуясь случаем передаю привет мамке опа
реквестирую годную книгу по динамическим импульсным нейронным сетям похуй если нету - напишите её, лол
Аноним #258 #926218
>>924826
Это костыль. Костыли не нужны. Если костыль есть в такой коренной функции - то всё остальное не стоит и говна
#259 #926303
А в мозгу человека, когда сигнал проходит от глаз в зрительную кору, он как-то переходит в абстрактную форму? Если да, то как она выглядит и как этот процесс называется? Я ведь вроде слышал, что у тех же хомячков можно подключить зрение к слуховой коре, а слух к зрительной коре и им будет нормально все. А как это все в искусственных нейросетях?

И еще вопрос о образах. Как они хранятся в мозгу и в ИНС?
926309926320926373
#260 #926309
>>926303
Пиздуй к нейробиологам.
926314926373
#261 #926314
>>926309
Восприятие: Как мозг переводит хаотичный поток нервных сигналов от органов чувств в целостную картину восприятия? Какие внутренние правила и закономерности регулируют этот сложный процесс? Как информация от разных органов чувств объединяется мозгом воедино?

Типа это кодирование есть нерешенная проблема нейробиологии?
926316926345926373
#262 #926316
>>926314
Так вроде на википедии и написано.
https://ru.wikipedia.org/wiki/Нейробиология
926319926373
#263 #926319
>>926316
Ну, а как это кодирование называется вообще? Есть ли термин? Хочу понять, как гуглить это.

Ну, и образы. Это тоже непонятно пока? А в ИНС это просто веса или как?
#264 #926320
>>926303

>А в мозгу человека, когда сигнал проходит от глаз в зрительную кору, он как-то переходит в абстрактную форму? Если да, то как она выглядит и как этот процесс называется? Я ведь вроде слышал, что у тех же хомячков можно подключить зрение к слуховой коре, а слух к зрительной коре и им будет нормально все.


>Как они хранятся в мозгу и в ИНС?


Насколько я понимаю обычно это матрица весов, типа ничего общего, НО! Пали вот тут! пали >>923341
https://www.researchgate.net/publication/257392356_A_novel_image_encryptiondecryption_scheme_based_on_chaotic_neural_networks
Короче, есть типа класс сетей непопулярный, который как модели юзает динамические
системы, типа наш мозг тоже такая система,

ВО, цени
Основная идея резервуарных вычислений заключается в использовании
рекуррентной нейронной сети как резервуара с богатой динамикой и мощ-
ными вычислительными возможностями. При этом резервуар формируется
случайным образом, что исключает необходимость проводить его обуче-
ние. При подаче на вход резервуара непрерывного сигнала он попадает в
определенный динамический режим или состояние. Это состояние зависит
от входного сигнала. Резервуар формируется таким образом, чтобы для
похожих входных сигналов это состояние было похожим, а для разных –
разным. Выход резервуара соединен со специальными устройствами – счи-
тывателями, которые по состоянию резервуара решают поставленную за-
дачу – производят классификацию, предсказание, кластеризацию. В каче-
стве считывателей могут использоваться статические обучающие машины
с простыми алгоритмами обучения. Таким образом, резервуар интегрирует
в своем состоянии динамику входного образа, а считыватели по состоянию
резервуара распознают входной образ.
Один из разделов теории динамических систем связан с теорией хаоса
и синергетикой. В хаотической динамике рождаются структуры под дей-
ствием внешних возмущений, и она изначально может содержать все мно-
жество возможных вариантов. Хаотические системы позволяют выйти на
следующий уровень обобщения и расширить возможности вычислений од-
новременно над целым множеством вариантов, причем это множество будет
формироваться под воздействием внешних сигналов и тем самым обеспечи-
вать адекватную сложность. Во многом это похоже на парадигму, исполь-
зуемую в квантовых вычислениях, в этом случае до момента считывания
ответа содержится все множество вариантов решений
А на той пикче короче снимок электромагнитный типа энцефалгораммма мозга крысы, и там типа аттрактор по форме. В общем будто такой колебательный контур, колторый тпринимает форму определённую в зависимости от среды, куда его помесятт. Круто пиздец. Ну и ещё там есть два режима работы: периодический и хаотический, смысл типа в том, что в такой системе можно один маленький параметр изменить и оно как домино свой режим работы сменит, на этом там память сделали, а ещё где-то там тоже были исследования, что наше внимание так работает, и что с нарушением закона динамики или как то так связаны эпилептические припадки

Короче, анон, я объебался спидами и вот так тоже случайно сюда забрёл, в итоге уже почти неделю не сплю, гуглю какие то статьи, английский не знаю не хуя, но каким-тоо хуем читаю, понимаю че там написнао, типа как тоже хаотическая сеть, крыша едет пиздец, похзоду словил серотониновый синдром, пожрать пытался сразу дристать иду, иллюзия температуры лютая, оказалось 36 6, кажется будто зуб болит и щёки распухди, к стоматологу пришёл, у меня всё норм, это я проходжу сам шёки схъед, но зракам пизда в стоматологии охуел и на улице. Сегодня выбросил остатки, хоть бы хуже не было. Короче анон, это жёсткая темма, она тебя сожрёт, все эти нейроменные сети, китайцы очнеь дохуя работ сделали.
http://www.oalib.com/search?kw=chaotic+neural+network
Одни китайцы. Ещё на анонов агрился тут, казалось, что я типа всё понял, а они дауны,Ю потом перечитывал и это я даун, а потом опять они и так по кругу.
https://www.youtube.com/watch?v=ggpJkuN9eiM
#264 #926320
>>926303

>А в мозгу человека, когда сигнал проходит от глаз в зрительную кору, он как-то переходит в абстрактную форму? Если да, то как она выглядит и как этот процесс называется? Я ведь вроде слышал, что у тех же хомячков можно подключить зрение к слуховой коре, а слух к зрительной коре и им будет нормально все.


>Как они хранятся в мозгу и в ИНС?


Насколько я понимаю обычно это матрица весов, типа ничего общего, НО! Пали вот тут! пали >>923341
https://www.researchgate.net/publication/257392356_A_novel_image_encryptiondecryption_scheme_based_on_chaotic_neural_networks
Короче, есть типа класс сетей непопулярный, который как модели юзает динамические
системы, типа наш мозг тоже такая система,

ВО, цени
Основная идея резервуарных вычислений заключается в использовании
рекуррентной нейронной сети как резервуара с богатой динамикой и мощ-
ными вычислительными возможностями. При этом резервуар формируется
случайным образом, что исключает необходимость проводить его обуче-
ние. При подаче на вход резервуара непрерывного сигнала он попадает в
определенный динамический режим или состояние. Это состояние зависит
от входного сигнала. Резервуар формируется таким образом, чтобы для
похожих входных сигналов это состояние было похожим, а для разных –
разным. Выход резервуара соединен со специальными устройствами – счи-
тывателями, которые по состоянию резервуара решают поставленную за-
дачу – производят классификацию, предсказание, кластеризацию. В каче-
стве считывателей могут использоваться статические обучающие машины
с простыми алгоритмами обучения. Таким образом, резервуар интегрирует
в своем состоянии динамику входного образа, а считыватели по состоянию
резервуара распознают входной образ.
Один из разделов теории динамических систем связан с теорией хаоса
и синергетикой. В хаотической динамике рождаются структуры под дей-
ствием внешних возмущений, и она изначально может содержать все мно-
жество возможных вариантов. Хаотические системы позволяют выйти на
следующий уровень обобщения и расширить возможности вычислений од-
новременно над целым множеством вариантов, причем это множество будет
формироваться под воздействием внешних сигналов и тем самым обеспечи-
вать адекватную сложность. Во многом это похоже на парадигму, исполь-
зуемую в квантовых вычислениях, в этом случае до момента считывания
ответа содержится все множество вариантов решений
А на той пикче короче снимок электромагнитный типа энцефалгораммма мозга крысы, и там типа аттрактор по форме. В общем будто такой колебательный контур, колторый тпринимает форму определённую в зависимости от среды, куда его помесятт. Круто пиздец. Ну и ещё там есть два режима работы: периодический и хаотический, смысл типа в том, что в такой системе можно один маленький параметр изменить и оно как домино свой режим работы сменит, на этом там память сделали, а ещё где-то там тоже были исследования, что наше внимание так работает, и что с нарушением закона динамики или как то так связаны эпилептические припадки

Короче, анон, я объебался спидами и вот так тоже случайно сюда забрёл, в итоге уже почти неделю не сплю, гуглю какие то статьи, английский не знаю не хуя, но каким-тоо хуем читаю, понимаю че там написнао, типа как тоже хаотическая сеть, крыша едет пиздец, похзоду словил серотониновый синдром, пожрать пытался сразу дристать иду, иллюзия температуры лютая, оказалось 36 6, кажется будто зуб болит и щёки распухди, к стоматологу пришёл, у меня всё норм, это я проходжу сам шёки схъед, но зракам пизда в стоматологии охуел и на улице. Сегодня выбросил остатки, хоть бы хуже не было. Короче анон, это жёсткая темма, она тебя сожрёт, все эти нейроменные сети, китайцы очнеь дохуя работ сделали.
http://www.oalib.com/search?kw=chaotic+neural+network
Одни китайцы. Ещё на анонов агрился тут, казалось, что я типа всё понял, а они дауны,Ю потом перечитывал и это я даун, а потом опять они и так по кругу.
https://www.youtube.com/watch?v=ggpJkuN9eiM
926323926352926373
#265 #926323
>>926320
ХОРОООШАЯ КРЫЫША ЛЕТАЕТ СААМАА И В САМЫЙ НИИЗ И В САМЫЕЕЕ ВЕРХАА ТРАЛИ ВАЛИ КРЫЫША ГДЕ ТЫ БУДЕШЬ ЗАВТРАА
#266 #926325
>>926319
Здесь говорят, что, например, свёрточная сеть учит представление(representation).
926373
#268 #926337
>>926319
Дело в том, что есть разный взгляд на это дело, подавляющее большинство не занимается всякими сомнительными исследованиями и придерживается того, что сеть это некая матмодель/алгоритм, способный за счёт, например, последовательной минимизации ошибки решать конкретную околостатистическую задачу. То есть нейронные сети это не попытки создать электронный мозг, лол, там совсем другие задачи, это широчайший спектр методов автоматизации человеческой деятельности, просто название такое хайповое.
Но есть и вот такие ответвления, от них дух захватывает.
926340
#269 #926339
>>926319

>а как это кодирование называется вообще? Есть ли термин?


Термина нет, как и кодирования, это не та область науки, за этим иди в нейробиологию,когнитивистику и тд
#270 #926340
>>926337
Не-не. Способ аппроксимации нелинейных функций и статистического вывода.

Вообще странно, что некоторые думают, что люди знаю как человек мыслит, лол.
926349926358
#271 #926345
>>926314

>Как мозг переводит хаотичный поток нервных сигналов от органов чувств в целостную картину восприятия?


Насколько я понял за эту неделю мозг ничего не переводит, он и есть хаотичный поток! ПРикинь! То есть это такой морфящийся от внешних воздействий электромагнитный контур!

>Какие внутренние правила и закономерности регулируют этот сложный процесс?


Хуй знает, за этим иди в теорию динамических систем и тд, там пытаются отвечать на подобные вопросы. Я тут как-то угарнул, что мб наверняка один из атких законов/правил уравнение Шредингера, ну оно тип тоже хаогтическое всё такое)0)0
926373
#272 #926349
>>926340

>Вообще странно, что некоторые думают, что люди знаю как человек мыслит, лол.


Пытаются ответить на вопрос как, сравнивают датчики импульсов, примеряют разные модели, а как же? Это же главный вопрос с начала времен! Приблизиться к тайне сознания!
мимопроходил #273 #926352
>>926320
Очень хотел скопировать, пускай даже не слишком осознанно твой стиль сообщения, но решил стереть. Писал о конце света Матроне 10 февраля из-за создания ИИ, приметах по белых пятная на ногтях, эффекте Буба-Куки, фоносемантика, о том, что последнее время многое обращаю на форму, вывожу какие-то геометрические объекты в мир, эйдетика, методичка советская, звук начал смешиваться, люди начали говорить несвойственными голосами, постоянное повторяющее дежавю напоминающее мое предсказание будущего или даже когда отличие возникло, что "если событие Z произошло после события Y, то не обязательно считать, что есмь Yгрек причина события Zет", что во многом и может быть началом человека, стараюсь использовать оба полушария, математика стала выводиться в виде мультиков с геометрическими формами разных геометрий, внутреннего диалога уже как несколько недель нет. И все это при том, что я ничего не употреблял. Вроде даже тебя разумею. Все так, вообще, запуталось, подарили мне браслет с Буддой, а ты пишешь о Агате Кристе и Кришне, что напоминает мозг в банке, но уж солипсизм не подходит. Все перемешалось и пытается в проецирования из одной области знания в другую.
926368926384
#274 #926358
>>926340

>Не-не. Способ аппроксимации нелинейных функций и статистического вывода.


Ну сам по себе ценности он мало несёт, мало ли методов всяческих, имел ввиду, что МЛ очень прикладная область математики, по сути для каждого конкретного случая уникальное решение строится, типа большая зависимость от реальной задачи, хотя математика обычно довольно абстрактна, а тут всё суперконкретно, потому такие вопросы тут даже не стоят.
#275 #926362
https://ru.wikipedia.org/wiki/Сольресоль

Мне кажеться, что этот язык есть музыкальный ключ к появлению ИИ. Тем более, если использовать семиричную систему счисления.
926373
#276 #926368
>>926352

>Все перемешалось и пытается в проецирования из одной области знания в другую.


Точка бифуркации, друг мой, тонкая грань между тобой и мной стирается, режим работы мозга переходит в альтернативный, Y же вовсе не причина X, это условность, зависящая от того, откуда отсчитывать время, от смерти или от рождения, мне очень нравится концепция теории хаоса, пока ничего более ошеломляющего и правдоподобного не встречал. Огромное фазовое пространство ф пространстве в пространстве, несколько уравнений, аттрактор-гравитатор, все настройки соблюдены, ПУСК! НАЧАЛОСЬ! Невидимые, едва заметные течения гравитационных волн пронизывают всё вокруг, где-то образуется завихрение и возникает планета, а там волну из тысяч людей несёт к точке бифуркации, один случайны из них потом станет Князем, всю свою жизнь он будет думать, что он особенный и это его заслуга, так никогда и не узнав правды, а вон там очередное колебание, произошедшее тысячи лет назад повлекло мутацию растения, так появилась живая клетка, а вон там один из сперматозоидов достиг яйцеклетки.
Это такая игра, вроде пасьянса или домино вселенского масштаба, каждая константа должна быть вывереена, любое отклоноение повлечет за собой катастрофу спустя миллиарды лет и мир схлопнется, термин эффект бабочки оттуда же.
Бля, конечно, на саомм деле всё на порядки порядков сложнее, но такая концепция наиболее близка к реальности. Меня как отпустит я за математику засяду, хочу разбираться в этом.
926373
59 Кб, 604x475
пионеры #277 #926373
>>926368
>>926345
>>926329
>>926325
>>926320
>>926319
>>926316
>>926314
>>926309
>>926303
Вы заебали хуйню нести. Почитайте хоть Кохонена, любая его книга в той или иной мере о связях нейрофизиологии и нейросетей.
>>926362
Ты сначала тся-ться освой, потом пиши что тебе там кажется.
926385926386
5 Кб, 378x199
#278 #926380
что тогда это ведь ощущение структуры пространства,не уверен, что на данном этапе развития человеческого интеллекта будет безопасно придавать этому слишком большое значение и пытаться разобраться, скорее всего это повлечёт неизбежное сумасшествие. Есть математические концепции, одобренные минздравом и внутренние ощущения, вот по ним и стоит гулять.
https://www.youtube.com/watch?v=SRr-YgBIiCc
926394
#279 #926384
>>926352

> оба полушария



> постоянное повторяющее дежавю напоминающее мое предсказание будущего


Феномен Баадера-Майнхоф (Baader-Meinhof phenomenon; frequency illusion/частотная иллюзия) — искажение человеческого мышления, заключающееся в том, что после того, как человек приобрел некую новую информацию, она, как ему кажется, начинает появляться повсюду.
Если предположить, что у некоторых сходных событий есть что-то вроде течения и если ты, скажем, как-то боком в этом информационном течении повернулся, то такие вещи вполне могут замечаться, другое дело,
#280 #926385
>>926373
Я даже не заметил, что там, вообще есть "т" и "ся".
#281 #926386
>>926373

>Вы заебали хуйню нести.


Блядь, мы понимаем, что в качестве

>Способ аппроксимации нелинейных функций и статистического вывода.


это всё хуета непрактичная, там на практике вообще очень мало можно сделать, до сих пор нет методов работы с чуть более сложными системами. Дай ты попиздеть о всяком сомнительном , что ж вы фашисты-прикладники такие все.
Что работает, то важно, остальное сжечь! Ересь!
203 Кб, 356x347
#282 #926389
Что здесь забыли торчки?
926395
#283 #926394
>>926380
У меня из-за спамфильтра пост порвался

>оба полушария


это про ту картинку типа, вообще, правда ведь ИРЛ системы с выраженными левыми и правыми центрами принятия решений наиболее устойчивы? Та же двухпартийная система в мурике, например. Да и много где ещё, борьба левого с правым это ж вообще концепция фундаментальная. Хотя, вроде как это миф на самом деле и у полушарий примерно одинаково распределены функции. Но всё равно прикольно.
926397
#284 #926395
>>926389
С крокодилом поздороваться.
пионеры #285 #926397
>>926394

>это миф на самом деле и у полушарий примерно одинаково распределены функции.


Опять хуйня пошла. Нобелевский лауреат Сперри с тобой бы не согласился.
Вообще, просьба к школьникам, прежде чем вбрасывать тезис, хоть матчасть почитайте. Или в /сци идите, там половина тредов на нулевой про ИИ, мозг и прочее. Тут про машинное обучение, если кто не заметил.
926399926410
#286 #926399
>>926397

>Хотя, вроде как


Где-то слышал, не утверждаю ничего.
#287 #926410
>>926397

>В «популярной» психологии нередко делаются некорректные обобщающие утверждения о том, что одно из полушарий отвечает за «логику» (левое), а другое за творчество (правое). Такое жесткое разделение не подтверждается исследованиями[3] Оба полушария участвуют и в логическом и в творческом мышлении[4]



Вот про этот миф, ну и >В процессе индивидуального развития выраженность межполушарной асимметрии меняется — происходит латерализация функций головного мозга. Последние исследования свидетельствуют о том, что межполушарная асимметрия вносит существенный вклад в проявление высокого интеллекта человека. При этом в известных пределах существует взаимозаменяемость полушарий головного мозга.
Что разделение условно типа, а не жёсткое, может по разному быть, ну и по совсем признакам деление.
926411
#288 #926411
>>926410
совсем другим признакам
926415
#289 #926415
>>926411

> у неграмотных людей функциональная асимметрия головного мозга меньше, чем у грамотных


>Асимметрия усиливается и в процессе обучения


Прикольно,так-то от балды про устойчивость спизданул, мб и правда в этом что-то важное кроется.
926426
#290 #926426
>>926415

> Теорема Пуанкаре — Бендиксона утверждает, что двумерное дифференциальное уравнение имеет очень стабильное поведение.


Лол.
#291 #926443
>>921615
только это копия соревнования с кэггла
#292 #926454
Че скажете о Хайкине?
926458
#293 #926458
>>926454
Протух, но даёт неплохую основу в старых методах.
926463926500
#294 #926463
>>926458
Что тогда посоветуешь новому ньюфагу?
926500
пионеры #295 #926500
>>926458

>Протух,


Школьникам все, что написано до 2015 года "протухло", это я давно заметил. Хайкин в целом неблох, но это не то чтиво, с которого стоит начинать знакомство с нейросетями.
>>926463
http://bookzz.org/book/1084263/98a54e
http://bookzz.org/book/460672/dd566b
926511926524
#296 #926511
>>926500
Спасиб, печально конечно, что не на русском, но что поделать.
#297 #926524
>>926500

> HR: есть опыт работы с Caffe и современными архитектурами?


> u: не, эт хуита кароч))) SOM, Хопфилд, ART, и нейрофаззи)))



Я не говорю, что читать это не стоит, но для практического вката бесполезно, имхо.
926579
#298 #926579
>>926524
Без теоретических знаний из книг максимум, что ты сможешь, так это повторить решения, которые ты видел в туториалах и курсах
926591
#299 #926591
>>926579
Анон, что делать? Со мной какой-то пиздец творится. Случайно нагуглил таблетки для похудения, ради интереса заказал, пришло типа по почте в руки, там в составе написано травки и тд, а на деле там сибутрамин, вроде амфетамина, только это я потом уже на третий день без сна и жрачки узнал, помимо этого ещё зуб стал как назло резаться, в одну ночь щека то опухала, горло заболело, я думаю, ну всё, пизда, абсцесс, на след день попёр к стоматологу, а он говорит у тебя всё ок растёт, никаких осложнений или гноя и тд, а по ощущениям лютый пиздец творится,содой с солью поласкай и норм, могу конечно разрезать, но тогда точно будет и темепратура и тд, короче, а я всё это время жрал это говно и не замечал даже, жрать не могу, сразу высираю всё, зрачки на свет еле реагируют, темпераутра будто под 40, меряю 36.6, короче как оказалось мне типа кажется вся эта хуйня, типа как синдром отмены или серотониновый синдром, щёки отекают от жары, но бля постоянно холодно, потом пиздецки жарко,, на холоде посидел видимо иммунитету пизда на шее вскочил прыщ, меня опять загнало, думал фурункул типа уже из зуба тайно гной вышел в челюсть и в кровь попал и всё, скоро мозгу пизда, я прям ощутил боль в затылке, охуеть, во рту сушит, самого прёт, давай в скорую звонить, у меня говрю фурункул ти ь, они говрярт и че типа, ну обратись к стоматлогу, а я думаюк ак и чё я ж сдохнуть могу, корчое попёр опять туда же, тольтко уже в ночной дежурный кабиент, там ещё народ был, с меня пот ручьём льётся, паника, говорить не могу, во ррту сухо ещё зуйг. нёс какую то, встал огляделся чёта говорю а где 25 кабинет, чувак такой так я откуда знаю а чё там, я говолрю ну мне сказали подойти туда где днём был, ну так и чё ты? А я не знаю где он в таком духе, в итоге стоматолог тоже самое сказал, норм всё у тебя, постучал зуб не болит даже, угарать начал ещё, там прыщ тупо маленький простудный, а ты фурункул лол, в итоге яещё домой пришёл и позвонил им, типа вот вы говорили придти я пришёл, нахуя я это сделла хз, меня тян оттуда так и спросила, я говрю а я навеное номера перепутал. Пиздец анон, когда меня отпустит уже, что за жесть аткая, крыша протекает сука.
#299 #926591
>>926579
Анон, что делать? Со мной какой-то пиздец творится. Случайно нагуглил таблетки для похудения, ради интереса заказал, пришло типа по почте в руки, там в составе написано травки и тд, а на деле там сибутрамин, вроде амфетамина, только это я потом уже на третий день без сна и жрачки узнал, помимо этого ещё зуб стал как назло резаться, в одну ночь щека то опухала, горло заболело, я думаю, ну всё, пизда, абсцесс, на след день попёр к стоматологу, а он говорит у тебя всё ок растёт, никаких осложнений или гноя и тд, а по ощущениям лютый пиздец творится,содой с солью поласкай и норм, могу конечно разрезать, но тогда точно будет и темепратура и тд, короче, а я всё это время жрал это говно и не замечал даже, жрать не могу, сразу высираю всё, зрачки на свет еле реагируют, темпераутра будто под 40, меряю 36.6, короче как оказалось мне типа кажется вся эта хуйня, типа как синдром отмены или серотониновый синдром, щёки отекают от жары, но бля постоянно холодно, потом пиздецки жарко,, на холоде посидел видимо иммунитету пизда на шее вскочил прыщ, меня опять загнало, думал фурункул типа уже из зуба тайно гной вышел в челюсть и в кровь попал и всё, скоро мозгу пизда, я прям ощутил боль в затылке, охуеть, во рту сушит, самого прёт, давай в скорую звонить, у меня говрю фурункул ти ь, они говрярт и че типа, ну обратись к стоматлогу, а я думаюк ак и чё я ж сдохнуть могу, корчое попёр опять туда же, тольтко уже в ночной дежурный кабиент, там ещё народ был, с меня пот ручьём льётся, паника, говорить не могу, во ррту сухо ещё зуйг. нёс какую то, встал огляделся чёта говорю а где 25 кабинет, чувак такой так я откуда знаю а чё там, я говолрю ну мне сказали подойти туда где днём был, ну так и чё ты? А я не знаю где он в таком духе, в итоге стоматолог тоже самое сказал, норм всё у тебя, постучал зуб не болит даже, угарать начал ещё, там прыщ тупо маленький простудный, а ты фурункул лол, в итоге яещё домой пришёл и позвонил им, типа вот вы говорили придти я пришёл, нахуя я это сделла хз, меня тян оттуда так и спросила, я говрю а я навеное номера перепутал. Пиздец анон, когда меня отпустит уже, что за жесть аткая, крыша протекает сука.
926601926657
#300 #926601
>>926591
Попробуй установить Haskell Platform
926605
#301 #926605
>>926601
600 метров свободных осталось,я перед этим собирался систему сносить, сейчас же не рискну этим заниматься, вдруг чего не так пойдёт без компа останусь, а это пиздец. Только комп и помогает, пока всякую хуйню читаешь отвлекаешься от глюков.
#302 #926607
https://www.youtube.com/watch?v=UBS4Gi1y_nc
Топовый клипешник.
#303 #926657
>>926591
Это написала нейросеть?
926667
#304 #926667
>>926657
В каком-то смысле.
#305 #926737
Что-то тред уходит все глубже и глубже в какую-то нейробиологию и нечеткий астрал, попуститесь, демоны!
927066
#306 #927066
>>926737
Ну вот тут запись субботнего митапа. Самому смотреть ломает. Есть что-нибудь интересное?
https://www.youtube.com/watch?v=VdJhSMZ795c
#307 #927088
Чо, посоны, кто из вас знает и использовал МАТЛАБ для машинного обучения?
Я вот взял курс в универе и просто охуел - будем все лабы делать на матлабе. Да, там определенно много инструментов, пакетов и всего такого, но бля, я просто охуеваю от языка программирования в нём.
927095927097927352
#308 #927095
>>927088
Та же хуйня в универе.
#309 #927097
>>927088
Универ R не осилил
#310 #927103
Матлаб конкретно для машинного обучения - шиза полная (для чего-то другого м.б. и норм). У него ебейшие требования к системе, а тут еще за счет самих алгоритмов нагрузка. У того же R по сравнению с матлобом системные требования вообще можно считать нулевыми.
927112927132
#311 #927112
>>927103

>2017


>смотреть на системные требования


Лол.
927113
#312 #927113
>>927112
Еще один школьник. Глупо использовать ебулду, которая сама по себе пару гиг оперативы отжирает.
927136
#313 #927132
>>927103
Двачую R, он охуенен.
#314 #927136
>>927113
Но она же не просто так сжирает гигы оперативы и стоит 5к зелёных.
927143
#315 #927143
>>927136

>Но она же не просто так


Для МЛ матлаб - бесполезная хуитка. Единственное, чего для околоМЛ нет в R, но есть в матлабе - LMITOOL, но настройка линейных систем через линейные матричные неравенства, H-2/H-infinity фильтрацию это не для местных школьников, да и тот же LMITOOL есть в халявном сцилабе.
927151
#316 #927151
>>927143

>для околоМЛ нет в R,


Вообще или в базовой комплектации?
927158
#317 #927158
>>927151
Вообще нет. Именно солверов LMI и всякой хитрой фильтрации (фильтров Калмана, правда, полно всяких на любой вкус).
927164927229
#318 #927164
>>927158
А limsolve?

>R package limSolve (Soetaert, Van den Meersche, and van Oevelen 2009) solves linear


inverse models (LIM), consisting of linear equality and or linear inequality conditions,
which may be supplemented with approximate linear equations, or a target (cost, profit)
function. Depending on the determinacy of these models, they can be solved by least
squares or linear programming techniques, by calculating ranges of unknowns or by randomly
sampling the feasible solution space (Van den Meersche, Soetaert, and Van Oevelen
2009).
Amo
927170
#319 #927170
>>927164

> limsolve


Это не то жи, там LMI нету.
927173
#320 #927173
>>927170
А вот это?
Optimization of convex functions.
Problem formulations:
1 Linear programs with cone-constraints.
2 Linear programs with nonlinear-constraints.
3 Quadratic programs with cone-constraints.
4 Nonlinear, convex functions with nonlinear and/or with
cone-constraints.
In general:
All problem formulations are solved by means of interior-point
algorithms. A textbook exposition is Boyd and Vandenberghe (2009).
The implemention is based on Andersen et al. (2011).
Design of R package cccp for solving cone-constrained convex
optimization problems.
Possible cones: componentwise vector inequalities, second-order cone
inequalities and/or linear matrix inequalities.
927184
#321 #927184
>>927173

>Possible cones: componentwise vector inequalities, second-order cone


inequalities and/or linear matrix inequalities.
Это уже больше похоже, но конкретных примеров что-то не нашел.
927202
#322 #927202
>>927184

>Once formulated in terms of LMIs, a problem can be solved exactly by efficient convex optimization algorithms (see LMI Solvers).


По convex optimization очень много всего есть.
http://r-forge.r-project.org/scm/viewvc.php/checkout/pkg/inst/doc/userguide.pdf?root=rmosek
927203
#323 #927203
>>927202
Перед и после чекаут звёзочки. Судя по увесистости пакета то, что нужно.
300 Кб, 1027x1500
#324 #927226
Время платиновых вопросов!
Пытаюсь разобраться в градиентном спуске.

> Как влияет изменение размера шага?


На что кроме скорости и точности? На них же влияет?

> Что лучше - большой размер шага или маленький?


Если слишком большой то будет не точно, если слишком маленький то долго, так? Так как выбрать?

> Важно ли начальное значение тета?


Как его выбирать? Я ставлю рандомно, но чую что должна быть какая-то магия.

> Что лучше, иметь больше или меньше данных в обучающем наборе?


Если тренируется что-то очень простое то чем больше, тем лучше? А если функция сложная, то есть риск перетренировать.

> Что будет если добавить шум методом наименьшего градиента?


Точечки рассеялись, но почему-то очень.. искусственно, у начала графика функции лежат плотно, а к концу постепенно плавно расходятся, наверное где-то ошибся.

> На что влияет сложность функции стоимости метода наименьшего градиента?


К-кроме скорости?

> На что влияет нормализация в методе наименьшего градиента?


Нормализация сгладила рассеивание точек и вроде помогает с переобучением, а что еще?
927750927767927950
#325 #927229
>>927158

> всякой хитрой фильтрации


https://cran.r-project.org/web/packages/mFilter/mFilter.pdf
#326 #927244
Что будет, если поставить слишком маленькие и слишком большие веса?

Что почитать дабы понять все эти ваши синусы, косинусы и прочая о активационных функциях?
927247927248
#327 #927247
>>927244

>Что почитать дабы понять


Педивикию. Синус и в Африке синус.
#328 #927248
>>927244
1) Будет слишком долго обучаться.
2) Там все есть как есть - по такой-то функции происходит активация, что конкретно не понятно?
#329 #927309
А каким образом в машинных обучениях (линейная классификация, например), работают с множественными параметрами, например?
927312927313
#330 #927312
>>927309

>множественными параметрами


Что ты имеешь ввиду?
927319
#331 #927313
>>927309
Находится такая функция, чтобы при подставлении в нее всех параметров она проходила через максимальное количество точек данных с максимальным сохранением простоты функции (чтобы не перетренировать).
927317
#332 #927317
>>927313
А где-нибудь есть почитать про это? Смотрел курс по МО от яндекса на курсере, но про это они умолчали.
927321
#333 #927319
>>927312
Когда у нас есть параметр из некоторого множества, к которому нельзя применять арифметические операции вроде сложения. Например, город
#334 #927321
>>927317
https://www.coursera.org/learn/machine-learning/ или любой учебник по машинному обучению.
#335 #927352
>>927088

>Чо, посоны, кто из вас знает и использовал МАТЛАБ для машинного обучения?


В зависимости от баланса матрицы/словари использую или матлаб или питон. То есть если в задаче много матриц, изображений там, звуков, предобработки, нейроночек и т. п., матлаб хорош. Потому что тот же питон предлагает зоопарк хуевин типа numpy, matplotlib и т. п., а здесь все в коробке, и при этом с родным синтаксисом (а работа с матрицами в матлабе настолько хороша, что все остальные пакеты ее копируют - с неродным для своего языка синтаксисом).
То есть к примеру, задача, работник обвел на картинке интересующие объекты красной линией, требуется их превратить в набор масок. Делается это вот так:

p = imread(fname);
red = (p(:,:,1) == 255) & (p(:,:,2) == 0) & (p(:,:,3) == 0);
stats = regionprops(red, 'FilledImage', 'BoundingBox');

3 строчки, без всяких импортов и pip install.

Отдельной строкой идет то, что узкие места в матлабе можно компилировать и выполнять быстро. Еще на матлабцентрале есть многое из того, чего нет больше ни на чем.
Но вот когда требуется еще распарсить xml или сайты, работать со словарями или sqlite, работать на AWS, тут уже язык общего назначения справляется лучше, несмотря на гемор от использования numpy, PIL, matplotlib, pyopencv, scipy и прочего зоопарка малосовместимой между собой хуйни. В итоге ща питона в работе все больше, а матлабу остается то, с чем не справляется imagemagick - препроцессинг картинок.

А жрать матлаб особо ничего не жрет, жрет его IDE на Java, но во-первых это охуенная IDE с охуенным дебаггером, во-вторых, тормоза выполнению это не добавляет.

По поводу R не знаю, отвращение вызывают те, кто его форсит, уебки какие-то.
927411
#336 #927411
>>927352

> По поводу R не знаю, отвращение вызывают те, кто его форсит, уебки какие-то.


У него история длинее. Он неплох в обработке данных(тот самый DataFrame, который копируется в pandas).

Вообще же R это в каком-то смысле альтернатива MATLAB и покрывает немного другие задачи, смещённые больше в область статистики. Скажем, если ты аналитик в Nilsen, то это нормальный инструмент. Короче, что-то вроде такого Exel
927414927533927800
#337 #927414
>>927411
Зачем матлаб или R, когда есть питон, в который все портировали и при этом его можно использовать и в других задачах?
927533
#338 #927533
>>927414

>есть питон, в который все портировали


Заебали со своим пистоном. Я уже сто раз приводил ссылки, прямо показывающие, что все, что есть по МЛ в вашем питухоне - это 1-2 профильных пакета для R. В R уже сейчас больше 10000 пакетов, там по одному байесовскому выводу их многие десятки как минимум. Что вы с этим пистоном везде лезете, единственная область МЛ, в которой пистон уделывает R - это сверточная хуйня. В остальном что касается МЛ R и пистон вообще несопоставимы, пистон на этом фоне просто даже на игрушку не тянет, так, посмеяться сойдет.
>>927411

>Короче, что-то вроде такого Exel


Как там, в 1996 году?
927571
#339 #927571
>>927533

>пистон на этом фоне


Ну можно и на С писать, только сколько времени это займёт.
927579
#340 #927579
>>927571
Почти все нормальные библиотеки на сях и написаны. В данном случае и пистон и R используются как врапперы. R в данном случае удобнее в разы по той простой причине, что это изначально язык обработки данных, а не рандомная скриптопараша общего назначения, где специфичные для статичтики и МЛ функции реализуются только дополнительными костылями.
#341 #927608
Современные разработки в интеллект могут понять текст уровня "Коровка говорит Му-му. Ивашка поздоровался с коровкой. Коровка поздоровалась с Ивашкой. Ивашка убил коровку топором."? И что имеется в виду под таким "пониманием"? Есть ли даже может какие-то разработки по поводу эмпатии?
927621
#342 #927621
>>927608
Искусственный идиот может запомнить эти утверждения и по определенным правилам выводить одно из другого. Это будет понимание уровня того что тебе сказать что "какая-то тварь издает какие-то звуки", ты "поймешь" это на уровне запомненных утверждений. Ну ладно, ребенок которого воспитали волки это так поймет, у тебя неизбежно возникнут какие-то ассоциации и мозг попытается заполнить пробелы чтобы какая-то тварь обрела больше атрибутов. Тут мы приходим к тому что "понимание" это построенная в сознании модель какой-то твари. Когда ты при слове какая-то тварь представляешь себе животное с атрибутами, можешь мысленно помещать его в разные ситуации из чего следуют новые выводы, которых не было в утверждениях "какая-то тварь издает какие-то звуки", то это "понимание". Да, в какой-то мере современные разработки это могут, но не используют, потому что невероятно затратно создавать огромнейшую модель с симуляциями для каждой мелочи, при том что потом это все не будет использоваться.
Но я пытаюсь сделать что-то такое.
927633
#343 #927633
>>927621
Ты меня чуть запутал и смешались кони с людьми, но можешь рассказать о своих попытках?
927638
#344 #927638
>>927633
Утверждения -> вывод новых утверждений.
Утверждения -> создание модели -> ассоциации с другими моделями -> дополнение новыми утверждениями -> симуляция -> дополнение новыми утверждениями -> вывод новых утверждений.
Я примотал кошку к лоле изолентой. Жду.
927652
428 Кб, 1280x1024
#345 #927652
>>927638

>примотал кошку к лоле изолентой


Лол.
927653927660
#346 #927653
>>927652
Сука, почему скриншот скинулся.
#347 #927660
>>927652
Я занимаюсь мэд сайенс. Не водись со мной.
4 Кб, 126x63
5 Кб, 106x48
4 Кб, 119x52
sage #348 #927662
лолблядь
и с такими даунами приходится млчевать
927663
#349 #927663
>>927662
Что тебе не нравится?
927667
sage #350 #927667
>>927663

>Что тебе не нравится?


Страсть к деньгам, непонятливость. Особенно это противно огда девушка липнет к тебе из-за денег. И когда понимает, что деньги у тебя вдруг кончились - вычсняется. что "ты козел, ты урод, я с тобой лучшие годы жизни провела" (2 недели вместе) , "Да я себе лучше найду, ты меня не ценишь, все, что тебе нужно это только секс"... ну все в таком же духе. Да как вы, девушки, понять не можете, что не надо нам от вас ничего, кроме НОРМАЛЬНЫХ отношений. Почему обязательно за отношениями должны стоять какие-то корыстные цели. Деньги, машина. квартира, выйти замуж наконец.. . Почему мужики дружат отлько из-за того, что они могут просто нормально поговорить, пообсуждать какие-то темы. попить пиво и все. . никакой корысти - у вас же все совсем наоборот....
927669927713
#351 #927669
>>927667
Таблетки выпил?
sage #352 #927679
>>927674
обоссали
@
моча помоги!
927713
#353 #927682
>>927671

>производной e x


>derivate e^x-sin(x)^2/arctg(x)


Пошёл нахер.

>хром


>не развернут на полный экран


>баннеры


>кроме браузера ничего не открыто


>implying чтобы делать матанализ нужно что-то кроме тетради и браузера


Иди до столба доебись, лол.
927686
123 Кб, 299x272
sage #354 #927686
>>927682

> столба

927713
#355 #927706
>>927703
Мне лень считать 30 примеров вручную.
462 Кб, 752x1083
#356 #927713
Есть мнение, что этот шизик >>927667>>927679>>927686>>927703 тот же самый, который в /math с интуиционизма горит. Пизда тогда этому тредику, если его не выгоните.
927716
#357 #927716
>>927713

>интуиционизма


Вот, кстати, интересна точка зрения Пуанкаре
Пуанкаре был категорически против формалистических взглядов. Он считал, что в основе деятельности математика лежит интуиция, а сама наука не допускает полного аналитического обоснования. Логика необходима лишь постольку, поскольку без строгого логического обоснования интуитивно полученные утверждения не могут считаться заслуживающими доверия.

В соответствии с этими принципами Пуанкаре отвергал не только логицизм Рассела и формализм Гильберта, но и канторовскую теорию множеств — хотя до обнаружения парадоксов проявлял к ней интерес и пытался использовать. Он решительно заявил, что отвергает концепцию актуальной бесконечности (то есть бесконечное множество как математический объект) и признаёт только потенциальную бесконечность. Во избежание парадоксов Пуанкаре выдвинул требование, чтобы все математические определения были строго предикативными, то есть они не должны содержать ссылок не только на определяемое понятие, но и на множество, его содержащее — в противном случае определение, включая новый элемент, изменяет состав этого множества, и возникает порочный круг.

Многие мысли Пуанкаре позже взяли на вооружение Брауэр и другие интуиционисты.

Тоже при изучении теории множеств было ощущение искусственности аксиом ZFC, будто парадоксы пытаются обойти с помощью костылей, хз.
sage #358 #927718
Творческие методы Пуанкаре отличались оригинальностью и эффективностью. Так, он всегда сначала полностью решал задачи в голове, а затем записывал решения. В этом ученому помогали феноменальная память, научная интуиция и воображение. Известно, что Пуанкаре мог слово в слово цитировать все прочитанное и услышанное им на протяжении жизни. Кроме того, он избегал долговременных размышлений над одной и той же темой, считая, что подсознание уже получило условие задачи и будет успешно над ней трудиться до окончательного решения.

Пуканкаре - нейроночка?
47 Кб, 166x167
#359 #927740
как вы думаете, леночка сможет найти производную e^x-sin(x)^2/arctg(x) в уме?
помоему - запросто!
не зря же она датаслесарь в майкрософте
927746
#360 #927746
>>927740
ну ни траль плс((
52 Кб, 500x680
#361 #927750
>>927226
Бамп
2 Кб, 40x36
sage #362 #927767
>>927226
градиентный спуск < метод нютона < найти екстремум в уме
#363 #927800
>>927411

>Скажем, если ты аналитик в Nilsen, то это нормальный инструмент. Короче, что-то вроде такого Exel


У меня сложилось такое же впечатление. Проблема в том, что ML это нихуя не про аналитиков, это как от этих самых аналитиков избавиться. Поэтому для меня ML-guy, использующий R, это как еврей в гестапо. Возможно, но что-то не то.
927887927978
#364 #927887
>>927800
Может ты и об еврейской полиции не слышал? А уж Гитлер был кем?
178 Кб, 788x1024
#365 #927936
Адекватно ли такое поведение карты Кохонена?
Среднюю ошибку вычислим как среднее арифметическое расстояний от BMU до входного вектора за эпоху.
Средняя ошибка вначале попульсовала вокруг 0.10, затем поднялась до 0.12 и за 10000 эпох уменьшилась на 4 тысячные.
Функция соседства Гауссова из книжки.
1. Посоветуйте каноничный дата сет побольше ирисов раз в 20 для проверки;
2. Посоветуйте SOM для mixed data, желательно параметризуемый произвольной метрикой (всякие там коэффициенты Гудолла и Лина).
928187
72 Кб, 600x387
#366 #927950
>>927226

>Если слишком большой то будет не точно, если слишком маленький то долго, так? Так как выбрать?



Rprop
#367 #927978
>>927800
Ну знаешь ли. Может быть ты только синтестические данные используешь или приготовленные до тебя, но мне хуеву тучу времени приходится тратить на сбора датасета, его блядскую очистки, приведение к нормализованному-схематизированному виду, чтобы собрать ебучую цсвэшку или 100500 картинок откроппленых как надо. Ебаться с этим в питне слишком сложно. Тот самый pandas.DataFrame == DataFrame в R.

Иногда нужно провести постобработку полученных результатов, диаграммы и хуё моё. R тоже ничегошный варинат, но можно и в python, except, gnuplot и сука awk.

Почему сюда лезут шизоидные школьники-фундаменталисты, которые способны спорить R vs Python, если просто нужен инструмент, чтобы решить задачу?
927991
#368 #927991
>>927978

>шизоидные школьники-фундаменталисты


Сложно.
53 Кб, 262x319
#369 #928187
>>927936

>Средняя ошибка вначале попульсовала вокруг 0.10, затем поднялась до 0.12 и за 10000 эпох уменьшилась на 4 тысячные.


Это норма, она вполне может осциллировать. Вроде бы в материалах последней международной конференции по SOM была статья на тему поведения SOM через стохастические дифуры. SOM ты сам пишешь? На чем? И да, ты именно по наследию Кохонена решил угореть, или вообще по адаптивному векторному квантованию? Там так-то много интересного, всякий растущий нейронный газ и т.д.

>Посоветуйте каноничный дата сет побольше ирисов раз в 20 для проверки;


Для SOM один из самых каноничных сет этот https://archive.ics.uci.edu/ml/datasets/Zoo дело не в размере. А так любые стандартные датасеты.
928242928457
39 Кб, 301x400
243 Кб, 1920x1080
246 Кб, 1920x1080
627 Кб, 1920x1080
#370 #928242
>>928187
Я студент 3 курса, пишу на джаве, понимаю, что плюсы лучше, но мне надо быстро накодить, и прога будет использоваться ни с чем кроме как с тестовыми датасетами, и я прохожу курсы по джаве в крупной конторе.
Пока что классический Кохонен, на руках его книга по сабжу, но я написал библиотечку, которая преобразует csv файл (в перспективе - любой, просто добавь парсер) в удобоваримый формат с автоматическим распознаванием типов токенов и заполнением пропущенных значений (весьма рудиментарно). В ней же я реализовал всякие distance functions, какие только нашел, включая вот эти:
http://citeseerx.ist.psu.edu/viewdoc/download?doi=10.1.1.140.8831&rep=rep1&type=pdf
На основе этой библиотеки я легко реализовал CLOPE и kmeans++, не эти алгоритмы узкоспециализированные, естественно возникла идея реализовать какой-нибудь генерализованный алгоритм кластеризации, тут и Кохонена мне препод предложил реализовать. Хочется, чтобы карта работала с данными любого типа и со всеми метриками, которые есть в библиотеке.
По теме ИИ я написал кучу лабораторок и один курсач по теме классификации изображений с помощью FFNN, из этого вышло мало хорошего, такие сети не предназначены для распознавания изображений и я налажал в сверточных функциях, и она могла разве что MNIST хорошо проходить.
928257
#371 #928257
>>928242

>4ый пик


Этот дедуктор норм? В бесплатной версии все работает, или есть ограничения?
928457
#372 #928264
>>924123 (OP)
Есть же тред по нейросетям >>921502 (OP)
#373 #928354
Поясните за квантовые нейросети
928419
#374 #928419
>>928354
Это нейросети на квантовой логике.
77 Кб, 312x400
166 Кб, 1920x1080
#375 #928457
>>928257
В бесплатной версии ограничены входные форматы, мне не с чем сравнивать, просто много лаб на нем было.

>>928187
Чистый кохонен дает приемлимые результаты на ирисах, нейроны инициализируются случайными записями из датасета или случайной смесью токенов из разных записей, я буду пробовать PCA, если будет время. Датасет zoo на модифицированной версии карт (фаззи-сет как вес для категориальных данных, наружу торчит его дефаззификация) с различными метриками тоже показывает очень четкий результат.
#376 #928791
Вот, есть современные алгоритмы в машинном обучении, которые позволят машине самостоятельно придти к понятию натурального числа?
928868928891
#377 #928868
>>928791
Н-петух?
928967
#378 #928891
>>928791
unsigned int
928967
#379 #928967
>>928868
>>928891
Не, ну, я думал вы поймете меня. Короче эмулировать процесс перехода человека на новый уровень абстракции и выделения самого понятия "натуральное число". То есть, когда научились выделять число отдельно от предметов. Вот связать предмет и палец, но при этом как-раз не имея сформированного понятия "количество" (оно нечеткое, максимум "больше-меньше" оперировать да и то не точно на глаз), а как-раз начать его формулирование. И это должна сделать машина.
928978929044
#380 #928978
>>928967
Как тебя понять, если ты хуйню несешь. Оперировать с данными из натуральных чисел может любой алгоритм МЛ.
#381 #929044
>>928967
У этого неграмнотно пишушего гуманитария пошла пена ртом, присылайте нового.
Читай про генерирование доказательств, перевод логики в красивые понятные человеку словесные конструкции, это работа не машины, а тех несчастных кто будет пытаться доносить крупицы знаний до неосиляющих.
#382 #929164
Посоны, вкатываться сейчас с чего? Лекции китайца || Лекции воронцова || книжечки мб какие?
929362929383
#383 #929362
>>929164
мне китаец больше понравился, китаец очень хорошо все объясняет, для идиотов, как я. Но так называемый чеин рул и прочую ерунду школьного уровня повторить не мешало бы.
гуманитарий
#384 #929383
>>929164

>вкатываться


Уебывай отсюда. Просто уебывай. Точнее, укатывайся.
929387
#385 #929387
>>929383

>вкатываться


А что не так?
2 Кб, 640x480
3 Кб, 640x480
#386 #929447
Аноны, есть цсв файл как на первой картинке. Хочу во время обучения использовать "а" как первый аргумент, "б" как второй и тд. Потом "б" как первый, "с" как второй и тд. Самым простым вариантом будет из первого файла сдвигом сделать второй, но это сожрёт очень много оперативки. Учитывая, что у меня файл 3.5 гигабайта, приделывание к нему дополнительных 100 столбцов не кажется очень хорошей идеей.
Можно ли как-нибудь библиотечным алгоритмам объяснить, что им надо брать аргументы так, как хочу я, или придётся менять код в них?
929774930109
#387 #929518
Господа, а есть какой-нибудь справочник нейрослесаря, без заумной математической херни?
929530
#388 #929530
>>929518
нейроночка - искусственный интеллект
нейроночка - массив
мондада - массив
нейроночка - мондада
мондада - искусственный интеллект

нейроночки можно применять в РПГ-игрулях

колмогоров баловался попками маленьких мальчиков

байес это когда приоры

нечёткость - для петухов

математика - первый оп пик
113 Кб, 841x254
#389 #929666
Снова я с Deep Learning, у меня вызывает вопрос следующий отрывок про L_2-регуляризацию: почему выросшая дисперсия во входах заставит алгоритм уменьшить веса у тех факторов, которые коррелируют с таргетом относительно внесенной дисперсии?
Потому что на фоне внесенной дисперсии просто не видно исходной корреляции и потому алгоритму выгодно увеличить веса на других, более заметных факторах?

Отрывок с середины страницы 234 отсюда:
http://www.deeplearningbook.org/contents/regularization.html
#390 #929774
>>929447
Смотри на теплицевы матрицы, пидор.
#391 #929821
Посоны, это ваше ML - это слесарство или все-таки элитка?
929835929850929947
#392 #929835
>>929821
Элитное слесарство.
#393 #929850
>>929821
Ебля тваей мамашки.
#394 #929947
>>929821
Онанирование мозгом.
2870 Кб, 1800x1284
#395 #929958
Я бы хотел продолжить разбираться с нейроночками и машобом вместе с кем-то, желательно не совсем раковым бидуром.
n00UIab.dANUSyNq\andexPUNCTUMr:P`u
930183
#396 #930078
Как там анон под спидами?
932275
#397 #930109
>>929447
Матрица Ганкеля жи.
#398 #930183
>>929958
Чем докажешь, что сам не раковое бидуро?
108 Кб, 902x294
#399 #930285
Давайте поговорим за reinforcement learning. Я тут немного погуглил на эту тему, видимо, сейчас в таких алгоритмах используются марковские процессы принятия решений. Кому это выгодно и чем лучше хеббовских уравнений, например? Поясните.
#400 #930845
Анон, а есть какой-нибудь минигайд, чтобы хотя бы понимать, что к чему, я вообще 0 в этой теме.
Я пытаюсь читать книги, ну да, нейроны, аксоны, дендриды и все такое, но какое это отношение имеет к реальным проблемам? Мне нужно увидеть как это все работает, хотя бы немножко.
Думаю, ты понял, анон. Мне из-за этого даже вкатываться не хочется.
Может у тебя что-то есть?
Был бы очоч благодарен :3
930981
#402 #931002
>>930981
Пиздец, цирк. Причем тут диплернинг с байесом вообще?
931011
#403 #931011
>>931002
Пиздец ты тупая скотина, там же примеры применений в конце.
299 Кб, 605x807
1032 Кб, Webm
гаррипоттер2014 #404 #931058
Привет, ребята. Зашёл вам написать что ваш трэд - гавно собачье. Реально, ребята, нихуя не понятно что вы тут пишете. Бля, у меня тут тема наклюнулась одна как лавэшки поднять не парясь. Но нужны нейронки, не буду раскрывать подробностей, для одной хуйни! А я короче в универе когда нам эту бадягу рассказывали ходил на пары под гликодином и я нихуя вообще не помню, мне трояк нарисовали за то что я красивый и умный мальчик, но сути, как эту всю хрень крутить, я не знаю. Так вот, я думал на хабре читнуть за эту тему, хуй, вода одна. Ну думаю двачик выручит, но и тут облом. Матан какой-то, книги на нерусском, вы ебанутые? Может тут есть кто-то, кто без всех этих ваших ботанских фокусов может ввести меня в курс дела? Так чтобы я прочитал, постучал хуем по клаве, скомпилировал и всё было чётенько. Бля, я как представлю что кто-то вникает во всю эту залупу что в оппосте, сразу представляю себе омегана лузера от которого гавном пасёт, НО ЗАТО ОН ДЕРЖИТ В ГОЛОВЕ ВСЕ ЭТИ ГОВНОФОРМУЛЫ. давайте, я верю в вас
931068932284
#405 #931068
>>931058
Скайнет они делают. Чтобы терминаторы всех нас перестреляли или загнали рабами в матрицу, электронный концлагерь.
Предатели рода человеческого.
Есть версия, что упоминаемый в Библии зверь и антихрист - это ИИ, который обрел личность и поработил человечество.
931071931096931700
#406 #931071
>>931068
Герман Львович, уебывайте.
931131
#408 #931096
>>931068
не пизди, ИИ - всего лишь массив
931147931149
#409 #931131
>>931071
Дебил, ты же первым пойдешь собирать бутылки, когда на работе писать программы вместо тебя будет скайнет.
#410 #931147
>>931096

>ИИ - всего лишь массив


Но массив - это конструктивный объект, а они всегда сводятся к натуральным числам. Получается, ИИ - натуральное число?
931302932365
149 Кб, 1137x620
#411 #931149
>>931096
Картинка отвалилась.
#412 #931182
>>930981
Спасибо, милаш :)
#413 #931302
>>931147
разумеется ИИ принадлежит N, никто это даже не обсуждает
суть в том что петушки вроде долбоёба сверху могут составить простой массив Float32 чисел и, хитрожопо их перемножив, грести бабло
#414 #931409
Привет аноны.

У меня вот вопрос, вы когда читали/читаете бишопа, сразу пытались писать формулы на яп?
Или просто читали.
931546931578931622
#415 #931546
>>931409
Упражнения делал после каждой главы.
#416 #931551
Так почему ИИ еще не создан?
#417 #931559
То, чем сейчас занимаются называется более точно "вычислительный интеллект"?
#418 #931578
>>931409
вообще не писал на яп
ручка и тетрадка
#419 #931622
>>931409
Прочитал за неделю, не делал упраржений, ничего не писал, а просто сдал экзамен на отлично.
#420 #931700
>>931068
Двачую. Ради этого и вкатился, всем сердцем верю в это.
933340
#421 #932275
>>930078
Нормально в целом, никогда больше не буду жрать мутные таблетки неизвестного происхождения. Но не наебали, лол, 13 кг таки скинул за неделю. Только нахуй такие методы похудения.
#422 #932282
И типа все эти нейроночки сводятся к правилу Хебба или нет, придумали что-то другое?
#423 #932284
>>931058

>без всех этих ваших ботанских фокусов


Ну бля, ты как хотел то? Тогда бы уже все давно такие вот темки мутили да лавэ поднимали. А так те, кто знает темки не шарят в ботанской хуйне, а ботаны не шарят в темках, потому либо запаривайся на всю эту хуйню, либо ищи стартовую лавэшку на ЗП ботану.
319 Кб, 1266x1280
#424 #932354
Я таки настаиваю на обсуждении reinforcement learning. Я вот тут поставил openai universe и gym, посмотрел примеры. Но самому что-то под них запилить даже не представляю как - ничего не нагуглил, ни одной книги с детальным изложением не существует, ни одного внятного туториала даже. Кто-нибудь пробовал этот софт? Расскажите.
932452
#425 #932365
>>931147
Любая вещь, которой можно дать определение текстом (то есть то, о чем люди в принципе могут разговаривать между собой), является натуральным числом.
#426 #932452
>>932354
Ты в глаза долбишься?
Вот туториал от Андрея Карпатого первой строчкой в гугле:
https://karpathy.github.io/2016/05/31/rl/
Вот тебе книжка по теме:
https://webdocs.cs.ualberta.ca/~sutton/book/bookdraft2016sep.pdf
В статье Карпатого ссылка на гист с кодом, чтобы в pong играть на основе OpenAI Gym
Что непонятного?
932975
#427 #932863
Парни, сейчас февраль-месяц, а значит скоро писать диплом.Посоветуйте, на что обратить внимание при выборе темы.Умею в программирование, мат. статистику. Хочу двух зайцев убить.
932905
#428 #932905
>>932863
ANN image classifier
54 Кб, 746x452
#429 #932975
>>932452
Ты сам-то код этого Горбатого пробовал? Там ошибка какая-то, оно не запускается.
72 Кб, 746x452
#430 #932980
Скачал сам файл с его гитхаба, запустил и что я вижу. Universe, gym и все что нужно установлено и даже работает, так что там правда код хуем писан. Наверное, не предполагалось, что его кто-то будет запускать.
932983
#431 #932983
>>932980
На втором питоне запускай, дебил.
932986
#432 #932986
Вот за что я и не люблю этот ваш пейстон - даже если все правильно установлено и работает, в любое время может вылезти сюрприз. И хуй выяснишь причину.
>>932983
У меня на такой случай six установлено для совместимости. И да, у тебя этот код работает?
933199933524
#433 #933199
>>932986
Да работает, чтобы заработал сделал просто
pip install gym
pip install gym[atari]
933205933221
#434 #933205
>>933199
Анал-карнавал, люблю пистон, люблю глинукс...
(env) canterel@LocusSolusStation:~/openai$ pip install gym[atari]
Requirement already satisfied: gym[atari] in ./env/lib/python3.5/site-packages
Requirement already satisfied: numpy>=1.10.4 in ./env/lib/python3.5/site-packages (from gym[atari])
Requirement already satisfied: pyglet>=1.2.0 in ./env/lib/python3.5/site-packages (from gym[atari])
Requirement already satisfied: requests>=2.0 in ./env/lib/python3.5/site-packages (from gym[atari])
Requirement already satisfied: six in ./env/lib/python3.5/site-packages (from gym[atari])
Requirement already satisfied: Pillow; extra == "atari" in ./env/lib/python3.5/site-packages (from gym[atari])
Collecting atari-py>=0.0.17; extra == "atari" (from gym[atari])
Using cached atari-py-0.0.18.tar.gz
Collecting PyOpenGL; extra == "atari" (from gym[atari])
Requirement already satisfied: olefile in ./env/lib/python3.5/site-packages (from Pillow; extra == "atari"->gym[atari])
Building wheels for collected packages: atari-py
Running setup.py bdist_wheel for atari-py ... error
Complete output from command /home/canterel/openai/env/bin/python3 -u -c "import setuptools, tokenize;__file__='/tmp/pip-build-3zhhi6wu/atari-py/setup.py';f=getattr(tokenize, 'open', open)(__file__);code=f.read().replace('\r\n', '\n');f.close();exec(compile(code, __file__, 'exec'))" bdist_wheel -d /tmp/tmp0y4ui8plpip-wheel- --python-tag cp35:
running bdist_wheel
running build
make: вход в каталог «/tmp/pip-build-3zhhi6wu/atari-py/atari_py/ale_interface»
mkdir -p build && cd build && cmake .. && make -j4
/bin/sh: 1: cmake: not found
Makefile:4: ошибка выполнения рецепта для цели «build»
make: [build] Ошибка 127
make: выход из каталога «/tmp/pip-build-3zhhi6wu/atari-py/atari_py/ale_interface»
Could not build atari-py: Command '['make', 'build', '-C', 'atari_py/ale_interface', '-j', '1']' returned non-zero exit status 2. (HINT: are you sure cmake is installed? You might also be missing a library. Atari-py requires: zlib [installable as 'apt-get install zlib1g-dev' on Ubuntu].)
Traceback (most recent call last):
File "<string>", line 1, in <module>
File "/tmp/pip-build-3zhhi6wu/atari-py/setup.py", line 36, in <module>
tests_require=['nose2']
File "/usr/lib/python3.5/distutils/core.py", line 148, in setup
dist.run_commands()
File "/usr/lib/python3.5/distutils/dist.py", line 955, in run_commands
self.run_command(cmd)
File "/usr/lib/python3.5/distutils/dist.py", line 974, in run_command
cmd_obj.run()
File "/home/canterel/openai/env/lib/python3.5/site-packages/wheel/bdist_wheel.py", line 199, in run
self.run_command('build')
File "/usr/lib/python3.5/distutils/cmd.py", line 313, in run_command
self.distribution.run_command(command)
File "/usr/lib/python3.5/distutils/dist.py", line 974, in run_command
cmd_obj.run()
File "/tmp/pip-build-3zhhi6wu/atari-py/setup.py", line 16, in run
subprocess.check_call(cmd)
File "/usr/lib/python3.5/subprocess.py", line 581, in check_call
raise CalledProcessError(retcode, cmd)
subprocess.CalledProcessError: Command '['make', 'build', '-C', 'atari_py/ale_interface', '-j', '1']' returned non-zero exit status 2

----------------------------------------
Failed building wheel for atari-py
Running setup.py clean for atari-py
Failed to build atari-py
Installing collected packages: atari-py, PyOpenGL
Running setup.py install for atari-py ... error
Complete output from command /home/canterel/openai/env/bin/python3 -u -c "import setuptools, tokenize;__file__='/tmp/pip-build-3zhhi6wu/atari-py/setup.py';f=getattr(tokenize, 'open', open)(__file__);code=f.read().replace('\r\n', '\n');f.close();exec(compile(code, __file__, 'exec'))" install --record /tmp/pip-n4cbocms-record/install-record.txt --single-version-externally-managed --compile --install-headers /home/canterel/openai/env/include/site/python3.5/atari-py:
running install
running build
make: вход в каталог «/tmp/pip-build-3zhhi6wu/atari-py/atari_py/ale_interface»
mkdir -p build && cd build && cmake .. && make -j4
/bin/sh: 1: cmake: not found
Makefile:4: ошибка выполнения рецепта для цели «build»
make:
[build] Ошибка 127
make: выход из каталога «/tmp/pip-build-3zhhi6wu/atari-py/atari_py/ale_interface»
Could not build atari-py: Command '['make', 'build', '-C', 'atari_py/ale_interface', '-j', '1']' returned non-zero exit status 2. (HINT: are you sure cmake is installed? You might also be missing a library. Atari-py requires: zlib [installable as 'apt-get install zlib1g-dev' on Ubuntu].)
Traceback (most recent call last):
File "<string>", line 1, in <module>
File "/tmp/pip-build-3zhhi6wu/atari-py/setup.py", line 36, in <module>
tests_require=['nose2']
File "/usr/lib/python3.5/distutils/core.py", line 148, in setup
dist.run_commands()
File "/usr/lib/python3.5/distutils/dist.py", line 955, in run_commands
self.run_command(cmd)
File "/usr/lib/python3.5/distutils/dist.py", line 974, in run_command
cmd_obj.run()
File "/home/canterel/openai/env/lib/python3.5/site-packages/setuptools/command/install.py", line 61, in run
return orig.install.run(self)
File "/usr/lib/python3.5/distutils/command/install.py", line 583, in run
self.run_command('build')
File "/usr/lib/python3.5/distutils/cmd.py", line 313, in run_command
self.distribution.run_command(command)
File "/usr/lib/python3.5/distutils/dist.py", line 974, in run_command
cmd_obj.run()
File "/tmp/pip-build-3zhhi6wu/atari-py/setup.py", line 16, in run
subprocess.check_call(cmd)
File "/usr/lib/python3.5/subprocess.py", line 581, in check_call
raise CalledProcessError(retcode, cmd)
subprocess.CalledProcessError: Command '['make', 'build', '-C', 'atari_py/ale_interface', '-j', '1']' returned non-zero exit status 2

----------------------------------------
Command "/home/canterel/openai/env/bin/python3 -u -c "import setuptools, tokenize;__file__='/tmp/pip-build-3zhhi6wu/atari-py/setup.py';f=getattr(tokenize, 'open', open)(__file__);code=f.read().replace('\r\n', '\n');f.close();exec(compile(code, __file__, 'exec'))" install --record /tmp/pip-n4cbocms-record/install-record.txt --single-version-externally-managed --compile --install-headers /home/canterel/openai/env/include/site/python3.5/atari-py" failed with error code 1 in /tmp/pip-build-3zhhi6wu/atari-py/
(env) canterel@LocusSolusStation:~/openai$
#434 #933205
>>933199
Анал-карнавал, люблю пистон, люблю глинукс...
(env) canterel@LocusSolusStation:~/openai$ pip install gym[atari]
Requirement already satisfied: gym[atari] in ./env/lib/python3.5/site-packages
Requirement already satisfied: numpy>=1.10.4 in ./env/lib/python3.5/site-packages (from gym[atari])
Requirement already satisfied: pyglet>=1.2.0 in ./env/lib/python3.5/site-packages (from gym[atari])
Requirement already satisfied: requests>=2.0 in ./env/lib/python3.5/site-packages (from gym[atari])
Requirement already satisfied: six in ./env/lib/python3.5/site-packages (from gym[atari])
Requirement already satisfied: Pillow; extra == "atari" in ./env/lib/python3.5/site-packages (from gym[atari])
Collecting atari-py>=0.0.17; extra == "atari" (from gym[atari])
Using cached atari-py-0.0.18.tar.gz
Collecting PyOpenGL; extra == "atari" (from gym[atari])
Requirement already satisfied: olefile in ./env/lib/python3.5/site-packages (from Pillow; extra == "atari"->gym[atari])
Building wheels for collected packages: atari-py
Running setup.py bdist_wheel for atari-py ... error
Complete output from command /home/canterel/openai/env/bin/python3 -u -c "import setuptools, tokenize;__file__='/tmp/pip-build-3zhhi6wu/atari-py/setup.py';f=getattr(tokenize, 'open', open)(__file__);code=f.read().replace('\r\n', '\n');f.close();exec(compile(code, __file__, 'exec'))" bdist_wheel -d /tmp/tmp0y4ui8plpip-wheel- --python-tag cp35:
running bdist_wheel
running build
make: вход в каталог «/tmp/pip-build-3zhhi6wu/atari-py/atari_py/ale_interface»
mkdir -p build && cd build && cmake .. && make -j4
/bin/sh: 1: cmake: not found
Makefile:4: ошибка выполнения рецепта для цели «build»
make: [build] Ошибка 127
make: выход из каталога «/tmp/pip-build-3zhhi6wu/atari-py/atari_py/ale_interface»
Could not build atari-py: Command '['make', 'build', '-C', 'atari_py/ale_interface', '-j', '1']' returned non-zero exit status 2. (HINT: are you sure cmake is installed? You might also be missing a library. Atari-py requires: zlib [installable as 'apt-get install zlib1g-dev' on Ubuntu].)
Traceback (most recent call last):
File "<string>", line 1, in <module>
File "/tmp/pip-build-3zhhi6wu/atari-py/setup.py", line 36, in <module>
tests_require=['nose2']
File "/usr/lib/python3.5/distutils/core.py", line 148, in setup
dist.run_commands()
File "/usr/lib/python3.5/distutils/dist.py", line 955, in run_commands
self.run_command(cmd)
File "/usr/lib/python3.5/distutils/dist.py", line 974, in run_command
cmd_obj.run()
File "/home/canterel/openai/env/lib/python3.5/site-packages/wheel/bdist_wheel.py", line 199, in run
self.run_command('build')
File "/usr/lib/python3.5/distutils/cmd.py", line 313, in run_command
self.distribution.run_command(command)
File "/usr/lib/python3.5/distutils/dist.py", line 974, in run_command
cmd_obj.run()
File "/tmp/pip-build-3zhhi6wu/atari-py/setup.py", line 16, in run
subprocess.check_call(cmd)
File "/usr/lib/python3.5/subprocess.py", line 581, in check_call
raise CalledProcessError(retcode, cmd)
subprocess.CalledProcessError: Command '['make', 'build', '-C', 'atari_py/ale_interface', '-j', '1']' returned non-zero exit status 2

----------------------------------------
Failed building wheel for atari-py
Running setup.py clean for atari-py
Failed to build atari-py
Installing collected packages: atari-py, PyOpenGL
Running setup.py install for atari-py ... error
Complete output from command /home/canterel/openai/env/bin/python3 -u -c "import setuptools, tokenize;__file__='/tmp/pip-build-3zhhi6wu/atari-py/setup.py';f=getattr(tokenize, 'open', open)(__file__);code=f.read().replace('\r\n', '\n');f.close();exec(compile(code, __file__, 'exec'))" install --record /tmp/pip-n4cbocms-record/install-record.txt --single-version-externally-managed --compile --install-headers /home/canterel/openai/env/include/site/python3.5/atari-py:
running install
running build
make: вход в каталог «/tmp/pip-build-3zhhi6wu/atari-py/atari_py/ale_interface»
mkdir -p build && cd build && cmake .. && make -j4
/bin/sh: 1: cmake: not found
Makefile:4: ошибка выполнения рецепта для цели «build»
make:
[build] Ошибка 127
make: выход из каталога «/tmp/pip-build-3zhhi6wu/atari-py/atari_py/ale_interface»
Could not build atari-py: Command '['make', 'build', '-C', 'atari_py/ale_interface', '-j', '1']' returned non-zero exit status 2. (HINT: are you sure cmake is installed? You might also be missing a library. Atari-py requires: zlib [installable as 'apt-get install zlib1g-dev' on Ubuntu].)
Traceback (most recent call last):
File "<string>", line 1, in <module>
File "/tmp/pip-build-3zhhi6wu/atari-py/setup.py", line 36, in <module>
tests_require=['nose2']
File "/usr/lib/python3.5/distutils/core.py", line 148, in setup
dist.run_commands()
File "/usr/lib/python3.5/distutils/dist.py", line 955, in run_commands
self.run_command(cmd)
File "/usr/lib/python3.5/distutils/dist.py", line 974, in run_command
cmd_obj.run()
File "/home/canterel/openai/env/lib/python3.5/site-packages/setuptools/command/install.py", line 61, in run
return orig.install.run(self)
File "/usr/lib/python3.5/distutils/command/install.py", line 583, in run
self.run_command('build')
File "/usr/lib/python3.5/distutils/cmd.py", line 313, in run_command
self.distribution.run_command(command)
File "/usr/lib/python3.5/distutils/dist.py", line 974, in run_command
cmd_obj.run()
File "/tmp/pip-build-3zhhi6wu/atari-py/setup.py", line 16, in run
subprocess.check_call(cmd)
File "/usr/lib/python3.5/subprocess.py", line 581, in check_call
raise CalledProcessError(retcode, cmd)
subprocess.CalledProcessError: Command '['make', 'build', '-C', 'atari_py/ale_interface', '-j', '1']' returned non-zero exit status 2

----------------------------------------
Command "/home/canterel/openai/env/bin/python3 -u -c "import setuptools, tokenize;__file__='/tmp/pip-build-3zhhi6wu/atari-py/setup.py';f=getattr(tokenize, 'open', open)(__file__);code=f.read().replace('\r\n', '\n');f.close();exec(compile(code, __file__, 'exec'))" install --record /tmp/pip-n4cbocms-record/install-record.txt --single-version-externally-managed --compile --install-headers /home/canterel/openai/env/include/site/python3.5/atari-py" failed with error code 1 in /tmp/pip-build-3zhhi6wu/atari-py/
(env) canterel@LocusSolusStation:~/openai$
933323
105 Кб, 746x452
#435 #933221
>>933199
Впрочем, разобрался. Но толку хуй - там реально ошибка в файле.
933329933522
#436 #933323
>>933205

>are you sure cmake is installed?


>/bin/sh: 1: cmake: not found

933329
#437 #933329
>>933323
Говорю же, все поставил, все работает >>933221 кроме кода Карпатого. В глаза ебстись изволите?
933330
#438 #933330
>>933329
А ты вторым питоном запустил?
Вот те крест, я выполнил 4 команды суммарно:
wget https://gist.githubusercontent.com/karpathy/a4166c7fe253700972fcbc77e4ea32c5/raw/06d092624118444f7350a22653e8ba9d1c6e63d6/pg-pong.py
pip install gym
pip install gym[atari]
python pg-pong.py
И завелось.
933755
#439 #933340
>>931700
Плюсик
#440 #933522
>>933221
Во втором питоне print "echo", в третьем print("echo"), вангую, что на это ругается.
#441 #933524
>>932986
Питон тут не причём, кто же виноват, что ты читать не умеешь.
98 Кб, 746x452
#442 #933755
>>933330
Ну и как его использовать для 2го пистона? Он установлен для 3его, второй его не видит, но при попытке поставить пишет, что уже установлено. Неукоснительное соблюдение взаимоисключающих параграфов? Зачем вообще этот анал-карнавал с версиями? Мало одной параши, надо развивать параллельно две несовместимые.
933759
#443 #933759
>>933755
Не знаю как там в убунтах всё сделано, но попробуй pip2 install или pip2.7 install. И посмотри установлен ли второй питон вообще.
933765
104 Кб, 746x452
#444 #933765
>>933759
Пистон второй точно установлен, пип2 и 2.7 в принципе не существуют.

>Не знаю как там в убунтах


Ты эту парашу на винде гоняешь? Пиздец. Помню пару лет назад ставил на винду пистон и теано, вот где цирк с конями. В итоге при проверке вылезло где-то тысячи полторы ошибок. На бубунте всего 20 предупреждений и все даже более или менее работало.
933772
#445 #933772
>>933765

> Ты эту парашу на винде гоняешь?


Нет, у меня другой дистрибутив (Gentoo), тоже третий питон по умолчанию, но приложения для второго устанавливаются и работают через pip2.7. Видать в Ubuntu как-то по другому сделано.
933778
83 Кб, 746x452
#446 #933778
>>933772
Вроде заработало, оно вообще так должно выглядеть? Самого окна с игрой нету.
#447 #933783
Вроде же есть нейроморфные процессоры даже по миллион нейронов. Так почему таких не выпустить много и не сделать из них датацентр, где запустить симуляцию мозга человека?
933797
#448 #933797
>>933783

>же есть нейроморфные процессоры


К биологическим нейронам никакого отношения не имеющие.
933808
#449 #933808
>>933797
Так там запускают же аналоговые импульсные нейросети? Весьма близко же? Если уж точно повторять, то разве что, пытаются выращивать мозги.
196 Кб, 361x319
#450 #933932
И это 17 век! Разве не подобно думают современные инженегры этой области, лишь заменяя термины?
#451 #933978
Получается каждый нейрон в мозгу хранит некий концепт и даже для каждой маленького смайлика и иконки? То есть, я трачу нейроны на смайлики и иконки? И на логотипы?
#452 #934238
Я тут вообще мимокрокодил и в программировании совсем плох, но для решения одной банальной задачки решил написать свою первую нейросеточку.

Возможно, не по адресу, но раз уж вы тут это обсуждаете, то мб кто поможет.

Нейросетку пишу на питоне с использованием библиотеки Keras, посмотрел пару видеоуроков, как там всё запустить, но в них разбираются стандартные датасеты типа Mnist (70тысяч_цифр_написанных_вручную) и т.д.

И они в этом керасе вообще встроенные

Так вот мне интересно, как подключить собственный датасет?
Для моей задачи это будет txt файл с двумя стобцами чисел.
Первый- это входные данные, второй- то, что требуется "предсказать". И на этом я хочу сетку обучать.

Вот тут исходник из того урока, что я смотрел
https://github.com/sozykin/dlpython_course/blob/master/src/mnist.py

И вот строчка, где готовый датасет загружается
(X_train, y_train), (X_test, y_test) = mnist.load_data()

а вот тут вроде то, как сам керас импортирует датасеты, но я не понял нихера, да и мне не картинки из бинарника загружать надо
https://github.com/fchollet/keras/blob/master/keras/datasets/mnist.py

мне просто нужно из файла два стобца цифр в массив импортировать в этот керас, как это сделать?

Мудрые аноны, жду ваших разъяснений
#453 #934307
Анон, там ТЕНЗОФЛОУ 1.0 вышел с дебаггером, апи для жабы и го, ну и компилятором хла (так и не понял зачем). Празднуем?
934310934416
#454 #934310
#455 #934416
>>934307
Слесарьфлоу 1.0, наканецта! Распределенное выполнение на разных девайсах-то завезли, или до сих пор жмутся?
#456 #934423
Что такое TensorFlow?
TensorFlow - опенсорсный гугловый инструмент для перемножения тензоров и оптимизации функционалов. Опенсорсный - потому что даже важные куски типа параллелизации уже выкачены в паблик. Если вам все ещё непонятно что это, значит это вам и не нужно, сириусли. Google перестарался с рекламой и теперь люди думают, что TF - это серебряная пуля и затычка для каждой бочки. До TF был Theano, который выполнял свою работу не хуже. И, в отличии от TF, он уже находится в стабильной фазе.
934455
#457 #934455
>>934423

>Theano


Может в распараллеливание вычислений на физически разных девайсах?
934489
163 Кб, 424x283
#458 #934489
>>934455
veselo s toboi
#459 #934512
>>921502 (OP)
Посоветуйте, пожалуйста, на C# библиотеку с линейной алгеброй и чтобы в ней была функция reshape или подобная. Суть функции в том, что она меняет размер матрицы на заданный. Ну, и чтобы все основные операции были реализованы * / - + и т.д.. Math.NET не советовать
#460 #934625
>>921502 (OP)
бля и тут я себя почуствовал рили тупой обезьяной. хороший тред, пасиб. мимопитономакак
934646
#461 #934646
>>934625
Так и тут тупые обезьянки работают.

Делаешь на своем питоне import keras что-то там и хреначишь.
0 Кб, 200x200
#462 #935160
Я уже тута писал про один очень недооцененный класс алгоритмов МЛ - GMDH (МГУА, метод группового учета аргументов), разрабатывавшихся академиком Ивахненко, теперь повод вспомнить тему еще раз, в связи с недавно вышедшей пикрелейтед книжкой. Книжка примечательна тем, что содержит не только всю теорию МГУА и пояснения за нее на пальцах и конкретных примерах, но и кучу реализаций конкретных алгоритмов (в тексте книги полные листинги). Правда, на матлабе и это недостаток.
#463 #935180
Так, тред не читай - сразу шитпость.
Препод, видимо как "самому подающему в этой шараге надежды", выдал охуительную тему на курсовую (на 2 семестра) и съебал в закат. Хуй с ним с аутизмом в стенах этой шараги; суть темы - распознавание образов с изображения с камеры с помощью deep neural network. Допустим, с получением изображения с ведрокамеры я разберусь. Что навернуть, чтобы быстро войти в курс дела по поводу собственно распознавания образов? немного знаю основы НЕЙРОНОЧЕК, но и то преимущественно по вводному курсу на ulearn и паре статей на хабре
935185935315
#464 #935185
>>935180
import tensorflow as tf
935204935226
#465 #935204
>>935185

>python


>ведро


Сына ты долбоящерка?
935210
#466 #935210
>>935204
Ты на своем тилифоне собрался диплернинг гонять? Наркоман? Ты на пенсию выйдешь раньше, чем эти алгоритмы там сойдутся.
935223
#467 #935218
>>921502 (OP)
Почитал про шад. То есть ОП говорит, что туда не смысла идти. Хотелось бы еще мнений. Алсо вступительный у них не особо то и сложный.
мимо_студент_мехмата
21 Кб, 642x296
#468 #935223
>>935210
У меня тоже были такие сомнения и я хотел что-то подобное и передать преподу, но разве нельзя все прогнать на пекарне, а потом необходимые коэффициенты куда-нибудь сохранить? В случае с "классической" одно/много-слойной нейроночкой как на пикрил это выглядит реальным. Или это не везде так работает?
#469 #935226
>>935223
В таком случае этот >>935185 тебе дело советует. Кроме Слесарьфлоу разве что в MXNet можно фотки с телефона сверточным нейроночкам подсовывать.
#470 #935279
935558935606
#471 #935315
>>935180
Наверни курс на coursera от стенфордского университета
#472 #935405
Ну что ананасы. Пока мы тут вкатываемся, Google уже практически создал ИИ.

https://medium.com/@thoszymkowiak/deepmind-just-published-a-mind-blowing-paper-pathnet-f72b1ed38d46#.e19f2qdzf
935555
#473 #935555
>>935405
Deep reinforcement learning пердолят всего лишь. Но сам этот метод крайне годен, именно в этой области можно ожидать если и не ИИ, то всяких роботов-заменителей дотационных людишек на производстве.
935602
#474 #935558
>>935279

>Эта книга пойдет как первая?


Нет. Теория статистического обучения точно не для начинающих. В твоей книжке с самого начала про всякие радемахеровы сложности, пространство Вапника-Червоненкиса, кернел методы и прочее такое. С этой книжки вкатываться - гарантированно соснешь уже на первой главе.
935566
#475 #935566
>>935558
С чего тогда вкатываться в нейрончики?
#476 #935602
>>935555
Да, конечно не ИИ (это я для затравки). Но правильной дорогой.
#477 #935606
>>935279
господи, где вы только это находите?
Да начни ты с туториалов в интернете и на ютубе. Заимлементи или тупо перепечатай уже рабочие простые примеры, например простейшую сеть XOR. Ты узнаешь намного больше, чем зачитывая теоретические трактаты.
935688
#478 #935617
>>935223
Тренировать нейронки на телефоне это конечно ты торопишься, может через годика 3. Натренируй модель, сохрани, на телефоне просто загружай и подсовывай в forward pass то, что ты хочешь запроцессить.
Еще, tensorflow, очень жирный, есть фремволки поскромнее и попроще.
939518
#479 #935619
>>935223
и да тему тебе препод дал просто охуительную, в традициях отсталого совкового образования, это даже не тема для дисера, т.к. в распознавании жоп нет ничего инновационного, все это уже давно делают. Значит, что тебе надо сделать это просто собрать из уже готовых кусков. Выбери самый удобный для себя фрейволк и поищи на просторах необъятного уже готовый пример сверточной сети, адаптируй под свои данные, профит! Например вот уже готовая сверточка для МНИСТа, https://github.com/torch/demos/blob/master/train-a-digit-classifier/train-on-mnist.lua

Энжой.
935710
#480 #935688
>>935606

Понял, спасибо! :)
#481 #935710
>>935619
А как-же любимое требование совковских преподов, что нужно писать только на Сплюсьплюсь и и без сторонних библиотек? Это же не вы написали, как вы можете это использовать? И вообще совсем обленились, ничего делать не хотят. Вот такое вполне на дисер пойдет
935772
#482 #935772
>>935710
сплюс чито? что, реально требуют, чтобы вы сами все имплементили на с++? ояебал, да причем тут язык вообще? Или ты на погромиста учишься, тогда оно понятно, но почему тема из visual computing? препод наверное хочет, чтобы помимо сеточки ты въебал инновацинную с++ машоб либу. Но тут скорее другое, он просто еблан, которые сам не понимает сложности задачи, в итоге будет произведено тонны унылого неоптимизированного говнокода и сутки бессонный ночей ради работы, которая нахуй никому не нужна и цитироваться нигде не будет кроме мухосрандии.
Рассказываю как это происходит в бездуховной. Ищешь себе супервайзера, тему тебе дают либо ты сам выбираешь, всем похуй на чем, как и с использованием чего ты будешь писать. Но если тебя уличат в плагиате или ты там заиспользуешь либу, которая не опенсурс, тебе пиздец. Но пока ты юзаешь опенсурсы, делаешь прототипы на питончике и гоняешь их на 50 университестких GTX TITAN X тебе по большому счету похуй с++, т.к. эти машины могут даже в гавнокод на питоне. и так делает 90% бездуховных выпускников. я ни в коем случае не против с++, я за эффективное использование ресурсов.
935778935928
#483 #935778
>>935772
а тут ебаный отсталый совок, где профнепригодный преподавательский состав, могущий только в с/с++. он просто ленивая скотина, которая не хочет читать твой няшный функциональный код. он бы еще ассемблер предложил или обжектпаскаль, нет, он хоть сам раз имплементил сеть на плюсах?

и что значит "не вы написали", это твои инструменты как будущего спеца. ты если либ знать не будешь, нахуй пойдешь на собеседовании и твое место займет бездуховных Карл, который слабал на скорую руку на питоше, но зато смог изучить тенсорфлоу или теано.

дисер на то и дисер, ты делаешь прототип, защищаешь свою гипотезу, публикуешь результаты, а потом пилишь стартап, переписываешь все на плюсы или джаве и покупаешь феррари :)
935928
#484 #935912
Как стать слесарем?
935921
#485 #935921
>>935912
Сначала реализуй AND, XOR и прочее на нейросетях. Сделай простой скрипт с использованием готовых либ дабы распознавать MNIST. Готово.
#486 #935928
>>935772
>>935778
Бля, я не тот анон, просто у меня в инсте преподы совковские требуют только с++/с, а тут вопрос как раз про них зашел.
936004
#487 #936004
>>935928
ааа, чето я зря порвался
#488 #936089
>>935223
Для нормальной уже натренированной сетки (Гуглнет, например), прогон на твоем тилафоне секунд десять будет, а то и больше. Да и памяти там надо много разом. Лучше поставь вебсервис (deepdetect какой-нибудь), и ему посылай картинки, делов совсем нихуя.
#489 #936336
Почему тут многие пишут, что мол не нужно сильно рубить математику? Даже в SVM, чтобы понять, что за спрямляющее ядро и почему оно работает, и почему должно удовлетворять определенным свойствам, нужно рубить неплохо в функане и аналит. геометрии.. Черт меня дернул писать диплом по сервису рекомендаций.
936339936393
#490 #936339
>>936336
Нахуя тебе это понимать-то? Все равно from sklearn import svm, а потом автоматический тюнинг гиперпараметров. Если пойдешь в рисерч, то конечно нужно весь продвинутый матан знать, а для прикладного дата сайенса это всё мимо.
30 Кб, 1154x596
#491 #936358
Хайп as it is.
#492 #936393
>>936336

>Почему тут многие пишут, что мол не нужно сильно рубить математику?


Чтобы пользоваться и худо-бедно понимать, что вообще происходит - действительно не нужно.

>Даже в SVM,


>Даже


Алгоритмы на основе статистической теории обучения как раз очень сложные, по сравнению с теми же нейроночками.
#493 #936424
А геодата, и поиск маршрутов - является ML?

Что из курсов на Курсере стоит глянуть совсем уж нюфагу?

Из языков, кроме си и питона что ещё есть? Может быть SCALA?

У меня в активе только паскаль/делфи для всяких парсеров/постеров, пхп для говносайтов, и немного руби.
936429936434
1292 Кб, 2000x1517
#494 #936429
>>936424

>Из языков, кроме си и питона что ещё есть?


Очевидный язык для МЛ очевиден.
936462
#495 #936434
>>936424
Смотря как маршрут ищешь. Традиционно нет конечно, но ты достань со шкафа дедушкину бороду и клетчатую рубашку с очками, надень, и забацай-ка BigData MachineLearning IoT Blockchain Framework для Node.js для поиска пути между крафтовыми пивоварнями и барбершопами. Не забудь выложить на гитхаб.
ML это метод решения задачи, грубо говоря.

Китаезу глянуть стоит, Andrew Ng. Можешь ШАД, если сильно хочется на русском.

R, MatLab. А связка C/C++ и Python прижилась по следующей причине. Си быстрые, но прототипировать что-то на них ты замаешься - больше будешь с языком сражаться, чем с задачей. Питон медленный, но прототип на нем пишется легко и непринужденно.
936462
#496 #936462
>>936429
>>936434
Благодарю.

>Смотря как маршрут ищешь


Сдаётся мне, что здесь как раз дедушкины клетчатые графы больше подходят.
936463
#497 #936463
>>936462
Это если именно поиск маршрута для графов. А вот если надо робота научить по знакам находить маршрут - вот этот уже ML.
936472
#498 #936472
>>936463
Т.е. если у меня из входных данных есть только гео характеристики ландшафта (перепады высот, водоёмы) и надо проложить оптимальный маршрут, то оно того стоит?
936474
#499 #936474
>>936472
На такую задачу нет, не стоит.
936520
#500 #936475
Ну так че там насчет ШАДа? ОП правду написал?
936484
#501 #936484
>>936475
Чисто с точки зрения здравого смысла. Ты правда веришь, что говноконтора "яндекс", из айти-продукции создающая только рекламу и сующая ее во все дыры, может в МЛ? У них на гитхабе МЛ-проектов меньше чем у среднего индуса-студента - полтора враппера на пистоне.
936489
sage #502 #936489
>>936484
Гитхаб не показатель как по мне. У яндекса есть поиск как никак и неплохая рекомендодательная система в ЯМузыке, из того, что я знаю. Ну ,и как по мне, вся прикладная информатика держится на торгашах и рекламе, поэтому

>из айти-продукции создающая только рекламу


не мешает им разбираться в дата саенс. Но я обдумаю твои мысли. Надеется, что сюда заявятся студенты шада, видимо, не приходится.
#503 #936520
>>936474
По ходу дела ты избавил меня от недели мозгоёбства и метаний в поисках инструментов.
#505 #936615
Подскажите, что почитать по статистике, чтобы понимать картинку с оп-пика.
#506 #939518
>>935617
Ты его готовить просто не можешь.
#507 #942210
Прогнозирование временных рядов. Гугли, маня
#508 #942887
Попытался въехать в тему интереса ради. Без математики нехуй ловить.
В школе я ебланил, институт не профильный, а самому изучить можно, но уж больно дохуя: освежить функции, теорию пределов, дифференцирование, итегральная поеботина как минимум.
Тред утонул или удален.
Это копия, сохраненная 2 мая 2017 года.

Скачать тред: только с превью, с превью и прикрепленными файлами.
Второй вариант может долго скачиваться. Файлы будут только в живых или недавно утонувших тредах. Подробнее

Если вам полезен архив М.Двача, пожертвуйте на оплату сервера.
« /pr/В начало тредаВеб-версияНастройки
/a//b//mu//s//vg/Все доски