Этого треда уже нет.
Это копия, сохраненная 6 июня 2017 года.

Скачать тред: только с превью, с превью и прикрепленными файлами.
Второй вариант может долго скачиваться. Файлы будут только в живых или недавно утонувших тредах. Подробнее

Если вам полезен архив М.Двача, пожертвуйте на оплату сервера.
1819 Кб, 1853x853
749 Кб, 1212x388
НЕЙРОНОЧКИ & МАШОБЧИК #13 sage # OP #956903 В конец треда | Веб
книги
Pattern Recognition and Machine Learning, Bishop.
Information theory, inference & learning algorithms, MacKay http://www.inference.phy.cam.ac.uk/itila/
Machine Learning: A Probabilistic Perspective, Murphy

Introduction to Statistical Learning ( http://www-bcf.usc.edu/~gareth/ISL/ISLR Sixth Printing.pdf )
Elements of Statistical Learning ( http://statweb.stanford.edu/~tibs/ElemStatLearn/printings/ESLII_print10.pdf )
Foundations of Machine Learning, أشهد أن لا إله إلا الله وأشهد أن محمد رسول الله. http://www.cs.nyu.edu/~mohri/mlbook/

Fundamentals of Neural Networks: Architectures, Algorithms, and Applications, Fausett L.

А. Пегат, "Нечёткое моделирование и управление"

другое
http://libgen.io / http://bookzz.org/ - здесь можно одолжить ^ книги и не только
http://arxiv.org/find/all/1/all:+nejronochki/0/1/0/all/0/1
https://www.reddit.com/r/MachineLearning/wiki/index

https://vk.com/deeplearning и http://deeplearning.net/reading-list/
https://www.kadenze.com/courses/creative-applications-of-deep-learning-with-tensorflow/info тюториал по slesarflow
http://rgho.st/8g68fTCSx две брошюры по deep learning для слесарей.

http://kaggle.com - весёлые контесты. денежные призы
https://www.hackerrank.com/domains/ai/machine-learning/difficulty/all/page/1 - олимпиадки

курс от китаёзы
http://videolectures.net/mlss09uk_cambridge/

яп
1. http://julialang.org/
2. https://www.microsoft.com/en-us/research/project/infernet/
3. https://www.r-project.org/
4. питухон и так все знают
5. idris/coq - модные яп для формально верифицированных нейроночек с тренировкой на этапе компиляции

ПЛАТИНА
Книги хорошо, но с чего начать практический вкат?
Во-первых, вам нужна любая unix-based система. На Windows возможно запустить нижеперечисленное, но ждите пердолева с настройкой и неодобрительных взглядов анонимуса. Кроме того, в компаниях, так или иначе связанных с разработкой йоба-ПО и machine learningом, Linux/OS X является стандартом. Привыкайте.
Во-вторых, определитесь с языком. Python и C++ наиболее мейнстримовые инструменты, с ними вы без еды не останетесь. Есть еще R, на котором пацаны живут статистикой и анальными пакетами. Некоторые инструменты являются языко-независимыми (Vowpal Vabbit, XGBoost), но обвязывать их вы все равно будете из какой-либо среды.
На Java разработано много production-ready инструментов для бигдаты и если вы угораете по терабайтам данных, то имеет смысл посмотреть в её сторону. Впрочем, лучше это делать уже потом, когда прийдет осознание потребностей.
В-третих, выбирайте себе задачу. Что угодно: распознать качпу, обнаружить ботов по логам, найти раковых больных. Список можно посмотреть, например, на kaggle.com. После чего приступаете к решению выбранной задачи.

Не прийдется ли мне потом с таким наборищем знаний идти в макдак работать?
Несмотря на хайп вокруг ML, далеко не во всех IT компания есть необходимость в ML и понимание круга задач, которые можно решить этими методами. Но поверьте, в 2017 компетентный специалист будет востребован. В России потребителями ваших знаний могут стать: Яндекс, Mail.ru, Вконтакте, Rambler, Касперский, Билайн, Связной, ABBYY, Хуавэй. В биоинформатике есть определенный спрос, можно поскролить http://blastim.ru

Здорово, но я так и не понял чем же вы занимаетесь в IT компаниях?
Попытаюсь ответить со своей колокольни и сразу хочу предупредить, что это едва ли консенсуальное мнение.
ML-специалист - это такое зонтичное определение для человека, способного увидеть проблему, выгрепать кучу логов и данных, посмотреть на них, придумать решение проблемы и врезать это решение его в продакшн. По сути, это кодер, решающий не чисто технические, а, в некотором роде, человеческие проблемы.
Имхо, мы все же остаемся в первую очередь разработчиками.

Что такое TensorFlow?
TensorFlow - опенсорсный гугловый инструмент для перемножения тензоров и оптимизации функционалов. Опенсорсный - потому что даже важные куски типа параллелизации уже выкачены в паблик. Если вам все ещё непонятно что это, значит это вам и не нужно, сириусли. Google перестарался с рекламой и теперь люди думают, что TF - это серебряная пуля и затычка для каждой бочки. До TF был Theano, который выполнял свою работу не хуже. И, в отличии от TF, он уже находится в стабильной фазе.

будет ли ML нужен в ближайшие 10 лет, или это просто хайп?
будет. хайп.

смогу найти работу?
Яндекс, мейлру, касперский, несколько биоинформатических компаний (iBinom, можно еще blastim.ru поскролить на тему работы), билайн (они с НГ целое подразделение открыли под ML и биг дату), связной. Ну и западные аутсорсы, если готов рачить за валюту.

нужна математика?
для начинающего ничего особого знать не нужно
https://www.amazon.co.uk/Calculus-Michael-Spivak-x/dp/0521867444
https://www.amazon.co.uk/dp/0534422004/ref=pd_lpo_sbs_dp_ss_2?pf_rd_p=569136327&pf_rd_s=lpo-top-stripe&pf_rd_t=201&pf_rd_i=0980232716&pf_rd_m=A3P5ROKL5A1OLE&pf_rd_r=3TZ38AZ2BY28R19H4SA5
https://www.amazon.co.uk/Calculus-Several-Variables-Undergraduate-Mathematics/dp/0387964053
https://www.amazon.co.uk/Introduction-Probability-Dimitri-P-Bertsekas/dp/188652923X
"основы теории вероятностей" Вентцель

поясните за нейроночки
нейроночка - массив

шад)))
Нет там ничего ML-специфичного, знание матана и теорвера на уровне заборостроительного вуза. Теорвер проходится на третьем курсе, как раз 20 лет.
Рандомный хрен туда не сможет поступить, потому что планка намеренно задрана, а не потому что там такая охуенно сложная программа. Это традиционная наебка "элитных учебных заведений", в которой учат так же хуево, как и везде, но за счет отбора поступающих якобы формируются неебовые успехи, которые объясняются именно качеством преподавания.
Иными словами, у тех, кто способен поступить, и так в жизни проблем с трудоустройством не будет.

Тред #1: https://arhivach.org/thread/147800/
Тред #2: https://arhivach.org/thread/170611/
Тред #3: https://arhivach.org/thread/179539/
Тред #4: https://arhivach.org/thread/185385/
Тред #5: https://arhivach.org/thread/186283/
Тред #6: https://arhivach.org/thread/187794/
Тред #7: https://arhivach.org/thread/196781/
Тред #8: https://arhivach.org/thread/209934/
Тред #9: https://arhivach.org/thread/223216/
Тред #10: https://arhivach.org/thread/234497/
Тред #11: https://arhivach.org/thread/240332/
Тред #12: https://arhivach.org/thread/246273/
#2 #956920
Очень толстые оп-пики, тоньше надо. По первому имею сказать, что в анализе рыночков важен не инструмент, а понимание проблемы.
956947
#3 #956947
>>956920
важно и то и то имхо
а ты занимался рыночками?
#4 #957075
>>956903 (OP)
Сколько этот пост не обновлялся уже?

>яп


>1. http://julialang.org/


>2. https://www.microsoft.com/en-us/research/project/infernet/


>3. https://www.r-project.org/


>4. питухон и так все знают


>5. idris/coq - модные яп для формально верифицированных нейроночек с тренировкой на этапе компиляции



Что за пиздец? Кроме питона, R и С++ в МЛ почти ничего не юзают. Потом будут в тред вкатываться Васи, которые идрис выучили, но работу найти не могут.

>Что такое TensorFlow?


>TensorFlow - опенсорсный гугловый инструмент для перемножения тензоров и оптимизации функционалов. Опенсорсный - потому что даже важные куски типа параллелизации уже выкачены в паблик. Если вам все ещё непонятно что это, значит это вам и не нужно, сириусли. Google перестарался с рекламой и теперь люди думают, что TF - это серебряная пуля и затычка для каждой бочки. До TF был Theano, который выполнял свою работу не хуже. И, в отличии от TF, он уже находится в стабильной фазе.



Слесарьфлоу уже месяца 2 как релизнут, но и до этого он был стабильным и работал намного лучше Теано.
957131957286
#5 #957104
Рейтаните книжку Барсегяна "Анализ данных и процессов"
Что-то лучше на русском языке найти можно?
549 Кб, 1024x640
#6 #957131
>>957075
добро пожаловать в тредик! всегда рады новым постерам
#7 #957171
>>956903 (OP)

Двач, тебе не кажется, что существующие названия вакансий (и позиций), вроде Data Analyst, Data Scientist, ML engineer и пр. какие-то очень широкие, примерно как просто Developer, без привязки к языку, платформе etc, при этом каждая вторая контора считает своим долгом вставить свои 5 копеек в трактовку понятия? Появятся ли более мелкие, но точные названия в будущем?
957289
#8 #957286
>>957075
В оп посте толстоты хватает. Учись отличать хуйню от полезной инфы. Причем Идрис к машобу вообще не ясно.
#9 #957289
>>957171
Да, мл сейчас это как веб 15 лет назад.
957516
#10 #957312
Собственно говоря, в программе поступления в ШАД алгебра наиболее объемная: подстановки, комплексные числа, СЛАУ (отсюда матрицы & определители), векторы, линейные отображения/операторы, билилейные и квадратичные функции
Это все имеет прикладной характер в МЛ? Или что-то можно скипнуть при самовкате?
957361957403
#11 #957361
>>957312
Это азы математики, которые должен знать любой образованный человек, проходится на первом курсе любого универа. Учи, не торопись. На ютубе 3blue1brown шикарные интуитивные анимации есть линейной алгебры.
957379
#12 #957379
>>957361
маняматика ненужна
#13 #957403
>>957312
Это все нужно чтобы понять svm.
#14 #957469
А какую математику используют лучшие люди с идеями, дела машинного обучения?
957471957472
#15 #957471
>>957469
маняматика нинужна
sage #16 #957472
>>957469
E(w) = 0
957474
sage #17 #957474
#18 #957516
>>957289
Каким был веб 15 лет назад? По моему, в МЛ все гораздо понятней и популярней, чем тогда.

Посмотрел в архиваче, пара анонов предлагали запилить чатик в телеграмчике. Я б с вами там тоже посидел, но я рачье и буду пиздеть в основном не по тематике
957519
#19 #957519
>>957516
Примерно так же, вместо того, чтобы делать дела, люди в основном борятся с несовершенными инструментами. Не, классический МЛ-то еще более-менее, но нейроночки пиздец вообще.
957523
#20 #957523
>>957519
15 лет назад гугл не сделали ангуляр, МЛ захайпали не так давно, гугл сделал тензорфлоу. Не, чет не похожи ситуации
957552
#21 #957552
>>957523
Так тензорфлоу говно. Что-то более-менее для людей - это nvidia digits. В веб-интерфейсе сделал датасет, выбрал нейроночку, она обучилась и работает.
Нет, чувак, ситуция как сейчас будет, когда основную долю рынка будут занимать CMS на PHP, а не гуглы для аутистов.
957563957566
17 Кб, 427x320
siraj #22 #957563
>>957552
поясни за гугл для аутистов бля
54 Кб, 714x374
#23 #957566
>>957552

>Что-то более-менее для людей - это nvidia digits


Для обучения (человека, а не нейронки) - очень годная штука. Кнопочки тыц-тыц, мышей гуй потыкал, графики посмотрел, красота.
Но, чуть что сложнее простой классификации (локализация объекта, например, или кастомный слой caffe) - и начинается глубокий пердолинг копания в сорцах.
ML еще в самом зародыше, даже не родилось толком, и инструменты для него тоже.
957580
#24 #957580
>>957566
Теория статистического обучения как раз общая теория мл. Нейроночки туда тоже вписываются.
#25 #957664
>>955390
В чате годно. Есть куча каналов на разные темы (в т.ч. NLP), народ собирается на сходки, на вопросы отвечают. Алсо в каком вузе учишься, если не секрет?
#26 #957681
>>957664
Что за чат?
слоупок.жпг
957688
#27 #957685
>>957664

>NLP


Ну и при чем тут это говно?
957699
#28 #957688
>>957681
Чат в слаке для датасаентистов и сочувствующих opendatascience.
957701
#29 #957699
>>957685
Natural Language Processing мудло
#30 #957701
>>957688
Так надо, чтоб в телеграмчике еще был двачевский. Похаживал я по популярным каналам по тематике нашей, так там не лампово вообще
957703
#31 #957703
>>957701
В телеграме можно только за котики пиздеть, код вставлять и прочее в слаке намного удобнее.
Единственное, что бесит в слаке это инвайты, но это можно пережить, если грамотно автобота сделать.
957707
#32 #957707
>>957703
```так делаешь и нормально все обсуждается```
957711
#33 #957710
>>956903 (OP)

>dadfs.png


Рокфелер рип
957716
#34 #957711
>>957707
А отдельные каналы general, хуе-моё? А большие тексты? Неудобно всё равно в ентом телеграме.
#35 #957716
>>957710
На пикче Сорос вроде.
957738
#36 #957720
Короче я не затащил специализацию от МФТИ и Яндекса. Не могу сделать задания по программированию на 2-ом курсе.
Впизду дропаю. Хуита какая то.
И еще я уверен что мимохуя со средней вышкой не по математике или прогерской. Без должного знания статистики и математики хуй возьмут на работу по мл.
Я думаю мне не вкатиться, это просто трата времени.
Всем спасибо, идите нахуй!
#37 #957722
>>957720
А мог бы пхп задрочить и кушать хлебушек. Эх ты.
#38 #957728
Интересно мне можно вернуть деньги? Я только 2 курса поюзал из 6.
#39 #957729
А есть уже теория нейросетей или это и дальше кибернетический эксперимент?
#40 #957731
Что скажите за машинное обучение на php?
957732957996
#41 #957732
>>957731
Ни разу не встречал.
957737
sage #43 #957738
>>957716
сорос следующий
#44 #957739
>>957720
мфти хуйня! техникум лучше!
957746
#45 #957746
>>957739
кукарек кок! хуёк кокок!
957817
#46 #957747
Функциональный анализ надо знать для этого?
957751
#47 #957751
>>957747
да
комплан и топологию тоже
#48 #957817
>>957746
Типичная речь шаражника. Ну шо, готов в НИИ за 8к сидеть всю жизнь?
957848
#49 #957848
>>957817
Да. Не берут без ВО.
#50 #957991
>>957664
секрет, а то деанон
958015
#51 #957992
>>957664
за чат спасибо, на неделю попрошусь туда
958042
#52 #957996
>>957731
На похапе полтора алгоритма. А так похуй на чем,всеравно Тьюринг полный язык.
#53 #958015
>>957991
Может, фейкомыльце оставишь? Расскажешь про свой вуз, про ваше нлп комьюнити. Могу там же про своё рассказать.
958611
#54 #958042
>>957992
сделайте в телеграмчике. У всех нормальных тредов программача есть чатики в телеге, у нас нет.
958044
#55 #958044
>>958042

>телеграмчике


говноед
#56 #958081
Я, в общем, решил серьезно подойти. Так что надо знать? Правильно ли я понимаю, что нужен следующий список:
- Системный подход, теория систем и т.п
- Дискретная математика
- Теория типов
- Теория распознавания образов
- Анализ: математический анализ, функциональный анализ и прочая; статистика; теория хаоса; теория вероятностей, нечёткай логика, теория возможностей, теория очевидностей Демпстера-Шафера и прочая
- Нейронные сети
- Байесовская сеть, вероятностное программирование, дифференцируемое программирование

Что скажете? Может что-то добавить или убавить?
958090958125
#57 #958082
Поясните за преимущества машинного обучения на Idris. Какие именно преимущества для машинного обучения дадут те же зависимые типы?
958146
#58 #958090
>>958081

>Системный подход, теория систем и т.п


Гуманитарная чушь

>Дискретная математика


Лишнее

>Теория типов


Строго нахуй

>Теория распознавания образов


Прошлый век

>Анализ: математический анализ, функциональный анализ и прочая


Матан и линал нужен. Функан - на уровне определений. Matrix calculus нужен. Статистика и теорвер нужны. Теория хаоса нет. Нечеткие петухи не нужны.

Зная это (первые 3 курса математики в универе), можно приступать к переднему краю и доучивать пробелы в процессе.
958224
#59 #958125
>>958081
Все, что нужно - желание, видение проекта и, собственно, сам проект и пилить.
Все остальное, если будешь не мочь, наберешь по ходу разработки твоей хуйты. Только так люди и набирают скилы и вкатываются во что угодно, кмк
#60 #958146
>>958082
Видимо,можно писать спецификацию алгоритма, а идрис тебе выдаст скомпилированный алгоритм,соответствующий этой спецификации. Насколько мне известно, для мл никто ничего похожего не делал.
sage #61 #958224
>>958090
картафанский разбушевался)))
958233
#62 #958233
>>958224
Съебы в обосцай, здесь эмелебояре будущее творят.
958265
sage #63 #958265
>>958233

>отсталая инженегропараша из 70х


>будущее творят


в голос
25 Кб, 500x500
#64 #958317
Раз уж заговорили о зависимых типах. Вот смотрите, у того же Вапника имеются общие требования для алгоритмов, эффективных более, чем просто асимптотически приближающиеся к оптимальному решению проблемы распознавания образов, бла-бла-бла. По-сути, это готовые спецификации, которые можно выразить в виде типов, зависимых в т.ч. Остается только найти программы, наиболее оптимально представляющие такие типы, методами program derivation в этих ваших Куках и прочих Идрисах, как вариано - генетическим программированием в типизированной лямбде с последующей проверкой в ЯП с зависимыми типами - program verification. В итоге получим нечто эффективнее SVM и всяких бустингов, в т.ч. глубоких. Если что-то подобное запилить и вылодить на гитхаб и отрастить бороду, есть вариант что в гугл РАБотать возьмут?..
958354958368959210
#65 #958323
Котаны, помогите запилить простецкий классификатор. Задача примерно как в типичном спам-классификаторе. Есть вероятность попадания элементов в классы 1 и 2. Есть уникальные элементы, которые встречаются только в 1 или только в 2. Т.е. допустим есть элемент А, который в классе 1 встречается с вероятностью 0.6 (в 60% случаев в обучающей выборке), а в классе 2 вероятность 0. А есть элемент Б, который в 1 с вероятностью 0, а в 2 с вероятностью 0.7.

И надо классифицировать образец, в котором есть и А, и Б.

Если запилить байесовский классификатор, то для обоих классов будет умножение на ноль.

Что делать?
#66 #958331
>>958323
Это троллинг такой?
958332
#67 #958332
>>958331
Промахнулся. Я про " генетическим программированием в типизированной лямбде ". Я думал тут так стебутся, а, судя по посту, не похоже.
#68 #958343
>>958323
Сперва создать канал в телеграме, а там посмотрим.
#69 #958349
>>956903 (OP)

>нужна математика?


>для начинающего ничего особого знать не нужно


>список математической лит-ры


Этот список и есть "ничего особого знать не нужно" или же все-таки действительно из метематики ничего особого знать не нужно в начале? А в середине, чтобы устоиться на работу, например?
958350958353958368
#70 #958350
>>958349
*математики
#71 #958353
>>958349
Ты можешь взять готовую библиотеку даже на том же пхп и что-то делать, но ты не будешь существенно двигать к созданию ИИ и сингулярности таким образом.
958368958442967154
#72 #958354
>>958317
Чем оно будет эффективней?
958373
#73 #958368
>>958353
сингулярно-петушок

>>958317
завтипы-петушок

>>958323
лаба-петушок

>>958349
мaтeматика-петушок
958374958419
#74 #958373
>>958354
Тем, что может гораздо лучше соответствовать спецификации, чем человеческие поделия.
958400958455
#75 #958374
>>958368
петушок-петушок
958387958415
#76 #958387
>>958374
петушок-петушок-петушок
958415
#77 #958400
>>958373
А спецификацию кто напишет?
958402958404
sage #78 #958402
>>958400
сам
#79 #958404
>>958400
Вапник. Причем еще в 90-е.
3 Кб, 418x108
#80 #958415
>>958387
>>958374
Уебывайте, школьники.
#81 #958419
>>958368
Это не лаба. Помогите, плес. Я просто другим занимаюсь по жизни, а тут такая задача возникла. Я вот думаю, может, из прикладной статистики что-то поможет? Но даже не знаю, с какого конца взяться.
958426
#82 #958426
>>958323
>>958419
покажи где умножение на 0

P(A|1) = 0.6
P(A|2) = 0

P(B|1) = 0
P(B|2) = 0.7
958430
#83 #958430
>>958426
Не, в образце для классификации будет и А, и Б встречаться, и ещё какие-то элементы (допустим: n1, n2, n3, которые с разной вероятностью есть в обоих классах). То есть там надо считать:
P(1|A,Б,n1,n2,n3);
P(2|A,Б,n1,n2,n3).
Не?
#85 #958435
>>958432
ну да, чем тебя умножение на ноль неустраивает?
там суммируется много значений и конечная вероятность не будет нулём
958519
#86 #958442
>>958353
Понятно, что могу. Но вот, если идти работать в этом направлении, что из математики полюбому нужно знать?
958449958450
#88 #958450
>>958442
И да, на вопрос, что нужно из перечисленных математической направленности книг, так ответа и нет.
958458
#89 #958455
>>958373
Ну, так, давайте запилим. Авось, прорыв будет.
#90 #958456
>>958449
Линейную алгебру? Была в универе, но напрочь забыл за отсутствием практики. Не порекомендуешь литературу/курс?
958458
#91 #958458
>>958450
эти книги только чтобы осилить мл литературу в шапке
если будешь работать по другим направлениям то надо будет учить что-0то другое

>>958456
https://medium.com/towards-data-science/linear-algebra-cheat-sheet-for-deep-learning-cd67aba4526c#.5migl6ymj
958460
#92 #958460
>>958458
Круто, спасибо.
#93 #958504
>>958495
Какой курс? Просто в гугл вбей "матрицы учебник". Из всей математики, что была у нас в вузе, это самое элементарное, думаю. Проще только арифметика, даже школьная геометрия сложнее.
958509
#94 #958509
>>958504
двачую, школьная геометрия - мощь
7 Кб, 338x54
#95 #958519
>>958435
Там в числителе произведение, а не суммирование значений. Сумма в знаменателе лишь.
958653
#96 #958611
>>958015
zharenTGSyipesANUSmaiz;2lPUNCTUMr'A"u
959902
#97 #958653
>>958519
но если P(B|1) = 0 то и P(1|B) = 0
ты распиши конкретно что ты делаешь
958657
#98 #958657
>>958653

>но если P(B|1) = 0 то и P(1|B) = 0



P(B|1) участвует в числителе и весь его перемножает на 0. Таким образом, классификатор игнорит все остальные признаки классифицируемого объекта. Меня это не устраивает.

Напоминаю, что считаю P(1|A,Б,n1,n2,n3).
958659
#99 #958659
>>958657
если Б входит в объект и Б не может входить в класс 1, то и этот объект не может входить в 1?
958665
#100 #958665
>>958659
Может. Потому что невхождение Б в 1 - не значит, что наличие Б в образце автоматом этот образец делает чужеродным для 1. Считай, что это часть формулировки задачи классификации.

То есть мне надо посчитать, насколько образец похож на 1 и на 2, несмотря на все такие вот противоречивые вхождения А и Б.
958671
#101 #958671
>>958665
возможно наивный байес не самая лучшая модель
попробуй логистическую регрессию?
958675
#102 #958675
>>958671
Вот да, я пришёл спросить, что пробовать-то теперь. Наивный байес явно не подошёл. Я пробовал вообще выкидывать элементы с нулевыми для вычисляемого класса вероятностями - получались значения вероятности >1.
Может, ты ещё бы что-то назвал, что пробовать? Чтоб два раза не бегать.
958684
#103 #958681
А, ещё. В регрессии ж вектора значений. У меня, чтоб уточнить, каждый образец будет иметь разное количество фич (где-то есть только А и n2, например). Ну и классам принадлежит разное количество возможных фич.
Например, 1 = А, n1; 2 = Б, n1, n2, n3.
958687
#104 #958684
>>958675
гауссов процесс попробуй, лол
ещё рандом форест есть и SVM - только у этих двух не будет вероятность на выходе, сразу класс выплёвывают. незнаю насколько для тебя это критично
эти 3 оче попсовые классификаторы, что-нибудь да подойдёт
#105 #958687
А я смогу своё барахло адаптировать под вектора каким-то образом? (см.>>958681) Всю дорогу отказываюсь от векторного по этой причине.
958693
#106 #958693
>>958687
фичи неизвестны или совсем отсутствуют? можешь попытаться вывести неизвестные фичи чтоб всё было одной длины
если фичи вещественны то нормализуй на [0; 1]. если дискретные то можешь использовать 1-of-К кодировку. будет длинный вектор нулей и единиц и по одному весу на каждое число
958696
612 Кб, 561x561
#107 #958696
>>958693
Совсем отсутствуют. Вместо них можно нулей напихать? Веса это вероятности же будут, я полагаю.
Пик в качестве благодарности, сотен нефти не нашлось.
#108 #958724
Буду писать диплом на тему, связанную с распознаванием образов.Анон, посоветуй чего интересного можно пораспознавать и чтобы при этом не ахуеть, ибо времени не очень много остается.
958823
#109 #958823
>>958724
Распознай капчу мейлача.
958887
sage #110 #958887
>>958823
что еще распознать? суканахуй
#111 #958902
Можно ли рационально применить вейвлет-преобразование для искусственных нейронных сетей? И если можно, то как?
958907
#112 #958907
>>958902
Можно на вход подавать не сырые данные, а обработанные. В том числе и вейвлетами. Можно это преобразование вкорячить в саму нейроночку, гугли wavelet neural network.
86 Кб, 874x415
152 Кб, 860x616
230 Кб, 1280x1280
#113 #959210
По поводу зависимых типов и Вапника. Поясню конкретнее, что я имел в виду чуть выше >>958317 в этом ИТТ тренде.
1) По Вапнику, задача обучения сводится к минимизации т.н. функционала риска, пик 1.
2) Конкретные примеры реализации этого принципа на пике 2, на место общей формулировки Q(zi, a) подставлены соответственно SSE и логарифм значения плотности распределения вероятности штоле, не суть.
3) Фишка предлагаемого метода в том, что все возможные варианты Q(zi, a) это функции, в общем случае - функционалы различной сложности. Само собой, все они сводятся к типизированной лямбде, т.к. имеют свой тип и представимы в виде конечного дерева из аппликаций, абстракций и чего там еще есть.
4) Задача, таким образом, сводится к нахождению оптимального функционала минимизации риска, что и возможно при представлении формулы 1.8 в виде спецификации для ЯП с зав.типами. Конкретно, нас интересует непустой тип с минимальными значениями R emp (a), зависимый от типа суммирования Q(zi, a) по всему датасету zi, точнее по самым разным таким датасетам.
5) Как было сказано выше, один из методов - генетическое программирование в типизированной лямбде, которое и подберет некоторое количество оптимальных вариантов функционала Q(zi, a), лучше других минимизирующего зависимый от него R emp (a).
Что скажете?
#114 #959314
>>959210
Где ты начитался этих типизированных лямбд?
959474
#115 #959322
>>959210
код?
959476
122 Кб, 1200x1013
#116 #959474
Да, небольшое добавление к >>959210 все несколько сложнее, чем я описал. Там надо отдельно подбирать генетическим программированием собственно структуру функционала минимизации риска, и отдельно - параметры функционала, минимизирующего его для конкретного датасета. Что усложняет задачу, но технически это все равно реализуемо.
>>959314
Дело не в типизированных лямбдах, а в генетическом программировании с использованием их. Обычные ЯП для такой задачи не подходят, т.к. там сложный синтаксис и практически получить осмысленный код уже при небольшом объеме программы за разумное время вычисления нереально, автор генетического программирования именно на этом и обосрался. А лямбда - то, что нужно, т.к. там полтора элемента для выражения любой сложности - аппликация с абстракцией и глубина дерева общего выражения, что элементарно и без всяких костылей кодируется в виде "хромосом" для генетического алгоритма. Тута https://eldorado.tu-dortmund.de/bitstream/2003/34162/1/Dissertation.pdf все по-хардкору изложено. Совершенно понятно, что общий смысл происходящего - "экстракция" программы из некоего большого типа, содержащего все используемые для данной задачи в типизированной лямбде типы, что-то уровня описанного Максимкой http://maxim.livejournal.com/479716.html
959496959710
#117 #959476
>>959322
До кода далеко, пока только гениальная идея - представить вапниковскую общую постановку проблемы МЛ в виде спецификации в MLTT с последующим автоматизированным нахождением лучших вариантов, удовлетворяющих условиям такой спецификации.
#118 #959496
>>959474
Не совсем дебил, просто удивительно.
Давай-ка пиздуй с этой параши, делать тебе здесь нечего - среди школодегенератов и просто дегенератов.
Удачи.
337 Кб, 1793x2700
#120 #959625
>>959592

>40 лет


>на пенсию


Слабак ваш бурят. Заде вон 96 лет, он до сих пор книги пишет.
959629959652
#121 #959629
>>959625
видать на пенсию не заработал, бедняша
кину старичку копеечку в переходе
#122 #959652
>>959625
У его жены стартап занимается машинами-самоездами, туда скорее всего.
#123 #959710
>>959474
Это звучит словно открытия древних шаманов, но хотелось бы какой-то совсем простенький пример с логическими операциями, например.

мимо
959916
#124 #959821
Пишите, есть фриланс проект по машобу. Телега @vojjj
#125 #959832
Может кто-то подсказать с чего вкатываться в Natural Language Processing? Немного умею в матан + поизучал какие-то базовые вещи из ML (Регрессии, нейроночки). Интересуют именно фундаментальные знания.
959850959904
#126 #959850
>>959832
на курсере было два хороших курса Natural language processing, но сейчас их убрали, можно поискать где-то видео, один от Columbia university, там были марковские цепи и тд, другой от стэнфорда, что там - не помню. Можно попробовать поискать, на ютубе - один из них точно есть. Из книжек часто советуют Foundations of Statistical Natural Language Processing от Manning, не читал, но содержание выглядит прилично, и Speech and Language Processing от Jurafsky - мне не очень понравилось. Из нейроночек советуют курс http://cs224d.stanford.edu/ . Недавно хайпали этот курс https://github.com/oxford-cs-deepnlp-2017/lectures, но не смотрел.
959855959973
#127 #959855
>>959850
ну и nltk-book, там по верхам проходятся многие популярные подходы
#128 #959902
>>958611
Отписал.
#130 #959916
>>959710
В диссере по ссылке полно примеров,как и в доках к соответствующему пакету для R - rgp, регрессия например. Зависимые типы отдельная тема, ес-но.
#131 #959973
>>959850
>>959904
Спасибо, сохранил ссылки.
Ещё вопрос, кстати. Как получить доступ к видео лекциям стенфорда? Я почитал у них на сайте какую-то информацию и сделал вывод, что доступ есть только у студентов стенфорда. Я не прав?
960001
#133 #960022
>>960001
Благодарю.
75 Кб, 600x526
#134 #960185
Анон, помоги. Хочу сгенерировать фильтры для СНН в виде двумерных массивов.
Мозгов не хватает как это закодить, чтоб красиво было.
Их же 15 должно быть в случае с разрешением из 4 элементов? (см. пикрелейтед)
#136 #960769
>>956903 (OP)
Ананасы, а есть какая-нибудь конфа у машоберов?
#137 #960771
>>960360
Мальчик, возвращайся со своим петухом обратно к одноклассникам.
960896
#138 #960896
>>960771
>>960360
я пощелкал мельком, на самом деле нормальный мужик, без особой философии, неплохой экскурс в историю
#139 #961027
Хочу написать распознавалку различных частей автомобиля(колёса, фары и т.д.).Умею в программирование и матан, опыта работы с OpenCV нет. Подскажи, дорогой анон, что изучать(будет особенно хорошо, если ты назовёшь конкретные источники) и насколько сложна такая задача?
961207
#140 #961207
>>961027
В 2017 эта задача выглядит как "скорми нейроночке 1000 образцов твоей хуйни, а она сама разберется".
Используй Nvidia SLESARS чтобы собрать все нужное и запустить
https://github.com/NVIDIA/DIGITS/tree/master/docs
Только вместо lenet из gettingstarted используй alexnet.
961594
#141 #961594
>>961207
Спасибо, но это неинтересно.Сделать саму задачу - не самоцель.Хочу разобраться во всём этом дерьме.
#142 #961701
>>956903 (OP)
что там за три кружочка?
961732966096
#143 #961732
964012
#144 #961925
В чем суть зеркальных нейронов? Почему еще нет математической модели оных?
30 Кб, 604x321
#145 #961958
>>959210
Привет от No Free Lunch Theorem.
962332
#146 #961972
В чем суть астральных нейронов? Почему еще нет математической модели оных?
#147 #962050
А как называется первоначальная обработка сенсорных данных?
962063
#148 #962063
>>962050
>>962050
Препроцессинг не то??
8 Кб, 184x274
186 Кб, 1920x1080
#149 #962114
Аноны, у меня большая проблема в понимании lse части алгоритма обучения классической ANFIS. Backpropagation часть я легко реализовал, а на этой сломался. Реквестирую детально разжеванное описание ANFIS, из которого легко понять, зачем это происходит, желательно с геометрическими аналогиями. И еще, поскольку это batch алгоритм, то как его применять, если на вход нейронечеткой системы управления подается временной ряд в реальном времени, и нет возможности вывести систему в оффлайн надолго и прокрутить такие затратные вычисления?
962332
1265 Кб, 800x1121
#150 #962332
>>961958

> No Free Lunch Theorem


Нечто уровня "теоремы Тарана / Пидорана" из /по. Эта твоя теорема касается алгоритмов с асимптотически близким к оптимальному решению. То, о чем говорю я, теория статистического обучения Вапника, как раз о том, как это обойти. Именно с ее помощью были построены алгоритмы, рвущие все остальные - градиентный бустинг, в т.ч. deepboost. И есть все основания считать, что это далеко не предел, сейчас уже делаются попытки построения глубоких SVM, опять же на основе вапниковской теории, в перспективе они обойдут глубокие нейросети. Там очень большой потенциал на самом деле, потому что подход к задаче МЛ правильный и обоснованный, а не как обычно "нахуярить побольше слоев)))". Фишка в том, что теория статистического обучения она не о каком-то одном подходе, а о решении задачи машинного обучения вообще, в принципе. О построении алгоритмов, эффективнее чем просто асимптотически приближающихся к оптимальному решению. И как раз это можно автоматизировать.
>>962114
То, что у тебя на 2ом пике - это нахождение наименьших квадратов фильтром Калмана. Сама идея взята из оригинальной работы Такаги и Сугено, и т.к. ANFIS это по-сути, TS с адаптивной настройкой свободных параметров, видимо и была использована Чангом без изменения. Вообще, фильтрация в т.ч. всякими хитрыми алгоритмами типа Н-2/Н-инфинити для настройки параметров нечетких моделей - тема отдельная и крайне мутная, лучше туда вообще не лезть без особой нужды, вот пример книшки в тему не для слабонервных http://gen.lib.rus.ec/book/index.php?md5=4710323AE0A71E05902C358A4EAEDF45 настроить свободные параметры нечеткой модели можно и без всей этой мути, вариантов полно вплоть до генетических алгоритмов. Я ж говорил, что ANFIS не самая удачная модель и точно не то, с чего стоит вкатываться в нейрофаззи-моделирование.
962334962337962348
#151 #962334
>>962332

>теория статистического обучения Ватника


>обучения Ватника


А еще толще можешь?
#152 #962337
>>962332

>ANFIS не самая удачная модель


Ты можешь предложить, с чего стоит вкатываться в нейрофаззи?
962382
95 Кб, 540x1129
#153 #962348
>>962332

>Эта твоя теорема касается алгоритмов с асимптотически близким к оптимальному решению.



Вообще-то она утверждает, что для любого алгоритма бинарной классификации существует такое распределение на сэмплах и раскраска, что со строго положительной вероятностью эмпирический риск больше 1/10 или что-то около того (это если не ограничивать класс гипотез). Теория же статистического обучения (PAC Learnability) есть суть поиск условий на класс гипотез, для которого эмпирический риск с большой вероятностью близко оценивает реальный риск. Отсюда - в т.ч. ключевая теорема о PAC-лёрнабилити класса с конечным VC дименшион.

А про класс гипотез я как раз у тебя ничего не заметил. И именно поиск хорошего класса гипотез с конечной размерностью (или который суть объединение таковых если добавляем регуляризацию) есть основная проблема обучения.

Алсо, на практике в нейронках на теорию Ватника всем как раз похуй. Потому что VC дименшн нейронок очень хуёво оценивается, классическое правило большого пальца о 10 сэмплах на признак тоже не очень работает и т.п.
962382
312 Кб, 2164x1531
#154 #962382
>>962337

>можешь предложить, с чего стоит вкатываться в нейрофаззи?


Коско тута не любят вплоть до смищных картиночек в каждом оп-посте, но его стандартная аддитивная модель (SAM) - общий случай нечеткой модели, к которой сводятся все конкретные. То же самое по методам настройки свободных параметров, у него разобраны случаи бэкпропагейшена как пример обучения с учителем и кластеризация как настройка свободных параметров без учителя. 2ая глава вот этой книги http://gen.lib.rus.ec/book/index.php?md5=BC1EC0F44F2E619AB46D6FD0B7088514 Очевидно, что абсолютна любая нейрофаззи-модель - это частный случай SAM с настраиваемыми параметрами. Но опять же, с кондачка в эту теорию не въедешь, нужно немало медитировать. Простые примеры нейрофаззи-моделей, как и суть происходящего, рассмотрены у Пегата, причем с картинками и на русском.
>>962348

>А про класс гипотез я как раз у тебя ничего не заметил.


Класс гипотез - это конкретная форма функционала минимизации эмпирического риска? Или что? Конкретные формулы у Вапника покажи.
962414
15 Кб, 294x392
#155 #962414
>>962382
Ну например: H = {полиномы степени < n}, H = {гиперплоскости в R^n} и т.п.

В терминологии Вапника (которая довольно корявая) - это множество функций Q, по которым минимизируется функционал эмпирического риска.

Алсо, я тут потолщу немного на тему генетической генерации алгоритма. ПРОБЛЕМА ОСТАНОВА
962445
#156 #962445
>>962414

>потолщу немного на тему генетической генерации алгоритма. ПРОБЛЕМА ОСТАНОВА


Не, не потолстишь. В MLTT/CiC все функции вычислимы, это не тьюринг-полная система. Поэтому корректность программы в любом нормальном языке с зависимыми типами означает полную корректность, там иначе оно просто чекаться не будет.
#157 #962548
Если раньше занимался дрессировкой животных, то на сколько сложно будет вкатиться в машинное обучение? Эти знания помогут?
962551
#158 #962551
>>962548
Ну, если устроишься тимлидом, то помогут.
#159 #962674
Вопросец к тем кто делает что-то из машоба, нейронок и вот этого всего профессионально, то есть за деньги, то есть в какой-нибудь норм конторе, а не только посмотрел видео 10 минутное на ютубе что такое НС.
Вот я сейчас занимаюсь изучением, пока не так далеко продвинулся - изучил линейные модели, деревья, разные регуляризации и т.д. немного в нейронки смотрю. Но есть такой момент, что мои знания математики хоть и не на нулевом уровне, вроде более менее знаю тервер, алгебру, матан и прочее, читать книжки вроде The elements of statistical learning или похожие такого уровня мне бывает достаточно тяжело и иногда просто упираюсь в то, что не знаю целого важного раздела математики достаточно хорошо.
Собственно вопрос такой - как лучше всего подходить к этому и настолько ли важно знать хорошо прям все? То есть вам нормальные книжки из шапки давались легко или тоже вызывали жопную боль достатоно часто?
962927963056964030
#160 #962927
>>962674
Что тебя мотивирует этим заниматься? Почему-то стало интересно, что вообще может мотивировать в дрочке матриц людей, особенно сидящих на дваче, лол
962953
#161 #962953
>>962927
Я не он, но отвечу.
Вышмат не знаю. Дрочкой матриц занимаюсь, потому что интересно. Такое странное ощущение возникает, что ты создаешь что-то полуживое, полуразумное. Я, конечно, в глубине понимаю, что это просто тупой перебор, аппроксимация и минимизация ошибки, но результат вдохновляет. Как много-много лет назад, когда написал первую программу на Бейсике.
962956962959
#162 #962956
>>962953
А-аа... сублимация... готовься к
964030
#163 #962959
>>962953
Ботов охуенно будет так делать для игр и не только, интересно играть с такими наверно.
962960962964
#164 #962960
>>962959
В контре можно например сделать бота что все время стреляет в голову, но тяжело с ним играть, а так чтобы с экспертов доучивались дальше, поможет плавно прокачать скилл.
#165 #962964
>>962959

>интересно играть с такими наверно


Когда знаешь, что это бот - нет.
Ведь ты будешь понимать, что он может стрелять тебе точно в голову, и реагирует гораздо быстрее тебя, но его скилл искусственно занижен, чтобы ты, убогое протеиновое существо с ограниченными возможностями, не так остро ощущал свою ущербность.
#166 #963056
>>962674

>читать книжки вроде The elements of statistical learning или похожие такого уровня мне бывает достаточно тяжело и иногда просто упираюсь в то, что не знаю целого важного раздела математики достаточно хорошо. Собственно вопрос такой - как лучше всего подходить к этому


Медитируй до просветления. Нету там никаких важных разделов математики кроме матана, теорвера, линейной алгебры (на уровня всяких хуевертий с матрицами и векторами). Просто тема для тебя новая, только и всего. Такие книшки нужно не просто на сон грядущий почитывать, а перечитывать непонятные моменты, гуглить непонятное, местами даже конспектировать, выписывать формулы и прорешивать. Так и победишь.
963060
#167 #963060
>>963056

>The elements of statistical learning


На самом деле довольно хуёвая книга. Многовато статистики, на которую всем вообще-то насрать на практике. Из-за этого часто возникает ситуация, что за деревьями не видно леса.
963080
sage #168 #963080
>>963060

> The elements of statistical learning


> хуёвая книга


> Многовато статистики


> statistical learning


> Многовато статистики

963105963153
#169 #963105
>>963080
Для machine learning все это не нужно.
963106
57 Кб, 1248x480
#170 #963106
>>963105
Теория статистического обучения - основа МЛ, болезный.
963153963175
1065 Кб, 2925x3795
#171 #963153
>>963080
>>963106
Не нужно повторять заученные мантры. ESL часто фокусируется на совершенно неважных вопросах. Например, в первой же главе дохуя болтовни про конфиденс интервалз для коэффициентов линейной регрессии. Что, много людей этим заморачиваются в практических задачах? Кажется, сам Вассерман - который "Всё о непараметрической статистике" - сказал, что Дэйта Сайнс есть суть смерть практической статистики. Потому что эта примордиальная ёботня с РАСПРЕДЕЛЕНИЕМ СТЬЮДЕНТА С 1488 СТЕПЕНЯМ СВОБОД и прочими ХИ КОКОКОКВОДРАТ ТЕСТОМ НА НЕЗАВИСИМОСТЬ реально никого не ебёт.

Те же лекции Нга, или книга Бишопа, или ещё дохуя материалов гораздо лучше написаны. А по стэйт-оф-зе-арт все равно нужно читать статьи и специализированные монографии.
963157
248 Кб, 778x960
#172 #963157
>>963153

>дохуя болтовни про конфиденс интервалз для коэффициентов линейной регрессии. Что, много людей этим заморачиваются в практических задачах?


Так тебе же суть объясняют происходящего. А ты ноешь, что "много буков, плохо сделали, тупо, вон у Ына лучше".
963166963368
60 Кб, 800x568
#173 #963166
>>963157

>Так тебе же суть объясняют происходящего. А ты ноешь, что "много буков, плохо сделали, тупо, вон у Ына лучше".


Ноуп. К теории обучения в смысле Вапника дрочево с конфиденс интервалз имеет очень слабое отношение. И, например, в доказательстве ключевых теорем ML всё это замшелое статистическое барахло не используется. А используется, например, неравенство Хёффдинга.

Такие дела. Читать эту муть (ESL) совершенно не рекомендую, уж если интересует теории Вапника - то и читать лучше оригинальную монографию Вапника. Чурка в видеолекциях тоже приемлемо объясняет.
161 Кб, 500x331
#174 #963171
Роджер Шэнк, один из основоположников идеи мыслящих компьютеров, о том почему нас ждёт застой в области ИИ. Я прямо согласен почти с каждым словом. Вообще меня прямо раздражает как последнее время люди все чаще применяют термин Искусственный Интеллект к штукам, не обладающими интеллектом. И да, виноваты в этом гугл и IBM, которые постоянно муссируют AI в смысле коммуникациях, остальным приходится принять правила игры.

За последние 15 лет мы ни на шаг не приблизились к настоящему интеллекту. Но сильно рванули вперёд в машинлернинге и имитации интеллекта. http://www.rogerschank.com/fraudulent-claims-made-by-IBM-about-Watson-and-AI
963172963174
#175 #963172
>>963171
Шенк очень хорош тем, что изучает не только обучение компьютеров, но и обучение людей. Он же и психолог ещё.
#176 #963174
>>963171
а без роджера тебе нихуя не понятно?
#177 #963175
>>963106
Неправда. Вот тут много слов сказано http://stats.stackexchange.com/questions/6/the-two-cultures-statistics-vs-machine-learning

The biggest difference I see between the communities is that statistics emphasizes inference, whereas machine learning emphasized prediction. When you do statistics, you want to infer the process by which data you have was generated. When you do machine learning, you want to know how you can predict what future data will look like w.r.t. some variable.

Of course the two overlap. Knowing how the data was generated will give you some hints about what a good predictor would be, for example. However, one example of the difference is that machine learning has dealt with the p >> n problem (more features/variables than training samples) since its infancy, whereas statistics is just starting to get serious about this problem. Why? Because you can still make good predictions when p >> n, but you can't make very good inferences about what variables are actually important and why.

ML подход в конечном счете оказался более успешным, потому что unsupervized learning (и сильный ИИ в конечном счете) возможен только в формате простых предсказаний.
171 Кб, 900x960
#178 #963368
>>963157
Подкорректировал немного твою картинку в соответствие с современными реалиями. Ты же не против?
963432
#179 #963432
>>963368
Не совсем так. Уже сейчас шломо шекельберг начал подозревать, что на одних нейроночках далеко не уедешь. Поэтому соавторша вапника уже возглавляет исследовательский отдел гугла и именно там интересуются последними достижкниями ваппниковской теории, гугли deepboost. Нейроночки уже приблизились к пределу своих возможностей, дальше просто никаких кластеров не хватит для тысяч слоев этого хлебушка. Поэтому будущее за глубоким бустингом и стыкованными svm.
955 Кб, 500x281
#180 #963564
Анон, помоги дополнить список непонятных по тематике простому человеку слов.
Я вот начал: Когнитрон, Перцептрон, Нейросеть, Нейрон, Матрица, Синапс, Дендрит, Пулинг, Свертка, Керас, Теано, Тензор, LeNet
#181 #963594
>>963564
Крокодил, Залупа, Сыр.
Все твои слова элементарно гуглятся же.
sage #182 #963596
>>963564
синус косинус экспонента производная
964015
#183 #963690
https://blog.openai.com/evolution-strategies/ Поясните за это. Это смесь вероятностного программирования и генетического программирования?
963838964414
#184 #963838
>>963690
Вроде просто распределенные генетические алгоритмы, пейпер с телефона не открывается, завтра посмотрю.
#185 #963998
>>963564
Матрица это фильм такой, ты из деревни штоле?
964011
#186 #964011
>>963998
но там нескоько частей
#187 #964012
>>961732
муахахаха, дада матджава против питона, которая без библиотек, без возможностей, без сообщества, без единого адекватного проекта; какой дегенерат картинку нарисовал?

Мне вот вообще интересно, как можно заработать в данной сфере простому человеку и как можно конкурировать с компаниями одному простому почти нищему человеку? Найс идиотизм, что за школьнек-мечтатель фуфлогон?

Тебе сколько там лет? Ещё 20 нет, тогда ты ещё неадекватный человек, не создавай темы до 25, не отнимай время.
964094964123
#188 #964014
>>963564
Всё это элементарная хуйня, которая обозначена незнакомыми словами только и всего.

Так всегда и везде, в любой науке.
Поверь мне, в этом мире всё просто. Единственная сложность - запомнить большой объём инфомрации.
#189 #964015
>>963596
Производная - это там где секущая никогда не станет касательной и неопределённость 0/0 может не раскрыться?
И ещё которая даёт неправильную мгновенную скорость в половине случаев?
#190 #964030
>>962956
К чему?
не >>962674
#191 #964094
>>964012
Ты как будто на двачах впервые. Алсо, Джулия - до сих пор известный в академических средах язык. Не надо гнать.
#192 #964123
>>964012
Очевидно, что создав ИИ и задать ему целевую функцию нужную.
#193 #964150
>>957720
Что именно не получается? Напиши, может я что подскажу.
#194 #964209
Поясните за использование голографии в этом деле.
#195 #964414
>>963690
Короче, там очередное подтверждения моего тезиса, что сверточный нейроночки - далеко не единственный метод МЛ и в них все не уперлось. Суть там в том, что для настройки оптимального поведения в марковском процессе принятия решений (MDP) используют CMA-ES, это не совсем генетические алгоритмы. Авторы ссылаются на эту работу http://kyb.mpg.de/fileadmin/user_upload/files/publications/attachments/Neural-Networks-2010-Sehnke_[0].pdf Такими темпами скоро распиаренные на ровном месте авторы типа Ilya Sutskever откроют для себя меметические алгоритмы, которые поинтереснее реализаций CMA-ES десятилетней давности. Эти алгоритмы интересны тем, что неплохо аппроксимируют даже тысячемерные функции и не требуют для своей работы многотысячепроцессорных гугловских кластеров.
964486
#196 #964486
>>964414
У тебя очень интересное мнение. Можешь еще что-то сказать? Что считаешь перспективным в этой области?
964572964719
#197 #964572
>>964486

Считаю, что все. что вышло после ЛеНета (алекснет, гугленет и тд) - говен, который по сути клон нейросети Яна Ле Куна.
И помимо сверточных сетей, существует другое множество различных архитектур.
Да и вообще, что можно со свертчной сетью делать - только матрицы препроцессить. Это ведь не единственная проблема человечества.
965024
#198 #964719
>>964486
Из-за хайпа вокруг сверточных сетей все как-то забыли, что МЛ гораздо более широкая тема. Многие области которой не развиваются из-за того, что не в моде. В частности, хуй капитально забит на fuzzy, intuitionistic fuzzy, rough, soft, neutrosophic - множества и их гибриды. Настолько капитально, что по большинству из них не существует ни одного алгоритма вывода в условиях неточности. Вообще, почему-то принято игнорировать, что вероятность - не единственная неточность из всех возможных. Дажк вапниковская теория статистического обучения касается только вероятности.
#199 #965024
>>964572
Ленет - неюзабельное говнецо, автор которого за двадцать с хуем лет не догадался использовать нелинейности, не вырождающие градиенты. Я молчу об отказе от pooling слоев и residual сетях - это для этого пердуна вообще рокетсаенс, хотя казалось бы, за 20-то лет можно было хотя бы попытаться. Основная проблема как раз в том, что сообщество никогда не верило в нейронки (потому что бумаги по поводу них много не изведешь) и всегда страдало хуйней типа перечисленной тобой. И огромной ошибкой будет опять начинать это бумагомарание. Фуззи-хуюззи, 30 лет не могли решить задачу отличить кошку от собаки, но зато грантов попилено я ебал.
"неплохо аппроксимируют даже тысячемерные функции" - ебанутый, тысяча измерений - это хуйня, у AlexNet 2562563-мерная функция и она не просто аппроксимирует training set - с этим вообще нет проблем, она предсказывает выход имея сраные 1000 образцов.
965237965276966771
#200 #965237
>>965024
Кошку от собаки еще ART сети в 80х отличали, только ты про них даже не слышал, свидетель алекснета. Я даже не буду гоыорить, чтоо распознавание котов не единственная задача мл, для школоты это слишком сложное заявление.
965276
#201 #965276
>>965237

>Кошку от собаки еще ART сети в 80х отличали


ты пиздишь хуиту.
>>965024
а ты прав. следующий хайп будет по вероятностным программам, уже виден кончик гигантского хуя это викинга. Но нужен датасет, который был бы непосилен обычным нейронкам.
966234
#202 #965661
Аноны, подскажите что делать - решается задача бинарной классификации, имеется выборка ~ 2к объектов и ~100 признаков, а классы очень сильно различаются по объему (примерно 10:1). Сначала пробовал логистическую модель c балансировкой классов, но там или выдавало константный классификатор, который тупо занулял (тогда была метрика accuracy), или ~0.25 на f1-score.
В общем вопрос такой у меня - какой моделью лучше пользоваться для такой бинарной классификации и какую метрику юзать?
965834
#203 #965834
>>965661
SVM с ренормализацией коеффициентов C
http://www.cs.ox.ac.uk/people/vasile.palade/papers/Class-Imbalance-SVM.pdf
965978
#204 #965938
>>956903 (OP)
Хочу читать бумагу. Где заказать бишопа подешевле?
966050
#205 #965978
>>965834
Спасибо, попробую
90 Кб, 720x567
#206 #966049
А правда, что backpropagation по-русски будет ВЗАДПРОДВИГАНИЕ?

ВЗАДПРОДВИГАНИЕ
ВЗАДПРОДВИГАНИЕ
ВЗАДПРОДВИГАНИЕ
966050
1143 Кб, 2592x1944
#207 #966050
>>965938
Нигде, наверное. Слишком хайпнутая книженция. На ебеях от 2,5к рублей самые дешевые. А вот Вапника я у индусов покупал, вместе с доставкой вышло 900р. с чем-то.
>>966049
Если русский не думает о хуях, значит думает о жопе.
966067966090
sage #208 #966067
>>966050
двачую
сам купил вапника у пенсионера в проходе метро за 145 р.
в сортире поставил, ни о чём не жалею
#209 #966090
>>966050
С амазона на 4к выйдет. Слишком дорогое удобство.
#210 #966092
>>956903 (OP)
Что за три кружка? Язык какой-то?
966096966107
#211 #966096
7 Кб, 88x88
#212 #966107
>>966092
да, охуенный очень
лучший яп для мл/статистики
https://julialang.org/
966150966155
#213 #966150
>>966107

>лучший яп для мл/статистики


Ты с R путаешь.
966155966157
#214 #966155
>>966107
залупа которая тичот и работает медленее чем гау
>>966150
просто говно с пакетами. что-то уровня офиса - говно говняное, а все юзаают
966157966158
#215 #966157
>>966150
р-макака
>>966155
дерзкий-школьник-макака
966171
#216 #966158
>>966155

>говно говняное, а все юзаают


Ага, все идут не в ногу, один школьник с мейлру в ногу. Все пидорасы, школьник с мейлру Дартаньян. Я тебя понял. Открою секрет - если лично тебе какая-то хуитка без задач понравилась, это не повод считать ее лучше нормальных инструментов.
966171
#217 #966171
>>966157
дерзкий пиздолиз-фанат юленьки. а юленька течёт как шлюшка
>>966158

>ко-ко-пакеты


как же макаку порвало, все на мейлаче сидим, а эту пакетную шмаль порвало. как раз таки р - говнище без задач, которое тормозит как твоя мать, которая 9 месяцев думала делать ли ей аборт
sage #218 #966189
>>956903 (OP)
Имеет ли смысл учить алгоритмы МО и имплементировать их самостоятельно?
966204966219
#219 #966204
>>966189
Их не учить надо, а понимать. Толку от вызубренной линейной регрессии не будет, а вот если сам сделаешь, сложные места найдёшь, то толку будет в разы больше.
#220 #966219
>>966189
Бамп вопросу
Вот появилась недавно мысль, написал пару простых алгоритмов, ничего не получил нового в плане понимания. Что-то новое, чтоб работало лучше других не напишу - там толпы математиков-погромистов писали годами против меня - студента.
#221 #966234
>>965276
А как там диффернцируемое программирование?
966466
#222 #966458
>>956903 (OP)
поясните за idris. Где он вообще будет использоваться, будет ли вообще? Есть какой-нибудь реальный плюс использования такого, или это просто средство для становления псевдоинтеллектуалом 2 уровня?
966463966643
#223 #966463
>>966458
Если ты не знаешь, что такое dependent types, то тебе он не нужен.
#224 #966466
>>966234
дифференцируемое программирование это имхо и есть НН. Посмотри на модели, там уже машины тьюринга, всякие модели с памятью и все такое. Но фишка в том, что чем сложнее модель, тем фиговее ее тренировать градиентом. А у вероятностных моделей в рукаве еще и монте-карло есть, когда градиент не работает.
966804967072
24 Кб, 329x400
#225 #966643
>>966458
Все, что можно пояснить за идрис - это ЯП с зависимыми типами, причем не сказать чтобы лучший. Пояснять надо за зависимые типы, а точнее за MLTT - конструктивную теорию типов за авторством пикрелейтед.
966801966804
#226 #966771
>>965024

> у AlexNet 2562563-мерная функция и она не просто аппроксимирует training set - с этим вообще нет проблем, она предсказывает выход имея сраные 1000 образцов.


Пруфы?..
#227 #966801
>>966643
он алсо топит за примитивизм и национализм
https://www.youtube.com/watch?v=LxAK3fyONsI
966804966812966832
#228 #966804
>>966466
А что вообще можешь сказать об этом списке: https://www.quora.com/What-are-the-likely-AI-advancements-in-the-next-5-to-10-years/answer/Yann-LeCun ?
>>966643
>>966801
Я думал Мартин-Лёф это два человека. А тут один.

Ну, поясни, пожалуйста, тогда за зависимые типы (на простеньком примере типа палиндрома или чего-то такого) и mltt.

мимо
966832967112
#229 #966812
>>966801
Долбаёб варга закинул
2433 Кб, Webm
#230 #966832
>>966801
Варг причем вообще?
>>966804

>поясни, пожалуйста, тогда за зависимые типы (на простеньком примере типа палиндрома или чего-то такого) и mltt.


Это сложная тема, в 3х словах не пояснишь. Так-то зависимые типы даже на джаве делают http://beust.com/weblog/2011/08/18/a-gentle-introduction-to-dependent-types/ да и MLTT на одном листе можно уместить https://en.wikipedia.org/wiki/Intuitionistic_type_theory, но чтобы понять что вообще происходит, как минимум первые глав 7 этого http://www.cse.chalmers.se/research/group/logic/book/book.pdf нужно осилить.
#231 #967072
>>966466
Сложность вычисления градиента растет примерно как o(n), а сложность монте-карло примерно как o(exp(n)). Поэтому не взлетит. Ровно как не взлетит идея с генетическим программированием - там точно такой же комбинаторный взрыв.
#232 #967112
>>966804

>А что вообще можешь сказать об этом списке


почти полный список, но стоит учитывать что через 10 лет будут доступны большие квантовые компьютера с 100-200 кубитами и методы обучения скорее всего поменяются на статистические. В других списках ко всему прочему есть еще объединение нс с баесовскими методами, чтобы вычислять интервал конфиденциальности и оценивать распределение предсказаний. + в других списках есть еще построение теорий нейронных сетей.
967115
#233 #967115
>>967112

>интервал конфиденциальности


Это называется доверительный интервал, чурка. И нет, не взлетит, потому что нахуй не нужно, как все то, на что дрочат статистики.
967116
#234 #967116
>>967115
это тебе лично не нужно. но ты явно не в курсе про европейские регуляции на алгоритмы которые используются в области здравохранения.
#235 #967154
>>958353
Так ты в любом случае не будешь двигать, азаза
74 Кб, 640x640
#236 #967247
Благородные господа!

Был отправлен из треда про Big Data к вам. Поясните, пожалуйста, за термины:
1) Big Data
2) Data Analysis
3) Data Mining

Учусь, хочу вкатится туда, где будет много математики. Плачу негритянками.
967253967255967266
#237 #967253
>>967247

>1) Big Data


Большие объемы информации.
Манипуляция ими.

>2) Data Analysis


Анализ данных. Тебе гугл транслейта не хватает?

>3) Data Mining


Такой анализ данных, при котором в данных ищут что-то интересное.
#238 #967255
>>967247

> где будет много математики


в математике довольно много математики, попробуй вкатиться в математику. нахуй остальное там маловато математики
967263
28 Кб, 467x700
#239 #967258
>>967253
Я дружу с английским и не только. Поясни, что такое 2?
#240 #967263
>>967255
Я образно - ''Типанебыдла''
967264
#242 #967266
>>967247
>>967253
По поводу бигдаты. Обычно школьники кукарекают что-то уровня "меньше экзабайта не бигдата" и т.д. На самом деле бигдата - это все, что нельзя просто загрузить в оперативу из-за размера. Именно на этом месте начинаются изъебства, причем если у тебя скажем 8 гиг оперативы, методы бигдаты для тебя начнутся гигабайт с 5 в лучшем случае. И они ничем не будут отличаться от работы с терабайтным датасетом.
967268967676
#243 #967268
>>967266
>>967253
>>967264
Где в Москве\России работают дата майнеры? Какую, к примеру, работу выполняют?
967279968129
#244 #967279
>>967268
Яндекс, мейл, сбертех, крупные опсосы, всякие компании с биоинформатикой связанные шапку читать надо. Что делают можно в интернете найти
967301968121
344 Кб, 2000x2483
#245 #967300
>>967264
Спасибо
#246 #967301
>>967279
Извиняюсь, шапку прочитал невнимательно. Спасиб.
#247 #967346
>>967253

>Такой анализ данных, при котором в данных ищут что-то интересное.


Не "что-то интересное", а знания, сиречь скрытые закономерности в этих данных.

Дата майнинг и датаанализ не так-то просто различить, тут нужен не гуглтранслейт, а просто гугл.
968129
#248 #967350
Ананасы, посоветуйте статей про выделение и отслеживание объектов (трекинг) на видео и распознавание эмоций с помощью нейронок. Алсо, хотелось бы почитать сравнение работы нейронок и обычных методов компьютерного зрения.
967356969024
#249 #967356
>>967350
Поздно ты курсач начинаешь
967362
#250 #967362
>>967356
Мимо, курсач через год ещё
#251 #967675
Может ли компилятор какого-то там Haskell'а или еще чего-то такого обычного генерировать код сразу в виде нейросети?
967678
#252 #967676
>>967266
Если пять гигабайт то лучше накатать bash-скрипт с нужными инструментами (типа grep, awk и прочая) и чуток подождать, а не поднимать hadoop.
967678
#253 #967678
>>967675
Theano и tensorflow именно этим и занимаются, ты описываешь сетку в виде некоего графа средствами языка, далее этот граф оптимизируется и генерится уже быстрый код. Не хаскель, потому что хаскель нахуй никому не нужен, кроме распильных контор типа британских банков.

>>967676
Можно просто делать свопфайл на своем ссд.
sage #254 #967786
>>956903 (OP)
Кто-нибудь знаком с pegasos? Там формула через кернел заставляет меня хранить весь датасет.

Потому что весы посчитать можно только через ФИ. А вот при умножении весов на входящий вектор - получается кернел. А для высчитывания (x,w) приходится поднимать весь обучающий датасет.
Какие есть способы не таскать его за собой? Есть же там какой-то online learning.
968123968220
17 Кб, 760x430
#255 #968121
>>967279
Уважаемый, поясни, будь добр.

Я уже знаю, что анализ даты это только часть работы с датой. Хотел бы вкатить хоть куда на работу, но не знаю где с ней работают и что нужно знать для такой работы. На самую простую, для начала, работу с датой. Конечная цель - майнить.
968167968216
#256 #968123
>>967786
ПЕГАСОС)))
968221
74 Кб, 600x411
#257 #968129
>>967346

>Не "что-то интересное", а знания, сиречь скрытые закономерности в этих данных.


Нет, не знания ниразу. Наркоман.
Ищут ткнз скрытые переменные.

>Поясни, что такое 2?


Да все что угодно может там быть.
Это общие слова.

>>967268

>Где в Москве\России работают дата майнеры?


Финансы медицина крупный бизнес.

>Какую, к примеру, работу выполняют?


Пишут мартышкодерьмокод для анализа биржевых\медицинских\корпоративных данных.
968167968172968278
#258 #968167
>>968129
Ответь, будь добр, на это >>968121
Чем больше деталей добавишь, тем лучше для меня
#259 #968172
>>968129

>мартышкодерьмокод


Всегда думал, что там нельзя быть мартышкой. С чем ты сравниваешь?
968207
#260 #968207
>>968172

>Всегда думал, что там нельзя быть мартышкой. С чем ты сравниваешь?


Все IT Это на 99% ctrl+c ctrl+v.

Есть небольшая прослойка высококлассных специалистов, которые занимаются, скажем так, наукой, и работают в ткнз R&D центрах.

Обычно чтобы получить подобную работу требуется ученая степень.

И раз ты задаешь подобные вопросы на харкаче, это скорее всего не для тебя.

В датамайнинг и прочий датааналлизис, тебя без профильного ВО то-же не возьмут.

Так что иди в университет для начала, на соответствующую специальность.
968278968296
#261 #968216
>>968121
Статистика, на основе кучи всякого говна выбранного типа с гугл аналитикс или еще откуда, и делать из них таблички в икселе, находить зависимости, закономерности. Находишь зависимость, типа школота смотрит чаще на сайте айфоны, а нешколота смотрит самсунги, рисуешь красивый график показываешь начальству, и говоришь как на основе этих данных можно на сайте товары разместить и кому какую рекламу показывать. Хуета короче. Распознавание картинок это тоже статистика только в виде входящих данных - массив пикселей.
#262 #968220
>>967786
Primal Estimated sub-GrAdient SOlver for SVM есть жи
968221968226
#263 #968221
#264 #968226
>>968220
Ну и разные численные методы для статистических параметрических моделей: вектор-машины, перцептроны, PCA для распознавания еблищ и прочая хуета.
968262
#265 #968262
>>968226
Мы о чем, бро?
#266 #968278
>>968129

>скрытые переменные


Ну не только же их.

>>968207

>И раз ты задаешь подобные вопросы на харкаче, это скорее всего не для тебя.


Стереотипы-стереотипчики.
968281968282
#267 #968281
>>968278

>Ну не только же их.


Ну там еще выбросы можно детектить.
Но лучше детектить выбросы когда у тебя есть скрытые переменные.
Короче извлекать любую информацию которая может быть ценной.
969030
#268 #968282
>>968278

>Стереотипы-стереотипчики.


Стереотипы потому и существуют, что имеют объективную основу в объективной реальности.
969030
#269 #968296
>>968207

>И раз ты задаешь подобные вопросы на харкаче, это скорее всего не для тебя.



>В датамайнинг и прочий датааналлизис, тебя без профильного ВО то-же не возьмут.



Пиздец. Но я же у мамы молодец, лол. Расскажи, будь добр, подробнее. Профильное это ШАД?
968302968369
#270 #968302
>>968296
Это курсы повышения квалификации
968303968382
#271 #968303
>>968302
Вышка - это бакалавриат, как минимум по математике/computer science
968369968382
#272 #968369
>>968296

>ШАД?


What?

>Но я же у мамы молодец, лол. Расскажи, будь добр, подробнее. Профильное это


Это любой университет со сколь нибудь вменяемым уровнем аккредитации.
This - >
>>968303

>бакалавриат, как минимум по математике/computer science


Но вообще, все хотят магистров.
А если R&D то докторов, или хоть аспирантов.

Идешь в МГУ например, и берешь полных список всех направление по computer science, выбираешь то, что ближе всего к интересующей тебя теме.

Но вообще, если уже выкладываешься в подобное, то имеет смысл сделать академическую карьеру, и уехать в германии или швеции на этом поприще.
968382968383
#273 #968382
>>968369
>>968303
>>968302
Теперь я окончательно охуел.
То есть или я заканчивю ВМК МГУ \ ВШЭ по компьютерным наукам, или шансов нет?

>>ШАД?


>What?


Школа Анализа Данных при Яндексе. Даже это не избавит от академических мук?
968389
#274 #968383
>>968369

>Но вообще, все хотят магистров.


Даже дерьмокодером нынче неберут без магистра.
Даже уборщицей.

Но есть лазейка в принципе, если у тебя есть опыт, и реальные прожэкты.
#275 #968389
>>968382

>Школа Анализа Данных при Яндексе.


Если она дает трудоустройство в яндексе, то на здоровье, если это то, что тебе нужно.

>Даже это не избавит от академических мук?


Если обучение для тебя мука, то это все не твое в принципе.

Я вообще сколько тебе там лет, но я вот мечтаю в универе всю жизнь учится.
Интересно, друзья гулянки любовь, молоденькие студентки.

Нет лучшей в жизни поры.

Еслиб еще молодость вернуть.

А там еще есть всякие кружки философские, а еще путевки всякие от государства. Кружки хорового пения.
Эх, Боже, какие же ламповые воспоминания.

Дружество и кипящее вино разлито по бокалам.

А после,
У всех уже своя дорога,
И некоторых людей так никогда до самого ты гроба
Уже не встретишь.
Будут только, воспоминания томить.

Короче пиздуй в универ и наслаждайся юностью.
#275 #968389
>>968382

>Школа Анализа Данных при Яндексе.


Если она дает трудоустройство в яндексе, то на здоровье, если это то, что тебе нужно.

>Даже это не избавит от академических мук?


Если обучение для тебя мука, то это все не твое в принципе.

Я вообще сколько тебе там лет, но я вот мечтаю в универе всю жизнь учится.
Интересно, друзья гулянки любовь, молоденькие студентки.

Нет лучшей в жизни поры.

Еслиб еще молодость вернуть.

А там еще есть всякие кружки философские, а еще путевки всякие от государства. Кружки хорового пения.
Эх, Боже, какие же ламповые воспоминания.

Дружество и кипящее вино разлито по бокалам.

А после,
У всех уже своя дорога,
И некоторых людей так никогда до самого ты гроба
Уже не встретишь.
Будут только, воспоминания томить.

Короче пиздуй в универ и наслаждайся юностью.
968405973269973350
#276 #968405
>>968389

> друзья гулянки


Если ты в шараге им. Сутра Опохмелидзе, то да. Если ты не в шараге, то тоже да, только ничего полезного для себя из такой "учёбы" не извлечешь. Т.е. либо ты ебашишь, сократив "друзьягулянки" до охуенного минимума, либо ты очередной хуесос, который не по специальности пойдёт УНИВЕР НИЧЕГО НЕ ДАЛ, виня в этом всех, кроме себя
968575968589
#277 #968575
>>968405
Глупое необоснованное мнение.
Всего должно быть в меру.
Что там в универе "ебашить" нужно, вообще непонятно.
Учись в свое удовольствие.
А друзья в универе, это основа всех твоих связей по жизни, которые дают социальные лифты.
968581
#278 #968581
>>968575
Глупое необоснованное мнение.
Хочешь нормальных результатов в чём-то - никакого "всё в меру" не должно быть.
"Ебашить" в смысле постоянно заниматься, по возможности изучая что-то интересное лично тебе сверх программы.
Учился в своё удовольствие, ловил ни с чем не сравнимый кайф от учёбы.
А друзья и знакомые из универа не для каждого основа связей по жизни, мне больше помогли связи с друзьями друзей, которых я ещё со школы знал.
знакомая с параллельной группы, кстати, вообще на заправке, НА ЗАПРАВКЕ, блджад, с мат. образованием вуза дс2, работает, и таких примеров просто дохуя, зато в общажке весело бухала чуть ли не каждую неделю, сдавая экзамены тупой зубрёжкой, благо ещё преподы не очень жётские были
968582968804
73 Кб, 800x461
#279 #968582
>>968581

>Глупое необоснованное мнение.


Оукей...

>Хочешь нормальных результатов в чём-то - никакого "всё в меру" не должно быть.


Ох, ну как скажешь.

>знакомая с параллельной группы, кстати, вообще на заправке, НА ЗАПРАВКЕ, блджад, с мат. образованием вуза дс2


Такое повсюду в РФ, ценность ВО почти нулевая. И че?
Все зависит от тебя.
Кто-то уехал в Германию и стал там руководить лабораторией, а кто-то стал уборщицей, хотя окончил вуз с красным дипломом.
Все дело в том, что ты для себя извлекаешь из вуза.

>зато в общажке весело бухала чуть ли не каждую неделю, сдавая экзамены тупой зубрёжкой, благо ещё преподы не очень жётские были


И че?
968587
#280 #968587
>>968582
Да ничё, забей, какой-то хуйнёй занимаемся в треде про машоб
#281 #968589
>>968405
задрачивал в университете, но он все равно ничего не дал
#282 #968729
Школяры, уходите со своими шарагопроблемами, тут тред про МЛ.
#283 #968804
>>968581

>Хочешь нормальных результатов в чём-то - никакого "всё в меру" не должно быть.


Должно. В вузе примерно 70% знаний не нужно, можно на них забить, и распределить время как 35% на дроч в свое удовольствие, 35% на пьянки-гулянки, чтобы не выгореть нахуй.
#284 #969024
>>967350
бамп реквесту
#285 #969030
>>968282
Реальность на таком уровне переменчива.
>>968281

>Ну там еще


Да читани ты сам, что такое датамайнинг в целом. Ты рассказываешь про то, в чём шаришь сам - это хорошо, но это не исчерпывающий ответ, неточный.
969037969047
#286 #969037
>>969030

>Да читани ты сам, что такое датамайнинг в целом. Ты рассказываешь про то, в чём шаришь сам - это хорошо, но это не исчерпывающий ответ, неточный.


Ну так точных исчерпывающих ответов и не бывает (кроме школьных уроков математики).
Потому всякий статистический анализ, и дата майнинг, и существуют.
#287 #969047
>>969030

>Реальность на таком уровне переменчива.



Помню замечательную картинку-комикс, к статье о, по моему "достаточность доказательств".
В старом журнале химия и жизнь, вроде.

Там были две крысы.
Когда горит красная лампа их бьет током у кормушки, когда зеленая - можно есть.

Первый раз ударило током.
крыса 1 - "ебана когда горит красный бьет током!"
крыса 2 - "недостаточно фактов чтобы утверждать это, быть может сие было случайным"

Второй раз загорается красная лампа.
крыса 1 отпрыгивает в ужасе.
крысу 2 ебошит током. Крыса номер 2 говорит полуживая - "все еще мы не можем делать достаточно обоснованных выводов, быть может люди хотят обмануть нас, а быть может что-то совсем другое влияет на удар током"

Третий раз загорается красная лампа.
краса 1 отпрыгивает.
крыса 2 жарится. Дымится и бьется в конвульсиях, с трудом выдавливает из себя - "это не может считаться достаточным доказательством так как..." и в таком духе.

Надо бы ее найти...

А так да, реальность переменчива.
969197
#288 #969116
Поясните за модель AIXI и ее аппроксимацию.
#289 #969197
>>969047
Хотел начать дообъяснять и спорить, потом понял, что всё равно по жизни крыса 2, чего уж там.
#290 #969723
https://github.com/mikeizbicki/HLearn

Что скажите об этой библиотеке машинного обучения? И если взять концептуально, то зачем там гомоморфизмы?
969775
17 Кб, 410x387
#291 #969775
Ну вот, а я же говорил, что нейроночка это зависимый тип. К этому все и идет, вот >>969723 библиотека для МЛ на хачкиле, все этапы работы нейросети представлены функторами да мандадками. Скоро до кого-нибудь дойдет, что в нейросети вообще нет ничего кроме стрелок и котягорий. Или лямбда-термов, кому как нравится. И не только все нейросети ,но и все алгоритмы в МЛ проще, лучше и удобнее рассматривать с позиции типизированной лямбды, как я и предлагал >>959210 помимо прочего, такой взгляд на проблему предполагает и автоматизированное решение задачи построения алгоритмов МЛ генетическим программированием на типизированной лямбде.
969843
117 Кб, 487x487
#292 #969843
>>969775

>Скоро до кого-нибудь дойдет, что в нейросети вообще нет ничего кроме стрелок и котягорий. Или лямбда-термов, кому как нравится



В нейросети нет ничего кроме матриц.
Наркоманы злоебучие.
971121
91 Кб, 1280x720
#293 #969988
Меня тут агитируют перекатываться из веба в машоб, даже курсы дали бесплатные от яндекса.

Я конечно трезво понимаю, что из веба нужно выкатываться и как можно скорее, потому что это въёбывание, тупое въёбывание, где конкуренция растёт с каждым годом, а вкатывальщиков всё больше и больше.

Вокруг машоба я не вижу хайпа, хайп надуман, курсы потребляет очень мало человек, реально учиться и вкатывается 3.5 человека.

Перспективно, но для тех, кто сейчас поступает в универ и будет искать работу через 4-6 лет.
А вот мне щас, что делать? Отслушаю я месяц курсов, эт ос учётом того ,чт оу меня есть хорошая математическая база, а дальше куда?
Живу в Воронеже, вакансий по машобу нет, какие-то свои проекты в одичноку я не потяну, только переезд в мск.
В мск требуются специ за 300к, без опыта или с малым опытом есть, но всё очень мутно.

Что думатете по этому поводу, что мне делать?
Жалко потраченного времени на веб, но уходить рано или поздно придётся, ибо отрасль умирает, к тому же я работаю на фрилансе у меня не будет пенсии и других соц гарантий и по своему здоровью я вижу, что в 40 лет уже не смогу работать программистом ,а в машобчеке можно и карьеру по административной лестнице сделать.
969990970014
#294 #969990
>>969988
300 к? без опыта? дурачок что ли? Я видел вакансии около 80-100 к на дата саентистов, но там я бы не сказал что без опыта.
969993
#295 #969993
>>969990
Я хоть писать не умею, но ты вообще, по всей видимости не умеешь даже читать и видеть элементарную логику.
Внимательнее перечитай пост.
969995
#296 #969995
>>969993
а ты тяночка?
969996
#297 #969996
>>969995
В душе да.
969997
#298 #969997
>>969996
тогда только фронтенд
969998
#299 #969998
>>969997
Не путай пидорство с девочкой внутри.
лучше расскажите истории трудоустройства для мотивации, поделитесь опытом.
Или тут одна студентота?
970006
#300 #970004
Чтобы где-то работать по этой специализации надо иметь небось доктора наук (или там Ph.D или что там)?
970015
#301 #970006
>>969998
В смысле блять? Ты просто идешь в контору на собеседование. Тебя не берут. Ты говоришь ну и хуй с вами дебилы набирайте дальше макак из ПОХАПЭ треда. Пиздуешь в следующую контору.
#302 #970014
>>969988
Нет пути, если нет серьезной подготовки по математике и статистике. Короче хуй вкатишься если ты собачий хуй.
970019
#303 #970015
>>970004
Несёшь хуиту, в вакансиях нет ничего про образование, хватит бакалвриата/магистратуры
Чтобы работать нужно иметь опыт работы в машоб, где его взять, если его нет?

Самый реальный вариант на мой взгляд - вакансии с опытом 1-3, где требуется какой-то смежный опыт, например бигдата, в бигдате можно получить опыт без опыта, просто выучить основы java/python и чуть чуть математики с первого курса любого технического факультета.
Т.е. те, кто имеет опыт в смежных областях - могут вкатиться в машоб и т.п., а просто с улицы или из веба, как в моей ситуации, - хуй.

Пройдёт несколько лет, будут требоваться джуны, но сейчас нет.
Я хочу вкатываться сейчас, а не через несколько лет.
970018970620
#304 #970018
>>970015
Ну так вкатывайся, кто мешает? Проблема в том, что сайт нужен каждой заборостроительной конторе, а сеточки - чуть более чем никому.
970027
#305 #970019
>>970014

>чт оу меня есть хорошая математическая база


>нет серьезной подготовки по математике и статистике


Ещё раз, прошу тебя, научись читать.

И математика, по-моему опыту, это гораздо более понятная, приятная и простая сфера, нежели, чем веб.
Потому что математика - это в первую очередь инструмент, который придумал человек для работы, для удобной работы под конкретные задачи.
А веб - это организм, выросший на деструктивной деятельности человека, при этом часто лишённый логики.
970049
#306 #970027
>>970018

>Ну так вкатывайся, кто мешает?


Страх проиграть.
Жалость по тому, что было потрачено время на вкат в веб.
Отсутствие вакансий без опыта.
Я не могу бросить работу и полностью погрузиться в учёбу, параллельно с работой учиться тяжело.

>каждой заборостроительной конторе


Миф, опять же по-моему опыту, большая часть мелкого и среднего бизнеса не хочет иметь сайты, потому что их устраивает объём заказов, который получают через сарафанное радио и объявления.

Во-вторых, типо решения вроде сайта-визитки, объявления, лендинга и даже магазина клепаются конструктором.
Есть куча шаблонов, куча cms, куча решений дизайнерских и технических, многое из которого можно получить бесплатно.
А работа веб-мастера сейчас - это сродни сборщику мебели икея. Всё уже готово к тому, чтобы это собрали, инструкция есть в картинках для самых маленьких.

Серьёзной веб-разработки для конкретных индивидуальны, не типичных проектов, относительно всего рынка не так много.
Когда сайтостроение для крестьян станет доступным и автоматизированным, ну или хотя бы прост очень дешёвым, тысячи веб-разработчиклв побегут в более серьезную разработку, а там нет столько работы. 90% останется за бортом, и это случится при моей жизни.

Этим меня привлекает машоб, и вообще любые сложные вещи, которые на самом деле не сложные, просто считаются в народе сложными. Тут нет вкатывальщиков, есть перспективы.
970028970033
#307 #970028
>>970027

>типо решения


типовые
#308 #970033
>>970027
Поверь, в этот ваш машоб на уровне слесаря-наладчика вкатиться проще, чем в веб, скоро любая бабулька будет сеточки с котиками обучать.
970035
#309 #970035
>>970033
А с подкреплением? А без учителя?
970037
#310 #970037
>>970035
Ты академические работы читал? Цифры видел? Они же смешные, обучение без учителя это технология завтрашнего дня и бизнес за нее платить не будет.
#311 #970049
>>970019
Ну пробуй, я вот дропнул, осилил 1,5 курса специализации от яндекса и мфти, дальше я просто не смог.
970063
#312 #970063
>>970049
На том и порешил, буду уделять по часу каждый день, глядишь к тому времни, когда веб всё, и перекачусь.
#313 #970472
>>956903 (OP)
Был спор с аноном о том, как нужно общаться, чтобы нейросеть не могла идентифицировать твои тексты. Анон писал, что нужно изобретать свой язык с кодовыми фразами, короче, чтобы со стороны это выглядело как бред. А я думаю, что нужно наоборот писать без грамматических ошибок в общем стиле, тогда не будет понятно, где твой текст, а где не твой. Как вы думаете, кто из нас прав?
970525970699
#314 #970525
>>970472
Просто берешь сетку и учишь ее подделывать тексты известных политических деятелей.
970550
#315 #970550
>>970525
Эээ, а как это поможет?
970553
#316 #970553
>>970550
Ну тогда сетка товарища майора будет думать что это пост Владимира Жириновского а не Антона Безымянного.
970555
#317 #970555
>>970553
Но писать то будет не сетка, а ты, лол. Или типа перед отправкой сообщения пропускать его через сетку Жириновского? НЕГОДЯИ! ПИДАРАСЫ!
970587
#318 #970587
>>970555
А как это делать ты узнаешь, прочитав полугодовой курс по нейросеткам от ведущего российского ВУЗа - /pr/-университи.
970590
#319 #970590
>>970587
https://2ch.hk/b/res/150641886.html (М)
https://2ch.hk/b/res/150638186.html (М)
Я уже сорцы и тензорфлоу качаю, кек. Не хотите поучаствовать?
970594
#320 #970594
>>970590
Бля, ещё сципи нужон.
#321 #970620
>>970015
короче, вкатываться просто. Ботаешь xgboost, python или R и идешь решать задачи на Кеглю. Переезжаешь в ДС, ходишь на всякие тусовки и хакатроны, обрастаешь знакомствами. Параллельно участвуешь в разных российских хакатронах и соревнованиях от банков. Это все займет макс месяцев 12. Потом работа сама тебя найдет.
970663
#322 #970663
>>970620
А я на днях вкатился в ML проект, чтоб разнообразить свои скиллы, вообще не зная ничего про ML =) Чисто за счет опыта работы с java, на которой написана система. Вообще, это частая связка, ML и java? Постоянно слышу про питон, R, скалу.
970706
#323 #970699
>>970472
исходя из теории вероятности, информации и прочей шелухи, тебе нужно писать, как все, чтобы энтропию повысить, а по уникальному языку тебя сразу различат, так как тексты на уникальном языке все равно содержат информацию, повторения и тд. Но на самом деле нет, тебе просто нужно зашифровать свой текст хорошим алгоритмом и одноразовым шифром, короче, это уже криптография.
970709
#324 #970706
>>970663
зависит. в сэйлсфос вроде как все юзают яву. но для машинного обучения это зашкварный язык, ибо приходится писать много с нуля.
#325 #970709
>>970699

>тебе нужно писать, как все, чтобы энтропию повысить


> а по уникальному языку тебя сразу различат, так как тексты на уникальном языке все равно содержат информацию, повторения и тд.


Вот! Мерси, вот это была моя точка зрения, только таких умных слов не знаю, так и думал, короче.
Ну не, про криптографию это уже не язык, получается, а шифровка, постоянно так общаться не выйдет.
#326 #970849
О, а вы не думали сделать свой курс машинного обучения? Или там для начала курс по математике?
970860970966
67 Кб, 203x248
#327 #970860
>>970849

> сделать свой курс машинного обучения


с матюгами, мемесами и ёблёй мамаши читателя?
970876
#328 #970876
>>970860
Именно так!
sage #329 #970948
>>956903 (OP)
сагаю отсталых даунов
#330 #970966
>>970849
Нинужно столько тупых машинных учителей. А если ты не тупой, то и сам разберешься. Вон на Кегле индусы с китайцами атакуют
#331 #971041
Каким набором паттернов обучать нейроночку, чтобы она отличала круги от любых остальных фигур?
971043
#332 #971043
>>971041
{ Factory, Singleton, Proxy, Bean, Facade }
971047
#333 #971047
#334 #971121
>>969843
Так разные Tensorflow, Theano вообще пихают вычислительные графы
971202
#335 #971202
>>971121

>Так разные Tensorflow, Theano вообще пихают вычислительные графы


Я хз что это за звери, но нейросети это чистые матричные вычисления.
От чего их так приятно гонять на GPU, и от чего они вызывают боль у CPU.

Причем там кроме умножения сложения и вычитания матриц ничего нет в мат аппарате.

Ну разве что функция активации может быть кокой интересной очень. Но обычно это квадратичное что-то.
971210971418
#336 #971210
>>971202
кул стори бро
пиши есчё
971465
#337 #971418
>>971202

>их так приятно гонять на GPU


Есть у меня 680 жифорсина, для того, чтобы как следует обучить сеть нужно говнять её ~ 30 часов. Сам я её давно не юзал, примерно полгода после покупки забил хуй на игры, хуигры и прочее говно, потому что-то очково её на 30 часов запускать. Она не сгорит, анон? Может ну его нахуй? У тебя у самого сколько обучение идёт? В общем вопрос такой, не страшно ли видюхе будет столько времени без перерыва работать?
#338 #971430
>>971418
ну его нахуй, анон. ещё загорится
лучше не лезь ты в этот мл, нахуй тебе эти нейроночки
всёравно видюха старая, ещё хату спалишь, жена отпиздит, ненадо тебе это
971436
#339 #971436
>>971430
Вот и я к этому склоняюсь.
#340 #971445
>>971418
Так облучай сеансами по пару часиков, за неделю управишься.
971457
#341 #971456
>>971418
юзай гугл клауд
971457971460971463
#342 #971457
>>971456
На паузу ставить типа? Или там есть опция сохранения состояния.Не за неделю, почему, по 5 часов можно вполне, да и 30 это я по максимуму взял, а так 20 где-то.
>>971445
Погуглю, спс. А сами вы что юзаете? Или у всех теслы в сли стоят?
971466
#343 #971460
>>971456

>гугл клауд


То есть я могу поставить туда своё окружение и запускать в облаке? Бесплатно?
971768
#344 #971463
>>971456
Там номер карты и телефон нужен.
#345 #971465
>>971210

>кул стори бро


>пиши есчё


Я серьезно.
Нейросети суть параллельные вычисления. Там магии то никакой нет.
Входной сигнал есть вектор.
Он вумножается на матрицу весов. Полученный вектор поэлементно ебошим через функцию активации, вуаля.

>>971418

>потому что-то очково её на 30 часов запускать. Она не сгорит, анон? Может ну его нахуй?


Зависит от охлаждения и настроек.
Если очкуешь, запусти оверклакерскую утилиту и понизь частоту GPU.
Производительность просядет немного, зато гораздо экономичнее и холоднее.
Производительность с частотой растет линейно, а энергопотребление экспоненциально.

>У тебя у самого сколько обучение идёт?


Зависит от. Можно и неделями считать. Если больше пары дней, то нужно искать железо помощнее.
971467971469972462
#346 #971466
>>971457
Я хер знает на чем ты учишь. Если на кофе - то это называется snapshot: 1000
Если на чем-то другом то поищи как в твоей параше это делается
971472
#347 #971467
>>971465

>Если больше пары дней, то нужно искать железо помощнее.


Чисто практическое ограничение.

Елси тебе что-то неделю обучать нужно, то нужно уж быть уверенным, что оно того стоит.
971472
#348 #971469
>>971465
Ну да все так + идет настройка параметров, через обратное распространение ошибки все тем же векторным умножением, а нейронки маркетологи преподносят чуть ли не как искусственный мозг, который может все.
#349 #971472
>>971467
А гугл клауд использовал? Он карту с телефоном просит.
>>971466
tensorflow, это ты про сохранение прогресса?
В общем, я понял, я скорее всего задачу выбрал тяжёлую, потому не стоит удивляться таким срокам. Главное, что мозгов хватило посоветоваться, так бы поставил сейчас на 30 часов крутиться и без видюхи остался бы. Спасибо.
971474971475
#350 #971474
>>971472
Ну там тоже можно как-то. Вообще за один присест мало кто обучает, ваш капитан.
971476
#351 #971475
>>971472

>А гугл клауд использовал? Он карту с телефоном просит.


Ноуп.

Я не любитель облаков.
Мне проще свой сервер сделоть. Или комп апгрейднуть.

Кстати говоря, у APUшек амудушных есть неплохой задел для нейрончиков, в виду общей для GPU и CPU памяти. Ну да есть ли там кокие фреймворки я не в курсе.
971477
#352 #971476
>>971474
Да вот, нашёл уже скорее всего.

w1 = tf.Variable(tf.truncated_normal(shape=[10]), name='w1')
w2 = tf.Variable(tf.truncated_normal(shape=[20]), name='w2')
tf.add_to_collection('vars', w1)
tf.add_to_collection('vars', w2)
saver = tf.train.Saver()
sess = tf.Session()
sess.run(tf.global_variables_initializer())
saver.save(sess, 'my-model')
# `save` method will call `export_meta_graph` implicitly.
# you will get saved graph files:my-model.meta
restore model:

sess = tf.Session()
new_saver = tf.train.import_meta_graph('my-model.meta')
new_saver.restore(sess, tf.train.latest_checkpoint('./'))
all_vars = tf.get_collection('vars')
for v in all_vars:
v_ = sess.run(v)
print(v_)

>капитан


Нет, мне было неочевидно. Спасибо ещё раз.
#353 #971477
>>971475
Да есть уже нвидиа, специально покупать железо ради любопытства не хочется. Насчёт облаков хз, почитал, вроде годнота, но ни телефона ни карты нет, если даже в телеграмм хуй зарегаешься с фейковыми, то там и подавно, думаю. А жаль, позать гугложелезо было бы прикольно.
971483
#354 #971483
>>971477

>но ни телефона


У тебя нет телефона?
971484
#355 #971484
>>971483
Нет.
971486
#356 #971486
>>971484

>Нет.


Ты анонимус очень, или какие причины?
Сейчас без телефона же тяжело, ни родным позвонить, ни друзьям, ни скорую вызвать.
А если там учится пойдешь, то унрил просто. Хелл мод.
Купи телефончик то, и будет все хорошо.
971487
#357 #971487
>>971486

>ни родным


> ни друзьям


Ну ты понял. Учиться да, вот как отучился, так три года на полке и пылится. Если бы нужен был, то не пылился бы. А так какой смысл покупать, если всё равно не будешь пользоваться? Не, не анонимус, просто хз, так вышло, короче.
971489
#358 #971489
>>971487

>Ну ты понял. Учиться да, вот как отучился, так три года на полке и пылится. Если бы нужен был, то не пылился бы. А так какой смысл покупать, если всё равно не будешь пользоваться? Не, не анонимус, просто хз, так вышло, короче.


А ты не из Украины?

Ну, карточка стоит копейки, а тел утебя есть.
971492971493
#359 #971492
>>971489
В Беларуси сижу, сам из РФ, за обслуживание с граждан РФ тут бешеные бабки, абонплата типа, короче не стоит того, ща вот разберусь, как модельки сохранять загружать и перед сном буду запускать, пусть себе обучается потихоньку.
#360 #971493
>>971489
Да и тел есть, а карты нет. есть, но я ещё номер карты в интернет не отправлял. не горю желанием как-то.
#361 #971768
>>971460
да, загоняешь свое окружение, гоняешь его. Но, конечно, не бесплатно, если много гонять, то своя тесла выйдет дешевле.
#362 #972195
Я считаю, что это было бы очень трудно убедить умного человека, что ток [Частотная] статистическая практика была разумной, но это было бы гораздо меньше трудностей с подходом через вероятности и теорему Байеса. - Джордж Коробка, 1962.
#363 #972437
Пацаны, поясните за книжки:
http://www.deeplearningbook.org/
http://www.cs.ucl.ac.uk/staff/d.barber/brml/

Годно или в шапке лучше?
972556
#364 #972458
Поясните что именно читать, если требуется сначала грамотно промоделированная работа простейших нейронных сетей максимально диссоциировавшись от математики, и только после пояснений этой работы идут уже примеры конкретных реализаций моделей нейронных сетей, импульсных других пока не знаю и так далее.
Имея ввиду тот факт, что сначала идут исследования по работе мозга, съём показаний, от этого строятся определённые выводы, и только отталкиваясь от этих исследований уже строятся простейшие математические модели.
972463972483972491
13 Кб, 283x185
#365 #972462
>>971465

>Входной сигнал есть вектор.


>Он вумножается на матрицу весов.


Как там, вышло чего после пикрила? http://dkws.narod.ru/linux/etc/optical/cpu.html
972466
#366 #972463
>>972458

> промоделированная работа простейших нейронных сетей максимально диссоциировавшись от математики


Ты поехавший. Пиздец.

>Имея ввиду тот факт, что сначала идут исследования по работе мозга, съём показаний, от этого строятся определённые выводы, и только отталкиваясь от этих исследований уже строятся простейшие математические модели.


Я не понимаю тебя.
Совсем.

Нейронные сети, в инф технологиях, имею такое же отношение к работе мозга, как реактивные двигатели в самолетах, к крыльям птицы.
972470
#367 #972466
>>972462
Вроде что-то где-то пилят, но не особо афишируют.
#368 #972470
>>972463

>как реактивные двигатели в самолетах, к крыльям птицы


Прекрасно. Итак.
Ты привёл в пример птицу и самолёт.
В данном случае выполняющие одну и ту же задачу. Полёт из пункта а, в пункт б. Верно? Верно.

Отталкиваясь от этой информации, если учитывать тот факт, что исследования по работе мозга уже проводились и были выявлены основные закономерности по его работе, под какую именно задачу он лучше всего подходит? Выявлена ли эта задача? Не хуярят же программистишки с учёными чего-то там наобум, правильно?
972476972483
#369 #972476
>>972470
Выводы которые сделаны на основе снятия показаний о работе мозга, сравнимы с выводами о том, что хуйня светится, сделанными бабушкой, увидевшей айфон.
972477
#370 #972477
>>972476
Значит ли это, что все созданные модели нейронных сетей - никак не связаны с реальным положением дел в реальном мире?
972479
#371 #972479
>>972477
с моей точки зрения любые современные нейронные сети лишь занимаются, ничем иным как, брутфорсом в подмножестве.
972480972481972493
#372 #972480
>>972479
плюс у них есть кэш. вот и весь дизайн.
#373 #972481
>>972479

>


любый современный и модные алгоритмы, все основаны на брутфорсе, в них нет логики, они нюхают все зачуханные углы и находят что-то, что удовлетворяет искомому условию.
972482
#374 #972482
>>972481
очевидно, мозг так не работает.
14 Кб, 296x299
#375 #972483
>>972470

>Прекрасно. Итак.


>Ты привёл в пример птицу и самолёт.


>В данном случае выполняющие одну и ту же задачу. Полёт из пункта а, в пункт б. Верно? Верно.



Ты в военкомате был?
Там психиатр, задает вопросы "абитуриентам", чтобы выявить их годность.
Популярный вопрос - "Чем птица отличается от самолета?".
Если чел будет отвечать что-то вроде того, что ты написал, его пошлют скорее всего на обследование в психушку.

>Отталкиваясь от этой информации, если учитывать тот факт, что исследования по работе мозга уже проводились и были выявлены основные закономерности по его работе


Да не особо.
Вначале думали что оно вот так.
Потом оказалось что оно вот сяк.
Потом стали думать что оно вот этак.
А с новыми инструментами и теориями посмотрели, и охуели совсем.

Ты русским языком объясни, чего тебе надобно?
Ты лабу пишешь, или чего?

>под какую именно задачу он лучше всего подходит? Выявлена ли эта задача?


Лучше всего он подходит для управления человеческими тушками.
Но с математической точки зрения, если обобщить, то нелинейная оптимизация.

>Не хуярят же программистишки с учёными чего-то там наобум, правильно?


Wrong.

>>972458

>Поясните что именно читать


Из твоего сумбурного бреда, я так понимаю, тебя интересует КИБЕРНЕТИКА.
Вот по ней книжки и читай.
14 Кб, 296x299
#375 #972483
>>972470

>Прекрасно. Итак.


>Ты привёл в пример птицу и самолёт.


>В данном случае выполняющие одну и ту же задачу. Полёт из пункта а, в пункт б. Верно? Верно.



Ты в военкомате был?
Там психиатр, задает вопросы "абитуриентам", чтобы выявить их годность.
Популярный вопрос - "Чем птица отличается от самолета?".
Если чел будет отвечать что-то вроде того, что ты написал, его пошлют скорее всего на обследование в психушку.

>Отталкиваясь от этой информации, если учитывать тот факт, что исследования по работе мозга уже проводились и были выявлены основные закономерности по его работе


Да не особо.
Вначале думали что оно вот так.
Потом оказалось что оно вот сяк.
Потом стали думать что оно вот этак.
А с новыми инструментами и теориями посмотрели, и охуели совсем.

Ты русским языком объясни, чего тебе надобно?
Ты лабу пишешь, или чего?

>под какую именно задачу он лучше всего подходит? Выявлена ли эта задача?


Лучше всего он подходит для управления человеческими тушками.
Но с математической точки зрения, если обобщить, то нелинейная оптимизация.

>Не хуярят же программистишки с учёными чего-то там наобум, правильно?


Wrong.

>>972458

>Поясните что именно читать


Из твоего сумбурного бреда, я так понимаю, тебя интересует КИБЕРНЕТИКА.
Вот по ней книжки и читай.
974759974760
#376 #972491
>>972458
Блять, лол. Наслушаются баззвордов в ютабе своем, а потом на двощи лезут. Умора.
#377 #972493
>>972479

>>с моей точки зрения любые современные нейронные сети лишь занимаются, ничем иным как, брутфорсом в подмножестве.



в удобном для соискателя подмножестве.
fixed.
#378 #972494

> Чем птица отличается от самолета?


птица живая, самолёт бесдушная груда металла
птица кушает насекомых, самолёт заправляют бензой
птица-самец + птица-самка = много птиц и птенцов, самолёт + самолёт = катастрофа и расчлёнёнка
птицы эволюционировали из птеродактилей, самолёты из велосипедов
972497972512
#379 #972497
>>972494
птица умнее чем самолет. нужно начать с этого. Она сама может найти горючку и найти удобное, для прибывания, место.
972500972505
#380 #972500
>>972497
а отправляются в летное путешествие они, абсолютно, по разным причинам.
#381 #972505
>>972497
ты заблуждаешься
самолёт обладает куда большими вычислительными мощностями чем птица
972506
#382 #972506
>>972505
Ноуп.
Птица мощнее на несколько порядков.
972507
#383 #972507
>>972506
бортовые компьютеры самолёта порвут любую птицу
972530972541
80 Кб, 501x602
#384 #972508
Теперь это тред ответов на каверзные вопросы психиатра в военкомате, можете отвечать, а я почитаю ваши ответы
972570
#385 #972512
>>972494

>самолёт заправляют бензой


А я вот тут недавно подумал, что эрудиция для человека - это не пустая бесполезная хуйня, как заявляют некоторые. Ну я и раньше это знал, но без доказательств. А тут прослеживается полная аналогия с нейросетью (что неудивительно, человек и есть нейросеть).
На ограниченном наборе данных сеть может научиться выдавать правильное решение, но на незнакомых данных зафейлит. Чем больше датасет, тем лучше генерализация сети. "Узкая специализация" в образовании - это путь к деградации.
972523
#386 #972513
помогите с продакшн-солюшн-архитектурой
птица наследует от самолёта или самолёт наследует от птицы?
972519
#387 #972519
>>972513
Наследование требуется только для повторного использования кода. Что может использовать самолет от птицы, или птица от самолета?
972529
#388 #972523
>>972512

>что неудивительно, человек и есть нейросеть


Нет.
972525972527
#389 #972525
972526972527
#390 #972526
>>972525
Нет
972527
#391 #972527
>>972526
>>972525
>>972523
Научная дискуссия уровня мейлач.
#392 #972529
>>972519
полёт
заправка/кушание
оператор +
972539
#393 #972530
>>972507

>бортовые компьютеры самолёта порвут любую птицу


Нет.
Они во первых, даже твой смартфон не порвут.
Во вторых ученый даже мозг червя пидора не могут победить.
Вычислительная мощность птицы, это что-то около пары небоскребов плотно забитых видеокартами.
972545
#394 #972539
>>972529

>нихуя


Ну вот ты и сам ответил. Наследование ради наследования нинужно. Наследуй обоих от MovingObject и не еби моск
972542
#395 #972541
>>972507
Прежде всего птица, по сравнению с самолетом это идеал воздухоплавания, она может распознать сотни ситуаций которые помешают ей продолжить путешествие, у нее есть зрение, слух, обоняние. Самолет же это большая груда метала и говна, которое может рухнуть в любой момент из-за того, что переменная переполнилась и стала нулем или отрицательным значением, так в добавок там еще кто-то должен сидеть, с более продвинутым мозгом, чем птица, чтобы это хотя бы начло двигаться.
972548
#396 #972542
>>972539

> наследуй птицу от самолёта


Ну вот ты и сам ответил
так бы сразу и сказал
#397 #972545
>>972530

> Вычислительная мощность птицы, это что-то около пары небоскребов плотно забитых видеокартами


птица даже 2 и 2 не сложит
самолёт 2 и 2 может сложить триллиарды раз в секунду
972551
#398 #972548
>>972541
как будто у птиц не бывает переполнений
https://www.youtube.com/watch?v=90KG5WumqBA
972552
#399 #972551
>>972545

>птица даже 2 и 2 не сложит


Сложит.

>самолёт 2 и 2 может сложить триллиарды раз в секунду


Это не интегральный показатель вычислительных мощностей.
Мозг птицы оптимизирован не для символьной арифметики.
Видеокарта даже операцию условного перехода сделать не может, а CPU миллион раз в секунду такое провернуть может, и что?

Тебе лет сколько, технократ мамин?
972555
#400 #972552
>>972548
лучше уж в окно чем на ровном месте,
https://www.youtube.com/watch?v=oXXGIlmdnsk
972561
#401 #972555
>>972551

> Сложит.


нет, она даже само понятие int не осилила

> Это не интегральный показатель вычислительных мощностей.


> Мозг птицы оптимизирован не для символьной арифметики.


птицы используют символьную тригонометрию для вычисления траектории полёта

> Видеокарта даже операцию условного перехода сделать не может


может, я видел if в CUDA коде кернелов

> Тебе лет сколько, технократ мамин?


https://www.youtube.com/watch?v=AfIOBLr1NDU
972557
#402 #972556
>>972437
первую читаю сейчас, у меня с математикой плохо, математику было сложно оттуда понимать, а так ее хвалят, вторую не знаю
972573
33 Кб, 600x600
#403 #972557
972562
#404 #972561
>>972552
а так твоя птица может?
https://www.youtube.com/watch?v=We4j0NHn7i4
#405 #972562
#406 #972570
>>972508
1. КПД.
2. Неопределенно.
3. Рассказал. Я использую при работе ленивые вычисления. Когда спросите конкретней тогда и попытаюсь ответить.
4. Вообще бывают.
5. Есть.
6. По массе одинаковы, но по плотности и тяжести на усредненной среднестатистической планете Земля по выборке зоны златоволоски кирпич тяжелее.
7. Ощущение пустоты бытия, бесконечности Вселенной, постоянные крутящиеся боли, плохое зрение и возникающие из-за этого зрительные иллюзии (видел улыбающегося еврея сделанного из куртки) и приятные запахи несоответствующие реальности.
8. Апеннинский полуостров, на сколько я понял.
9. Ракетных.
10. Пытался лечь ночью в сугроб и замерзнуть говоря с Богом.
972574972576973000
#407 #972573
>>972556
Я, если что, вот тут их нашёл:
https://github.com/open-source-society/computer-science

Там ещё и курсы по математике есть.
#408 #972574
>>972570
Ты здоров, можешь идти.
#409 #972576
>>972570
годен к службе родине
#410 #972662
Скажите, а курсы от Яндекса на курсере бесплатные?
https://www.coursera.org/learn/vvedenie-mashinnoe-obuchenie
972717
#411 #972691
Есть линейная алгебра с нескучными картинками?
972713
#412 #972713
>>972691
3blue1brown
#413 #972717
>>972662
Да только задания будут закрыты, а вот у Ng все бесплатно.
972730
#414 #972730
>>972717

>Ng


Где?
972763
517 Кб, 759x422
#415 #972763
>>972730
курс китаёзыз на курсере (не стоит того)
#416 #973000
>>972570

>постоянные крутящиеся боли, плохое зрение и возникающие из-за этого зрительные иллюзии


Рак мозга?
#417 #973215
Ыыыы, а есть какие-то работы по тому, чтобы нейросеть просто кушала данные, но сама выбирала алгоритм обучения? Типа не специальным алгоритмом обучать, а он внутри кароч
973217
#418 #973217
>>973215
ничего
нейронки это говно
на машине тьюринга принципиально невозможно сделать ИИ
теперь дальше соси форс гуглопидаров
как остальные школьники из этого даунотреда
973425
#419 #973237
есть какой-нибудь легкий вводный курс для школьников, чтобы вкатиться в нейронки и машоб без дроча матана?
973238973240
#421 #973240
>>973237
Нет.
973390
#422 #973269
>>968389
У старпера подгорело, лол. Чето блять заканчиваю 6 курс и ничего о чем ты говоришь у меня особо не было. А пивасик с друзьями попить всегда можно
973307
#423 #973307
>>973269

>У старпера подгорело


>и ничего о чем ты говоришь у меня особо не было


Ну, конечно сожалею тебе, но, не горит от сего факта нисколько.
973491
#424 #973350
>>968389
Ага блять, я в 25 лет брошу работу и пойду обратно на шею к родакам садиться, чтобы еще джва года в вузе просрать.
973357974875
#425 #973357
>>973350
Кем работаешь?
#426 #973370
Собираюсь к вам вкатиться.
Какую видеокарту и проц брать для домашних опытов?
Радеон, как я понял, не катит — нужна нвидиа. 1070 хватит? Или 1080 ощутимо лучше?
#427 #973375
Почему из шапки убрали http://neuralnetworksanddeeplearning.com
?
#428 #973390
>>973240
Пичаль. Что же мне корменом давиться только чтобы уметь переводить дискретную алгебру в матан?
#429 #973425
>>973217
Это почему же на машине Тьюринга нельзя сделать ИИ? Считаешь, что в мозгу есть много всяких квантовых эффектов и непонятных штук?
973430974875
646 Кб, 1000x1000
#430 #973430
>>973425

>Это почему же на машине Тьюринга нельзя сделать ИИ?


Потому что школьник на мейлру так сказал, очевидно же. Ты что, школьникам не веришь?

>Считаешь, что в мозгу есть много всяких квантовых эффектов и непонятных штук?


АТО! Вот взять счеты пикрелейтед. Они состоят из молекул, атомов, в конечном счете из квантов. Значит, это квантовый вычислитель. Шах и мат.
#431 #973487
http://rb.ru/opinion/12-let-it-specialist/
Вы тут все скоро станете нинужны
973563974076
#432 #973491
>>973307
Ты просто по хуйне сокрушаешься
973568
#433 #973557
Алло блять пидарасы, нахуй мне ваша линух? Почему я это все не смогу запилить на винде?
973619
#434 #973563
>>973487

> Сейчас мой сервис работает в Калининградском кризисном центре помощи женщинам, жертвам домашнего насилия.


А я уж было почти поверил что статья правдива.
#435 #973568
>>973491

>Ты просто по хуйне сокрушаешься


Не сокрушаюсь ни по какому поводу вообще.
19 Кб, 1104x470
#436 #973619
>>973557

>Почему я это все не смогу запилить на винде?


Удивительно, но факт - большинство новомодных пистонопараш для МЛ в разы проще ставить и использовать на глинуксе. На винде даже ставить заебешься, как оно там будет работать, вообще одному Аллаху известно, не исключено что и никак. Это еще с теано пошло, если не раньше, там создатели прямо пишут, что основная версия - глинукс х64, остальные существуют просто чтобы было, жалобы на глюки есть смысл писать только на основную версию, т.к. работают только над ней. Пистон, в нем все дело. На глинуксе эту парашу с миллионом зависимостей гонять проще.
973735
#437 #973735
>>973619
При чем тут питон, просто очевидно, что работает лучше всего то, на чем работают все. А все работают понятно на чем - я бы посмотрел на человека, который использует винду на AWS.
#438 #974056
Вот чтобы вкатиться в хадуп, спарк и компанию и писать на жабе/скале, для этого математика же не нужна? Мне интересны все эти штуки связанные с большими данными, машобом, нейронками, но с точки зрения разработки промышлненных систем, я так понимаю, в компании есть отдел дата сайнтистов, которые фигачат и оптимизируют алгоритмы и есть прогеры, которые их уже запускают в прод?
974076
#439 #974076
>>974056
Не нужна, это даже 12летний может осилить >>973487
974101
#440 #974101
>>974076

>Также я провел исследовательскую работу «Прогнозирование валентности эмоционального отклика на графический контент с использованием нейроинтерфейсов и алгоритмов анализа данных».


Штоблядь? Одноклассникам вставил провода в мозг и показывал мемасы?
974121974635
114 Кб, 375x520
#441 #974121
>>974101
В лучшем случае КГР записал с помощью ардуины и резистора, потом кластерный анализ. Но в целом для 12 лет это очень даже, ИТТ в такое 95% местных шитпостеров не сможет.
974144
#442 #974144
>>974121

>ИТТ в такое 95% местных шитпостеров не сможет.


Ну им, может быть, просто не интересно ебаться с проводами. Не умеют != не смогут.
#443 #974170
Нужно ли учить уже сейчас квантовое машинное обучение?
974200
#444 #974200
974210
#445 #974210
>>974200
Ты учишь? Что-то посоветуешь?
#446 #974635
>>974101
Зачем в мозг, там как кардиограмма делается, на голову лепишь присоски с проводами - и все, и можно мерить хоть отклик хоть на аллаха
974804
125 Кб, 1280x720
#447 #974759
>>972483

>Популярный вопрос - "Чем птица отличается от самолета?".


Тем, что самолёт железный? Я завис.
975018
#448 #974760
>>972483

>птица


>самолета


BIRD OF PREY BIRD OF PREY FLYING HIGH FLYING HIGH
974761
5 Кб, 240x159
#450 #974804
>>974635

>на голову лепишь присоски с проводами


>нейроинтерфейс

974826
#451 #974826
>>974804
Да, в ЭЭГ еще много всяких шумов, так что даже read-only нейроинтерфейс не будет.
#452 #974875
>>973425

>Это почему же на машине Тьюринга нельзя сделать ИИ?


Скорее всего можно.

>Считаешь, что в мозгу есть много всяких непонятных штук?


Как работает мозг - науке непонятно.
Известны только какие-то отдельные факты и некоторые закономерности.

>Считаешь, что в мозгу есть много всяких квантовых эффектов


Недавно, обнаружили, что в нейронах есть особые белки, которые работают как кьюбиты. Тысячи их, в одном нейрончике.
И даже до этого открытия, считалось, что один нейрон, по "мощности" скорее как мощный компьютер, а вовсе не простой нелинейный преобразователь.

>>973350

>Ага блять, я в 25 лет брошу работу и пойду обратно на шею к родакам садиться, чтобы еще джва года в вузе просрать.


Накопить денег не вариант, ты же работаешь?
И бросать необязательно, можно взять академический отпуск.
Или договорится о неполной занятости.
#453 #974967
Посоветуйте хороший учебник по линейной алгебре. Для начинающих.
Проходя первый уровень курса от яндекса с мфти, обнаружил, что эта тема освещается лишь обзорно, чтобы уже имевшие дело с ней могли по-быстрому вспомнить.
А мне половина материала не ясна. Что ещё за размерность векторного пространства?
975021975077975598
18 Кб, 740x375
#454 #975018
#456 #975056
>>975021
А там есть про норму векторного пространства?
975073
#457 #975073
>>975056

>норму векторного пространства


Ну да, а что там сложного? И евклидова и манхеттенская и еще куча разных
#458 #975077
>>974967

> ещё за размерность векторного пространства?



Размерность пространства – это максимальное число содержащихся в нем линейно независимых векторов. (тех, которые нельзя выразить через друг друга посредством сложения и умножения)
975126975571
#459 #975126
>>975077
Я на самом деле норму имел в виду.
Отвлекался, когда писал пост.
А про размерность мне понятно.
#460 #975571
>>975077
А ещё это число осей пространства. Или количество координат, которыми задается вектор.
#461 #975598
>>974967

>Что ещё за размерность векторного пространства?


Количество компонент вектора.
#462 #975679
Поясните за генеративные нейросети.
975709
#463 #975709
>>975679
генеративная нейросеть - массив
975715975930
sage #464 #975715
>>975709
Как монада?
#465 #975930
>>975709
Чуть выше уровнем, пожалуйста.
#466 #975931
Как-то случайно открыл статью о нейролингвистическом программировании и долго втыкал что же это за модель нейросетей такая и где математические модели. Восхитительная история, правда?
975964
#467 #975964
>>975931
Братишка!
#468 #977227
Поясните как в той научной работе нейроночка от гугла сохраняет предыдущий опыт.
#469 #977288
>>956903 (OP)
Вот вкатился, а тут всякие градиентные спуски. А я в мухосрансковузе решал типовые задачки и не понимал, зачем нужен градиент. Часто ли я буду встречаться с такими пробелами? Всегда ли их можно устранить прямо находу или лучше почитать калькулус?
977293977306
#470 #977293
>>977288
И калкулюс и линал и теорвер
#471 #977306
>>977288

>Часто ли я буду встречаться с такими пробелами?


Не очень, там в основном все крутится вокруг одних и тех же понятий.

>Всегда ли их можно устранить прямо находу или лучше почитать калькулус?


Всегда. Если ты уже матеше учился, тем более проще разбирать конкретно только то, что непонятно, а не перечитывать целиком учебники.
#472 #977376
Вообще, если ты ебаный школьник или просто тупой, и не знаешь програмы по матану за первые 2 курса, вам лучше не травмировать свой мозг машинкой, а заняться чем то более подходящим: подготовкой к егэ например или изучением html
977543977605
#473 #977543
>>977376
А если я уже не школьник, но вуз закончить не смог?
977557
#474 #977557
>>977543
Значит мама будет расстроена
977618
#475 #977605
>>977376

>Вообще, если ты ебаный школьник или просто тупой, и не знаешь програмы по матану за первые 2 курса, вам лучше не травмировать свой мозг машинкой



Иронично конечно, но

>програмы по матану за первые 2 курса


Лежат параллельно компьютерным наукам и машинному обучению.
#476 #977618
>>977557
Она и расстроилась.
Но я её уже успокоил.
959 Кб, 960x720
36 Кб, 960x720
#477 #977622
Анон, помоги советом.
В общем надо решить что делать в дипломной. Суть вот в чём, есть 2 картинки, фото и разметка (пикрилы).
Собственно задача в том, чтобы как-то такие картинки обрабатывать. К примеру, подсчитать количество машин/пешеходов, найти машину определённого цвета и т.п.

Так вот вопрос, что можно сделать такого, а главное что проще всего? Какое ПО и технологии использовать?
978211
#478 #977634
Тред оккупирован матаноблядями, такие ИИ не построят. Тут нужны нейрохимики и философы, матаноблядей надо гнать
977635977701977805
#479 #977635
>>977634
Я школьник с метафизической интоксикацией. Подхожу?
977668
#480 #977668
>>977635
нет
977916
#481 #977701
>>977634
Угу, а самолет построят зоологи с философами
977720
#482 #977720
>>977701
намомни, какое отношение физики и матанопиткхи имеют к первому самолету? и да, ии это больше философия чем что либо еще.
977828
#483 #977805
>>977634
Машмоб к ИИ отношение имеет весьма далёкое.
#484 #977828
>>977720
Самолет построили инженеры, которые с физикой и матаном лучшие друзья

>ии это больше философия


Последняя надежда философов хоть в чем-то показать свою значимость
977831
#485 #977831
>>977828
ты к инженерам матанопитухов не примазывай.
978308
#486 #977874
У ОПа очень негативное отношение к ШАДу. А почему так? Он там обучался или контачился с кем-то? Хотя я тоже не особо верю в ШАД, но хотелось бы конкретики.
977995
#487 #977916
>>977668
Почему?
#488 #977944
такое ощущение, что нейронки и машоб - последняя надежда матанопетухов хоть в чем-то показать свою значимость, но и тут они фейлят
977951977983
#489 #977951
>>977944
нет, они еще в компьтервижен кукарекают, но с таким же успехом
#490 #977983
>>977944
Это тоже отчасти верно. Матанопетухи понимают в матане, но совершенно не разбираются в человеке, а ведь нужно делать его функциональную имитацию
977984
#491 #977984
>>977983

>нужно делать


Кому нужно?
977992
#492 #977992
>>977984
Человечеству нужно. Его только антропоморфный ИИ устроит - с эмоциями, интонациями, мимикой, жестикуляцией сиськами и жопой. Чемодан с микросхемами людям нинужен, какой бы он умный ни был, его будут считать просто компуктером.
977993
#493 #977993
>>977992
делай раз нужно
#494 #977995
>>977874
там паста, опу похуй на шад
автор пасты обучался вроде
анон #495 #978049
сап двач анон
нужен датасет показания датчиков для электромобилей где поискать
#496 #978211
>>977622
бамп
#497 #978308
>>977831
Инженеры, кстати, - главная причина того, что Рашка в такой жопе, инженеры в науку не могут, а могут только чужие наработки применять, да и инженеры вообще тупые, даже самая современная физика отстала от настоящего матаппарата лет на 60
978378978387978423
#498 #978378
>>978308
теперь назвал изобретения придуманные математиками или открыл рот для приема мочи.
45 Кб, 570x459
#499 #978387
>>978308
быдло обнаружено
поясняю: математический аппарат зачастую приходится разрабатывать "на ходу" при развитии теоретической физики. В первую очередь, математика отстает от физики
#500 #978423
>>978308
Кекнул с дауна. Физика не обязана подстраиваться под маьематику. Физика должна подстраиваться под эксперимент, а математики должны развивать нужный мат аппарат по запросу физиков. Математики это как шлюхи по вызову. Как бухгалтерия. Их задача придумать адекватный и компактный способ записи тех знаний о мире, которые добыли физики
978429978432978652
#501 #978429
>>978423
К тому времени как появляются новые знания о мире, обычно уже существует несколько способов выразить эти самые знания математическим языком.
978440
84 Кб, 800x600
#502 #978432
>>978423
и тут ты такой с пруфами?

уравнения Навье — Стокса для турбулентных потоков — старая добрая классическая гидродинамика, двести лет отроду. За доказательство существования и гладкости решения (даже не за само решение!) дают миллион долларов

но ты то не знал...
978437
#503 #978434
Двачу вообще плевать где и о чем сраться.
#504 #978437
>>978432
При чем тут навье стокс, я прекрасно знаю про них.
978455
#505 #978440
>>978429
И? Реальность не обязана подстраиваться под теоремы. А то что есть определенное сходство в описании некоторых процессов, ну и что?
978451
#506 #978451
>>978440
Я к тому, что математики в своих исследованиях не ограничены реальным миром и вольны формализовать любые, даже самые наркоманские закономерности. Так что к моменту открытия физиками чего-то, в матеше уже есть все средства выражения этого чего-то.
#507 #978455
>>978437

>При чем тут


При том, что ты дебил.

>знаю


Нет, не знаешь.
978500
#508 #978500
>>978455
Школьник, съеби, выебываться тем что прочитал 2 дня назад в википедии будешь в другом месте
#509 #978606
Вот в курсе от мфти с яндексом даются некоторые знания по линейной алгебре?
Этого объёма достаточно для работы?
Или ещё надо будет что-то специально изучать?
#510 #978608
>>957720

>Не могу сделать задания по программированию на 2-ом курсе.


На второй неделе первого уровня? Или на втором уровне?
978780
#511 #978652
>>978423
Вся современная физика описывается матаппаратом 9 класса нормальной школы, инженеродебилы (а в ДС нигде, кроме МГУ и ВШЭ других и нет) в институтах как раз заканчивают изучение математики на 2.5 курсе, так что нечего там открывать. А то, что физики не могут найти уравнение ни для чего - неудивительно, они умеют только определитель гауссианы в столбик считать
978655978664
#512 #978655
>>978652
Линейные операторы и тензоры в 9 классе проходят? Кекнул с дауна
978845
#513 #978662
Пришло время напомнить матанопитухам

Лев Давидович резко критиковал преподавание математики на физфаках. Сохранилось его письмо ректору одного из московских вузов, в котором подробно излагаются взгляды на преподавание математики физикам:

"При всей важности математики для физиков, физики, как известно, нуждаются в считающей аналитической математике, математики же, по непонятной мне причине, подсовывают нам в качестве принудительнного ассортимента логические упражнения. В данной программе это прямо подчеркнуто в виде особого примечания в начале программы. Мне кажется, что давно пора обучать физиков тому, что они сами считают нужным для себя, а не спасать их души вопреки их собственному желанию. Мне не хочется дискутировать достойной средневековой схоластики мыслью, что путем изучения ненужных им вещей люди будто бы учаются логически мыслить.

Я категорически считаю, что из математики, изучаемой физиками, должны быть полностью изгнаны всякие теоремы существования, слишком строгие доказательства и т. д. и т. п. Поэтому я не буду отдельно останавливаться на многочисленных пунктах Вашей программы, резко противоречащих этой точке зрения. Сделаю только некоторые дополнительные замечания.

Странное впечатление производит историческое ввдение. Само собой разумеется, что сообщение интересных исторических фактов может только сделать лекции более интересными. Но непонятно, зачем это рассматривать как пункт программы. Я надеюсь, что, по крайней мере, не имеется в виду спрашивать это на экзаменах. Векторный анализ располагается между кратными интегралами. Я не имею чего-либо против такого сочетания, однако, надеюсь, что оно не идет в ущерб крайне необходимому формальному знанию формул векторного анализа.

Программа по рядам особенно перегружена ненужными вещами, в которых тонут те немногие полезные сведения, которые совершенно необходимо знать о ряде и интеграле Фурье. Курс так называемой математической физики я считал бы правильным сделать факультативным. Нельзя требовать от физиков-экспериментаторов умения владеть этими вещами. Надо также отметить, что эта программа тоже сильно перегружена. Необходимость в курсе теории вероятностей довольно сомнительна. Физики и без того излагают то, что им нужно, в курсах квантовой механики и статистической физики. Во всяком случае, представленная программа переполнена бесполезностями. Таким образом, я считаю, что преподавание математики нуждается в серьезнейшей реформе".
#513 #978662
Пришло время напомнить матанопитухам

Лев Давидович резко критиковал преподавание математики на физфаках. Сохранилось его письмо ректору одного из московских вузов, в котором подробно излагаются взгляды на преподавание математики физикам:

"При всей важности математики для физиков, физики, как известно, нуждаются в считающей аналитической математике, математики же, по непонятной мне причине, подсовывают нам в качестве принудительнного ассортимента логические упражнения. В данной программе это прямо подчеркнуто в виде особого примечания в начале программы. Мне кажется, что давно пора обучать физиков тому, что они сами считают нужным для себя, а не спасать их души вопреки их собственному желанию. Мне не хочется дискутировать достойной средневековой схоластики мыслью, что путем изучения ненужных им вещей люди будто бы учаются логически мыслить.

Я категорически считаю, что из математики, изучаемой физиками, должны быть полностью изгнаны всякие теоремы существования, слишком строгие доказательства и т. д. и т. п. Поэтому я не буду отдельно останавливаться на многочисленных пунктах Вашей программы, резко противоречащих этой точке зрения. Сделаю только некоторые дополнительные замечания.

Странное впечатление производит историческое ввдение. Само собой разумеется, что сообщение интересных исторических фактов может только сделать лекции более интересными. Но непонятно, зачем это рассматривать как пункт программы. Я надеюсь, что, по крайней мере, не имеется в виду спрашивать это на экзаменах. Векторный анализ располагается между кратными интегралами. Я не имею чего-либо против такого сочетания, однако, надеюсь, что оно не идет в ущерб крайне необходимому формальному знанию формул векторного анализа.

Программа по рядам особенно перегружена ненужными вещами, в которых тонут те немногие полезные сведения, которые совершенно необходимо знать о ряде и интеграле Фурье. Курс так называемой математической физики я считал бы правильным сделать факультативным. Нельзя требовать от физиков-экспериментаторов умения владеть этими вещами. Надо также отметить, что эта программа тоже сильно перегружена. Необходимость в курсе теории вероятностей довольно сомнительна. Физики и без того излагают то, что им нужно, в курсах квантовой механики и статистической физики. Во всяком случае, представленная программа переполнена бесполезностями. Таким образом, я считаю, что преподавание математики нуждается в серьезнейшей реформе".
#514 #978664
>>978652
А разве инженеры и физики это одно и то же?
978829
#515 #978676
Как же физикобоги разъебали математикодаунов
#516 #978677
Где можно почитать подробно о сверточных нейронных сетях?
#517 #978780
>>978608
На втором уровне.

Сейчас думаю может пытаться снова, лол.
Блять как хуево быть тупым.

КТО ТО СДЕСЬ ВКАТИЛСЯ В ИНДУСТРИЮ МАШОБА?

Кто-то деньги начал получать с этого? Или тут все для "души" курят тему годами.
#518 #978829
>>978664
В рашке теорфизики почти нет
978835
#519 #978835
>>978829
Теорфиз то есть. Математика и теорфиз это области в которых мы более менее. А вот с экспериментальщиной ситуация хуже
#520 #978845
978859
#521 #978859
>>978845
Ты дебил? Тут интегрирование в 11 классе, а без него физики нет
978887
#522 #978887
>>978859
короче, ты согласен, что современная физика - это что-то типа задачи с6 на егэ?
978895
#523 #978895
>>978887
Маня, я тебя еще раз спрашиваю, линейные операторы и тензоры в школе проходят? Диффуры?
#524 #978897
А вообще толсто. В современной физике применяется почти ВСЯ современная математика, более того, она и имеет смысл по большому счету только тогда, когда находит свое применение в физических теориях.
#525 #978898
Как же матанопитухи соснули в очередной раз
#527 #993587
>>956903 (OP)
Скопирую из старого треда, ибо я даун
Анон. Тупой вопрос. Как заставить нейронку рисовать? Тупой ньюфаг в этой сфере, да. Запилил лишь самую базовую (банальный массив х на у с пересчетом нейронов и обучением).
Как нейронке потенциально скармливать что-то и как получать на выхоод что-то? Что юзать и что прикручивать? Куда копать?
Тред утонул или удален.
Это копия, сохраненная 6 июня 2017 года.

Скачать тред: только с превью, с превью и прикрепленными файлами.
Второй вариант может долго скачиваться. Файлы будут только в живых или недавно утонувших тредах. Подробнее

Если вам полезен архив М.Двача, пожертвуйте на оплату сервера.
« /pr/В начало тредаВеб-версияНастройки
/a//b//mu//s//vg/Все доски