Это копия, сохраненная 8 июня 2021 года.
Скачать тред: только с превью, с превью и прикрепленными файлами.
Второй вариант может долго скачиваться. Файлы будут только в живых или недавно утонувших тредах. Подробнее
Если вам полезен архив М.Двача, пожертвуйте на оплату сервера.
Я ничего не понимаю, что делать?
Без петросянства: смотри программу стэнфорда CS229, CS231n https://see.stanford.edu/Course/CS229 (классика) и http://cs231n.stanford.edu/ (введение в нейроночки) и изучай, если не понятно - смотри курсы prerequisites и изучай их. Как именно ты изучишь конкретные пункты, типа линейной алгебры - дело твое, есть книги, курсы, видосики, ссылки смотри ниже.
Почему такой фокус на нейронки?
Потому что остальные чистят вилкой данные в банках с помощью LGBTboost и им некогда предлагать обновления в шапку
Какая математика используется?
В основном линейная алгебра, теорвер, матстат, базовый матан и matrix calculus
Как работает градиентный спуск?
https://cs231n.github.io/optimization-2/
Почему python?
Исторически сложилось
Можно не python?
Никого не волнует, где именно ты натренируешь свою гениальную модель. Но при серьезной работе придется изучать то, что выкладывают другие, а это будет, скорее всего, python, если работа последних лет
Что почитать для вкатывания?
http://www.deeplearningbook.org/
Николенко "Глубокое обучение" - на русском, есть примеры, но меньше охват материала
Франсуа Шолле - Глубокое обучение на Python
https://d2l.ai/index.html
В чем практиковаться нубу?
http://www.deeplearning.net/tutorial/
https://www.hackerrank.com/domains/ai
https://github.com/pytorch/examples
https://github.com/ChristosChristofidis/awesome-deep-learning#tutorials
Где набрать первый самостоятельный опыт?
https://www.kaggle.com/ | http://mltrainings.ru/
Стоит отметить, что спортивный deep learning отличается от работы примерно так же, как олимпиадное программирование от настоящего. За полпроцента точности в бизнесе борятся редко, а в случае проблем нанимают больше макак для разметки датасетов. На кагле ты будешь вилкой чистить свой датасет, чтобы на 0,1% обогнать конкурента.
Где работать?
https://www.indeed.com/q-deep-learning-jobs.html
Вкатывальщики могут устроиться программистами и дальше попроситься в ML-отдел
Есть ли фриланс в машобе?
Есть, https://www.upwork.com/search/jobs/?q=machine+learning
Но прожить только фриланся сложно, разве что постоянного клиента найти, а для этого нужно не быть тобой
Где узнать последние новости?
https://www.reddit.com/r/MachineLearning/
http://www.datatau.com/
https://twitter.com/ylecun
На реддите также есть хороший FAQ для вкатывающихся
Где посмотреть последние статьи?
http://www.arxiv-sanity.com/
https://paperswithcode.com/
https://openreview.net/
Версии для зумеров (Килхер): https://www.youtube.com/channel/UCZHmQk67mSJgfCCTn7xBfew
Количество статей зашкваливающее, поэтому все читают только свою узкую тему и хайповые статьи, упоминаемые в блогах, твиттере, ютубе и телеграме, топы NIPS и прочий хайп. Есть блоги, где кратко пересказывают статьи, даже на русском
Где посмотреть must read статьи?
https://github.com/ChristosChristofidis/awesome-deep-learning#papers
https://huggingface.co/transformers/index.html
То, что обозревает Килхер тоже зачастую must read
Где ещё можно поговорить про анализ данных?
http://ods.ai/
Нужно ли покупать видеокарту/дорогой пека?
Если хочешь просто пощупать нейроночки или сделать курсовую, то можно обойтись облаком. Google Colab дает бесплатно аналог GPU среднего ценового уровня на несколько часов с возможностью продления, при чем этот "средний уровень" постоянно растет. Некоторым достается даже V100.
Иначе выгоднее вложиться в GPU https://timdettmers.com/2019/04/03/which-gpu-for-deep-learning/ Заодно в майнкрафт на топовых настройках погоняешь
Когда уже изобретут AI и он нас всех поработит?
На текущем железе - никогда, тред не об этом
Кто нибудь использовал машоб для трейдинга?
Никто не использовал, ты первый такое придумал. Готовь камаз для бабла.
Список дедовских книг для серьёзных людей:
Trevor Hastie et al. "The Elements of Statistical Learning"
Vladimir N. Vapnik "The Nature of Statistical Learning Theory"
Christopher M. Bishop "Pattern Recognition and Machine Learning"
Взять можно тут: http://libgen.io/
Напоминание ньюфагам: немодифицированные персептроны и прочий мусор середины прошлого века действительно не работают на серьёзных задачах.
Предыдущий:
https://2ch.hk/pr/res/1947549.html (М)
Хочу вкатиться в вашу еботу.
Подобрал где-то в б вот этот гайд: https://docs.google.com/document/d/18epDVkco9M8313RK7IczMEWKjL9eETOqQ94Nac0qQ9o/edit?usp=sharing
За плечами: говновуз экономический (не ходил, диплом есть), много говнокода на шарпе, питоне, немного на плюсах.
С матешей довольно странно: не помню почти ничего, но если сяду и буду усердно задрачиват, то все вспомню. Со статистикой кстати хуевато, пропустил ее в свое время.
В коммерческой разработке/ойти никогда не работал, но работаю в смежной сфере.
Бонусом идет английский почти на нейтив-уровне, так что литературу читать смогу.
Вопроса собственно два:
1. Стоит ли вкатываться вообще в возрасте 24 годиков, если мне это тащемта интересно, но и на жизнь хотелось бы нормально заработать?
2. Если стоит, то насколько релевантен вон тот гайд сверху, и если не очень, что туда стоит добавить/убрать?
Спасибо.
И вопрос, верно ли там курс по математике расписан?
Я немного треды почитал, и аноны пишут что мол вот та и та хуйня нинужна, а нужна только вот эта.
1. Стоит. Тем более, если тебе это интересно.
2. Гайд норм, много полезных ссылок, но очень много и лишнего, имхо.
Например, из математики почти весь первый пункт идёт нахуй. Из необходимого: матан (на уровне первого курса вузовской программы), линал, теорвер, матстат. При этом не нужно всё это проходить очень глубоко, не нужно читать полностью Зорича, не нужно подробно разбирать и учить доказательства теорем. Иначе ты в одной математике застрянешь на пару лет, а скорее всего тебе просто не хватит терпения и ты забьёшь, так и не добравшись до самого мл. Желательно как можно быстрее переходить от теории к практике, а лучше делать всё одновременно, а не так, что ты первые полгода будешь только книжки читать и только потом начнешь писать код. А все серьёзные вузовские книги рассчитаны как раз для тех, кто собирается математикой дохуя заниматься и погружаться глубоко. Не рекомендую за них браться конкретно в твоём случае.
В общем, для понимая теории в машинном обучении тебе будут нужны только основные темы и концепции из вышеозвученных курсов по математикие, без фанатизма. Но надо чтобы этот необходимый набор тем ты хорошо понял и знал, как применять на практике. Для этих целей можно посмотреть курс матана от Khan Academy, например. По линалу там уже есть ссылка на хороший курс на Степике. А по теорверу/матстату вот топовый (и самый понятный из тех, что я встречал) курс от mit:
https://ocw.mit.edu/courses/mathematics/18-05-introduction-to-probability-and-statistics-spring-2014/
Видео-лекций там нет, но заходишь в readings и там находишь пдфки всех лекций. После их прочтения решаешь домашки в разделе assignments по каждой теме (ответы и разборы домашек там тоже есть). Разберёшься короче. Рекомендую его полностью пройти. Тебе этого хватит, чтобы понимать почти весь теорвер/матстат, который ты будешь встречать курсах по мл/дл.
Что касается самого машин/дип лернинга, то я бы рекомендовал:
1) мфти-шный курс от Нейчева, который указан в гайде
2) курс Соколова из ВШЭ https://github.com/esokolov/ml-course-hse
Здесь тоже есть лекции (как видео, так и пдф), семинары и домашки, как и у Нейчева, но нет дип лернинга, а только классический мл, зато некоторые темы разобраны получше, как мне кажется. Я бы начал именно с этого курса.
3) курс cs231n от стэнфорда
Когда их посмотришь, ты уже сам будешь иметь обо всём нормальное представление и понимание того, что тебе дальше надо изучать. Хотя в целом у тебя уже будет хорошая база, чтобы устроиться стажером/джуном.
Я сам, когда вкатывался, уже знал неплохо питон, а со всеми нужными библиотеками разбирался на ходу по необходимости. Разбираться во всём по необходимости - это ключевой фактор, который тебе поможет как можно быстрее всё освоить, не растратив своё время и силу воли на изучение лишней инфы.
Всё вышесказанное я написал с учётом того, что ты хочешь быстро освоить необходимую теорию и практику и поскорее устроиться куда-нибудь джуном и писать модели для продакшена. Если ты хочешь работать, например, в академической среде, придумывать новые модели и архитектуры нейросетей, то, там, конечно, требования к теоретической базе будут намного-намного больше.
1. Стоит. Тем более, если тебе это интересно.
2. Гайд норм, много полезных ссылок, но очень много и лишнего, имхо.
Например, из математики почти весь первый пункт идёт нахуй. Из необходимого: матан (на уровне первого курса вузовской программы), линал, теорвер, матстат. При этом не нужно всё это проходить очень глубоко, не нужно читать полностью Зорича, не нужно подробно разбирать и учить доказательства теорем. Иначе ты в одной математике застрянешь на пару лет, а скорее всего тебе просто не хватит терпения и ты забьёшь, так и не добравшись до самого мл. Желательно как можно быстрее переходить от теории к практике, а лучше делать всё одновременно, а не так, что ты первые полгода будешь только книжки читать и только потом начнешь писать код. А все серьёзные вузовские книги рассчитаны как раз для тех, кто собирается математикой дохуя заниматься и погружаться глубоко. Не рекомендую за них браться конкретно в твоём случае.
В общем, для понимая теории в машинном обучении тебе будут нужны только основные темы и концепции из вышеозвученных курсов по математикие, без фанатизма. Но надо чтобы этот необходимый набор тем ты хорошо понял и знал, как применять на практике. Для этих целей можно посмотреть курс матана от Khan Academy, например. По линалу там уже есть ссылка на хороший курс на Степике. А по теорверу/матстату вот топовый (и самый понятный из тех, что я встречал) курс от mit:
https://ocw.mit.edu/courses/mathematics/18-05-introduction-to-probability-and-statistics-spring-2014/
Видео-лекций там нет, но заходишь в readings и там находишь пдфки всех лекций. После их прочтения решаешь домашки в разделе assignments по каждой теме (ответы и разборы домашек там тоже есть). Разберёшься короче. Рекомендую его полностью пройти. Тебе этого хватит, чтобы понимать почти весь теорвер/матстат, который ты будешь встречать курсах по мл/дл.
Что касается самого машин/дип лернинга, то я бы рекомендовал:
1) мфти-шный курс от Нейчева, который указан в гайде
2) курс Соколова из ВШЭ https://github.com/esokolov/ml-course-hse
Здесь тоже есть лекции (как видео, так и пдф), семинары и домашки, как и у Нейчева, но нет дип лернинга, а только классический мл, зато некоторые темы разобраны получше, как мне кажется. Я бы начал именно с этого курса.
3) курс cs231n от стэнфорда
Когда их посмотришь, ты уже сам будешь иметь обо всём нормальное представление и понимание того, что тебе дальше надо изучать. Хотя в целом у тебя уже будет хорошая база, чтобы устроиться стажером/джуном.
Я сам, когда вкатывался, уже знал неплохо питон, а со всеми нужными библиотеками разбирался на ходу по необходимости. Разбираться во всём по необходимости - это ключевой фактор, который тебе поможет как можно быстрее всё освоить, не растратив своё время и силу воли на изучение лишней инфы.
Всё вышесказанное я написал с учётом того, что ты хочешь быстро освоить необходимую теорию и практику и поскорее устроиться куда-нибудь джуном и писать модели для продакшена. Если ты хочешь работать, например, в академической среде, придумывать новые модели и архитектуры нейросетей, то, там, конечно, требования к теоретической базе будут намного-намного больше.
Спасибо.
Такс, а фронтенд пилить к этому всему Пушкин будет? Добавляем знания js, ts, опыт работы с nodejs, jest для тестов и еще знания реакта будет весомым плюсом
> а фронтенд пилить к этому всему Пушкин будет
Нахуя вот ты сейчас высрался ни к селу, ни к городу просто так? Какой нахуй фронтенд, когда речь идёт чисто о машобе? Или у тебя еще датасатанисты фронт пишут?
ты на картинку посмотри, додик
Нормальный список. Знаю где-то процентов 80 из перечисленного, при этом ни дня не работал.
https://docs.google.com/document/d/18epDVkco9M8313RK7IczMEWKjL9eETOqQ94Nac0qQ9o/edit?usp=sharing
математико долбоебы идут нахуй
>>1981270
>Из необходимого: матан (на уровне первого курса вузовской программы), линал, теорвер, матстат
Сейчас даже эта херь не нужна. Это раньше, пять-семь лет назад, когда все только начиналось, может и стоило знать всякие фурье-ххурье и прочие Chi. Сейчас же, с ростом мощностей и появлением все новых библиотек и совершенствованием старых, все подбирается через кросвалидацию с грид серчем, а что не подбирается делается на нейронках. Посмотри на новые курсы от всяких мичиганов и стенфордов, там уже почти нет матана и все меньше статистики. И сравни со знаменитым курсом от яндексодаунов 2016 года, там буквально все из матана состоит. Так что математикодебилы снова соснули
>математико долбоебы идут нахуй
Ты буквально выложил гайд по математике для машоб. Шизик? Сам себя нахуй послал?
Я не он, но можешь подсказать как собеседования для джунов проходят? А конкретно:
1) Пишется ли код и какой. Заставят ли нейронку в торче написать или решить задачу классификации и все без гугления библиотек? Или обычные алгоритмические задачи?
2) Спрашивают ли алгоритмы и структуры данных (развернуто)?
3) Что по SQL спрашивают (просто по основам или решкние задачек)?
4) Надо ли знать библиотеки наизусть (pytorch, scikit)?
5) Надо ли выводить математику МЛ алгоритмов (расписать ручками бэкпроп через свертку и тд)?
6) Заставляют ли решать комбинаторные задачки (и на вероятности)?
>3) Что по SQL спрашивают (просто по основам или решкние задачек)?
Что такое оконная функция? Напиши-ка одну.
select dvacher_name, rank() over(order by toxicity) as toxic_rank
from itt
Я принят как макака по дейта саенс?
Спасибо. Что-то какая-то хуйня легкая. Есть еще?
Нет, зато теперь можешь в навыки вписывать sql
>Че не придумают что-то чтобы математику было также весело изучать как программирование
Это для того не придумывают, чтобы математики не становились такими же макаками, как программисты.
Очевидно, что он забыл там поставить значок гринтекста.
Для макак, предел возможностей которых ограничивается тряской черного ящика - да, математика не нужна. Собственно, с такой мотивацией тебе и подобным место в вебпараше или еще где, фу, блядь.
Предположим что математика никому не нужна. Ты хочешь стать программистом и поступаишь на ит специальность. На эту специальность тебе нужно сдать ЕГЭ по математике. Следовательно тебе математика нужна. Получаем противоречие с начальным утверждением, что математика никому не нужна. Следовательно существует по крайней мере один школьник (это ты) которому нужна математика.
s/поступаишь/поступаешь /
Учусь на последнем курсе Компьютерной Лингвистики, пытаюсь себя приткнуть в NLP и волосы на жопе рву немного, что с нулевой математической базой (в ВУЗе только дискретную математику проходили) и без инженерной вышки не смогу найти работу. С математикой и статистикой у меня всё крайне плохо, но буду дальше пытаться разбираться
Из технических навыков, полученных в ВУЗе, имеются какой-никакой Python, базовый SQL, HTML5, CSS3 (последние два нахуя??!!), ну и вроде неплохо разобралась с NLTK, в процессе освоения Spacy, Scikit-Learn.
Сама живу в Гейропке и вроде как чатботы сейчас в тренде у местных компаний по ИИ/МО.
Возможно, есть какие-то идеи, как дополнить еще теоретическо-практические знания.
Без пруфов в наше время никуда.
Желательно чтобы что-то +- связное, а не просто подборка выступлений гугла с различных конференций.
Бамп вопросу.
>опыт 2 года
>умение прогнозировать ml-проект
>вывод моделей в прод
Сразу видно позиция для вкатывальщиков.
Страшно заходить в тред. Чуть-чуть научился кодить, на где-то уровене, когда получается, но уже понимаешь какое на самом деле ничтожный сделал прогресс по сравнению с по-настоящему опытными мастадонтами. Столько всего, что разбегаются глаза, в то время как хочется быть в прямом пути и быстрой конве прогресса.
Еще SQL лабу сдавать. Веб сайт и приложение на плюсах, трехчасовой экзамен по плюсам, тест на полиморфизм,двухчасовой по JS, двухчасовой по SQL. Так что не сделал.
Бамп вопросу.
return 0
Думаю это - задача из тематики статистики
Поэтому ответ будет зависеть от типа распределения случайной величины в первом массиве, втором массиве
По-моему ответ таков:
expected_sum = E[X_1] + E[X_2], где
E[X_1] - мат ожидание типа распределения в первом массиве
E[X_2] - мат ожидание типа распределения во втором массиве
Для прикола ты можешь показать, что с увеличением количества независимых экспериментов значение будет более стабильным в значении
Нихрена не ясно про массивы. Они фиксированны и имеют одинаковый вид [ -9, -8, ..., 0, ... 8, 9 ], или имеют произвольную длину и произвольную расстановку этих чисел, к тому же ещё и не одинаковые?
Сумма будет в пределах от -18 до 18 вероятностями такими:
Скорее всего сумма будет равна 0 (вероятность 19/361) или 5%. Прикольная задача давай ещё. Это с собеседования в Яндекс или Гугол наверно или банк. Для решения надо перемножить вероятность числа в массиве на вероятность из другого массива.
Ты угораешь?
Картинка должна быть смешной. Что это за тетка? Я после похода в казино и игры в блекджек(очко) и естественно проигрыша всю ночь считал вероятность выйграть. Теперь скажи мне какова стратегия игры в блекджек исходя из вероятности получения карт на руки. Я сидя в казино я её вычислил пока играл и меня даже крупье похвалил черт. Назови очко выше которого не будешь брать. Какова общая вероятность выйгрыша в игре?
Игра с натуральным блэкджеком? Разрешено ли удвоение? А сплит? Конечная ли колода? Если да, то какая "горячесть"? Какая карта открыта у дилера?
И нахуя мне всё это считать самому, если есть Q-learning?
Колода очень большая считай бесконечная. Прочие правила не учитываются. Считай по простому. Карта диллера не считается. Считай в общем и в уме. На вскидку.
Каков средний IQ собеседника на дваче если по СНГ где провинциальный IQ = 100 показатель подавляет массой столичный? Ответ: 100. То же самое что поехать в провинцию и подойти к рандомному челику на улице.
А ты тогда считай в уме до десяти тысяч.
Новое устройство уже сейчас может быть использовано в квантовом машинном обучении — области науки на пересечении квантовой физики и обработки данных. Квантовые системы могут ускорять вычисления и сокращать количество параметров в нейросети. Благодаря этому квантовые нейросети становятся более выразительными и позволяют описать задачу меньшим числом параметров. Система также поможет в исследовании подходов к созданию квантовых симуляторов, служащих для контролируемой имитации поведения естественных систем, не поддающихся классическим расчетам.
нейронка
А я-то серьёзно насчёт квантовой гравитации сказал.
В чем я не прав. Я не московит просто у меня горит от быдла. Был бы тут рейтинг. Все равно айпишники палятся.
Я король треда. Задавайте вопросы. Расшарю любую задачу на статистику.
>Машоб это математика
Ее знают от силы 10% машобщиков. Машобщик - это та же кодомакака, только которая не умеет кодить.
насколько я понял что там что то с нулём и границей связано, типа что если данные на разделительной границе лежат то не определить к какой категории данные принадлежат.. а может и не правильно понял
total = np.dot(self.weights, inputs) + self.bias
мат. анализ, лин. алгебра, дискретные структуры, научные вычисления и чето еще я сдавал.. не достаточно?
https://www.youtube.com/watch?v=HG6SbYDwYsY
Математика гораздо интересней унылой бухгалтерской деятельности под названием "программирование", ты о чём?
В математике нет теории типов, да и вообще нет какой-то четкой модели вычислений. В программировании есть. Problems?
Потому что без свободного члена интерполяционный полином не полином.
> Для чего нужно смещение в сети когда веса умножаются с вводными данными? там + bias всегда. что даёт это смещение?
Педивикия -> "линейная функция".
> насколько я понял что там что то с нулём и границей связано,
Да.
Математика и есть унылой бухгалтерией с алгебраическими преобразованиями, когда программирование позволяет создавать целые миры.
>В математике нет теории типов
Есть соответствие карри-ховарда, так что можно считать, что теория типов в математике есть.
Конструктивист, плез.
Что интересно, подобное безымянное соответствие между логическими и теоретико-множественными операциями никого не парило, ну есть и есть, чё бухтеть-то. Но стоило подобное же использовать как базу для конструктивных оснований, всяким модульным петухам сходу днище пробило и пошли кукареканья со стороны параши, что HoTT нинужно
Пруверщик, плез.
Ну и как по твоему математической нотацией описать понятие натурального числа? Ну, кроме как безымянными множествами?
> нет какой-то четкой модели вычислений
Так потому она и интереснее и богаче что нет подобного говна имбецильного
Много миров создал, первокур? Ничего, успеешь ещё разочароваться, не торопись
Так-то он прав. Но не совсем.
Математика это та вещь, в которой необходимо иметь строгую систему преобразования данных.
>Математика и есть унылой бухгалтерией с алгебраическими преобразованиями, когда программирование позволяет создавать целые миры.
>строгую систему преобразования данны
Они с буквами там не определились, какие нах преобразования?
N петух, что ты тут забыл?
Тоже странная хрень. Типа вместо нормального счётчика мы должны считать скобки и это типа умно.
counter = 0
counter += 1
ууу тупые тараканы н петухи не знают математики
джигурда
(джигурда) 1
ого 1 скобка это так математично алгебраично премию филдса в студию небывалое открытие в алгебре множеств
Разве что вместо джигурда написали норвежскую букву, чтобы умнее выглядело.
Синтаксис десятичных чисел не отражает суть натуральных чисел. А суть: натуральное число это рекурсивно вложенный конструкт.
> +=
Так ты у нас еще и макакич.
Дополню себя. В доказательство моих слов приведем следующие простые функции:
inc x = (N x)
dec (N x) = x
Эти функции прибавляют и убавляют единицу к числу соответсвенно.
inc (N Z) # => (N (N Z))
dec (N (N Z)) # => (N Z)
Слишком тонко.
Наковыряй датасет и обучи ган.
Ещё забыл добавить что из вычислительных мощностей есть только колаб
> в которой необходимо
Что математикам необходимо а что нет предлагаю решать самим математикам, а не кодеркам с манией величия, которые ничего из математики кроме основ логики и теории множеств выучить не способны.
Этот шарит.
Да как можно жить без крепкой системы вычислений? Информатика это естественное продолжение математики, которое даёт не только её практическое применение, но и делает формулы чем-то материальным и объясняет основы самого понятия вычисления.
>Информатика это естественное продолжение математики
Информатика это мелкий аппендикс математики, а не её продолжение.
Заходит в бар математик. Бармен математик его спрашивает - какова вероятность того, что сейчас в бар зайдет динозавр? Математик говорит - ну одна миллонная или даже предел нуля. Заходит динозавр в бар садится. Бармен его спрашиват тот же вопрос. А он говорит - вероятность 50-50. Встретить или не встретить. Я вчера про if else читал.
> Заходит в бар математик. Бармен математик его спрашивает - какова вероятность того, что сейчас в бар зайдет динозавр? Математик говорит - "ну 50/50 или зайдет или нет, я вчера про исключенное третье читал"
Лол
Желательно что-то сложнее чем "выгрузить сеть друзей вк, посчитать всякие статистики, визуализировать".
Суть работы дата-саентиста - нахождение инсайтов в беспорядочно наваленной куче инфы.
P.S. Захотел вкатититьсч в бекенд на питоне, но как только что-то гуглю вылезает хуева туча зазывал онлайн курсов в нейронки (курсы нахуй конечно).
Отбой, в первом же посте чувак с идентично историей (либо матрица дала сбой, либо я в беспамятстве написал пост
>в первом же посте чувак с идентично историей
>либо матрица дала сбой, либо я в беспамятстве написал пост
Ахуенно!
Конечно.
Поспрашивай на одс. Там публика поадекватнее.
>>1985877
Лолблять. Жопеншмульцердебил, ты?
Нюфажина нормально спросила, чего ты порвался-то?
Тред вообще-то и существует для обсуждения машоба, помощи, кооперации. И это все есть практически везде в /pr/, кроме этого треда. Зазнавшиеся питухи вроде тебя могут разве что плескать желчью и страдать хуйней, обмазавшись всяким говном. И такая тенденция уже давно. Даже /b/ и тот адекватнее. Закройте ai-тхреды и не позорьтесь тогда.
Или ты очередной горе-вкатывальщик, который отыгрывается на своих неудачах ИТТ?
>>1985926
Лол х2.Тебе твоих 300кк/наносек не хватает? Решил на вкатунах подзаработать, да ещё и на харкаче? Ты, пирожок, попутал площадки. Скилбокс с курсами в другой стороне.
>>1985971
Всякое разное.
Зависит от задачи и навыков.
>Нюфажина нормально спросила
>может ли кто-нибудь снизойти
Токсик с пассивной агрессией. Такие не нужны, пусть в пятерочке хуи сосёт. И да, чего ты сам порвался-то, а наставником быть не хочешь?
Сам видео смотри, зумер. Навигатор нихуя нормально не определяет путь.
>>1985656
>ручки с дверью
И как ручка связана с дверью? Типа вначале придумали ручку (математику)?
>>1985657
>Прикладная математика.
Нет такого. Есть задачи которые решали мимокроки, потом матанопетушня собралала их в кучку и сказала что теперь они рулят но на самом деле нет. Вот.
> Модно сделать такую, чтобы думала за тебя?
Я вот, например, живу чужим умом. Сложновато чуток.
Почму бы не вкатиться в бэкенд на дотнете?
>Токсик с пассивной агрессией.
Кек. Так вкатун прав оказался, он о помощи просит, а вы ебало корчите, как зазнавшиеся небожители, и не хотите снизойти. Зато доебаться до чьего-то текста и обидеться на ровном месте - наипервейшее дело.
>а наставником быть не хочешь
Из меня хуёвый учитель. Но я хотя бы не самоутверждаюсь за счёт вкатунов, как, например, это ничтожество >>1986072
Ладно, пусть это всем уроком будет, что итт в основном желчные клоуны. И ML вопросики лучше прояснять на других ресурсах.
Математика проститутка наук, информатика царица проституток.
нихуя нет инфы для rocm, как блять на амд хоть что-то запустить?
Слив засчитан, пидор ёбаный.
Как составить список рекомендаций под товаром? Понятно что связи вручную можно вбивать, чем сейчас и занимались, но можно ли составить какую-нибудь вероятностную модель по которой к каждому товару можно получить схожие товары?
Можно подсчитать вероятности покупки вместе с этим товаром чего-нибудь ещё. Типа "n% людей, купивших селёдку / три семёрки, так же купили молоко / гондоны". Associative rule mining для этого используется.
Это же стандартная постановка рекомендательной системы, не? Что угодно бери.
> Так для чего же он был создан таким простым? Вот пара цитат Роба Пайка (прим.пер.: один из соавторов языка Go):
> Ключевой момент здесь, что наши программисты (прим.пер.: гуглеры) не исследователи. Они, как правило, весьма молоды, идут к нам после учебы, возможно изучали Java, или C/C++, или Python. Они не в состоянии понять выдающийся язык, но в то же время мы хотим, чтобы они создавали хорошее ПО. Именно поэтому их язык должен прост им для понимания и изучения.
> Он должен быть знакомым, грубо говоря похожим на Си. Программисты работающие в Google рано начинают свою карьеру и в большинстве своем знакомы с процедурными языками, в частности семейства Си. Требование в скорой продуктивности на новом языке программирования означает, что язык не должен быть слишком радикальным.
Пщ-дебилы даже в постинг не могут, не то что в программирование
Простота в данном случае это скорее плюс языка. С теоретической же точки зрения тьюринг-полный яп он и в Африке тьюринг-полный.
хан академи, степик
Записки Пола по математике, академия Хана.
иди на хуй
Собственно у меня вопрос, стоит ли выкидывать такие изображения, или пофиг сеть сама разберется?
При малом размере датасета- это плохо. Нейронка может начать детектить любой объект с "ручкой" в кадре как "опал". При большом- эти дефекты будут отсеяны как шум, нейронка будет даже лучше работать с изображениями с дополнительными шумами. Если в итоге распознавать фото с другими объктами в кадре не нужно - можно убрать. Если они могут попасть в кадры при работе- я бы оставлял и делал бы искусственные дополнительно дефекты и еще аугментацию сверху и побольше.
Спасибо
Не уверен, что я понимаю о чем вопрос. Но например я сейчас листаю код:
model = models.vgg16(pretrained = True)
model.classifier = nn.Sequential(
и я не понимаю, почему используется vgg, я погуглил и понял что это уже готовая модель на свертке, для меня это в новинку, может все сверточные пишутся через уже готовые модели?
Крупные нейроночки с нуля ты не обучишь, для этого кластер нужен с сотнями и тысячами GPU / TPU. Но можно взять готовый претрейн и дообучить (файнтюнинг) на своих данных. Для этого в большинстве случаев достаточно колаба.
Хорошо, а зачем добавлять слои в модель основанную на претрейне?
> Хорошо, а зачем добавлять слои в модель основанную на претрейне?
Затем, чтобы оно работало именно на твоей задаче. То есть ты дообучаешь сеть, надстраивая над ней например классификатор.
Спасибо!
Потому что считается, что сверточные сетки устроены иерархично, то есть первые слои выделяют низкоуровневые признаки (линии), следующие слои выделяют углы и простые фигуры и т.д. Тебе нет смысла с нуля обучать сеть выделять эти признаки учитывая, что это занимает кучу времени.
>>1988802
Статья как и где нужно менять последний слой (и зачем)
https://pytorch.org/tutorials/beginner/finetuning_torchvision_models_tutorial.html
На картинке точность предобученной сети (синим) и обученной с нуля, разница где-то в два раза за 14 эпох.
Но это не всегда так, не на всех маделях, wide_resnet101_2 мне удалось обучить на ихнем примере с таким же качеством с нуля
Спасибо, почитаю
чего чего, а не чего а
Что значит "вся математика"? Если что, можешь изучить фунтаментальные свойства формальных систем вычисления и познать дзен. Тогда, перед тобой откроются все двери.
Нужна только математическая статистика с теорией вероятности. Еще из матана надо только знать что такое частные производные, чтобы понять градиент.
Что такое вероятность?
Понятно, что тебе в твоем кликере можно просто блоки с нейросетками перетаскивать, но в нормальной компании такое не прокатит.
>Объясните пожалуйста зачем используются предварительно обученные модели для написания своей модели? Что это дает для моего датасета условных фотографий птиц если я беру модель vgg16 за основу?
Основная причина - потому что это увеличивает точность классификатора без необходимости собирать больше данных. От предварительно обученной модели берутся начальные слои, которые замораживаются и используются, по сути, для преобразования датасета и извлечения полезных фичей. Как результат - размерность датасета и количество обучаемых параметров уменьшаются, из-за чего в свою очередь улучшаются результаты.
Я знаю, что такое вероятность. Именно поэтому и "без комментариев".
Понятия не имею, где в работе в индустрии может понадобиться это знание.
Это основа. Всё остальное это просто формулы, которые могут быть любыми в зависимости от задачи.
Это как сказать, что элементарные частицы - это основа, а всё остальное - это просто разные сочетания этих частиц. То есть вроде бы и почти верно, но смысла в этом очень мало в итоге.
Теория вычислений это такая хрень, на которую дрочат петухи-конструктивисты, которые любят основания математики.
Но основания математики имеют довольно слабое отношение к математике.
Но в современной математике - совсем другая расстановка акцентов:
50 % - численные методы
50 % - дискретная математика
1 % - математический анализ.
Здесь две причины:
1) Практически все реальные функции, с которыми мы сталкиваемся, - не являются непрерывными и дифференцируемыми, как нужно для мат.анализа, поэтому нельзя брать производные и считать интегралы. То есть весь мат.анализ неприменим вообще. Из него максимум можно взять только исходные определения, да и то их надо корректировать. Поэтому для работы с реальными функциями (обычно они заданы с помощью таблиц) - используются только численные методы. Численно считают оценки производной, считают суммы вместо интегралов, и т.д. Кроме того, аналитическая математика не является научной - аналитическими методами обычно не решаются ни уравнения, ни диф.уры, ни считаются интегралы и.т.р. Строго научными являются численные методы - они полностью обоснованы и с помощью них решаются любые задачи.
2) Очень многие современные математические методы, которые имеют огромное применение, являются алгоритмическими, требуют программирования. При этом используются основные разделы дискретной математики - мат.логика, теория графов и др.
Поэтому, по хорошему, акценты в математике надо совсем по-другому расставлять, кардинально менять программы обучения.
> Но основания математики имеют довольно слабое отношение к математике.
Ага, а фундамент здания имеет слабое отношение к зданию.
И к чему ты это спизданул?
Да, это пиздец.
>Но в современной математике - совсем другая расстановка акцентов:
>50 % - численные методы
>50 % - дискретная математика
>1 % - математический анализ.
>Ага, а фундамент здания имеет слабое отношение к зданию.
Это вот нихуя не аналогия к этому:
>> Но основания математики имеют довольно слабое отношение к математике.
>Но в современной математике - совсем другая расстановка акцентов:
>50 % - численные методы
>50 % - дискретная математика
>1 % - математический анализ.
ПТУшник поясняет за расстановку акцентов в современной математике.
Любой опытный математик знает, что аналитические методы не являются научными. В науке принято, что любой обоснованный НАУЧНЫЙ МЕТОД ДОЛЖЕН РАБОТАТЬ НА 100 %. Теперь вспомните математику. Только 10 % реально встречающихся уравнений можно решить аналитически (численно решаются 100 % уравнений), только 10 % реально встречающихся интегралов можно вычислить аналитически (численно вычисляются 100 % интегралов), только 5 % реально встречающихся дифференциальных уравнений можно решить аналитически (численно решаются 100 % дифуров). Только 20 % реально встречающихся функций могут быть описаны аналитической зависимостью (численно можно работать с любыми реальными функциями, заданными таблично)... Я думаю, не надо дальше продолжать. Аналитические методы работают только в 5-20 % случаев. То есть с точки зрения науки они практически не применимы. Аналитическую математику бесполезно пытаться делать строгой научной теорией. За 300 лет, со времен Ньютона, это никому не удалось. Численная же математика является строго научной и работает всегда на 100 %. Применима ко всем реальным задачам.
>В науке принято, что любой обоснованный НАУЧНЫЙ МЕТОД ДОЛЖЕН РАБОТАТЬ НА 100 %.
Нет. И нет никакого научного метода.
Поговорил с пастой - день прошёл не зря.
>Любой опытный математик знает, что аналитические методы не являются научными.
>Только 10 % реально встречающихся уравнений можно решить аналитически (численно решаются 100 % уравнений)
Численное решение - это численное решение, аналитическое решение - аналитическое. Это сущности совершенно разной природы, ебанутая ты макака.
Во-вторых, численные методы развиваются и обосновываются с помощью всё той же «непрерывной» математики. Но откуда тебе, макаке, это знать, правда?
>Аналитическую математику бесполезно пытаться делать строгой научной теорией.
Ёбаный идиот.
А твоя паста про современную математику это вообще пиздец.
Численных методов не так много и они давно изучены. И реализованы.
Решения практических задач, полученных аналитически, через уравнения, часто частично решаются аналитически, и частично численно. То есть ты или упрощаешь уравнение, или аналитически вычисляешь в первом приближении, а разность уже численно.
Современная математика как наука оккупирована геометрами, это всякая аналитическая и дифференциальная геометрия, теория струн, матфизика и прочая ересь. Уравнения в частных производных, где вот как раз прикладной счёт, куда меньше популярны и там хуже с премиями и финансированием, как я понимаю.
А задачи моделирования, нейронных сетей и т.п. слишком не строгие и математикой особо и не называются.
Программа на матспециальностях действительно странная, там больше упор на теоретическую математику, меньше на классические численные методы. А вот с современными прикладными вещами, нужными для алгоритмов, ИИ, моделирования и др. там совсем слабо.
Все современные программ формировались её в махровом СССР, когда кибернетика была лженаукой. А потом менялись очень слабо.
>Уравнения в частных производных, где вот как раз прикладной счёт, куда меньше популярны
Достаточно они популярны, но только нормальные (то есть с дифференциальной геометрией, анализом и "прочей ересью"), а не с дедовским "прикладным счётом"
>А задачи моделирования, нейронных сетей и т.п. слишком не строгие
Скорее тривиальные с математической точки зрения, суть моделирования не в математике а в предметном знании (или данных, как сейчас модно)
>Программа на матспециальностях действительно странная, там больше упор на теоретическую математику, меньше на классические численные методы
Ровно наоборот, нормально математику на более-менее современном уровне преподают в двух с половиной вузах страны, все остальные выпускают недоученных инженеров, причём не современных опять же, а искалеченных каким-то старым нерелейтед дерьмом из XVIII века. Плюс кодинг ещё преподают, туда они в основном и идут после выпуска ибо самое релевантное.
> Это как сказать, что элементарные частицы - это основа, а всё остальное - это просто разные сочетания этих частиц. То есть вроде бы и почти верно, но смысла в этом очень мало в итоге.
Классе в седьмом узнаешь про химию и физику, о том, что все свойства веществ зависят от их строения. Из этого может быть поймёшь, что любая настоящая наука в своей основе имеет некий набор элементарных "кирпичиков", к которым ее можно свести. Потом подрастешь и может быть даже поймёшь какое отношение имеют основания математики к математике.
Теперь насчет АНАЛИТИЧЕСКОЙ И ЧИСЛЕННОЙ математики. В вузовской математике насаждается следующая идеология, что, мол, аналитические методы абсолютно точные, поэтому ими надо пользоваться, а численные - приближенные, поэтому ими нежелательно пользоваться. ЭТО ОБМАН. Как раз наоборот, численные методы абсолютно точные, и полностью обоснованные. А аналитические - всегда приближенные и ненаучные. Простой пример. Решите уравнение sin x + x = 0,8. Это трансцендентное уравнение, и в принципе нет никакого аналитического метода точного решения этого уравнения. Единственный способ аналитически его решить - грубые приближения, например можно считать, что х мал, поэтому sin x = x, тогда x + x = 0,8, откуда x = 0,4. Но при этом допускается ошибка порядка 10 %. Еще есть вариант аналитического решения: можно разложить синус в ряд и ограничиться первыми двумя слагаемыми, тогда уравнение примет вид: x - x^3/3! + x = 0,8. Получается кубическое уравнение, которое можно решить аналитически (правда на это уйдет целый вечер). При этом решение тоже будет не точное, ошибка будет порядка 5 %. То есть аналитические методы в принципе не являются точными. А вот численными методами, например методом деления отрезка пополам, можно решить это уравнение ТОЧНО - с любой необходимой степенью точности - хоть до двадцати значащих цифр. При решение производится за очень короткое время: метод деления отрезка пополам программируется за 5 минут, а само уравнение компьютер решает за 0,0001 с. Я не зря привел в пример уравнение такого типа - это ходовое уравнение. И среди всех встречающихся уравнений около 90 % именно такие - вообще не допускают аналитического решения, а остальные 10 %, если и допускают аналитическое решение, время аналитического решения составляет порядка нескольких часов (попробуйте решить любое кубическое уравнение с нецелыми коэффициентами). В математике если время решения задачи превышает 5 минут, то этот метод не является ни научным, ни практически ценным. Поэтому уравнения в математике решаются исключительно численными методами.
Теперь насчет АНАЛИТИЧЕСКОЙ И ЧИСЛЕННОЙ математики. В вузовской математике насаждается следующая идеология, что, мол, аналитические методы абсолютно точные, поэтому ими надо пользоваться, а численные - приближенные, поэтому ими нежелательно пользоваться. ЭТО ОБМАН. Как раз наоборот, численные методы абсолютно точные, и полностью обоснованные. А аналитические - всегда приближенные и ненаучные. Простой пример. Решите уравнение sin x + x = 0,8. Это трансцендентное уравнение, и в принципе нет никакого аналитического метода точного решения этого уравнения. Единственный способ аналитически его решить - грубые приближения, например можно считать, что х мал, поэтому sin x = x, тогда x + x = 0,8, откуда x = 0,4. Но при этом допускается ошибка порядка 10 %. Еще есть вариант аналитического решения: можно разложить синус в ряд и ограничиться первыми двумя слагаемыми, тогда уравнение примет вид: x - x^3/3! + x = 0,8. Получается кубическое уравнение, которое можно решить аналитически (правда на это уйдет целый вечер). При этом решение тоже будет не точное, ошибка будет порядка 5 %. То есть аналитические методы в принципе не являются точными. А вот численными методами, например методом деления отрезка пополам, можно решить это уравнение ТОЧНО - с любой необходимой степенью точности - хоть до двадцати значащих цифр. При решение производится за очень короткое время: метод деления отрезка пополам программируется за 5 минут, а само уравнение компьютер решает за 0,0001 с. Я не зря привел в пример уравнение такого типа - это ходовое уравнение. И среди всех встречающихся уравнений около 90 % именно такие - вообще не допускают аналитического решения, а остальные 10 %, если и допускают аналитическое решение, время аналитического решения составляет порядка нескольких часов (попробуйте решить любое кубическое уравнение с нецелыми коэффициентами). В математике если время решения задачи превышает 5 минут, то этот метод не является ни научным, ни практически ценным. Поэтому уравнения в математике решаются исключительно численными методами.
>Классе в седьмом узнаешь
Этот унылый перефорс.
>любая настоящая наука в своей основе имеет некий набор элементарных "кирпичиков", к которым ее можно свести
Можно, ага, только бесполезно. А для развития этой науки особенно бесполезно.
А так то можешь её и к Инь и Янь свести, к бинарному коду, примерно такая же польза.
>Потом подрастешь и может быть даже поймёшь какое отношение имеют основания математики к математике.
Ну так объясни. Мне, как математику, будет очень интересно это послушать.
> Можно, ага, только бесполезно.
Именно поэтому все физики мира стремятся открыть Единый Закон™? Потому стремятся познать самые неделимые элементы мироздания?
Ты причину со следствием перепутал.
Дебил блядь, ни в какой вузовской программе не скажут, что такие уравнения надо решать аналитически. Потому что их и нельзя решить аналитически. Охуительные истории какие-то выдумал и теперь свои выдумки опровергает. Аналитически нужно решать такие задачи, которые можно решить аналитические, и для таких задач аналитический способ решения заведомо лучше, чем численный.
А ведь это гениально. И что самое главное, можно сднэелать в любом языке программирования, а не только в тех, в которых есть поддержка символических вычислений и бектрекинга. Но вот интегралы, анон, нужно решать только аналитически. Ты как численно интегралы решать собрался?
Только в нашей стране при обучении математике ЗАПРЕЩАЮТ ПОЛЬЗОВАТЬСЯ КАЛЬКУЛЯТОРОМ (и тем более компьютером)! На ЕГЭ запрещают. На олимпиадах по математике запрещают. Учителя и преподаватели математики запрещают. А во всем мире наука, техника и обучение ушли далеко вперед: вспомните, в Японии устраивают соревнования роботов между школьными командами (это в 1 000 000 раз сложнее наших уроков математики). Во всех странах учат программировать (многие математические задачи легко решаются, если составить простую программку в 1-2 строчки). Если у Вас в руках всего лишь простой инженерный калькулятор - вы сможете решить любую задачу математического анализа. Быстро, не задумываясь, с любой точностью. Есть простые численные методы расчета пределов, производных, интегралов, дифференциальных уравнений, рядов, и т.п. КАЛЬКУЛЯТОР ДЛЯ МАТЕМАТИКА - УЖЕ МОЩНОЕ ОРУЖИЕ. В моем вузе олимпиады по математике проводят две женщины пенсионного возраста. И они не любят, когда приходят мои студенты. Потому что мои студенты достают калькуляторы и быстро решают все 10 олимпиадных задач - легко и правильно. Но им обычно не засчитывают: бабульки почему-то уверены, что нельзя в математике использовать калькулятор. И победителем олимпиады становится студент, который решил всего 2-3 задачи из 10, но без калькулятора. Поэтому олимпиады у нас - конкурсы для дебилов. Даже если ты победил в олимпиаде - все равно ты дебил. А еще один раз - отправили моего самого лучшего студента на областную олимпиаду по математике, а там бабульки, которые проводят олимпиаду, запретили вообще пользоваться калькулятором. Это только в анекдотах бабульки-пенсионерки сидят на лавочке возле подъезда. В реальной жизни бабульки-пенсионерки почему-то определяют какой должна быть математика. А в математике ЛЮБАЯ ЗАДАЧА НАЧИНАЕТСЯ С ЧИСЕЛ И ЗАКАНЧИВАЕТСЯ ЧИСЛАМИ. Поэтому РЕШЕНИЕ ЗАДАЧИ ЗАКЛЮЧАЕТСЯ В ПРЕОБРАЗОВАНИИ ЧИСЕЛ. И смешно в 21 веке решать задачи без вычислительной техники)
> А в математике ЛЮБАЯ ЗАДАЧА НАЧИНАЕТСЯ С ЧИСЕЛ И ЗАКАНЧИВАЕТСЯ ЧИСЛАМИ. Поэтому РЕШЕНИЕ ЗАДАЧИ ЗАКЛЮЧАЕТСЯ В ПРЕОБРАЗОВАНИИ ЧИСЕЛ
Ты не прав. А как же символьная математика (та самая, в которой только комбинаторы и буквы) и общая алгебра?
Ебааать. Этот дебил уже четвёртый пост высрал, и тут он уже каких-то студентов учит.
Заберите у него телефон, санитары, в дурке телефоны запрещены.
Он, возможно, в колледже (т.е. ПТУ) преподаёт.
>локализовать и классифицировать только два и три объекта, могу я обойтись без всяких крутых и тяжёлых сеток?
Без тяжёлых - да, крутых - нет.
Вообще, если нужны fps, то бери yolo, там как раз недавно v4 вышла.
Ставь конду
> Ну так объясни. Мне, как математику, будет очень интересно это послушать.
Сантехнику, чтобы поставить унитаз, не нужны знания о взаимодействиях между атомами вещества, из которого унитаз сделан. Это ровно то, что ты называешь математикой.
curve_fit вообше имеет хоть какое-нибудь хождение у ml-щиков?
Прикол в том, что я еще не видел статьи, которая бы рассмотривала долгое обучение модели с нуля и переобучение + новый слой для какой-то новой задачи. Почему-то кажется, что в долгосрочной перспективе новая непредобученная сетка будет лучше, чем предобученная. По крайней мере для какой-то новой специфической задачи типа распознавания камней, где осноным критерием была бы текстура объекта, а не формы, ну если использовать какую-то сетку для распознавания объектов как предоубченную- она больше внимания будет уделять именно границам форм. как-то так.
conda с её встроенными виртуальным средами норм, ими можно и нужно пользоваться. Может кто-то знает, поддерживается ли там в conda как-то разные версии cuda?
Какая разница, если платят? Со временем приложится.
А кто тогда программирует за тебя?
В каком виде ты результат выдаешь?
Тогда ответ - никак.
Все равно найдется пидор с tf1 или истинный torch на lua.
Venv используй.
Только вчера решил сделать то же что и ты - поставить один раз библиотеки чтобы минимизировать возню с venv.
Опять нихуя не работает. TF ругается, какие-то либы не доставились и тд и тп.
Проклятое место.
Для линуха есть официальные докер-контейнеры с тензорфлоу.
Я в винде ставлю и недавно проблема с либами была, когда TF2 поставил. Решил тем, что установил куда 11.2 и куда 10.1. В path прописал 11.2. Потом скопировал один файл из папки bin 10.1 в bin 11.2, которого не хватало для запуска на гпу. На цпу всегда без проблем работает.
Один анон уже ответил, но как-то не равёрнуто. Поэтому БАМП!
Ну тот же cubeFlow, да?
Я понять никак не могу все эти контейнеры, где про это почитать можно? Еще venv и ему подобное понял, это что-то навроде snap пакетов по функционалу, а вот Докеры, кубернетесы не особо, как их состовлять, работать с ними, уж тем более на практике разворачивать.
Докер уже по умолчанию в убунте стоит. Надо только скачать образ из докерхаба и запустить его. cubeFlow уже для продакшена нужен. На низовом уровне те же контейнеры использует.
Нет, код я, конечно, пишу, но я именно что код связанный с машобом, всякое взаимодействие с остальной системой пишут другие сотрудники. А разница большая - боюсь отстать от жизни, потому что других людей нет, с кем делиться знаниями.
>какие задачи
Как и всегда - детекция/сегментация.
>архитектуры
А в какой момент ты отвалился от "тренда"? Почитай про всё, что есть в keras.applications или torchvision.models. Ну ещё про SE-ResNext'ы, потому что это стандартный ноубрейн вариант для любой задачи.
>что сейчас актуально в компьютерном зрении
Актуально - что хайп этой хуйни стихает, так что лучше перекатывайся куда ещё
Компьютерное обоняние?
Где стухает то? Вроде пока на около пике находится.
Какие еще сферы есть близкие к мл/дл и для людей с таким бэкграундом?
SE-Resnet посмотрю, спасибо. А как там насчет трансформеров и аттеншена в зрении? Есть ли какие то значимые улучшения? Появлялось ли что-либо более-менее значимое с момента появления трансформеров вообще?
Вроде в Image captioning используются, но не думаю, что этим в реальности кто-то занимается.
Ещё регулярно всплывают статьи, обещающие, что вот-вот сверточные сети заменят на трансформеры, но тоже звучит сомнительно. Можешь походить по референсам тут, например. https://arxiv.org/abs/2103.17239
Я до сих пор понять не могу, а где там жкономия памяти то?
Они де берут те же свертки, но просто дополнительно их вместе комбинируют, перебирают почти.
мимо
>А как там насчет трансформеров и аттеншена в зрении?
Вот же наш недавно разбирал новую соту, не следишь что-ли?
https://www.youtube.com/watch?v=Bd8jFcoJBto
разве нет каких-то читшитов по теме мл/дс?
Сюда же можно добавить по сути все СОТА, которые сильно лучше результат дали, чем то, что было раньше.
Речь была про те года между алекснетом и трансформерами, когда ничего не выходило. Да и в алекснете ничего принципиально нового не было, просто большой LeNet догадались применить к соревнованию.
>Ганы
Ну это может быть, хотя по качеству всякие вариационные автокодировщики им не уступают.
> А что принципиально новое выходило с 2012 по 2017?
>>1992511
> Речь была про те года между алекснетом и трансформерами, когда ничего не выходило.
Хгбуст, лгбтбуст.
> в алекснете ничего принципиально нового не было,
Принципиально нового в машобчике вообще с 60х годов ничего не было и скорее всего не будет. Даже трансформеры с их аттеншеном это дальнейшее развитие идеи кернел регрессии Жопеншмульцера Надарайи-Уотсона 1964 года.
Принципиальная по сути у каждого своя. Лично для меня это когда вышло что-то что отличается по сути своей работы от того, что уже было или что-то что сильно улучшает результаты, например около +10% accuracy
работаю аналитиком данных в довольно многопрофильном отделе в не самой безызвестной организации - есть смысл перекатываться в ds? вроде понимаю о чём говорят коллеги, обсуждая всякие модели, значимости переменных и тому подобное, а вроде, нихуя не знаю с чего начать обучение необходимым скиллам.
что и где мне посоветуете изучать, если на сильном уровне владею питоном, +- понимаю его библиотеки визуализации и работы с датасетами (np + pd), знаю пару диалектов sql, но больше нихуя? с матаном, линалом, матстатой в универе было всё в порядке, но связь предметов с DS пока очень размыто представляю
Пройди курс на курсе по ML или книжку какую прочитай по ML.
Знания математики понадобятся для понимания как работают и обучаются ML алгоритмы.
>Пыня одобряет.
Да похуй на него.
>Петухон, естественно.
Как вкатиться если есть бекграунд в других япах?
Ладно, за ночь думаю освою.
"Хуета для экономистов, не умеющих в программирование" - это нестареющая классика Excel, а Julia дважды хуета - "для экономистов", а погромировать всё равно надо.
>>1994632
>сберовскую gpt?
Не нужна. Мутное поделие от ноунейм конторы. Алсо, используй куколаб, там вроде работает.
> Хуета для экономистов
Лел, как ловко они переобулись. А ведь джулия была заменой питухона в области DS и ML. Потом в питухоне появились либы для обработки больших данных и чисел, и джулия тут же стала никому ненужна.
Лучше Switch Transformer (триллион параметров) обучи. А то хуй знает, когда обучат, а попробовать хочется.
> Лучше Switch Transformer (триллион параметров) обучи.
Для обучения гпт3 175В использовался кластер с 280000 процессоров и 10000 ГПУ. Подумай, какие нужны ресурсы для сети с 1600В параметров.
Так Switch Transformer в 6 раз быстрее обучается и требует меньших ресурсов.
А вот мне интересно, это говно хоть-где то используется кроме красивых картинок, исследований и эксперементальных мемных чат-ботов?
Трансформеры типа? Да, с помощью них более лучшие эмбеддинги получают
> Легче просто подождать пока мода на большие модели спадёт
А она не спадет, битерлесон же, все дела. Способность сети к zero-shot / few-shot learning зависит только от количества параметров. Алсо, все эти модели с триллиардами параметров все равно на чем-то домашнем не запустить. 1.3В еле влезает в 12 гиг оперативы, даже если вот прямо сегодня Маск Небоходец обдолбится паленой ганжой и выложит 175В гпт3 в открытый доступ, ты ее не запустишь ни на чём. 1.3В весит 6+ гиг и требует хотя бы 12 гиг оперативы. 2.7В весит 10+ гиг и ей наверное 16 гиг оперативы маловато будет. Можно предположить, что 175В весит в районе 700+ гиг и для работы с ней надо не менее терабайта памяти. Такое только на каком-нибудь небесплатном облачном сервисе запустить можно.
> А ведь существует Weka...
Очередной кликер типа того что тут форсят, оранж или как там. Пистон лучше для диплернинха, чем R. Но за пределами модных моделей пистон хуже. На нем нет ничего сравнимого с тем, что есть в R для grammatical evolution, например.
>Легче просто подождать пока мода на большие модели спадёт
Да, определенно дело в моде, а не в лучших метриках.
А размер моделей всегда пытались снизить.
Неужели такого нет? Мне нужен датасет с документами о приеме на работу например, о бух. квартальных отчетах и т.д. Помогите, умоляю...
Та чет это пиздец. Устраиваться на работу только чтобы получить ОДИН файл о приеме на работу.
В даркнете такое поищи.
>zero-shot / few-shot learning зависит только от количества параметров
От чего оно зависит точно никто не знает, но биттердодик конечно уже разрешил все проблемы человечества
>но биттердодик конечно уже разрешил все проблемы человечества
Ну так это же максимально заманчивая идея для всех болванов: «не нужно ни о чём думать, нужно просто stack more layers». А потом чувствуешь себя самим Б-гом!
Зумеридзе, я понимаю что по молодости любой график может вызвать изумление, но мозги отключать всё-таки не надо
Черрипикинг. Свертки вообще архитектура такая себе. Перцептрон тоже стакать бесполезно. Что ж ты не сравнил производительность трансформеров в зависимости от количества параметров и слоев?
>>1995960
> Зумеридзе, я понимаю что по молодости любой график может вызвать изумление, но мозги отключать всё-таки не надо
Ты ж отключаешь. И зачем-то споришь с реальностью.
>зачем-то споришь с реальностью.
Реальность состоит в том что ты не понимаешь:
1) Из того что качество растёт с количеством параметров на одной архитектуре не следует никаких универсальных выводов для всех возможных архитектур вообще
2) Из того что качество растёт с количеством параметров на одной архитектуре не следует что даже на этой же самой архитектуре не существует такой инициализации параметров которая позволяет существенно сократить их количество
Я ни с первым ни со вторым не спорю
>Черрипикинг. Свертки вообще архитектура такая себе.
Ваше стаканье слоёв - не стаканье слоёв. Ненастоящий шотландец, все дела.
>Перцептрон тоже стакать бесполезно
Как удобно. Stack 10000 layers не работает для большинства архитектур, но это потому что архитектуры такие себе.
>Что ж ты не сравнил производительность трансформеров в зависимости от количества параметров и слоев?
А вот это не черрипикинг, да? Брать архитектуру, которая появилась два года назад и с которой не успели наиграться. Биттер лессон до 18 года не работал?
p.s. данные на графике усреднены по 10 семплам
>Или таки придется в Гугл денешки нести?
Я тебе больше скажу, ты в данный момент даже денежку им не можешь занести - покупка премиума открыта только для пользователей из США и Канады, за попытку указать фейковые данные могут и забанить нахуй.
Оптимизировать модель.
Собирай свой кластер с блекджеком и шлюхами.
>За 60к? Спасибо, не надо.
За 260к, спасибо ебаной крипте. А вообще, я тебя не понимаю. Ты бы для начала поработал а любой другой сфере айти и поднакопил денег, а потом бы уже вкатывался в машоб.
Я не вкатыш. Просто у меня есть интересный проект аналоговнет на трансформерах. Конкретно - на основе few-shot learning. И по причине пикрелейтед на публично доступных архитектурах он не работает, разве что на GPT-neo 2.7B и GPT-3 из AI dungeon начинает выдавать нужное. Видюха за 260к мне не нужна, на ней все равно ничего полезного для меня не запустить, разве что майнер. А вот нормальный облачный инстанс с жупитер нотбуком был бы очень полезен, даже платный.
>А вот нормальный облачный инстанс с жупитер нотбуком был бы очень полезен, даже платный.
Можешь попробовать MS Azure - оно в России вроде бы доступно. Бесплатного облака для своих запросов ты все равно не найдешь, так что регистрируйся по нормальному и плати с карты.
>через пару лет можно будет запускать gpt3 в мобильных играх
В лучшем случае через пару десятков.
Ну убери трансформер, попробуй дистиляции какие-нибудь.
Что за зумерьё такое беспомощное, присохли к одной архитектуре и дрочат сидят.
> Ну убери трансформер, попробуй дистиляции какие-нибудь.
Будто не пробовал. Нихуя оно не работает, всё что я увидел, это зависимость способности сети к few-shot learning только от числа параметров. Чем их больше тем лучше результат. Всё. Остальные изьебства не работают. Пидерлессон ин экшн, так сказать. Использовать файнтюнинг вместо фьюшотлернинга не вариант.
Это задача обучения с учителем. Да функция подгоняется, для некоторых классов функций есть гарантия обобщения, в частности для нейронных сетей.
Почитай бишопа, там удобный байесовский фреймворк, из которого выводится 99% алгоритмов машоба.
if piska_ebat() != null do piska_ebat(*arr) else if nesudba() != null do nesudba() else exit;
Да. Теорема Байеса, задача машинного обучения и формула условной вероятности в кругах Эйлера. D - данные, θ - веса.
Отсюда позаимствовал эту идею.
Нихуя непонятная пикча
https://colab.research.google.com/drive/1qbeMjhWCsjClREqARPRNapkE-MosJ9jI?usp=sharing
Нужно модельку не большу (где-то на миллион параметров) потренить много раз. С разным порядком слоёв, оптимизаторами и прочим. Проверить какая архитектура лучше зайдёт. Быстро она будет на моём ноуте без видюхи трениться или стоит в облаке гпу не дорогой поискать? У яндекса есть датасфера, где можно сразу код писать и платить за каждую секунду выполнения кода. Может сразу там и начать проект делать?
>Нужно модельку не большу (где-то на миллион параметров) потренить много раз. Быстро она будет на моём ноуте без видюхи трениться?
Да, если только без серьезных извращений с рекуррентными сетями. Ну и офк зависит от данных.
Пикрандом, если что
Кунихико Фукусима выпрашивает у инвесторов грант на разработку неокогнитрона, 1980 год
Набор баззвордов
Чет слишком общно
Какого современного ит-философапочитать чтобы уложить в мозгу законы развития науки и программирования?
Как научиться видеть в тенденциях общее?
Как развиваются программные системы? Где баланс между выгодой обобщения и эффективностью быстрых решений?
Вот был Лем - и умер.
Вот был Джоел Спольски - исписался (и пидор к тому же)
Остальных я не знаю. Кто прям ГЛЫБА и в то же время полезен уму, как логика Аристотеля?
Лем крут был, да. Сейчас таких уже нет. Пикрелейтед чувак Джерон Ланье как философ айти интересен. Создатель виртуальной реальности и вообще. Но его на русский никогда не переводили, так что чтиво не для всех.
Либо нонеймы, либо неинтересные люди.
Ветров вообще одно и то же из подкаста в подкаст рассказывает.
Ну и на серьезных щщах обсуждать AGI больше 2 минут - моветон.
А что ещё ждать от неуча без высшего образования
Не читай философов. Читай пейперы, устраивайся в гугл, греби деньги лопатой.
> ну и что вкратце? что тебя зацепило в нем?
Пижжу, его оказывается на русском издавали. А я и не знал, лол. Интересен он своими взглядами на айти, его влияние на общество. С одной стороны с его доводами не поспоришь, а с другой - читаешь и пынямаешь, что сам до многих таких мыслей никогда бы не дошел, хотя все в общем-то на поверхности. Всё-таки, простой обыватель и мыслитель его уровня это абсолютно разные уровни понимания вещей.
>>2002371
>>2002768
В той документалке он говорил о том, как айти гиганты, главным образом Фейсбук и Гугл, а также Твиттер, манипулируют людьми, знают про людей больше, чем эти люди сами, и таким образом ведут общество туда, куда им, этим корпорациям, нужно. Что фактически эти корпорации стали могущественнее правительства США.
Так же он говорил, что ведут они американское общество к гражданской войне, выступая на стороне Демократической партии.
Собственно, 2020 год показал, как чертовски прав был этот чел, когда эти гиганты похоронили свободу слова в США, уничтожая сторонников Трампа и его самого.
Хотя мне лично давно ясно было, что они выступают на стороне блевачков.
>Хотя мне лично давно ясно было, что они выступают на стороне блевачков.
Да, блевачки же выступают за то чтобы рабочие не могли в туалет выйти на работе.
Фейсбуки и гуглы форсят blm, лгбт и прочее говно чтобы люди отвлекались на проблемы рабов в 18 веке и не спрашивали "а почему безос зарабатывает в миллион раз больше меня, хотя он ничего не делает"?
А левизны там и нет, там есть блевизна только.
АйТи гиганты выступают на стороне блевачков, то есть радфема, пропаганды лгбт, блм, тупых мигрантов в Европе и прочего сжв говна.
То есть тех, чья борьба идёт против какого угодно выдуманного неравенства, фактически превращаясь в обратную дискриминацию, но только не против капитализма. Блевачки даже и не слышали о такой классовой борьбе.
Просто так уж получилось, что борьба с неравенством — левая тема, вот эти тупые быдланы и называют себя левыми, не имея к настоящим левым никакого отношения.
> Это культурный марксизм.
Каво? В этом нет никакого марксизма. Марксизм это про экономику, классовую борьбу, и коммунизм без государства, денег, и буржуев.
Да, это другое, лол. Ты не можешь показать на свою мертвую мать и сказать "смотрите, какие леваки тупые".
Нет каких-то "других" леваков. Ты ведь не скажешь, что есть какие-то другие праваки, верно?
Ты ебанутый? Ты где-то увидел у блевачков борьбу против капитализма?
Так-то логично!
Машоб проникнет во все щели и приведет к максимуму в эффективности расхода ресурсов. Рыночная рука будет зажата тисками планирования. Госплан на новом витке диалектической спирали развития.
Все верно. Сначала будет БОД (социализм), потом классовое общество полностью разрушится, ибо пролетариат вымернет как класс.
я просто представляю как найронка написанная пынелхатой стреляет по Воронежу ядерными ракетами в целях борьбы с коронавирусом.
Потом её заменят на новую версию- внутри компьютера будет сидеть человек, ему будет подватсья информация, ону бдует печатать отчет и советы по решению проблемы. если совыет помогают- то нейронку положительн омотивируют- льют в щель молоко и сыплют гречку. По итогам года выдаётся премия конфетами.
https://www.popularmechanics.com/technology/infrastructure/a27793543/artificial-intelligence-carbon-footprint
Да, действительно, так эффективно ресурсы мы ещё никогда не расходовали. Осталось создать thiskotletadoesnotexist и можно будет переходить к новой формации.
Идет переход на альтернативные источники энергии.
Почитал про бигберд - выглядит как сверточная сеть с приколами.
На изучение всего зоопарка время тратить не хочется.
А если серьезно, то помогите понять что это за нёх? С с++ плохо знаком. Проект скомпилил, запускается(скрин 2). Что делать не понятно. Что это за бодяга очень интересно.
Кто умет в чтение кода с++ - опишите что это такое? Какой-то AI?
Вот в этом файле комменты интересные. Они-то меня и заинтересовали изначально:
https://github.com/mastertimer/mutator/blob/master/sable/sable.cpp
Довольно наивно надеяться на это. Ведь любой прогноз сопровождается Ошибкой
Крепкий член сильный волос
Что-то уровня протеиношиза.
как и всё другое- делаеш бизнес, мотришь, что делают конкуренты, повторяешь, думаешь как улучшить. Потом приходит понимание собственной потребности и ты удовлетворяешь её для всех, профит.
Когда ты формализуешь задачу и соберешь данных.
> Сап. Есть одная нейронка. На вход получает 32 байта из рандомного места файла,
Нормально описать не можешь что-ли? Не бывает просто файлов.
Зумер-ебанат...
>. Для этой задачи лучше RNN и LSTM подойдут, но я не умею их писать.
Если это так, очевидно, речь не просто о файле, а о последовательных сигналах.
Но твои попытки запутать не дают тебе сформулировать вопрос к гуглу.
Вторая это скриншот консоли в которой этот скриншот отрисован символами.
Оба изображения имеют размер 640х360.
Всего имеется 5к картинок 2х версия, 10к в общем.
Я усредню каждый пиксель (R+G+B) / 3, получу оттенок. Во втором скриншоте беру G канал так как там только зеленый цвет.
В итоге я получаю 2 массива чисел. 230400 параметров. Мне уже что то подсказывает что обучать такую сеть я буду лет 50. Думаю объединить пиксели в квадраты по 100шт и взять среднее значение для них. Проблема в том что я не знаю как это все скомпоновать?
До этого ML я трогал через Model Builder в Net, там все просто, загрузил табличку, выбрал столбец который надо спрогнозировать. А мне надо спрогнозировать каждый пиксель.
Вопрос состоит в том как из всего этого создать Data Set который можно будет обработать нейронкой?
В итоге хочу получить модель которая стилизирует картинку под ASCII графику.
Тыб погуглил хоть. Чуть ли не просто алгоритмы есть, которые картинку в АСКИ переводят.
Да я хуй знает как такое гуглить.
Все что я нагуглил это статьи с описанием сервисов которые что то с изображениями делают.
А бля не так понял твое сообщение.
Ебать ты умный шо пиздец алгоритм который переводит картинку.
Точно как это я сам этого не понял? Ебать да можно ведь алгоритм нагуглить и перевести картинку.
Ну спасибо, без тебя бы я сам до такова не додумался.
Я вот скрины в пикриле руками собирал, смотрел какой пиксель а потом ставил точку, заебался пиздец, а коазывается алгоритм есть.
Спасибо.
Слушай ты сам то работаешь где? Я бы работодателю твоему хотел бы написать какой ты ахуенный и какие дельные советы даешь.
совсем не факт, что это займёт 50 лет. Для этой задачи подойдёт неплохо даже оригинальный pix2pix на минимальных разрешениях. Или у тебя видеокарты нету?
>В итоге хочу получить модель которая стилизирует картинку под ASCII графику.
style transfer, pix2pix, cyclegan
Датасет собирать в зависимости от того, чем из этого воспользуешься.
Картинки лучше бы поменьше раза в два, но опять же, всё от модели зависит.
Нихуя не понятен твой сарказм. И первый пост не понятен. Чё тебе надо-то?
https://github.com/RameshAditya/asciify
На офф сайте слишком сложна, а на ютубе просто пересказывают офф сайт.
Я 30 сыч которому сложно читать по англицки.
Да и еще примеры на ебучем питоне который создан для аутистов.
Пиздец, разграничение команд пробелами, беать разрабы данного ЯП по пьяне придумали такой рофл и он зашел, представляю как они сейчас ржут.
1. Пайтон, как разместить структуру проектов, куда всунуть юпитер?
Достаточно анаконды со всей хуйней или лучше пичарм?
2. Пайтон это реально сильно и уверенно? Или Р вполне конкурентно способен?
Нахуя тебе в этой таске сверточная нейроная сеть? И нет никакого входа переменной длины у тебя только один чанк такой будет, если файлы большие то можешь его выкинуть, либо дополнить нулями, либо заэнкодить с символом означающий конец. И тут нахуй не нужна свёртка.
Впрочем таска какое-то бесперспективное одебилившее говно, так что лучше просто пива попей
Зумеры изобретают свертку, что за высер. Написали тебе модели нейронок. Не будет у тебя там 230к параметров
И опять какая дебильная идея непонятно зачем нужная, зачем тут нужны нейронки неясно
> сложно читать по англицки
В программировании с таким только в петлю. Как и с тем, чтобы смотреть на язык не как на инструмент
> Достаточно анаконды со всей хуйней или лучше пичарм
Блеа анаконда это васяносборка библиотек, приложений, менеджера пакетов и менеджера виртуальных окружений. По мне так говно редкостное. Conda медленнее работает pip, там меньше версий библиотек. Зато можно не только python библиотеки устанавливать. Пригодится тебе когда-нибудь это? Нет. А пайчарм это вообще IDE. То, что ты спрашиваешь, что лучше как бы намекает, что тебе рано задаваться такими вопросами
>как правильно засетапить среду разработки на ПК для анализа данных и каких-то лафовых моделей
Для написания кода - пайчарм с интерактивной консолью жупитер говно без задач. Анаконда нужна для установки Tensorflow/PyTorch без возни с внешними зависимостями, ну и для возможности одновременно иметь несколько версий питона, или версий с разными библиотеками. Все пакеты можно ставить через pip прямо в окружение конды. Если не хочешь замусоривать систему говном, можешь поставить миниконду - минимальный установщик анаконды. Для контроля версий кода - git, для данных - dvc, для экспериментов - mlflow.
> Зачем весь этот мусор себе на комп
Дай угадаю, ты слушаешь музыку только из стриммингов? Может еще и жопу корпорациям продашь?
seresnext и все прилагающиеся, efficientnet, трансформеры в CV
Объебать в одном конкретном задании на одном конкретном датасете. Неплохо, да. А ещё можно двузначные числа складывать эффективнее чем в гпт3, представь себе.
> Объебать в одном конкретном задании на одном конкретном датасете
Стандартные датасеты для того и делают, чтобы как-то сравнить производительность разных архитектур, но при этом на профильной для них задаче. Поэтому в общем случае если архитектура А превосходит архитектуру Б на наборе стандартных датасетов, то можно считать, что А лучше Б.
Только у гпт-3 нет профильной задачи (кроме предсказывания следующего токена по предыдущим).
Так что всё таки ставить? Пока никаких тензоров не предвидится, иду только к этому. Делаю какие-то модельки основаные на регресии, парсеры данных, деревья.
>>2006464
Какую ИДЕ выбрать чтобы сидеть копипастить код? Где еще можно работать в режиме ноутбуков как в юпитере? Желательно чтобы в ИДЕ был гит модуль или только через сосноль корректно ебашить гит?
> Так что всё таки ставить
Анаконду нахуй. python + pip + virtualenv + pew
> Где еще можно работать в режиме ноутбуков как в юпитере
VS Code там можно и к колабу подключиться, и гит через кнопочки понажимать (хотя нахуя это надо когда есть терминал).
Но ты же долбоеб ставь что угодно какая разница, это все дело вкуса. Может тебе удобнее вообще в виме писать скрипты или в браузере в колабе. Из года в год дебильные вопросы не меняются
Ты когда приходишь в продуктовый тоже выпрашиваешь у других покупателей, что тебе купить? Просто осознай насколько ты дегенеративен, когда без объяснения для каких задач нужны инструменты просишь их посоветовать
Успокойся, шизло. Мне кажется я нормально всё распросил. Если бы разницы не было что ставить, то я бы и не задавал вопроса.
> Мне кажется я нормально всё распросил
> как правильно засетапить среду разработки на ПК для анализа данных и каких-то лафовых моделей
Ну покупай тогда SAS studio или excel с azure или matlab, АХХАХАХХАХА. Бля ну таких мудил, как ты, надо шеймить обязательно. Каждый приличный человек должен так делать, чтобы подобные дебильные вопросы "хочу не знаю чего" было стыдно задавать
Чтобы делать прикольные гифки.
Она может делать всё.
Но лучше всего предсказывает следующий токен по предыдущим.
А то что она внезапно очень хорошо решает ещё 9000 задач - это фича.
>Какую ИДЕ выбрать чтобы сидеть копипастить код?
>Где еще можно работать в режиме ноутбуков как в юпитере?
Я же тебе написал - пайчарм. Настраиваешь ipython, и можешь запускать выделенный мышкой код или делить файл на секции подобно жупитеру.
Либо такой же дата сет, но где хотя бы для каждого профиля в соц сети указан годовой доход его владельца чтоб оценить богатство?
Или какая то модель, которая даёт оценку по профилю в соц сети богатый человек или нет?
Много подписчиков (а ля кто-то с тнт) = богатый. Или тебе нужен датасет топ-менеджеров газпрома? Такого очевидно нет, тем более с ссылками на соцсети.
Значит если я в одном блоке создал датафрейм. А в другом делаю превращения над ним, то при условии что я ранее выполнил первый блок записал в память, могу как хочу запускать второй?
мимо мех-мат МГУ, рвал жопу несколько лет, сейчас джун
> Очень много людей вкатились после курсов и реально нашли свой работы первые.
Научись мысли выражать, непонятно нихуя
> мимо мех-мат МГУ
Ясно, на клавиатуре значков кванторов нет, поэтому тяжко мысли формулировать.
Очень много людей пишут, что закончили всратые курсы и нашли работу. Теперь любой может стать джун-ДСом.
Любой да не любой. На самом деле не имеет значение закончил ли ты инфоцыганские курсы или вообще по бесплатным источникам накопал инфу и обучился. Важно, чтобы ты понимал какую-то базовую часть материала, представлял себе как решать те или иные задачи и готов был обучаться дальше. А в это не все могут, даже если с профильным образованием. Вон можно тред полистать выше и увидеть на каких моментах люди застревают и не могут самостоятельно разобраться
Да и смотря какой ДС. ДС бывает разным. Какому-нибудь аналитику макаке дата инженеру ничего кроме sql и питона и знать не надо будет
Зачем ты рвал жопу несколько лет? Как связаны нейросеточки с маняматикой? Как изменится регрессия при условии, что ошибки имеют равномерное на отрезке -1, 1 распределение?
Ну вот в том-то вся проблема. Я знаю, почему сходится PageRank(из эргодической теоремы) и с какой скоростью, знаю как вывести основные функции потерь в основных случаях из допущений о распределении ошибки и регулязаторы, знаю еще очень много всего, типа топологии и ее приложения. Но на хуй это нужно, если импортить и пихать данные может любой идиот?
> Как изменится регрессия при условии, что ошибки имеют равномерное на отрезке -1, 1 распределение?
Если речь о модели линейной регрессии (что вообще-то надо уточнять), то ничего не изменится, даже независимо от способа, которым ты будешь её строить по МНК, или ММП. Просто в случае МНК не будет одной из предпосылок и из-за этого формально мы не можем сказать, что по МНК мы получаем самую пиздатую оценку. Но на практике все предположения никогда и не выполняются.
>>2007684
> PageRank(из эргодической теоремы)
А причем тут ДС?
> знаю как вывести основные функции потерь в основных случаях из допущений о распределении ошибки
Например?
> знаю еще очень много всего, типа топологии и ее приложения
Причём тут ДС?
> Но на хуй это нужно, если импортить и пихать данные может любой идиот?
Такие как раз никому не нужны
И тем не менее, что случится, если в регрессии заменить нормальное распределение на равномерное?
Прости, незнакомые мне слова. Давай так,
y = Ax + epsilon
{epsilon_i} - независимые одинаково распределенные случайные величины с равномерным на отрезке -1, 1 распределением.
Как найти оценку x?
>А причем тут ДС?
Ну вот видишь, ты даже этого не знаешь, хотя многое из этого спрашивали меня в свое время на собесах джуновских.
Ну расскажи. Я знаю PageRank только в поисковых системах. Причем тут ДС хуй знает. Что ещё тебя спрашивали?
> Как найти оценку x?
Метод наименьших квадратов
Метод максимального правдоподобия
Любой из них.
Ой, все, пошел нахуй.
В ответе должно было получиться выпуклое множество, любая точка которого явлется оценкой
Что тебе непонятно? Или кто-то тебе должен пересказывать миллион статей изложенных доступным языком ещё и с примерами? Очередной человек, которому "сложно читать на английском"?
> В ответе должно было получиться выпуклое множество, любая точка которого явлется оценкой
Мне трудно понять этот высер. Вопрос "как найти оценку". Ответом на такой вопрос является метод с помощью которого ты находишь оценку. МНК, ММП, есть другие но они почти не используются.
Тебе надо дохуя оценок? Можешь бутстрепить свои данные и применять к ним перечисленные методы
Хотя может ты имеешь в виду построить доверительный интервал по МНК с учётом такой ошибки, ну тогда хз
ладно чел спасибо, я думал тут сидят те кому не в лом будет блять объяснить маслёнку. Статьи то я читал и на английском, и модели с zero shot использовал в pet проекте, но блять стыдно как-то без понимая полноценного. Я как бы для себя принял, что вот оно так работает и всё, но блять хуёво же.... Я так понимаю, что zero shot это когда у нас прямых тренировочных данных нет, но есть какая-то мета инфа (какая зависит от задачи) и мы её используем. А few shot когда у нас просто мало тренировочных данных (ну и чё блять какая нахуй разница, я блять понимаю что там может быть всего 1-2 фотки одного человека, ну блять значит пиши модель чтобы работала сука так)
Расскажи, о чем он говорит в таком случае и что я не понял
А куда писать, аллаху?
Бамп
На самом деле не кредитный скоринг. Я просто хочу узнать, какой примерно процент богатых людей смотрят аниме
Какой ты скучный. Я уверен, что минимум 5% богачей смотрят аниме и хочу это доказать.
>>2007873
Швятой Машк смотрит вроде, какой-то шейх оплатил большую часть аниме по доте.
https://dtf.ru/gameindustry/646199-princ-saudovskoy-aravii-zayavil-vkontakte-chto-profinansiroval-anime-po-dota-dlya-netflix-i-teper-hochet-kupit-valve
Зачем мне палка, которой в теории можно забивать гвозди, копать землю и ковыряться в жопе, если есть куда более эффективные лопата, молоток и дилдо?
ну может есть модельки, которые оценивают доход пользователя по профилю в соц сети
> ну может есть модельки, которые оценивают доход пользователя по профилю в соц сети
Нет такого. Тебе проще купить какие-нибудь базы налоговой в даркнете, лол. Алсо, задача у тебя - шиза какая-то. Да, какой-то ненулевой процент богатых смотрят аниме. И что дальше? Что тебе даёт знание этого? Ты им аниме впаривать собрался?
>>2004983
Есть файлы. Это простые бинарные фыйлы специального формата со свои телом, хедером, метаданными. А я классифицирую их на 2 группы. Просто способ из разделить это посчитать энтропию файла и сделать регрессию. Файлы с большой энтропией в теле в одну группу, а с маленькой в другую. Но я хочу улучшить этот способ с помощью нейронок. Опыта работы с ними нет, но пока что смог сделать cnn, которая глядя на любой чанк из файла размером 32 байта говорит к какому классу он относиться. И чтобы весь файл классифицировать я прочитал его по байтам как одномерный массив и таким сканирующим окном размером 32 байта прошёлся по нему и для каждого окна посчитал вероятность, а в результате вернул среднеарифметическое вероятностей всех чанков. Сейчас моя cnn это модель на пайторче как класс определена, а предсказание реализовано как функция, которая принимает нумпай массив, проходит этим окном по нему и возвращает вероятность. Я бы хотел эту функцию переписать как какую-нибудь модель, которая вутри себя этот cnn инкупсулирует и работает как rnn. Скармливается нумпай массив произвольной длины, вызывается предикт и сразу возвращается результирующая вероятность принадлежность файла классу. Как такое сделать?
Никак. Пиши rnn или лучше lstm.
Можешь сделать полносверточный кусок. а все его выходы сворачивать globalaveragepooling'ом, но там с масштабированием качество будет проседать.
Просто, ради фана. Поэтому инфа с даркнета не пойдёт
И, алсо, я уверен, что не меньше 5%
А как всякие статистические агентства считают количество богатых и бедных в стране? Типо соотношения между ними и прочие
Через отчётность компаний в налоговую
Кто-нибудь, объясните что такое cum-shot. Я не понимаю, гугл на сайты странные отправояет,. Меря родительский контроль не пускает на них.
ахахаххахахахаххахахахахахаххахаххахахахахахахахааххахаххахахаххахахаахаххахахахаххххахаххахахахахахахахаххаххаахахха вот угар
>globalaveragepooling
Отличная идея. Мне нравится. Мой алгоритм как раз это и делает только через велосипед. А как теперь сделать чтобы вход разделялся на нужные чанки и по очереди в нейронку подавался?
за видос спасибо реально топ топ, но мне то блять норм нужны были гайды для маслят.
Короче я в очередной раз пересмотрел 20 видосов и прочитал 10 статьей по запросам zero,one,few shot learning и вот что мне зашло.
https://www.youtube.com/watch?v=hE7eGew4eeg (азиат объясняет для типичного двачера, чтобы он точно всё понял (те как для дауна полного))
https://www.youtube.com/watch?v=jBnCcr-3bXc (если вам нехуй делать можете послушать челика, тоже топ топ)
https://www.youtube.com/watch?v=QhUtXH1BF48 (по сути тоже самое, что прошлый видос, но на русском и для более тупых с объяснением структуры модели в общем)
https://www.youtube.com/watch?v=96b_weTZb2w&pp=qAMBugMGCgJydRAB (этого азиата наверное все уже видели, но честно мне его видосы не заходят потому что я даун)
Статьи кидать не буду ибо идите нахуй
lol
В анализе графов собственные значения/векторы постоянно всплывают - обобщения pagerank, различные метрики центральности.
посаны, тут пишут, что кроме того, что нужно уменьшать learning rate можно применять некий decay loss. Можете мне помочь понять что это такое, я уже два раза прочитал бумагу. Не понел.
Зачем PR-curve если есть ROC-curve? В чем разница?
Зумера в Гугл не могут?
https://stats.stackexchange.com/questions/273189/what-is-the-weight-decay-loss/273190
Ну это же буквально разные метрики. В ROC ты выбираешь порог в трейд оффе между долей правильно угаданных объектов первого класса априори и процентом ошибок в классификации объектов второго класса. То есть в таком случае мы выбираем порог для того, чтобы угадывать оба класса хорошо. В PR же трейд офф между точностью (долей правильных в наших ответах первого класса) и "долей правильно угаданных объектов первого класса априори". То есть в таком случае мы задрачиваемся выбирать как можно лучше первый класс.
Ну и таким образом площадь под ROC показывает как хорошо мы угадываем в целом, а площадь под PR как хорошо мы угадываем первый (positive) класс.
Анон, поясни как в нейронных сетях, сохраняется и обрабатывается информация?
Я знаю, что различные mindmap и прочие семантические паутины, представляют из себя сетевую модель данных. Пик1.
Я также знаю, что любую сетевую модель данных, можно свести к реляционной модели данных, и вписать в базу данных, то есть в реляционной базе данных можно хранить все эти сетевые модели данных, если реализовать связи многие-ко-многим, между элементами, через промежуточные таблицы. Пик2.
Так же само, можно и реляционную базу данных, представить в виде сетевой модели, и я так полагаю, ассоциативная память на нейронных сетях, являет собой базу данных, с сетевой моделью данных.
Но, база данных, содержит сами данные, а нейронные сети содержат просто нейроны взаимосвязанные.
Так как же именно, в этих нейронах записываются данные, и как они считываются, а???
В смысле. У простейший инс есть входной слой, есть выходной слой. Веса инс настраивают как входной вектор преобразуется в выходной. Преобразование состоит из последовательных операций над матрицами: умножением, активацией, сверткой и так далее. Это просто такой класс функций, настраиваемых через веса
Ситуация бляздец: у меня в лаборатории софт для установки пишет значения, получаемые с нее раз в секунду, в формате .abf. Мне нужно открыть этот формат дома. Софт, который стоит в лабе, нельзя нигде достать и просто так накатать на комп, это не обсуждается. Я слышал, что .abf можно открывать в MS SQL, но вот вообще не понимаю, на какую кнопку тыкнуть, мне это сложно. Гайды уже почитал, но они все для людей, которые разбираются в тем0чке. А я нет. Анончик, надеюсь на твою помощь и снисходительность. Как открыть ебучий .abf, скопировать значения и, желательно, экспортировать в эксель? (ну это уже опционально)
sql и visual studio с компонентами для баз данных или че там надо уже поставлены
>Анон, поясни как в нейронных сетях, сохраняется и обрабатывается информация?
Сохраняешь параметры функции. Обрабатываешь, применяя функцию к аргументу.
Сравнение с бд очень всратое, лучше почитай про работу нейронок, а не пытайся выдумать аналогии.
То есть, фактически, различная информация, а именно - данные, хранится не столько в самой структуре взаимосвязи между нейронами, сколько - кименно в весовых коэффициентах, задающих силу связи между различными нейронами?
И в то время, как в весах хранится инфа, сама структура взаимосвязи между нейронами, особо, не имеет значения, так как различные нейросетевые паттерны, могут реализовываться различными способами, через разные структуры, по принципу белого ящика Винера: https://ru.wikipedia.org/wiki/Обратная_связь_(кибернетика)
То есть, я что хочу сказать. Вот есть например, у меня, в памяти какое-то слово, или буква даже - ещё элементарнее.
Это слово или буква, может храниться в виде весовых коэффициентов связей между дендритами надцати нейронов,
а может храниться при взаимосвязи пяти скажем нейронов. Эдакий стандартный, и оптимальный - нейросетевой паттерн, задающий именно букву, более сложной и неоптимальной вариацией которого и является стурктура нейросети, в памяти моей. Верно?
То есть, блядь, я вот что хочу сказать. Что различную инфу, можно было бы хранить в виде оптимальных нейросетевых паттернов, оптимизированных, стандартизировав эти паттерны, ебучие. Это раз.
И во вторых, если инфа хранится именно в весах,
то возможно ли создать, внезапно, опять же - реляционую базу данных, в виде таблицы какой-нибудь, скажем:
|КодСинаптическойСвязи|КодНейрона1|КодНейрона2|ВесовойКоэффициентСилыСвязиНейронов|
И в этой таблице, хранить и структуру нейросети, и веса, а значит и инфу, в памяти, представленную в виде весовых коэффициентов?
Если такое возможно, то как эту инфу считать из базы, и главное - как её правильно вписать туда?
Как инфу сконвертировать в эти вот веса?
Ты говоришь о каких-то функциях для матричного преобразования входных векторов на входном слое, в выходные вектора в выходном слое...
Но я ваще не ебу что это за функции вектора, и как вообще их вкодить, блядь.
Вот есть, например, буква "Х", ты видишь её на экране, она состоит из пикселей,
описание положений этих пикселей, можно вкодить, а если эта буква в памяти, в мозгах зависла,
как её, блядь, описать через эти вот функции и вектора?
И когда я вспоминаю букву "Х", как я понимаю, то одним сигналом от какого-либо нейрона - просто совозбуждается ячейка ассоциативной памяти, в долговременной или кратковременной памяти с адресацией по содержанию, и эта буква "Х", просто вспоминается,
а потом либо пишется, либо озвучивается - уже в зависимости от контекста, в котором она была вспомнена,
в результате контекстно-зависимых вычислений нейрокомпьютерных.
То есть, фактически, различная информация, а именно - данные, хранится не столько в самой структуре взаимосвязи между нейронами, сколько - кименно в весовых коэффициентах, задающих силу связи между различными нейронами?
И в то время, как в весах хранится инфа, сама структура взаимосвязи между нейронами, особо, не имеет значения, так как различные нейросетевые паттерны, могут реализовываться различными способами, через разные структуры, по принципу белого ящика Винера: https://ru.wikipedia.org/wiki/Обратная_связь_(кибернетика)
То есть, я что хочу сказать. Вот есть например, у меня, в памяти какое-то слово, или буква даже - ещё элементарнее.
Это слово или буква, может храниться в виде весовых коэффициентов связей между дендритами надцати нейронов,
а может храниться при взаимосвязи пяти скажем нейронов. Эдакий стандартный, и оптимальный - нейросетевой паттерн, задающий именно букву, более сложной и неоптимальной вариацией которого и является стурктура нейросети, в памяти моей. Верно?
То есть, блядь, я вот что хочу сказать. Что различную инфу, можно было бы хранить в виде оптимальных нейросетевых паттернов, оптимизированных, стандартизировав эти паттерны, ебучие. Это раз.
И во вторых, если инфа хранится именно в весах,
то возможно ли создать, внезапно, опять же - реляционую базу данных, в виде таблицы какой-нибудь, скажем:
|КодСинаптическойСвязи|КодНейрона1|КодНейрона2|ВесовойКоэффициентСилыСвязиНейронов|
И в этой таблице, хранить и структуру нейросети, и веса, а значит и инфу, в памяти, представленную в виде весовых коэффициентов?
Если такое возможно, то как эту инфу считать из базы, и главное - как её правильно вписать туда?
Как инфу сконвертировать в эти вот веса?
Ты говоришь о каких-то функциях для матричного преобразования входных векторов на входном слое, в выходные вектора в выходном слое...
Но я ваще не ебу что это за функции вектора, и как вообще их вкодить, блядь.
Вот есть, например, буква "Х", ты видишь её на экране, она состоит из пикселей,
описание положений этих пикселей, можно вкодить, а если эта буква в памяти, в мозгах зависла,
как её, блядь, описать через эти вот функции и вектора?
И когда я вспоминаю букву "Х", как я понимаю, то одним сигналом от какого-либо нейрона - просто совозбуждается ячейка ассоциативной памяти, в долговременной или кратковременной памяти с адресацией по содержанию, и эта буква "Х", просто вспоминается,
а потом либо пишется, либо озвучивается - уже в зависимости от контекста, в котором она была вспомнена,
в результате контекстно-зависимых вычислений нейрокомпьютерных.
Ты сам себе мозги ебёшь. Загрузи любую нейроночку в куколаб и посмотри как она устроена, выполни model() итп. Нахуя это в виде базы данных представлять, кому и какая от этого польза, непонятно.
Как я понимаю, любую сетевую модель данных, а быть может и любую модель вообще - можно представить семантической сетью,
если разбить эту модель на достаточно-элементарные фрагменты,
и просто взаимосвязать их между собой, различными связями.
Но сами эти элементы, являют собой данные.
Нейросеть, состоит из достаточно-элементарных элементов, нейронов, но нейрон не содержит данные, он содержит просто передаточную функцию, и входы, и может либо возбуждаться, либо нет. Вот я и спросил, как именно в нейросетях записывается и считывается инфа, в частности - воспоминания,
но ты такую хуйню затёр про веса, про вектора и функции их матричного преобразования, шо яебу.
Вектора весов нейронки подгоняются под векторизованные данные с помощью минимизации ошибки между весами и данными. Нейронка - зеркало отражающее данные.
спасибо, ты спас мою жизнь, анон!
Вот блядь, да я знаю что такое вектор и матрица, вектор - это стрелочка, а матрица - это таблица с данными.
Ты лучше скажи как инфу записать в нейросеть? Есть простейшие примеры, не?
> вектор - это стрелочка
Нет, блядь, не стрелочка. Скажу больше, вектор это частный случай матрицы.
> линейной алгебре.
А ведь линал это школьная программа. Вот и думайте, с кем в треде сидите.
С зумерами, которые еще учатся в кшоле?
С двачерами
Точно. Матрица это вектор векторов. Т.е data Matrix = Vector (Vector a)
Не, не поэтому. Матрицы это один из важнейших примеров векторного пространства, c естественной структурой алгебры на них.
540x960, 0:26
>>2008338
>>2008250
>>2006442
>>2004956
Снова привет. Это штука заработала. Но только для маленьких файлов. При этом перед перед подсчётом среднего значения всех выходов я сначала их сгруппировал в группы по 128 выходов и выбрал их них максимальный. Это значительно уменьшило размер слоя, из которого среднее значение считается и заработало для маленьких файлов. Но для больших получается очень много околонулевых выходов, где после взятие максимума он тоже околонулевым получается и среднее значения тоже получается маленьким. Хотя файл должен детектиться. Как тогда правильно обрабатывать эти выходы? Пробовал ещё вместо поиска максимума среди групп размером 128 разделять все выходы на 128 одинаковых групп переменой длины, но в больших файлах они большими получаются и тогда ложно положительные детекты выскакивают. Как правильно этот случай хендлить?
Но ведь ты сам выдумал, что он требует хорошую работу.
Это же просто залётуха, задавшая очень хуевый вопрос.
>Где ещё можно поговорить про анализ данных?
А там прямо обязательно расписывать кто ты по масти и с какого района? Или там всех принимают?
Опять же ИИ это чистая математика, значит и человека можно математически рассчитать? Ни души, ни уникальных способностей для био-интеллекта?
И, если не затруднит, оцените мощю GP3- это уже общий интеллект и он даже мне может интеллектуально переебать?
>ИИ ИИ ИИ ИИ
Ты для начала обычному интеллекту дай определение и критерии. Прохождение теста тьюринга в ближайшие лет 5 не предвидится.
очень хотелось бы написать, что с такими вопросами тебе нечего думать про распределение после вуза, но ,к сожалению, в мире всё еще очень высока конкуренция даже среди таких как ты, так что не расслабляйся.
> Ести ли у биологического интеллект преимущества перед исскуственным
Биологический существует, а сильный искусственный — нет
Прошли же вроде? Ну там 33% не смогли определить. Или что ты имеешь ввиду?
>>2020782
Ну ты мог искренне попытаться ответить на идиотские вопросы, но просто решил подъебать. Ок, а теперь твоё мнение?
>>2020799
Ну машины уже сами ездят, а ведь это почти магия. Не думаю, что после такого будут проблемы дотянуть хоть до сверхинтеллекта.
человек гораздо дешевле машины. еще работать и работать.
Душа. Как только найдешь критерий наличи или отсутвия луши -сразу пиши в нобелевский фонд.
Переебат ьможет и кирпич, а GPT-3 не ответит на простую задачу типа полотенца на входе или двух стульев. Для своих задач типа рисовать котиков-мутантов- подойдёт. Для чего-то другого- не подойдёт.
Читай Юдковсокго, может будет толк.
>человек гораздо дешевле машины. еще работать и работать.
Проблема только в цене? И всё? Печально ощущать себя устаревшим.
>Душа. Как только найдешь критерий наличи или отсутвия луши -сразу пиши в нобелевский фонд.
Я имел ввиду, что-то за счёт чего человек никогда не попадёт в апокалиптический сценарий и можно успокоиться и спокойно жить.
>Переебат ьможет и кирпич, а GPT-3 не ответит на простую задачу типа полотенца на входе или двух стульев
Я смотрел кого-то жирного ретарда на ютубе и он задал вопрос GP3 типа, как пронести большой стол через дверь. Ответ: разреть стол на куски. Оригинально?
> Ну машины уже сами ездят, а ведь это почти магия
Ага целое уже (давно они могли сами ездить, вопрос в безопасности). Никакой магии тут нет и нейронки узко заточены.
>Никакой магии тут нет
Ну как нет, там нужно и пространственное мышление и предсказания поведения других машин на дороге и различать все дорожные элементы.
Боты в контер страйке наверное для тебя тоже магия, хех
>Прошли же вроде? Ну там 33% не смогли определить.
Это rule-based боты, притворяющиеся двухлетним украинским мальчиком, разговаривающем на английском языке.
Ну и речь не о том чтобы наебать (почти) ничего не подозревающего человека с улицы, а о том, чтобы научиться правдоподобно "играть" в огромный класс лингвистических игр.
Ну и ты так и не дал определение и критерий интеллекта.
>>2020824
>а GPT-3 не ответит на простую задачу типа полотенца на входе или двух стульев
А ты ответишь, кожаный мешок? Что общего у лося и пожилого мексиканца?
> GPT-3 не ответит на простую задачу типа полотенца на входе или двух стульев.
Скорее всего как раз ответит. Такие архитектуры обучают на корпусах commoncrawl, это считай архивы интернетов. И про полотенца и стулья эта нех точно знает. Поэтому там упор на зерошот/фьюшотлернинг а не файнтюнинг, оно и так почти все знает.
Что-то ты на простой вопрос не ответил, а до gpt-3 доебывался.
ничем, лол, я уже писал, что критерия разумности нету.
Чего то ты порвался неожиданно, мне кажется. Никто не знает, в том-то и проблема с по настоящему сложными вещами что их брутфорсом не задавить.
> Чего то ты порвался неожиданно, мне кажется.
Где?
> Никто не знает,
Никто не знает, но ты с чего-то утверждаешь, что "не так".
> в том-то и проблема с по настоящему сложными вещами что их брутфорсом не задавить.
Шахматы ещё в 1997 брутфорсом задавили.
> Никто не знает, но ты с чего-то утверждаешь, что "не так".
Бремя доказательства, слышал такую штуку?
> а вот шахматы а вот го
Ну да, ведь интеллект сводим к решению какой-то комбинаторной игры с простыми правилами на ограниченной доске..
> Бремя доказательства, слышал такую штуку?
Так ты же что-то утверждаешь, не я. Вот и доказывай.
> Ну да, ведь интеллект сводим к решению какой-то комбинаторной игры с простыми правилами на ограниченной доске..
Вообще-то с 60х было очень много кукареканья, что "шахматы для ии это как дрозофилы для генетики" итд. Но тут смысл в том, чтобы алгоритм решал задачи, в решение которой может только человек. Например, распознавать рак на МРТ, или отличать стили живописи даже на впервые увиденных картинах, может и голубь. А вот шахматы уже нихуя, животные в них не могут. Конечно, в общем случае это ничего не доказывает, но это направление мысли хотя бы какой-то практический смысл имеет, вместо жонглирования объяснительными фикциями типа "интеллекта", которые не только ничего не объясняют, но и сами требуют определения, которого нет.
>Так ты же что-то утверждаешь, не я. Вот и доказывай.
Утверждение "интеллект == трансформеры" не имеет под собой никаких оснований, сначала ты должен доказывать это
>смысл в том, чтобы алгоритм решал задачи, в решение которой может только человек
Cмысл в способности обобщать. Набрутфорсить алгоритм под задачу не сложно если есть много бабок, ты попробуй сделать так чтобы алгоритм играющий в шахматы сносно же играл в преферанс или складывал предложения. Да или хотя в шахматы Фишера играть научился, у мясных гроссмейстеров это выходит более-менее , у взъёбывающего их альфа зеро подозреваю что вообще нет
> хотя бы какой-то практический смысл имеет
Системы без всякого мл в себе вполне имеют практический смысл, значит ли это что мл не нужен?
> Утверждение "интеллект == трансформеры" не имеет под собой никаких оснований, сначала ты должен доказывать это
С какой стати я должен доказывать то, чего нигде и никогда не утверждал? Я говорил, что существует класс задач, который могут решать как трансформеры, так и человек. Про "интеллект" я говорил только то, что это объяснительная фикция без задач.
спасибо, я просто не мог найти этот параметр в pix2pixHD, видимо автор не хочел его трогать. Хотя там, в том пейпере, вроде именно на ГАНе лучше результат. Спрошу- а в алгоритме ADAM случайно уже не уменьшается вес loss со временем? По-моему ведь уменьшается- там постепенно само значение loss падает при обучении (и потом выходит на мертвое плато, по крайней мере у меня), так?
>Grid Search уже не хватает из-за объема вычислений
>Работаю в основном с линейными и tree-based алгоритмами, нейронки не использую.
Ты на тостере что-ли работаешь? Для деревьев пойдет вообще что угодно.
hyperopt - нормальная библиотека, а еще есть tpot. Обе плюс-минус одинаковые по требованию к ресурсам и годятся как для классики, так и для небольших нейронок.
Ковыряй дальше hyperopt. Ну и если что, random search лучше чем grid search.
Когда у тебя есть готовый экстрактор фич в виде свёрточной нейросети, то лучше приклеить к ней полносвязную сеть, а не бустинг/лес. В каком-нибудь REINFORCE лучше будет полносвязная сеть, потому что непонятно, как с деревьями будет выглядеть шаг в направлении градиента.
Ещё можно считать линейную регрессию частным случаем полносвязной сети.
Возможно ли разобучить нейросеть свою?
чего? можно переобучить на похожую задачу. Можно вьебать lr просто больше раза в два-три.
Знаешь что будет если бесконечно ускорить нейронку (увеличить learning rate)? Все полетит в пизду.
Но между хаосом и потенциальной энергией находится кинетическая энергия.
Готовое в какой степени? Предобученный facenet + поиск ближайшего эмбеддинга в списке.
Если нужен готовый продукт, то их хоть жопой ешь, зависит от твоего бюджета.
>Готовое в какой степени?
В идеале чтобы можно было скопировать скрипт на питоне, в функцию do_zaebis() передать путь до моих картинок и чтоб все работало. Но на такое я не рассчитываю конечно.
>Если нужен готовый продукт, то их хоть жопой ешь, зависит от твоего бюджета.
Мне не для коммерческого использования, так что бюджет 0.
Сасай кудасай, с вопросами по электронному ГУЛАГу сразу нахуй.
Поясните, как из этой шайтан машины вынудить классификацию или сегментацию в виде текста или что то вроде этого. Или она имаже2имаже онли?
С меня эта нейронка в пофикшенном колбае когда проснусь.
https://github.com/facebookresearch/dino#evaluation-linear-classification-on-imagenet
>сегментацию в виде текста
чего нахуй?
>>2025108
Сам выдумал хайп, сам опроверг, молодец как всегда.
https://colab.research.google.com/drive/17hHoEHyAC4a3M4U9vqVS4Rvis9b6GweU
>>2025108
Из этого видео все что я понял это то что нейронка выделяет одинаковые объекты и что код прикольный.
>>2025137
> https://github.com/facebookresearch/dino#evaluation-linear-classification-on-imagenet
> >сегментацию в виде текста
> чего нахуй?
Типо увидеть вот тут собачка, вот тут корабль и написать это или дать оценку какова вероятность что это собачка а это кораблик. Вроде эту нейронку позиционировали как йоба нейронку понимающую суть видео или как то так. Или все же никак? Код пока не читал, сейчас гляну и сам посмотрю но она же юзелесс по сравнению с тем же clip если не может в это.
>Типо увидеть вот тут собачка, вот тут корабль и написать это или дать оценку какова вероятность что это собачка а это кораблик.
we observe that our model automatically learns an interpretable representation and separates the main object from the background clutter. It learns to segment objects without any human-generated annotation or any form of dedicated dense pixel-level loss.
Хочешь классы - пихай в специальную сеть для сегментации.
>Вроде эту нейронку позиционировали как йоба нейронку понимающую суть видео или как то так.
Нейронка без разметки научилась отличать основной объект от фона - звучит как довольно высокоуровневое понимание видео.
>но она же юзелесс по сравнению с тем же clip если не может в это
Статья про self-supervised learning трансформеров, а прикольное эмерджентное поведение в виде сегментации нужно для красивых визуализаций. Clip же про использование текстовых описаний при обучении.
>clip
Он же тоже по умолчанию не может в сегментацию, по крайней мере в оригинальной статье про это не говорят.
Понятно, спасибо что пояснил.
> Наше сознание - стремление энтропии энергии к бесконечному ускорению.
Долбоёб. Энтропия - сигмоида. Нет никакого бесконечного ускорения. Ускорение идет только в первую половину графика - дальше стагнация.
Думал прикрутить к одной что то вроде этого но прежде чем изобретать колесо решил спросить тут да, в гугле забанен.
Я не хочу долго поднимать и изучать особенности разных фреимворков и собирать данные о основах вручную, нужна простая заготовка, чтобы посмотреть и покрутить.
Алсо, о том, как работают нейронки, слои, градиентный спуск и тд. более менее в курсе.
Но ведь у адама есть параметр lr, который пиздец как влияет на потери, нельзя ли прикрутить к нему ещё одного адама и начать гомоеблю для поиска верного значения? а к нему еще одного, потом к тому ещё одного и устроить целую нейрогомооргию
Разве это не ручной ремикс в вегасе с наложением громкости, миксом звука и ускорением/замедлением, и все это работающее через зад?
Ну и для простого миди есть musenet от опенхуев. А если хочешь натренировать свою нейронку на обычном мп3 то это займет много времени и сил, готовых решений для полноценной генерации, ещё и с текстом просто нет.
Но можно сделать как тут https://youtu.be/FsVSZpoUdSU, на видео 2016 года и там используют торч который ещё на луакамнях работал, однако бин2ютф из описания крайне годная хуйня. Можешь найти самую заебатую на сегодняшний день нейронку в открытом доступе, например интерпретацию йоба трансформеров майков от ноунеймов с гитхабов, к слову они куда быстрее обучаются, а дальше как выйдет. я пытался завести это дело на гпт2 ещё когда она выходила, но она не жевала китайские символы, а китайские интерпретации полное говно из под залупы
получится просто наслоение нейронок с прааметрами, верификация всё равно будет производитсья по Inpul- output. Такая нейронка не научится ничему, прост обудут рандомно скачущие lr. Хотя, если на вход ей скармливать инфу о том какая сейчас итерация, о всех лосс...
> Хотя, если на вход ей скармливать инфу о том какая сейчас итерация, о всех лосс...
Примерно это и хочу сделать но пока своих нейронок с нуля не писал и будет обидно изобретать велосипед если это уже кто то сделал. Ну и думаю что такая нейронка будет проще в обучении и в подборе lr ведь по сути ей нужно будет просто писать число или множитель на основе двух массивов и итерации а функция потерь будет просто копировать потери основной, да и датасет подготовить можно если в рандомную нейронку запихать код который будет заставлять lr скакать по рандому, статично, верх и вниз а потом снова по рандому. Разве что вопрос как быстро она будет это делать чтобы поспевать за основной..
Но по этому и интересуюсь.
Судя по описанию канала, там использовали Fl Studio с расширениями.
Нагуглил это дело, в общем, называется оно Style-Transfer, в основном используется на изображениях.
Нашел относительно старый(как я понял при использовании) готовый проект на питоне. https://github.com/alishdipani/Neural-Style-Transfer-Audio
1.5 часа потратил на переустановку питона и либ из-за несовместимости версий. Вроде заработало наконец-то. Прикреплю потом аудио, если получится что-то нормальное.
Там в описании версия 2.7, но у меня на 3.7 заработал, пытался изначально собрать на 3.9.
Я тоже сегодня об этом думал.
Вообще высокая энтропия - это состояние с максимально возможным количеством вариаций.
А что думает человек, когда его загоняют под одну гребенку омега/быдло/мечтатель?
Правильно, ему неприятно и он старается измениться.
Сознание стремится пожрать как можно больше контента, быть одновременно и тем и другим, не иметь рамок.
Хз. В общем я нашел что то похоже от fast ai, но там только для построения графика и ручного анализа.
Сейчас решил просто взять и натренировать гпт2 с датасетом где каждый текст начинается с потерь, итерации и лр чтобы он по первым двум давал третий. То есть все же скатил в гомонейрооргию.
>натренировать гпт2 с датасетом где каждый текст начинается с потерь, итерации и лр
Пиздец, нахуя если можно просто тот же аттеншен навернуть напрямую на последовательность лоссов и лр? Веруны в битерлесон такие забавные в своей твердолобости..
А по делу, то вряд ли ты найдёшь что-то универсальное так как это равносильно существованию универсальной нейронки для всех задач вообще. Есть подходы на ганах и рл актор-критик, где отдельная нейронка не просто lr подбирает а по посчитанному направлению градиента от первой выдаёт свой вектор для изменения её весов и вот так вдвоём они сообучаются, но судя по тому что про эту идею я слышал давно и больше не, то это как и всё подобное не работает.
> вряд ли ты найдёшь что-то универсальное так как это равносильно существованию универсальной нейронки для всех задач вообще.
И тут ты такой с примерами задач, для которых не трансформер работает лучше чем трансформер.
Кажется, я не понял твой план. Ты хочешь предсказывать, какой learning rate выставлять в начале каждой эпохи. Вот ты предсказал 3e-4, как потом поймешь, это было правильно или нет?
В датасете будут кучи строк вида
> itt:1 loss:78.432 reduced:True lr:0.2 | itt:2 loss:79.182 reduced:False lr:0.199995
с ограничением длины lr и будет включать десять итераций разделенных | до текущей, а потом в основной на вход пойдет тот же десяток но без последнего значения, которое (8 символов) будет генерировать эта нейронка а затем этот lr подастся основной. Ну и пока это будет проходить будет записываться новый датасет с каждой прогонки которым можно дообучить гпт2.
Хотя тут нужно правильно рассчитать параметры чтобы это охватывало около 500 символов до и быстро выполнялось.
Есть идеи где я проебался?
>Есть идеи где я проебался?
И что ты хочешь таким образом получить? Ты получишь большую модель которая будет предсказывать lr (гипотетически) который тебе подбирается каким-то адаптивным алгоритмом например, откуда твой датасет. Как ты получишь результат лучше этого алгоритма таким образом?
все что дифференцируемо (или суп-дифференцриуемао) можно дифференировать!! отсюда ВЫВОД - надо дифференцировать через всю процедуру обучения по ___LR. во времена моей МОЛОДОСТИ люди делали так http://proceedings.mlr.press/v37/maclaurin15.html
правильньо на самом деле нужно делать lr БЕСКОНЕЧНО МАЛЫМ тогда нейросеть будет следовать градиентным потоком
ветров очень интересный ЛЮД, умеет пить и курить и гиперпараметры крутить
Типо того, там есть флаг reduced, если false то потери увеличились, если true то уменьшились. То есть если давать нейронке в 10 (текущем) значении флаг со значением True то она предскажет lr при котором потери должны уменьшаться.
алсо пиздец, гпт2 все так же сложно обучить с нуля на кастомном датасете или я отупел. все эти длинные лица с дохуялионом подводных раскиданных в тысячах файлов по пол строки, мегатроны нвидии с поломанным апексом и кривыми скриптами, а оригинальный попросту морально устарел
>Есть идеи где я проебался?
Рандом и инициализация будут влиять сильнее чем небольшое изменение lr. Обучать заебешься. Алгоритму будет выгоднее быстрее (чем прошлая версия) загнать тебя в локальный минимум, чтобы получить заветные reduced:True. А если смотреть на всю траекторию обучения, то возникает credit assignment problem. Придется подключать обучение с подкреплением и ты до тепловой смерти вселенной будешь повторять эксперименты дипмайнда на локальной машине.
Часть проблемы легко решить если ограничить число знаков после запятой у потерь до 2-3. Ну и у нейронки будут только 10 ближайших итераций в виде текстовой строки, это простейший генератор текста по сути но это его и ограничивает от слишком большой выборки и слишком долгой генерации, хотя так же ограничивает и точность.
А обучение с подкреплением на 1 карте в колабе гугла ведь у меня житиикс 1060 это попросту пиздец, не думаю что это действительно нужно для предсказания всего одного числа на столь мелкой задаче со столь мелкими входными.
> Для всех кроме стандартных где не достать предобученную кабанами модель?
То есть, предобученный кабанами трансформер это не по фен-шую, а предобученный кабанами нетрансформер норм? Жидкие какие-то оправдания... Но ладно, на какой задаче предобученный кабанами нетрансформер работает лучше предобученного кабанами трансформера? Алсо, уже гпт3 не требует файнтюнинга под конкретную задачу, а началось это вообще с гпт2.
>То есть, предобученный кабанами трансформер это не по фен-шую, а предобученный кабанами нетрансформер норм
То есть из того что на деньги кабанов получилось натренировать какую-то накостыленную архитектуру ничего не следует само по себе. Просто гигантский трансформер за дохуя денег и вменяемое время сейчас можно натренировать, а гигантский перцептрон пока нет, вот и всё превосходство
>уже гпт3 не требует файнтюнинга под конкретную задачу, а началось это вообще с гпт2
Ну ещё бы, если заоверфититься на всём датасете то внезапно скор на этом датасете будет хороший как бы искаробки
> Просто гигантский трансформер за дохуя денег и вменяемое время сейчас можно натренировать, а гигантский перцептрон пока нет, вот и всё превосходство
То есть, в качестве замены трансформерам ты предлагаешь перцептрон? Перцептрон со свойствами трансформера нереализуем. Как минимум, такая реализация требовала бы на порядки больше ресурсов. На мощностях достаточных для 175В гпт3 не заработает перцептрон даже уровня самого дохлого берта.
> Ну ещё бы, если заоверфититься на всём датасете то внезапно скор на этом датасете будет хороший как бы искаробки
То есть ты веруешь, что вся эффективность трансформеров это оверфит? Ты случайно не тот поридж, свидетель экспертных систем?
99.9% задач с табличными данными. Рекомендательные системы. OCR.
360x360, 0:07
Низачем. Компании платят по 300к чтобы им делали смищные видосики.
В первую очередь, нейронки это оракулы. Ну или предсказатели. Ведь именно это они и делают, но предсказывают не по прямому каналу с нибиру а с собственного опыта. Надеюсь на счет того что компании вкладываются в научных оракулов которые могут день и ночь все точнее и точнее предсказывать данные у тебя вопросов нет?
и да, все нейронки используют предсказание по опыту: текст - берется рандомный токен (считай символ) и предсказывается следующий а потом на основе них еще один и так далее, видео/текст - берется пиксель и его движение или позиция предсказывается на основе других и на основе задания, все остальные делают ту же хуйню
Твиттер Шолле. Я от него в рейдж квите раз в три месяца отписываюсь, потом через месяца снова подписываюсь
Одной первой причины достаточно для существования индустрии, тем более всю индустрию двигают гугл и Фейсбук, чтобы лучше учитывать твои интересы для рекламы
Да у него про керас там почти ничего и нет, большая часть постов - это либо что-то из повестки демократической партии (я не люблю никакую политику, и из-за этого у меня припекает), либо философствования на тему ии
Но совет был ироничным. Я и в философию ии не верю.
Любая модель по классификации текста.
Как вообще по ценности книга, на галеру можно с ней устроиться? Если у меня уже есть полугодовые практические навыки в нейронках (CV), и по книге я освою черный ящик в плане математики.
>достаточно ли математики из Preliminaries
Для чего? Некоторым тут достаточно уметь запускать кликер и пользоваться мышкой. Если же ты в фаанг собрался, то скорее всего нет.
Ну потомучто прервется приток новых людей и останутся одни жопашмунцеры
> приток новых людей
Одинаковых как под копирку кринжовых зумеров с одними и теми же вопросами? Потеря потерь...
Он уже есть но в определенный момент потери попросту перестают снижаться. Ну и нейронку уже натренировал на половину, хотя бы посмотрю как там будет.
Это напоминает немного "Менон", где Сократ задает рабу вопросы типа "Знаешь ли ты, что у квадрата четыре равные стороны?", тот отвечает "Да", и Сократ из этого делает вывод, что раб "знает геометрию, хотя и не изучал её". И в "Автостопом по Галактике" шутка на абсолютно ту же тему – а ведь те же люди, что вдохновенно шарят такие научпоп новости, обожают шутить про 42 – но "42" это и было ровно о том, что настоящая проблема для компьютера это не правильный ответ, а правильный вопрос. Это всё ясно. Но всё-таки... а вдруг это всё можно как-то более интересно интерпретировать? Что имел в виду Сократ?
(Кстати, почему это всегда именно законы Кеплера? Миф про Кеплера, а точнее, миф про Коперника, Кеплера, Галилея, Браге – этот очень расхожий, но не особенно точный миф, смешивая открытия всех этих ученых мужей, утверждает, что до их "переворота" люди были глупые и думали, что все вращается вокруг них, а после него стали умными и изобрели настоящую науку. Это важное событие для любителя науки, оно отделяет для него настоящую науку от совершенно непонятной ему античной и средневековой глупости. Повторить их переворот означало бы, что умный компьютер изобретет новую науку, свободную от человеческой глупости.)
Лакан интерпретирует "Менон", предлагая, что античные философы "выбивали знание из рабов". "Господину не нужно знать – это рабам нужно знать, как ему угодить; рабы знают, что хотят господа. Философия начинается с того, что господин зачем-то решает силой отобрать у рабов знание." Это очень странное рассуждение, странно звучащее в век, когда знание явно крепко стоит на месте господина. И все-таки оно позволяет отойти на шаг и посмотреть на эту ситуацию, принимая во внимание сам вопрос о том, как люди в принципе сочетаются со знанием, зачем оно им. Точно так же, как Сократ из раба, люди сейчас выбивают из компьютеров то знание, которое сами же в него и вкладывают. Как и Сократ, они утверждают на основе этого, что компьютеры что-то могут знать сами по себе.
Итак, не значит ли это, что ощущается какая-то более серьезная потеря знания? Вся эта игра в умные компьютеры – не попытка ли она как-то справиться с тем знанием, которое действительно принадлежит не нам, а технологии – знание о нашей экономике, о нашем обществе, о нашем общении, столь важных нам вещах, которые управляются технологией и достаточного знания о которых нам уже никак не получить. По отношению к компьютерам мы уже – господа, которым так легко угодить, что они и не знают, чего хотят. И чтобы не чувствовать себя так глупо по сравнению с "умной лентой" фейсбука, по сравнению с давно победившей нас рекламой, со всеми этими алгоритмическими наркотиками, мы даем компьютеру "изобрести" что-то, что нам известно давно, и тем самым, в наших фантазиях, остаться умнее.
Это напоминает немного "Менон", где Сократ задает рабу вопросы типа "Знаешь ли ты, что у квадрата четыре равные стороны?", тот отвечает "Да", и Сократ из этого делает вывод, что раб "знает геометрию, хотя и не изучал её". И в "Автостопом по Галактике" шутка на абсолютно ту же тему – а ведь те же люди, что вдохновенно шарят такие научпоп новости, обожают шутить про 42 – но "42" это и было ровно о том, что настоящая проблема для компьютера это не правильный ответ, а правильный вопрос. Это всё ясно. Но всё-таки... а вдруг это всё можно как-то более интересно интерпретировать? Что имел в виду Сократ?
(Кстати, почему это всегда именно законы Кеплера? Миф про Кеплера, а точнее, миф про Коперника, Кеплера, Галилея, Браге – этот очень расхожий, но не особенно точный миф, смешивая открытия всех этих ученых мужей, утверждает, что до их "переворота" люди были глупые и думали, что все вращается вокруг них, а после него стали умными и изобрели настоящую науку. Это важное событие для любителя науки, оно отделяет для него настоящую науку от совершенно непонятной ему античной и средневековой глупости. Повторить их переворот означало бы, что умный компьютер изобретет новую науку, свободную от человеческой глупости.)
Лакан интерпретирует "Менон", предлагая, что античные философы "выбивали знание из рабов". "Господину не нужно знать – это рабам нужно знать, как ему угодить; рабы знают, что хотят господа. Философия начинается с того, что господин зачем-то решает силой отобрать у рабов знание." Это очень странное рассуждение, странно звучащее в век, когда знание явно крепко стоит на месте господина. И все-таки оно позволяет отойти на шаг и посмотреть на эту ситуацию, принимая во внимание сам вопрос о том, как люди в принципе сочетаются со знанием, зачем оно им. Точно так же, как Сократ из раба, люди сейчас выбивают из компьютеров то знание, которое сами же в него и вкладывают. Как и Сократ, они утверждают на основе этого, что компьютеры что-то могут знать сами по себе.
Итак, не значит ли это, что ощущается какая-то более серьезная потеря знания? Вся эта игра в умные компьютеры – не попытка ли она как-то справиться с тем знанием, которое действительно принадлежит не нам, а технологии – знание о нашей экономике, о нашем обществе, о нашем общении, столь важных нам вещах, которые управляются технологией и достаточного знания о которых нам уже никак не получить. По отношению к компьютерам мы уже – господа, которым так легко угодить, что они и не знают, чего хотят. И чтобы не чувствовать себя так глупо по сравнению с "умной лентой" фейсбука, по сравнению с давно победившей нас рекламой, со всеми этими алгоритмическими наркотиками, мы даем компьютеру "изобрести" что-то, что нам известно давно, и тем самым, в наших фантазиях, остаться умнее.
Хуже философии только черви-пидоры, тащущие её в этот тред.
Слишком много воды, а если сократить то
> люди создали нейронки чтобы они говорили людям то что им уже известно и самоутверждались за их счет
И нет, суть в лени. Вообще нейронки - самое ленивое достижение человечества как по мне. Люди вполне могут придумать как зная значение а в большом уравнении вывести и рассчитать б, но таких а и б дохуялионы. И вместо расписывания на все а и б своих специфичных правил, люди скармливают уже подсчитанные а и б в парах не давая другой информации самообучающемуся алгоритму, который во много раз медленнее но затем может решать любую комбинацию. Ну или по крайней мере к этому стремятся.
То есть люди не ждут что компьютеры дадут им то что уже известно людям, они ждут что компьютеры дадут людям то что им слишком лень считать самим разумеется это абстракция, к примеру вместо чтения гарри поттера натренировали нейронку которая даст ответ по тексту, вместо ручной рисовки или фотографирования натренировали biggan, dall-e, guided diffusion model, вместо рукописного текста и понимания контекста натренировали gpt-3, вместо ручной сегментации изображений для создания капчи натренировали clip и так далее, список огромен. И как можно заметить, масштаб этой лени столь велик что в нейронки вливаются дохуялионы денег от всех и вся.
>Слишком много воды, а если сократить то
>> люди создали нейронки чтобы они говорили людям то что им уже известно и самоутверждались за их счет
Неправильно сократил, не создали для самоутверждения, а пытаются выглядеть не глупее изо всех сил
>Люди вполне могут придумать как зная значение а в большом уравнении вывести и рассчитать б
Не могут. Придумай алгоритм, отличающий котов от собак.
Два пальца обоссать. Взять маску шумов с фотки кота и сравнить с шумами фотки собаки. Но это сработает только с одной парой, чтобы работало с двумя уже нужно брать маску краев, даже скорее массив этих масок. И чем дальше тем сложнее, для 4 пар картинок уже понадобится дохуялион кода с самыми разными решениями. И опять же, это можно сделать и глазами а затем - определил - запихнул в нейронку значения для всех картинок на которых определил, и нейронка будет определять другие. Именно об этом я и говорю.
А, перечитал и понял. Но тогда тоже не совсем верно. Например гений создал йоба нейронку, значит он гений и выглядит в глазах людей умнее.
А если смотреть шире, то тут можно провести черту между теми кто хочет интеллект лучше человеческого и теми кто хочет интеллект хуже человеческого но лучше чем сейчас, и вторые крайне популярны в медиа, есть крайне много фильмов, книг, да даже игорей, которые говорят что второй подход правильнее.
А в их основе страх. Но я в философии не настолько силен чтобы загинать дальше, да и тред не тот, эти рассуждения скорее для ночной нулевой.
Это именно лень. Никто не будет днями и ночами делать универсальный алгоритм для отличения котов от собак без нейронок потому что самый действенный метод - посмотреть своими глазами и подписать что это собака, это кот. Решения без нейронок будут костылями и применимы только к определенным парам, чем больше пар тем больше костылей, и опять же, эти костыли будут работать только на тех парах на которые они и прикручены. Если это не лень смотреть глазами и подписывать, то что это?
>Если это не лень смотреть глазами и подписывать, то что это?
Необходимость в решении задачи до наступления тепловой смерти вселенной. Желание заработать больше денег, избавившись от людей и увеличив скорость работы.
Примерно это и есть лень. Та самая лень которая двигатель прогресса.
Легко.
Видеокамера снимает собак и кошек. Видео выводится на монитор. Перед монитором сидит голубь, натренированный на изображениях кошек и собак. Всё. Через 20 лет только такой машоб и останется.
> Перед монитором сидит голубь, натренированный на изображениях кошек и собак. Всё.
Ты только что three-term contingency. Различимые стимулы -> поведение (нажатие кнопки / педали) -> вознаграждение за правильный ответ. Reinforcement learning именно это и моделирует. Как я пынямаю, предыдущий оратор имел в виду нечто более формальное.
мимо
> Перед монитором сидит голубь, натренированный на изображениях кошек и собак
Кстати, голуби легко находят пиздецомы на МРТ снимках, и даже определяют стиль живописи картин, которых раньше не видели, если перед этим натренированы детектить нужный стиль. Думаю, для нужд электронного ГУЛАГа голуби на порядки дешевле, проще и полезнее машобчика.
В рл много вещей помимо "поощряем хорошее поведение". А ещё эта формулировка настолько общая и очевидная, что никакой прикладной пользы она не несёт.
> эта формулировка настолько общая и очевидная, что никакой прикладной пользы она не несёт.
Лол, поридж ниспровергатель бихевиоризма? Это определение операнта Скиннера, чисто прикладная тема, например, легко визуализируемая в виде кумулятивного графика для дальнейшего анализа. И нет, оно не очевидно, до Скиннера ровно все исследователи заблудились в топографии поведения, понятие операнта до него не смог сформулировать никто. Как и все следствия из этого.
> Есть ли вообще варианты, как сделать ML доступным для пользователей?
Он и так доступный. Мозги, желание, немного времени и всё. Те же huggingface'ы очень много делают для доступности машобчика - унифицированная хорошо документированная библиотека с единым интерфейсом не только для очень разных моделей, но и для пред и постобработки результатов.
> Ну, там скачал приложение на говнофончике и генерируешь себе хентай-арт по заданным тегам.
По-сути почти так все и есть. Сейчас почти все разработчики предоставляют версию для колаба, бери и делай. Уже не нужно содомировать исходники, конпелять неведомую йобу итд, все более-менее унифицировано.
> предоставляют версию для колаба, бери и делай.
Я говорю не про облако, контролируемые корпорациями (мелкие компании не вывозят, и требует плату за сервера, было - плавали), а машоб на стороне клиента.
> облако, контролируемые корпорациями
Не похуй ли? Что можно такого делать в колабе, чтобы тобой Гугл и ЦРУ заинтересовались?
> машоб на стороне клиента.
Ну все это и на стороне клиента работает, при наличии достаточных ресурсов.
> Ну все это и на стороне клиента работает
Не работает. Говорю же, машоб должен идти в ровен со всем остальным софтом.
> Что можно такого делать в колабе, чтобы тобой Гугл и ЦРУ заинтересовались?
Генерация лоликона / цопэ. И всё - тебе пизда.
> Не работает. Говорю же, машоб должен идти в ровен со всем остальным софтом.
Ты говоришь о том что нужно принудительно ослабить развитие нейронок и запретить все нейронки которые не смогут выполняться на некроноутах? Или ты не настолько шиз?
мимо
Говорю о том, что с этим надо что-то делать. Нейронки слишком медленные и тяжелые. Надо либо сделать революцию в железе, либо придумать такую архитектуру, что не жрет терабайты памяти, и не падает если нет CUDA.
> Говорю о том, что с этим надо что-то делать.
Так делают. Pattern-exploitable training имеет сравнимую с гпт3 производительность при использовании нейронок размером 1% от гпт3. Код для генеративной версии выложат и всё, запануем. Всё прекрасно пынямают, что гпт3 это непрактично.
Так а чего ты ждал от самообучающегося эмулятора клеток мозга? Революция уже была и она называется cuda, затем была еще одна и она называется тензорные ядра в rtx серии карт. Их пока не использовать полноценно для нейронок, но вот если их разлочат и выложат исходники то есть никогда - ухх заживем.
А дальше пока некуда. Есть tpu и специализированные устройства для нейронок но они стоят дохуя и их могут позволить лишь те же корпорации. А архитектуры и так улучшаются, модели можно сжимать квантизацией или как то так. Но реально снизить тяжеловесность смогут совсем не скоро.
К тому же пока все идут к усложнению архитектур не считая некоторых малых исследователей, возможно когда дальнейшее усложнение станет крайне не выгодным и долгим, корпорации направят все силы на оптимизацию.
Пока никак, я же говорю, код генеративной версии ещё не вылаживали - https://github.com/timoschick/pet/issues/28
Я так понял, PET куда эффективней и быстрее в задачах, к примеру, интерактивной литературы. Задал паттерны как надо вести игру, и играешь.
Судя по результатам, этот метод точно намного лучше простого файнтюнинга тех же самых моделей. Тут какие-то индусы ещё улучшили результаты оригинального pet - https://github.com/rrmenon10/ADAPET но у них пока даже версии для колаба нет. Эх, вот если бы это завезли в виде pipeline в huggingface transformers, вообще было бы идеально...
> Обновление нашего сообщества : вчера мы выпустили тестовую систему для предотвращения создания определенного сексуального контента, нарушающего наши правила, в частности контента, который может включать изображения или описания несовершеннолетних, на платформе AI Dungeon. Мы не сообщали об этом тесте сообществу заранее, что создало среду, в которой пользователи и другие члены нашего более широкого сообщества, включая модераторов платформы, были застигнуты врасплох.
Ну челики, это дроп. Я ведь говорил, что корпорациями доверять нельзя, и надо переводить ML на клиентов.
Ты же только про ai dungeon который еще сайт и приложение?
Я уж испугался что колаб ограничивают.
> Ты же только про ai dungeon который еще сайт и приложение?
Да.
> Я уж испугался что колаб ограничивают.
До этого пока не дошло. Да и вряд ли дойдет: в отличии от play.aidungeon.io колабом пользуются только прошаренные, а не быдло всякое.
>корпорациями доверять нельзя
>полторы калеки
>корпорациям
Ну и ничто не помешает корпорациям провернуть то же самое, когда МЛ будет на клиенте.
> Ну и ничто не помешает корпорациям провернуть то же самое, когда МЛ будет на клиенте.
Эээ, сам клиент? Исходный код открыт - берешь, запускаешь, играешь. Корпорации сосут хуй.
Так локально драконью модель с gpt-3 не запустишь ведь во первых ее нет в открытом доступе, во вторых она даже не запустится если у клиента нет видеокарты на пару-тройку десятков гигов как минимум.
Я об этом и говорю, надо ML на клиента перевести. Но для этого нужен новый подход, новые архитектуры или железо. Наш мозг тратит совсем мало энергии и времени для работы. Надо стремиться к той же производительности.
>>2034531
Нет противоречий. Модельки можно файнтьюнить при желании, если там что-то вырезано.
>Нет противоречий.
Зафайнтюнь модельки из инстаграма, снапчата. Или из nvidia dlss. Всё на стороне клиента ведь.
>Но для этого нужен новый подход, новые архитектуры или железо.
Шок, этим и занимаются корпорации!
Надеюсь в конечном итоге сделают, и можно будет жить так же как и раньше, но лучше. Мой ПК - это мой ПК. Делаю на нем всё что захочу.
>Почему python?
>Исторически сложилось
Это стеб такой? Очевидно же, что пистон стал нужен после разделения на МЛ-инженегров и датасаентологов, чтобы последние не парились с написанным первыми пиздецом на сях, а работали через простую-понятную оболочку.
Вот это даже смешнее получилось.
Что не так?
Интегрировать в другую нейронку на удивление получилось, но пока она не сильно лучше рандома однако структура датасета менялась 4 раза и модель обнулялась 2 раза, и все это в сессиях колаба по 3-4 часах на двух акках в день. К слову уже правильно нумерует эпохи.
Так вот вопросы тем кто не так туп как я
1) Можно ли расширить модель или увеличить длину генерации чтобы она все же анализировала те же 1024 токена если их дать? Если просто поменять конфиг то ошибка соответствия тензоров. А тренировать с нуля на 1024 токена 16 гигов хватит лишь на 102М с 8 головами и 12 слоями и это выглядит не так пиздато.
2) Возможно ли объеденить эту модель с другой, скажем так же натренированной с 400М параметров и получить мега йобу с 800М, или хотя бы просто тренировать с двух акков одновременно разные модели и объеденить их в одну на 400М?
3) Можно ли ее сжать? Она сохраняется в файл .bin и весит 1.5 Гб, будут ли профиты в виде снижения необходимой видеопамяти если ее сжать, и если да то как это сделать?
Бля, только сейчас заметил что во всем датасете перепутал False и True для снижения потерь. Но тогда она генерирует с поражающей точностью и нужно сменить пару строк. Завтра отпишу тест на основной нейронке.
Пусть делает. Один раз в жизни надо сделать какую-нибудь такую хуйню чтобы не носиться как угорелый петух потом с биттерлессоном.
В слесарьплове вроде же было распараллеливание задачи на разные устройства + сохранение чтобы не считать все с нуля если что-то наебнется. Возможно, это можно использовать чтобы считать последовательно на одном устройстве. Я бы в эту сторону смотрел. Самому вручную разбивать нейроночку на части выглядит спорным решением.
Есть задача оценить качество разных рекомендационных алгоритмов на определённом дата сете. В дата сете нет никакой информации о пользователях - лишь информация об самих объектах и о том, как часто по ним кликали, когда они выпадали. Поэтому хочу сгенерировать пользователей для того, чтоб алгоритмы коллаборативной фильтрации можно было тоже оценить. Это тупая идея или как? Есть вообще готовые решения для генерации пользователей?
>Это тупая идея или как?
Тупая.
>на определённом дата сете.
В чем смысл определённого датасета, если ты всё равно собрался портить его синтетическими данными?
Бля да просто проебался. Хотел анализировать статьи и делать рекомендации, а почти все алгоритмы оказались коллаборативными
Буквально, кто?
Так, в процессе изучал нейронки на более глубоком уровне чем был знаком до этого, прочитал про эти ваши оптимизаторы, адамы, и назрел вопрос. А хули ещё не сделали нейронку которая заменяет их? То есть которая не говорит на сколько пинать мяч алгоритму как я худо бедно и пытаюсь склепать, а которая сама и есть алгоритм который пинает мяч. Очевидно это решит все проблемы существующих оптимизаторов - локальные минимумы не будут препятствием, слишком сильные изменения толчка будут оправданы, а обучение не смотря на увеличение времязатрат на оптимизацию будет быстрее. Ну и точка старта тоже будет не настолько сильно ограничивать результаты.
Сам я едва едва понимаю части формул и явно не смогу это сделать, по крайней мере пока не додрочу оставшуюся базу начиная от основ питона часть которых я даже не изучал, и заканчивая математикой нужного уровня.
Или есть причины по которым это будет бесполезно?
Формат говна, поэтому задоджу, как и прошлый.
>>2039023
https://arxiv.org/pdf/1606.04474.pdf
Ты вот эту хуйню собрался сделать?
Если я правильно понял то да. Только вместо старенького lstm запихать тот же gpt-2 и поместить его в модуль оптимизаторов путорча чтобы в любую модель вбить ее вместо адама.
Не нравятся слодчайшие спейшл чатики?
>>2039173
Conference on Neural Information Processing Systems
Правда уже NeurIPS
Это же позволит сэкономить ресурсы на обучении, зачем обучать модель делать все сразу, если можно обучить делать ее несколько отдельных задач, умения выполнять которые она будет комбинировать для выполнения общей цели.
DALL-E похожим образом рисует. Сначала, на первых итерациях или собака сутулая, или вообще какие-то залупы на воротник, а дальше заданная картинка отрисовывается все лучше и лучше.
Разве она есть в открытом доступе? Хз как там, но biggan и похожие нейронки которые начинают с собак основаны на том что там по сути функция потерь на clip который смотрит на картинку и сравнивает с фразой. А генерируют с помощью простого подбора латентных координат модели, то есть отрисовывает лишь на одном уровне целиком или отдельные участки. Вроде и остальные так же, помню пару архитектур с той основой но названия уже забыл.
К тому же closedAI выложили guided diffusion который по сути улучшенная версия biggana, но вот выложить предобученную модель или добавить в код способ генерации не на рандом по сиду они добавить забыли. Если у них уже есть dall-e которая лучше биггана, зачем они разработали то что лучше биггана, но хуже того что уже у них есть? Там к слову так же цельная генерация.
мимо
> Разве она есть в открытом доступе?
Давно уже. Но не с гпт3 конечно же, вместо нее туда реформер вроде приколхозили. В колабе все работает, конечно не так как с гпт3, но рисует.
Помню только попытку воспроизвести на pytorch, но натренированных моделей до вменяемого состояния еще не видел. Ну и там так же, только один колаб использует токены и чем то частично напоминает гпт-2, но там ясен хуй меньше параметров которые можно натренировать ведь это бы потребовало огромного количества памяти, вот если что https://github.com/kobiso/DALLE-reproduction. И тут так же используется цельная генерация с точно тем же подбором латентных координат.
К слову а идея нескольких нейронок на самом деле не плоха, но вот реализовать это довольно сложно ведь архитектуру нужно будет делать с нуля, и на текущих решениях это займет лет 100 для каждой на бытовом пк.
Хотя если например изменить саму основу нейрона на что то вроде этого https://m.habr.com/ru/post/526850/ но с доработками, использовать йоба решения для других мелочей, возможно это сократит время до разумных масштабов, но вот только чую что уже были эти решения и они нихуя не работали и поэтому о них забыли как и о таком типе нейронок.
>изменить саму основу нейрона на что то вроде этого https://m.habr.com/ru/post/526850/
Подавился чаем с шизы в посте, предупреждать надо.
Сорян что не предупредил. Да, там шиза полнейшая, но про то что нужно уделять внимание не только передаче сигнала но и приему звучит как минимум логично, ну и пару других интересных идей там найти можно. В любом уже сейчас очевидно что некоторые фундаментальные вещи нужно менять иначе скоро даже корпорации с суперкомпами упрутся в лимиты когда количество параметров перестанет хоть что то давать. А рядовые пользователи уже не могут тренировать или использовать многие нейронки из за железа.
>В любом уже сейчас очевидно что некоторые фундаментальные вещи нужно менять
Не очевидно. В отрасли всё ещё много low hanging fruits.
>скоро даже корпорации с суперкомпами упрутся в лимиты когда количество параметров перестанет хоть что то давать
Упрутся в лимиты = 99.9 точности на imagenet? Придумают новые архитектуры.
> рядовые пользователи уже не могут тренировать или использовать многие нейронки из за железа.
Рядовые физики не могут запустить дома БАК или ИТЭР. Рядовые астрономы не могут запустить на орбиту хаббл или собрать дома 10-метровый телескоп. Рядовые веб-программисты не могут проиндексировать 100 триллионов документов и вынуждены пользоваться гуглом.
Почему в датасаенсе подобное нужно предотвратить любой ценой?
> Упрутся в лимиты = 99.9 точности на imagenet? Придумают новые архитектуры.
Скорее в 95% и не продвинутся дальше, хотя по сути распознавание объектов это одно из легчайших направлений среди основных, генерировать картинки или идеально генерировать тексты они не могут, и если когда число параметров перевалит за их количество в мозге человека а результаты будут не сильно лучше текущих, вот тогда и архитектуры и будут придумывать. Но это будет крайне не скоро и прежде чем это будет, если конечно будет, дохуя времени уйдет впустую.
> Почему в датасаенсе подобное нужно предотвратить любой ценой?
Очевидно же потому что это один из путей к концу света. Если он в руках корпораций и переразвит то пикрил, если он в руках всех людей то перед этим можно извлечь лулзы.
>Очевидно, ясное дело, все мы понимаем, в скором времени всё будет так...
Нет, это всё хуйня, которую ты выдумал.
> Почему в датасаенсе подобное нужно предотвратить любой ценой?
Потому что ИИ перестанет работать на благо общества. ИИ должен принадлежать всем, тогда всё будет заебись.
>Потому что ИИ перестанет работать на благо общества.
Генетика не перестала, хотя напечатать генов дома ты не сможешь - только покупать у крутой компании с дорогущими принтерами.
Ты не оригинален- https://arxiv.org/abs/1907.08610
и еще тебе сверху-https://github.com/rwightman/pytorch-image-models#introduction смотри сборку оптимизаторов.
Прочитал на сколько хватило знания ангельского, действительно похоже но сложнее в раз 200. Только там как я понял сначала идут обычные оптимизаторы а затем нейронка на их работу смотрит и генерирует новую траекторию и по новой. Сейчас провожу тесты пикрил с той что тренирую и это разделение которое призвано ускорить обучение почти бесполезно, у меня с генерацией 400 токенов уходит столько же времени что и без нее если округлять до сотых.
Да и прирост уступает тому же madgrad от фейсбуков.
А тот что постили раньше который на lstm морально устарел.
все еще обучаю и понял один из проебов, нужно было ебашить датасет не из другой нейронки а из элементраного поиска минимума простой функции
а так же только три дня назад заметил что по сути она изменяет не сам lr а альфу
я в такие дебри матема не лезу, я человек простой- вижу гит, он работает на моей машине- фижу ему датасет и жгу гигафлопы. Сам факт того, что это работает- радует. Удачи.
ну и там такое улччшение- 0,5% ускорение на некоторых датасетах, но это не точно. Прям как в той картинке с бинго выше.
Бамп, помогите идиоту
Optuna - есть универсальный сэмплер и уже написаны велосипеды для популярных библиотек.
Когда данных очень много и признаки гомогенные.
А ты не пытался подумать прежде чем пилить что сама идея предсказания лернингрейта просто по предыдущим лернингрейтам идиотская? Жизнь была бы слишком простой если бы вся нужная информация для решения вообще любой задачи заключалась бы просто в последовательности лров.
Так и не только по ним же. По сути все обучение нейронок это подбор весов с помощью оптимизаторов, а у них самый важный параметр - lr, то есть как они ищут минимум функции, то есть минимальные потери. И по сути нейронке нужны будут известные потери и предыдущие lr. На удивление, именно эти данные нужны и всем стандартным оптимизаторам.
Ну и то что я худо бедно пилю использует строку в которой lr и потери 30 итераций + флаг снижения потерь как костыль для того чтобы сказать нейронке сделай пиздато для следующей.
>И по сути нейронке нужны будут известные потери и предыдущие lr
Не, это всё равно слишком мало. Отдельный неадекват это предсказывать lr не как число а как последовательность цифр, что ты по сути делаешь с помощью gpt3. При том что известно что гпт даже на простых арифметических примерах обсирается, то есть концептуально понять что lr 0.001 близок к lr 0.0011 она не может.
Как раз таки она и понимает что 0.001 близок к 0.0011, в арифметику она может херово но понимать что один токен в последовательности связан с другим она еще как может, это ее суть. Иначе она бы не то что не генерировала текст, она бы не могла понимать что если число в потерях стало меньше то и флаг должен быть true, однако она уже может это. Пикрил строка к слову была сгенерированна при обучении только что, и до конца еще долго так как потери 0.86. К слову датасет был со скачущим на рандом lr, по этому и добавил флаг который она на удивление правильно обрабатывает. С самого начала тупил и не создал спец токены так как не разобрался, но их можно добавить в процессе при смене датасета который будет собран уже с помощью нее.
Алсо кто за них шарит, киньте где про них и их использование почитать, а то ничего дельного гугол не выдает.
Откуда инфа что она так-же рисует? Недавно в /b чел с куколдолабом все треды создавал, но там с каждой итерацией сам генератор дообучался, т.е. менялись веса генератора. Тут же суть как раз в том, что обучать ничего не надо, он не генерирует обновленным генератором с нуля, а доГенерирует. Не могу статью по dall-e найти нигде, все говно какое-то с картинками котиков и стула-авокадо. Толком так и не понял архитектуру, кроме того, что там есть трансформер.
Ты ъоть пояснить за ИИ-то сможешь? А то у тебя эта абстрактная манна небесная, а не, сука, отдельный блять интеллект с отедльной личностью.
>Как раз таки она и понимает что 0.001 близок к 0.0011
Это понимает любая непрерывная модель с вещественным выходом. Зачем gpt здесь?
>С самого начала тупил и не создал спец токены. Алсо кто за них шарит?
Какие именно спец токены? [start] и [end] тоже спец токены, тебе про них?
Куда ты вообще лезешь, если у тебя нет ни знаний, ни базовых интуиций?
Я тот чел с колабами, сейчас сру тут нейронкой для lr, и там нейронка не дообучалась. Она искала латентные координаты, используя оценку clip как функцию потерь, подробнее тут https://youtu.be/rR5_emVeyBk. А про dall-e уже писал, единственная в опенсорсе это интерпретация на торче, первая ссылка в гугле, единственная натренированная и генерирующая не только через латенты - https://github.com/kobiso/DALLE-reproduction, но там явно мало параметров для этой задачи.
Ну и объяснение принципа работы уже опубликовали на arxiv, так же первая ссылка в гугле по запросу dall-e arxiv.
> Это понимает любая непрерывная модель с вещественным выходом. Зачем gpt здесь?
По тому что она наиболее пиздата же. И разве это не значит что она как раз таки подходит, не?
> Какие именно спец токены? [start] и [end] тоже спец токены, тебе про них?
Да, именно они. Видел как они используются например в ai dungeon в роли объявителей контекста и того что сейчас говорит игрок, ну и еще для чего то. Другие проекты тоже их используют когда есть определенные данные которые нужно сгенерировать.
> Куда ты вообще лезешь, если у тебя нет ни знаний, ни базовых интуиций?
Саморазвитие через познавание того что тебе нихуя не понятно, чому бы и нет? А еще интерес, к тому же так я на практике совершенствуюсь в питоне, вон недавно получил чуть больше базы и изучил регулярочки.
>По тому что она наиболее пиздата же.
Пиздата для чего? Что угодно можно превратить в строку и пихать в гпт но это маразм, обычный мл для каждой такой задачи зайдёт лучше.
Нужно ли уметь разбираться на практике в развертывании модели, все эти докеры-хуёкеры или этим занимаются отдельные спецы.
Докеры - хуйня без задач, но если нужны библиотеки которые хуй найдешь в рабочем состоянии вроде апекса от нвидки, то им можно научиться с одной статьи. Так же при работе в корпорациях если куча компов и лень на каждый устанавливать зависимости отдельно - один раз собрал среду на одном пк, запихал все в докер и разослал по всем пк. Там делов раз плюнуть в сонсоль.
Да. Но это относится к крупным IT-компаниям, куда джунов неохотно берут, если не вундеркинд. Крупные не IT-компании вообще нередко вкатывают требования, где надо всю систему собрать от забора данных до вывода результатов в браузер.
https://cloud.google.com/architecture/mlops-continuous-delivery-and-automation-pipelines-in-machine-learning
tldr: лучше разбираться, но с джунов такое спрашивать не будут
>>2042259
Нет. Тот же гугл уже который год форсит MLops и заставляет дата саентистов делать пайплайны, а не модели.
>>2042288
Крупные IT-компании как раз стажеров/джунов и берут.
>>2042522 (OP)
>>2042522 (OP)
>>2042522 (OP)
Аноны, я уже блядь нихуя не понимаю, inverse Reinforcement Learning и Imitation Learning это одно и то же или нет сука?
И если можно, то с курсом молодого бойца как у Николаенко...
совсем зелёный джун - не более 1,5к$, поэтому решай сам, надо ли оно тебе. но если 2,5к$ - твой потолок в финансах, возможно стоит и попробовать.
Лан, подумаю еще, $2.5к - не потолок канеш, но апать кэш дальше сложнее гораздо, особенно фикс часть
Можно много зарабатывать, но на топовых позициях надо быть кабанчиком, который на основе статистики чует куда копать, чтобы повысить профит. Это если ближе к дата-аналитике. Для компьютер вижн надо еще плюсы знать, которые быстро не осваиваются. В распознавании речи приемлемый результат только у топовых компаний типа яндеха.
>>>2045333
В ДС зарплаты падают, мне синиора в большую и известную российскую компанию предлагали месяц назад примерно на 2.5к. А джунов сейчас по 50 человек на вакансию.
Потому что сложно быть аналитиком на удаленке. Надо общаться с менеджментом и щупать бизнес. Поэтому нет галер дата-саентистов. Весь рынок ограничен компаниями в зоне физической досягаемости тела дата-саентиста.
Ну хотя кагл есть. Есть займешь первое место, то сколько-то десятков тысяч зелени получишь.
Как в офисы сейчас повыводят остатки, так и ракета будет по зп
Сиплюсы. А по моему вопросу что?
Для синиоров делай х1.5
В гайдах на ютубе, в примерах работы, в любых обучалках все юзают готовые команды для моделей что любая модель это три строчки типа tf.keras.Sequential([слои]), потом model.compile(ошибка, оптимайзер, метрика), потом model.fit(данные, вербоз, каллбак и т.д.) и все, заебок. Так же предподготовка данных, типа просто one_hot энкод, train_test_split для тренировочного и тестового куска.
Но в книгах и коде со стаковерфлоу все это написано ВРУЧНУЮ, т.е. разбиение на трен. и тест. написано лупом, уанхот прописан лупом если, и дальше модели вписаны вручную for i in epochs: и так далее. При этом по докам тенсорфлоу там они вручную пишут код 1в1 как в тех же командах keras. Смотрел в курсе от удасити этот проект по оценке сентимента отзывов imdb, там кода ДОХУЯ, препод там листает только функцию модели на три обычных экрана размазанную, смотрю уже сейчас отдельно этот же проект, 10 строчек нахуй.
Короче мне надо знать это все, как это вручную писать, а то у меня диссонанс что из этого учить, если надо - я буду учить полный код, но если окажется что чтобы почистить рыбу надо делать свой собственный нож, то это как-то ебано.
Треин_тест_сплит и тд все делают командой с склерна, в питорче используют часто даталоадеры, но обычно не удается обойтись тремя строками каждый датасет каждый раз оборачивают по-разному
Пошел нахуй, я умный
Документы вк.
Это копия, сохраненная 8 июня 2021 года.
Скачать тред: только с превью, с превью и прикрепленными файлами.
Второй вариант может долго скачиваться. Файлы будут только в живых или недавно утонувших тредах. Подробнее
Если вам полезен архив М.Двача, пожертвуйте на оплату сервера.