Это копия, сохраненная 23 мая 2021 года.
Скачать тред: только с превью, с превью и прикрепленными файлами.
Второй вариант может долго скачиваться. Файлы будут только в живых или недавно утонувших тредах. Подробнее
Если вам полезен архив М.Двача, пожертвуйте на оплату сервера.
Я ничего не понимаю, что делать?
Без петросянства: смотри программу стэнфорда CS229, CS231n https://see.stanford.edu/Course/CS229 (классика) и http://cs231n.stanford.edu/ (введение в нейроночки) и изучай, если не понятно - смотри курсы prerequisites и изучай их. Как именно ты изучишь конкретные пункты, типа линейной алгебры - дело твое, есть книги, курсы, видосики, ссылки смотри ниже.
Почему такой фокус на нейронки?
Потому что остальные чистят вилкой данные в банках с помощью LGBTboost и им некогда предлагать обновления в шапку
Какая математика используется?
В основном линейная алгебра, теорвер, матстат, базовый матан и matrix calculus
Как работает градиентный спуск?
https://cs231n.github.io/optimization-2/
Почему python?
Исторически сложилось
Можно не python?
Никого не волнует, где именно ты натренируешь свою гениальную модель. Но при серьезной работе придется изучать то, что выкладывают другие, а это будет, скорее всего, python, если работа последних лет
Что почитать для вкатывания?
http://www.deeplearningbook.org/
Николенко "Глубокое обучение" - на русском, есть примеры, но меньше охват материала
Франсуа Шолле - Глубокое обучение на Python
https://d2l.ai/index.html
В чем практиковаться нубу?
http://www.deeplearning.net/tutorial/
https://www.hackerrank.com/domains/ai
https://github.com/pytorch/examples
https://github.com/ChristosChristofidis/awesome-deep-learning#tutorials
Где набрать первый самостоятельный опыт?
https://www.kaggle.com/ | http://mltrainings.ru/
Стоит отметить, что спортивный deep learning отличается от работы примерно так же, как олимпиадное программирование от настоящего. За полпроцента точности в бизнесе борятся редко, а в случае проблем нанимают больше макак для разметки датасетов. На кагле ты будешь вилкой чистить свой датасет, чтобы на 0,1% обогнать конкурента.
Где работать?
https://www.indeed.com/q-deep-learning-jobs.html
Вкатывальщики могут устроиться программистами и дальше попроситься в ML-отдел
Есть ли фриланс в машобе?
Есть, https://www.upwork.com/search/jobs/?q=machine+learning
Но прожить только фриланся сложно, разве что постоянного клиента найти, а для этого нужно не быть тобой
Где узнать последние новости?
https://www.reddit.com/r/MachineLearning/
http://www.datatau.com/
https://twitter.com/ylecun
На реддите также есть хороший FAQ для вкатывающихся
Где посмотреть последние статьи?
http://www.arxiv-sanity.com/
https://paperswithcode.com/
https://openreview.net/
Версии для зумеров (Килхер): https://www.youtube.com/channel/UCZHmQk67mSJgfCCTn7xBfew
Количество статей зашкваливающее, поэтому все читают только свою узкую тему и хайповые статьи, упоминаемые в блогах, твиттере, ютубе и телеграме, топы NIPS и прочий хайп. Есть блоги, где кратко пересказывают статьи, даже на русском
Где посмотреть must read статьи?
https://github.com/ChristosChristofidis/awesome-deep-learning#papers
https://huggingface.co/transformers/index.html
То, что обозревает Килхер тоже зачастую must read
Где ещё можно поговорить про анализ данных?
http://ods.ai/
Нужно ли покупать видеокарту/дорогой пека?
Если хочешь просто пощупать нейроночки или сделать курсовую, то можно обойтись облаком. Google Colab дает бесплатно аналог GPU среднего ценового уровня на несколько часов с возможностью продления, при чем этот "средний уровень" постоянно растет. Некоторым достается даже V100.
Иначе выгоднее вложиться в GPU https://timdettmers.com/2019/04/03/which-gpu-for-deep-learning/ Заодно в майнкрафт на топовых настройках погоняешь
Когда уже изобретут AI и он нас всех поработит?
На текущем железе - никогда, тред не об этом
Кто нибудь использовал машоб для трейдинга?
Никто не использовал, ты первый такое придумал. Готовь камаз для бабла.
Список дедовских книг для серьёзных людей:
Trevor Hastie et al. "The Elements of Statistical Learning"
Vladimir N. Vapnik "The Nature of Statistical Learning Theory"
Christopher M. Bishop "Pattern Recognition and Machine Learning"
Взять можно тут: http://libgen.io/
Напоминание ньюфагам: немодифицированные персептроны и прочий мусор середины прошлого века действительно не работают на серьёзных задачах.
Предыдущие:
https://2ch.hk/pr/res/1920026.html (М)
https://2ch.hk/pr/res/1902462.html (М)
https://2ch.hk/pr/res/1881607.html (М)
https://2ch.hk/pr/res/1868191.html (М)
https://2ch.hk/pr/res/1847673.html (М)
https://2ch.hk/pr/res/1832580.html (М)
https://2ch.hk/pr/res/1817320.html (М)
https://2ch.hk/pr/res/1785952.html (М)
https://2ch.hk/pr/res/1758961.html (М)
https://2ch.hk/pr/res/1734710.html (М)
https://2ch.hk/pr/res/1704037.html (М)
https://2ch.hk/pr/res/1665515.html (М)
но тогда тебе придется прислать каждому новому юзеру 20 картинок, чтобы понять что ему нравится, что довольно тупо по нынешним временам.
Начать сразу с одной картинки будет нельзя.
>в общем-то алгоритм не требует нейронок,
и почему ты вообще за это зацепился?
Ведь на картинках что-то изображено и это что-то очень важно.
если тебе не хочется обучать нейронку, набери свой датасет из картинок и воображаемых юзеров. Потом поставь Orange и посмотри как он сделает циферки из картинок (всеми обоссываемой) нейросетью ImageNet, но по сути он же распознает картинки.
Далее придумаешь что-то получше и можно будет писать в коде.
> Я не планирую писать свою сложную рекомендательную систему
А это именно она, гугли классические алгоритмы для рекомендах
Я предполагаю что картинки будут создавать люди, например я, основываясь на своих предпочтениях и поэтому люди могут так же давать характеристику картинки, поэтому и думаю что не обязательно нейронки юзать, но в остальном спасибо, почитаю, посмотрю
400x224, 2:46
Тут есть исследователи, или только дотасаентисты?
Я примерно понял как эта поебень работает, но как он хочет самообучающийся ИИ сделать на основе этой хуйни? можно словить смертельную дозу кринжа с комментов
Ну так классическая хуйня из 60-х, мол, достаточно просто загрузить в систему аксиом и компуктер сам всё выведет. Навыдумали всяких хорновских дизъюнктов, доказали в них полноту метода резолюций, а потом откуда-то полезли функции аккермана и экспоненты экспонент. На этом всё загнулось без какого-либо практического результата. Естественно, там под ИИ подразумевался автоматический логический вывод и прувер разных теорем.
https://en.wikipedia.org/wiki/Logic_Theorist
Ну, metamath + GPT3 вроде работает, не все плохо с подобными темами.
Есть и более совершенные программы для подобных целей, где более полный силлогистический базис https://www.youtube.com/watch?v=PtqBE4BTqwQ и без ошибочного того же логического квадрата или представления о дихотомии. Оказывается, что как типов суждений, так и типов силлогизмов будет много больше (помимо классического конъюнктивного), чем ранее считалось, вместо одного вывода силлогизма может быть, как минимум, два, всё это согласуется с алгеброй логики и другие преимущества тоже есть.
У тебя, если ты считаешь эту хуйню чем-то умным. Родина дала MLTT, HoTT, CubicalTT, нет, хотим какую-то шизу без задач от адептов ШУЕ ППШ...
Это же основа логики. И не древние русы, а древние греки.
640x548, 0:31
Как пример, писал с применением подобной вещи - аппроксиматором для решетчатых уравнения Больцмана (обтекание жидкостью препятствия и возникновение не стационарности течения)(не особо успешно, пример прикрепил).
А если «повыдумывать» - то можно в stack собрать какие-либо темпоральные данные (курсы валют) и покатать данными слоями в составе например энкодеров или ещё чего, с учётом разномасштабных окон и возможно будет практическая значимость (если конечно потом получится RL агента научить этими прогнозами пользоваться).
Данные - это просто данные)))
>Охренеть. Чем занимаешься?
Аспирант в американской шараге. Занимаюсь по сути тем же, чем занимаются машобщики в индустрии - трясу нейронку пока не вытрясу нормальный результат. Затем публикую пейперы, которые цитируют 1.5 инвалида и забывают. Область не скажу, но если в общих чертах, то классификация изображений.
>Пили стори, как перекатился?
Есть два варианта. Первый - продаешь бабкину квартиру в ДС и поступаешь на платный бакалавриат, во время которого заводишь знакомства с преподами и изучаешь разные аспекты жизни. После этого абсолютно без проблем перекатываешься на ПхД.
Второй вариант - заканчиваешь где угодно бакалавриат и поступаешь сразу на ПхД. Это сложнее, но вполне возможно. Забудь про колледжи, которые от 50 места в рейтинге и выше. Все требования найдешь на сайте вуза. Обычно это всякие бумаги об образовании, TOEFL, GRE и эссе, почему ты хочешь у них учиться. Самое главное - это найти препода, которого ты хочешь себе в качестве научрука, лично с ним связаться и обкашлять вопросики. При его поддержке шансы возрастут на порядок.
Но вообще, идти на ПхД я не рекомендую. Будешь получать на уровне кассира волмарта, а после защиты диссертации в лучшем случае перекатишься в индустрию зачастую кодомакакой, а реалистично - пойдешь постдоком за нищенские 50-60к.
Давно нашего чегото не смотрел, а он так здорово по хайпожорам дипшизным прошёлся
https://m.youtube.com/watch?v=oyBNkj3Xg9s
>Лучше после бакалавриата сразу в индустрию?
Если изначально не хочешь работать в индустрии и плевать на деньги, то можешь пойти на ПхД, но в противном случае нужно как можно быстрее устраиваться в индустрию, в идеале после бакалавриата.
Ебать, когда он школу то закончит?
Надо, чтобы я взял условно 2 книги — на первом и втором языке, обучил ими модель (без синтаксического разбора, пусть модель хандлит опечатки и прочее) и получил переводчик.
Надоело гугл-транслейтер использовать.
Кодирующе-декодирующий трансформер Жопеншмульцера.
Хочешь мангу нейронкой переводить?
Вот ты сраказмируешь, но к этому всё и идёт.
Ну так покажи класс , шизик. Обьеби sota своими ебучими экспертными системами.
Квадрипл хуйни не скажет
Что такое копетоглист?
>Обьеби sota своими ебучими экспертными системами
До хуя исследований в области ЭС финансируется? ЭС боятся, поскольку они работают и могут выбросить на мороз многих говноедов.
>И надо ли резать мои большие картинки на более мелкие и как?
если нарежешь картинок через разметку, то потом просто пройдись по ним трансформом и усе
Рекомендательные системы, табличные данные, интерпретируемые модели и быстро работающие модели с терпимым качеством.
В остальных областях без нейронок скорее всего поешь говна.
Работают, но не лучше любого другого метода тех лет.
Покажи в классификации изображений "классический" метод, сравнимый с нейронками. Желательно чтобы ещё скор на imagenet был.
Или в nlp (в задачах чуть сложнее определения спама).
https://www.youtube.com/watch?v=tk-vPly7vf4
работаю прогрером, хочу перекатиться в cv
но не хочу весь день сидеть в жупитере
расскажите плез, цвшники все время тусуют в построении моделей или тоже прогают?
Мой план:
1. Снизить размерность автокодировщиком до 2\3 переменных
2. Использовать какие-нибудь простые алгоритмы кластеризации и заодно обратить внимание на точки вне кластеров хотелось бы заодно решить вопрос anomaly detection в данных
Чего я не могу понять, так это на что ориентироваться при выборе продолжительности обучения автодировщика для данной цели - в интернетах на всяких towardsdatascience слишком абстрактные статьи, и такие же абстрактные примеры с произвольной архитектурой и количеством эпох (часто, насколько вижу, берется достаточно большое количество эпох).
Имеет ли смысл подходить к этому как обычно делается при обучении с учителем и ориентироваться на потери на тестовых данных или тут это не то?
>Или в nlp
Кекус, нейроговно в банальный морфоонализ не может
>классификации изображений
В OpenCV куча реализованных алгоритмов
Насколько могу судить РСА менее эффективен в сравнении с автокодировщиком при наличии нелинейных связей в данных, с t-SNE малознаком
>Кекус, нейроговно в банальный морфоонализ не может
Как и классические методы.
>В OpenCV куча реализованных алгоритмов
Ты с кем споришь? Кто-то говорил, что дедовских алгоритмов не существует? Найди теперь скор на imagenet с использованием HoG'ов, кнн-ов и svm-ов.
Ебало шизика, рассказывающего про рисунки индусов, представили?
Интересно, какие сейчас манёвры будут.
Так это ж не вся модель. Алсо, индусы как всегда, индусский код как стиль жизни:
Before running the example notebook, you will need to install the package using
pip install git+https://github.com/openai/DALL-E.git
Прописать в самом блокноте никак нельзя, разумеется.
This can be changed to a GPU, e.g. 'cuda:0'.
dev = torch.device('cpu')
Самим написать cuda:0 вместо cpu никак нельзя, зато целый комментарий - запросто.
>>51072
> Это порезанная версия что ли? Чего так мало весит?
Оно же загружает сами декодер и энкодер по ссылке с опенаи, код не смотрел штоле:
enc = load_model("https://cdn.openai.com/dall-e/encoder.pkl", dev)
dec = load_model("https://cdn.openai.com/dall-e/decoder.pkl", dev)
Если с вышкой понятно что учить, то как быть с теорвером и матстатом? Область обширная, а что нужно на практике (читай, собеседовании) непонятно. Что читать?
Отсюда второй вопрос. Где получать реальный опыт на реальных задачах? Каггл, фриланс, пэт проекты? Что ещё?
Третий вопрос. Чего хотят от trainee/джуна? Набирают ли конторы мясо вроде меня с целью обучения (Украина), и есть ли в этом смысл вообще?
Тупо пиздячить теорию не вариант, да и непонятно куда двигаться.
Всем мир, атдуши.
И что оно делает? Запустил в куколабе, как выяснилось, индусский код не работает, но рабочий вариант в первом issue. Грузит откуда-то пенгвина, пик 1, как-то его обрабатывает(?), пик 2. И это все?
что советуете поддтянуть по линейной алгебре? svq, qr?
svd, соре
Финансы, медицина, наука. А вот на что способно нейроговно, кроме переворачивания пингвинов?
ты уж меня извини, но нейроговно могет в комп зрение
другим я не занимаюсь, так что не знаю
мимо
Чтение двачей и загрузка картинок в Orange
В окно выглянь
работал 3 года в конторе питонистом бэкенда + для них же делал небольшой mvp по распознаванию облаков точек
матан на том или ином уровне паршивости знаю
сейчас наша контора к хуям развалилась из-за ебанутого СЕО и ищу работу - есть на пару месяцев запал и деньги, чтобы сменить профессию
хочу вкатиться в комп зрение
Вопрос:
1) есть ли смысл тратить время на fast.ai и подобные курсы или же лучше взять один пет проект и на его базе учить что-то?
2) на собесах насколько сильно дрочат по матану? Я в работе юзал только линейную алгебру - теорвр и прочее забыл довольно давно
Двач не раз выручал меня, надеюсь, что вы, ребята, еще разок подскажите) а то я немного в прострации - думаю стоит ли или нет, ато жалко будет время потраченного
не слушай ебаклака >>51805- это типикал токсик
имхо - лучше проект. Конечно надо разобраться в общем как работают нейросетки в задачах и сегментации и классификации
но все это можно покрыть чтением + работой на парой проектов
и да, очередной раз убеждаюсь, что двач и близко сравниться с одс не может
такое ощущение, что тут одни обиженки сидят
бля я еблан, там не нужен мягкий знак
лол) дедуль, тригерят забугорные слова?)
А где их скачать-то? А то пишет, что когда-то разрабатывалось да и всё. Оно что, на магнитных лентах у дедов? Из современных слышал только об акинаторе как экспертной системе.
>А где их скачать-то?
Ты у мамки глупенький? Читай историю про MYCIN, там так пердаки у докторов разорвало, что они всячески торпедировали проект. Никто не позволит развивать работоспособные вещи, вся суть копетоглизма.
> Никто не позволит развивать работоспособные вещи
> вся суть копетоглизма
правильно ли я понимаю, что вся суть копетализма - делать неработающие вещи?
>что вся суть копетализма - делать неработающие вещи
Вся суть копетоглизма - давить все, что может лишить прибыли.
бля чел
работающие вещи генерируют прибыль, а не работающие - наоборот
так что вот это говно либо не работало, либо никому нужно не было
да они все тут только о копетализме рассуждают
и что лучше: нейронки или мл
хочешь норм советов - иди в одс
>работающие вещи генерируют прибыль
Ну смотри, помнишь был в пендосии чел который написал штуку, которая составляла типовые судебные обращения? Так вот, у гильдии юристов бомбанули пердаки, поскольку они могли оказаться без денег и они начали таскать чела по судам. Все. Так же было и с докторами и с любым кого ты попытаешься оторвать от корыта с хрючивом.
давай ссылку
твоя сторона уж слишком радикально звучит
там сто проц не так, что плохие юристы и добрый прогер
>работающие вещи генерируют прибыль
Тем кто ими владеет, а не тем кто оказывается на помойке в результате их работы.
Ты статью читал, шизло? Автор гребёт бабло лопатой. Праклятый срапетаглизм, ух, как угнетают честного программиста!
> In 2019, Browder obtained $4.6 million in funding from Silicon Valley investors such as Andreessen Horowitz and Founders Fund, who were early funders of Facebook.[33]
Алсо, проект его живёт и процветает
> It is currently available in the United Kingdom and United States (all 50 states).[2]
Сам околовкатун уже почти год, могу в фитпредикт большей части моделек с пониманием принципа их работы, панды, нампи, немного R и прочую вот эту всю хуйню уровня джуна. Но не могу в нейросети – CV и NLP мне не интересны, остальное выебоны
Что ты хочешь генерировать? Какие входные данные, какие целевые? Зачем - просто ради рекламы?
Рендомом проийдись, да и все
Ну пиздец. И чем ты там все это время занимался?
Целевую функцию придется выдумать.
Далее нейросеть найдет неочевидные ароматы, которые почемуто еще никто не смешал.
У вас отзывы есть?
Хотя бы в текстовом виде.
Обьем продаж? Популярность смесей на других сайтах? Общемировой каталог смесей?
Есть данные по продажам, всего около 140 объектов
>И чем ты там все это время занимался?
Маркетологом работал
Ну и напиши фитпредикт теперь.
Написал? Что получилось?
От зумеров местных не дождешься понимания бизнеса.
Объем модели уменьшается при сравнимых результатах
Решил загрузить модель fasterrcnn_resnet50_fpn, ошибок уже нет, но она выдает предикты очень странными (показывает, что вейп - кружка, я - кресло, иногда я - это я) и соответственно боксы вокруг объектов для отображения вообще показывают случайные вещи.
Вопросы: 1. Могу ли я все таки свою модель для классификации использовать уже для распознавания (что почитать, желательно с примерами)?
2. В моем классификаторе 4 слоя, в fasterrcnn_resnet50_fpn их очень много (сбился со счета когда считал). Полагаю, что из-за того, что много параметров в модели, у меня один кадр обрабатывается секунд пять (пока использовал только cpu, cuda не хочет видеть почему-то, но разберусь с этим потом). Можно ли обучить свою модель для детекции объектов, но чтобы она не была такая "тяжелая", какое минимальное количество параметров надо для детекции около 5 классов?
3. Лучше использовать готовую обученную модель или все таки пытаться сделать свою для детекции? Для начала мне нужно определять людей на изображении и еще 4-5 объектов (типа машина и т.д.).
В дальнейшем найденные объекты будут уже классифицироваться.
>В моем классификаторе 4 слоя, в fasterrcnn_resnet50_fpn их очень много (сбился со счета когда считал)
>задает вопросы почему хреновое качество.
читай внимательней.
Для простого рабочего классификатора 4-х слоев достаточно.
fasterrcnn_resnet50_fpn - обученная модель для задачи распознавания.
Вопрос состоит вообще в другом. Да и количество слоев - не показатель хорошего результата.
Да мне похуй на вакансии. Мне в целом тема интересна. Я хочу её для трейдинга заюзать + свои стартапы проекты.
А тут вообще есть люди умеющие свои мысли выражать или тупо натрененные на оффтоп нейронки?
А тут есть ДЛЯ КОГО их выражать?
Читай пикрелейтедб. Аттракцион невиданной щедрости только сегодня
А в чем? Ну загрузи ты эту YOLO.
есть 2 шкафа, с вероятностью 1/2 в первом шкафу есть пальто и с вероятность 1/2 во втором шкафу тоже есть пальто. (это не одно и тоже пальто, просто факт наличия какого-то пальто)
Вот подхожу я к шкафам и гардеробщик говорит, что в первом шкафу пальто нет, какова вероятность, что во втором шкафу его тоже нет?
с одной стороны логика подсказывает, что события независимы и вероятность для второго шкафа по-прежнему равна 1/2, но я наверняка знаю, что этот ответ неверный. Очевидного способа прикрутить сюда Байеса я не вижу, но как-то скорректировать ожидание вероятности после эксперимента надо.
>но я наверняка знаю, что этот ответ неверный.
затравили на собеседовании? Так это за гнилые зубы, а не из-за задачи
нихуя мой апельсин у анонов в оборот вошел
Да какая там матчасть: матричных умножений нахуярили параллельных, обозвали "кёрнелом" это всё для отдельных вапникошизов, вот и вся матчасть.
А про биониклов там нету? Может хотя бы в к рации что за трансформеры и нахуй они нужны?
вкатыш 2 недели
>матричных умножений нахуярили параллельных, обозвали "кёрнелом"
Какая же продвинутая матчасть в трансформерах, пиздец просто!
Единственный значимый критерий оценки матчасти - качество работы. В остальном чем проще тем лучше. А по качеству трансформеры уделывают всё остальное из того что сейчас существует, это медицинский факт. Аттеншен точнее пулинга в свертках. И нет, твои петушиные ЭС не лучше трансформеров.
>Единственный значимый критерий оценки матчасти - качество работы.
Для датамакак - да, для тех кто хочет разобраться как это работает - нет.
предположим, у меня сегодня запор, поэтому вот тебе ссылка
https://scikit-learn.org/stable/modules/generated/sklearn.linear_model.LinearRegression.html
А в другой раз обосру.
А тебе вот эта ссылка
https://scikit-learn.org/stable/modules/generated/sklearn.neighbors.KNeighborsRegressor.html
если конечно я правильно уловил твою интерпретацию
ну ето я уже пробовал че ты уж меня прям за дебила держишь. я думал мб че-нибудь хитровыебанное какие-то преобразования матрицы хуе мое
Тогда тоже knn regressor.
Но если это тестовое задание, тебе бы следовало бы проявить себя аналитиком и запросить у них что же это за данные. Понять их природу. Понять допустимо ли использовать knn regressor.
Ты не на мотематике.
Упрощения тут не работают и правильного ответа может не быть.
Можешь, конечно, дипзумеров с матрицами подождать . Может они меня удивят.
Вот есть батч из n строк длиной l. Получаем мы из него матрицу коэффициентов внимания размерами n x l x l.
Если l большое, то это дохуя по памяти, на карточку не влезет. Хочу ограничить внимание окном размером w. Как это сделать, чтобы сэкономить память? В конкретных фреймворках желательно. В керасе уже есть слой attention, но он именно что делает матрицу n x l x l.
И KDE (это не про аниме)
В общем да, действительно классификатор нужен, на хабре человечик написал что эта нс нужна скорее для знакомства и что ее не применяют на практике, есть что-то более правильное но в том же русле?
Аноны, подскажите пожалуйста, без лишней желчи.
Сейчас стоит выбор во что вкатываться: .Net(C#) или же ML.
Нравится имеено писать код, но и матешу не хотелось бы забрасывать.
Следовательно вопрос: пишет ли код ML engineer или занимается тупым перебором табличек и подгадыванием коэфициентов?
Во что перспективнее вкатываться?
1.Это не НС, а Настоящий Датасаенс.
2. Давай ссылку на свой сраный Хабр. Наверное побольше подробностей и смысла там описал.
Все еще не ясна твоя идея
Смотря ещё какая сфера биомеда. Но в большинстве случаев тебе всё равно профильное ВО потребуется если ты конечно не тупо код дрочить хочешь (хотя и там скорее всего как минимум птушка понадобится).
По сути результат у них один - они возвращают вероятности для двух классов, но что творится с кросс-энтроп. лоссом?
1) В первом случае у нас к примеру выход 0.6, лэйбл 1, лосс -log(0.6)
2) В втором случае у нас выход [0.6, 0.4], лэйбл [1, 0], лосс -(log(0.6) + log(0.6))
У них разные значения лосса, а значит в плане обучения и расп. градиента они разные?
Так я сам не моргну и мне это не нужно
Говорю же я даже определений не знаю, меня прототип просто любой интересует скорее, https://m.habr.com/ru/post/149693/ если реально нужно, а смысл этого алгоритма такой: на входе последовательность 0 и 1, на выходе 3 цифры - вектор(для примера с любимым цветом будет 3 байта), задача отнести к определенному классу человека по его ответам да/нет(1/0), хз стало ли понятней, хотя бы я могу теперь сформулировать задачу
это не смысл а твой пересказ смысла как будто ты формулируешь теорему на матеше.
но, блядь, датасаенс это поиск смысла в данных! и они все нужны.
бамп задачке
Блядб ересь какая-то.
Я понимаю там прикол Монти-Холла, но здесь то реально вроде ничего не меняется от того, что гардеробщик что-то там спизданул.
Условие точно верное?
Я уже сомневаюсь, если честно, но вроде верные
Если даже я немного напутал, то я все равно не вижу в каком случае эту задачу можно было бы решить
думаю ты прав, похоже я действительно проебался и на самом деле гардеробщик сказал, что в одном из шкафов пальто нет ( а не "в первом шкафу пальто нет")
Есть тут специалисты по GAN'ам?
Нужно ли в Conditional GAN'е смешивать реальные и генерированные метки класса по аналогии с метками реальное изображение/сгенерированное?
Разницы нет. Второй лосс у тебя неправильный, нужно -(log(0.6) x 1 + log(0.4) x 0) = -log(0.6), точно такой же.
Ну как?
Данные это классы цветов, 10 оттенков красного и т.д, каждого цвета, какие еще нужны сведенья, чтобы понять, я не совсем понимаю, говорю же дурачек я
Я пытался читать про som, раз вновь советуют видимо подойдет, но для меня сложноватое было описание, словно som берет данные для класса и подгоняет точки под них, а у меня классы уже сформулированны, а точка одна только, ладно, буду читать еще
Сначала хотел Гудфелоу почитать, но чот на амазоне в отзывах его книгу хуесосят.
Что есть рили нормальное?
На амазоне в топе Hands-On Machine Learning with Scikit-Learn, Keras, and TensorFlow: Concepts, Tools, and Techniques to Build Intelligent Systems
Рили годно или тож не оч?
>На русском
Это очень хуевая идея. Для машоба, как и программирования в целом, нужно обязательно знать английский. Без него ты даже в документации к библиотеке не разберешься.
Джун 60-100, миддл 100-150, сеньор 150-250. Это для ДС.
Просто звучит как что-то новое. Стильно модно молодёжно. Выёбисто. По-умному. По-сойбойски.
Ну каггл, все в курсе про него. Намек на то что я должен выигрывать соревнования? Я еще слышал джун должен иметь PhD из Стэнфорда. Да и то это только на 20тыс руб в месяц потянет для начала.
>Я еще слышал джун должен иметь PhD из Стэнфорда.
Да уж пиздец. На двачах тебя еще и не так затроллят.
Ну как бы бывают очень сильные лабы в Американских/Германских мухосрансках. Так что нечего смеяться.
>подаём на вход свой пример, которого не было в датасете
Обычно имеется ввиду что и похожих не было.
Например ты обучаешь мультиклассовый классификатор животных, но почему-то в трейне у тебя только кошки и собаки. Потом ты подаёшь на вход ящерку и с удивлением обнаруживаешь что тоже работает хотя на ящерок ты не учил. Это zero shot. Если прям совсем без ящерок не работает но достаточно добавить пару и заработает то это few-shot.
Если для nlp, то судя по примеру с transformers, zero-shot классификация это правильный выбор тега для поданной на вход фразы. Типа фраза "за кого вы голосовали?" относится к политике. Что больше напоминает именно predict, чем какой-то прямо суперхайтек. Просто у таких нейроночек датасеты, на которых обучен претрейн на многие порядки больше и разнообразнее, чем в дедовском машобе, поэтому и предикт работает поинтереснее. Одно дело ирисы Фишера, а другое какой-нибудь 40-гиговый корпус commoncrawl.
Ну что пупсики, на дворе март 2021 года, где мой сильный ии, где чатботы могущие в осмысленный диалог?
>на дворе март 2021 года
Самое время откатываться на дедовские методы - видеокарт для диплернинга все равно нет.
>видеокарт для диплернинга
Майнеры задавили своими тухесами ии? Профессора философии перестали высирать свои говнопеперы?
Оно в принципе работать не может, если в обучающей выборке вообще ничего похожего не было. Zero-shot - это когда обучил классификатор на кошках и собаках, а потом подсунул собаку другой породы, которой в выборке не было, и её правильно классифицирует, а не когда классификатору кошек и собак подсунули ящерицу.
Как я понимаю, суть явления в том, что при таких объемах обучающего датасета и параметров самой нейроночки, она "знает" настолько дохуя, что достаточно показать несколько примеров того, что конкретно от нее требуется, а дальше она сможет в подобное же по аналогии. Уже сейчас есть модель с 1.6 триллионов параметров, следующие будут с десятками и сотнями триллионов и обученные на терабайтных и петабайтных корпусах. Понятно, что у них с этим делом все будет ещё лучше.
Спасибо Настя
Ух бля сколько пиздолизов в комментах.
>Тебе нужно отрекламится у топ блогеров IT и добавить рубрику IT новости. Канал к концу года на соточку можно будет вытащить. У тебя все задатки есть хорошая съемка видео внешность грамотная речь и интеллект самое главное
>внешность
>Я, кажется, только теперь понял, зачем все преподаватели обязательно должны быть страшными, немытыми, небритыми обезьянами в грязных свитерах с недельным перегаром, и, желательно, мужского пола)
>В противном случае, материал будет усваиваться крайне плохо, внимание концентрации будет идти не туда)
>@miracl6 Тоже в голову, но..как бы в другую. Которая не совсем умеет думать) Хотя.. в моей , судя по всему, начал даже мозг появляться после твоих видео- она даже комменты научилась писать, но до датасаенса ей долековато еще).
>Я уже четвертый раз пытаюсь пересматривать и не вкуриваю о чем идет речь. У меня в голове лишь "ай, какая хорошая девочка, ай какая умница, буси-буси-буси" )
>Красивая девочка ❤️
>Когда я вижу Настю, то у меня отключается мозг и я начинаю неудержимо писать всякую фигню. Мозга и так нет, так он еще и отключается) . А если в реале увижу -то вообще и спинной мозг отлючится. Как лечить этот недуг? Кто знает?
> @miracl6 А что еще? Ну скажи, я не обижаюсь. Анонимный ютубный комментатор не склонен обижаться априори. Может...сптоксикозник? Ну нет, этот недуг характерен для подростков, а я взрослый дядя).. Что еще?
>Глядя на заставку, мне кажется , что более светлый цвет волос придает Анастасии немного мягкости и она ощущается уже не такой злостной, агрессивной и строгой тетей. Посмотрим , как будет в эфире.
>Я всегда восхищался Настиной милотой. Она мне нравится любая - даже ненакрашенная.) А делать комплименты - это залог мужчин без заниженной самооценки. Кстати, ты тоже красива и умница. Я уже писал. Единственно у меня занижена самооценка в вопросе уровня моего датасаенса.
>Но это все мелочи. Я уверен, что если бы ты совсем не красилась - мое бы впечатление не поменялось.
>Мне нравится сама твоя монера говорить, голос, твои горящие глаки. Даже твоя серьезность.Ты такая серьезница. Этот огонек, что от тебя исходит зажигает меня - и мне это нравится. Это пробуждает во мне маньячинку, а свою маниакальность я умею сублимировать в нужное русло.
Ух бля сколько пиздолизов в комментах.
>Тебе нужно отрекламится у топ блогеров IT и добавить рубрику IT новости. Канал к концу года на соточку можно будет вытащить. У тебя все задатки есть хорошая съемка видео внешность грамотная речь и интеллект самое главное
>внешность
>Я, кажется, только теперь понял, зачем все преподаватели обязательно должны быть страшными, немытыми, небритыми обезьянами в грязных свитерах с недельным перегаром, и, желательно, мужского пола)
>В противном случае, материал будет усваиваться крайне плохо, внимание концентрации будет идти не туда)
>@miracl6 Тоже в голову, но..как бы в другую. Которая не совсем умеет думать) Хотя.. в моей , судя по всему, начал даже мозг появляться после твоих видео- она даже комменты научилась писать, но до датасаенса ей долековато еще).
>Я уже четвертый раз пытаюсь пересматривать и не вкуриваю о чем идет речь. У меня в голове лишь "ай, какая хорошая девочка, ай какая умница, буси-буси-буси" )
>Красивая девочка ❤️
>Когда я вижу Настю, то у меня отключается мозг и я начинаю неудержимо писать всякую фигню. Мозга и так нет, так он еще и отключается) . А если в реале увижу -то вообще и спинной мозг отлючится. Как лечить этот недуг? Кто знает?
> @miracl6 А что еще? Ну скажи, я не обижаюсь. Анонимный ютубный комментатор не склонен обижаться априори. Может...сптоксикозник? Ну нет, этот недуг характерен для подростков, а я взрослый дядя).. Что еще?
>Глядя на заставку, мне кажется , что более светлый цвет волос придает Анастасии немного мягкости и она ощущается уже не такой злостной, агрессивной и строгой тетей. Посмотрим , как будет в эфире.
>Я всегда восхищался Настиной милотой. Она мне нравится любая - даже ненакрашенная.) А делать комплименты - это залог мужчин без заниженной самооценки. Кстати, ты тоже красива и умница. Я уже писал. Единственно у меня занижена самооценка в вопросе уровня моего датасаенса.
>Но это все мелочи. Я уверен, что если бы ты совсем не красилась - мое бы впечатление не поменялось.
>Мне нравится сама твоя монера говорить, голос, твои горящие глаки. Даже твоя серьезность.Ты такая серьезница. Этот огонек, что от тебя исходит зажигает меня - и мне это нравится. Это пробуждает во мне маньячинку, а свою маниакальность я умею сублимировать в нужное русло.
В прошлом треде говорили, что она хохлушка, теперь говорят, что она цыганка, охуеть.
В следующем треде надо её назвать болгарочкой.
В дотасаенсе вообще есть работа где-нибудь кроме Москвы и Питера?
А ты думал откуда на некоторых европейских гербах парни с такими характерными причесонами? Это они с турками боролись.
древние хохлы аутсорсеры
>что она хохлушка, теперь говорят, что она цыганка, охуеть
Так ты чернявых холов и малдовашек не видел? Хер их от цыган отличишь. Вот эта баба типикл Оксанка.
Уа-ха-ха-ха-ха-ха-ха!
Я могу читать документацию на инглише, но читать целую книгу по такой сложной тематике на инглише я в рот ебал
Вообще-то он Шварценеггер, приколист.
Дотасциентисты не могут в учебники. Поэтому D2l.ai.
А по-моему очень даже клёвая. Я бы даже подрочил.
>где мой сильный ии
В Китае:
>В Китае все чаще меняют менеджеров на алгоритмы: те следят за работниками, дают им задачи и могут списать часть зарплаты
https://vc.ru/hr/209527-v-kitae-vse-chashche-menyayut-menedzherov-na-algoritmy-te-sledyat-za-rabotnikami-dayut-im-zadachi-i-mogut-spisat-chast-zarplaty
>Китайская система распознавания лиц определяет нужного человека с точностью до 99,8%
https://www.securitylab.ru/news/457581.php
>«В Китае распознавание эмоций способствовало оценке риска заключенных в нескольких региональных тюрьмах», - отмечает Global Times со ссылкой на эксперименты в тюрьме в Гуанчжоу в 2019 году. «Технология помогает тюремным служащим оценить, представляет ли заключенный потенциальный риск , включая возможные психические проблемы и склонность к насилию или суициду, и оценить вероятность повторения правонарушения после освобождения ».
За пределами тюрем государственная газета хвалила «технологию распознавания эмоций» за ее использование на дорогах, где полиция может отслеживать эмоции каждого водителя и останавливать любого с «ненормальными» чувствами. Это, как утверждалось, поможет предотвратить инциденты, связанные с агрессивным поведением на дорогах, или другое потенциально преступное поведение.
https://www.breitbart.com/asia/2021/03/04/china-using-emotion-recognition-technology-to-arrest-people/
Ну что, датасатанисты?
Построили светлое будущее?
бамп
время остановиться, но его все легко. Это не архивы спецслужб. Сюда лучше не Чикатило и даже не станет)) пиздеть не найдут.
слышали. Вам кажется странным, что украл плавленный сырок в третьем классе, на рейд, чтобы их интересам. Почему я вам все стали
твой одноклассник. Я твой одноклассник. Я твой одноклассник. Я узнал тебя по частям, тобою написанное это простое пиздабольство , обиженный жизнью
разрешения компетентных людей. Их интересы настолько высоки, что столько внимания этих людей уделено вам, ничтожным интернет-червям? Все очень просто, вы ненароком
людей, о которых вы даже не впечатляет, давай разберем по частям, тобою написанное это простое пиздабольство , рембо ты обосрался под
президентов, взрывали целые города, когда появлялась угроза их интересам. Почему я вам рассказываю об этом? Эти люди поручили мне предупредить вас.
мешки ворочить, много вас в 9м классе, на понятном тебе языке, языке боли. Ребята, не понял с кем общаешься. Вот эта
планирую заёбывать этой шизой двачеров, какие подводные?
хуя эзотерика вышла
это реально шиза
Кобзарь.
В каких моментах он предпочтительное?
А то чет все массово перекатываются в TF2 и pytorch
И scikit используется макс для проверки полезности признаков
Дата саенс это в принципе инфоцыганская хуйня. Для реального бизнеса порой достаточно экселя или R с его model <- lm(y ~ a + b + c, data=df)
С помощью python cv2 можно изи эту задачу решить. Подбираешь нужную threshold по которому отсекаешь по яркости, изображение делиться на куски, есть функция которая эти куски перебирает и есть функция которая обводит
Литерали это https://www.pyimagesearch.com/2016/10/31/detecting-multiple-bright-spots-in-an-image-with-python-and-opencv/
> Есть ли смысл в классическом машинном обучении?
Есть.
> В каких моментах он предпочтительное?
Тут в один пост не уложиться
> А то чет все массово перекатываются в TF2 и pytorch
Хуйню пишешь. Вопрос в задаче
> И scikit используется макс для проверки полезности признаков
Неправда. Опять же всё зависит от задачи
> планирую заёбывать этой шизой двачеров, какие подводные?
Да был уже чел, который с паскодом напускал на двач бота на нейронке, обученного на постах двача. Есть это где-то на гитхабе
Был ещё когда-то проект плагин для браузера, который отмечал скримеры в вебмке. Это не про машинку правда, а просто так вспомнил. Щас уже умерло это все, да и скримеры никто не постит почти
>И scikit используется макс для проверки полезности признаков
Как сплитилка он используется. Ну и pca/кластеризации всякие
работаю разрабом на с++, иногда просят микросервисы на питоне наклепать
в целом все ок, но иногда хочется несколько более наукоемких вещей (типа cv, рекомендации и пр говно)
есть ли у вас свои или чужие кулстори о перекате из классического прогания в мл?
Ты уже умеешь больше 99% обитателей треда. Гугли курсы по статистике и непосредственно мл. Для того, чтобы говнокодить на питоне в аналитике, достаточно навыков джуна. Еще можешь глянуть R, но я бы это полноценным языком программирования не назвал. Это скорее калькулятор, софт ты на нем не напишешь.
>Тут в один пост не уложиться
Ну хоть примерно расскажи, в какую сторону смотреть. А то как не начнешь гуглить кейсы, сплошная хуйня в духе "мы создали нейросеть и переворачиваем пингвинов"
Задачи классификации и регрессии на табличных данных это бустингы. Кластеризация и системы рекомендаций тоже в основном без нейронок. Иногда нужна супер интерпретируемость, как например в кредитном скориге, тогда вообще самые простые модели вылезают типо линейной регрессии и решающего дерева
Иногда у тебя нет данных, чтобы обучить нейронку. Вот например была задача на "я проф." по машинке, где нужно было по точкам предсказать значения остальных. Трейн в несколько раз меньше тест. Тебе нужно восстановление плотности, что например с помощью knn можно сделать
>как например в кредитном скориге
Я вот тут не до конца понимаю, чем занимается ответственный за это спец в банке. Он что, с утра до ночи передрачивает модель, чтобы та не оверфитилась и давала нормальные метрики?
Почему используют Питон для ИИ, если его нельзя нормально скомпилировать?
Да, я тупанул, давно не чекал лосс и забыл, спасибо за ответ.
ну точнее да, он остается интерпретируемым, но если тебе важен сам факт компиляции, то да, его можно и скомпилить
> Например, как использовать tensorflow с C++ софтом? Разворачивать embedded питон?
Есть инструменты для этого.
Но в любом случае питон в основном для того, чтобы исследовать что-то быстро смотреть, выводить графики и тд. Сделал модель. Можешь её хоть на чем угодном переписать
>Можешь её хоть на чем угодном переписать
Если переписывать, зачем тогда питон? Сделал свою нейрочку, на ней и обучил.
Ничего. То что ты в одной компании сеньор не значит, что ты в другой им будешь. В некоторых фирмах вообще десяток внутренних уровней есть
я вот тот самый чел из крестов
> норм млщик прежде всего должен лучше чем средний кодер мочь мозгами шевелить.
ну блять
я тебе так скажу
норм кодер должен мочь шевелить мозгами лучше чем средний кодер
- одни прямо заявляют, что few-shot learning и "метаобучение" синонимы, и предполагают только работу через обращение к готовой модели (в т.ч. файнтюненной), без какого-бы то ни было абдейта параметров. Собственно, https://arxiv.org/abs/2005.14165
- другие называют few-shot learning'ом файнтюнинг, но с небольшим количеством обучающих примеров, т.е. с абдейтом параметров модели. Например, https://arxiv.org/abs/2012.09543
Так кто прав-то?
А ещё интеграл римана и неопределенный интеграл это принципиально разные вещи. И лук-растение и лук-оружие.
К тому же в первой статье они явно пишут, что им не нравится термин "zero-shot", поэтому в рамках статьи они называют свой подход "few-shot learning'ом".
Конценсуса в сообществе не сложилось, понятия "прав-неправ" не имеют смысла.
А всякие выпуклые, нелинейные оптимизации, численные методы, матстат? Или с этим только исследователи копаются?
Ты определись с тем, что ты хочешь, тогда приходи
Если ты хочешь просто деньги зарабатывать, то всё это тебе не надо.
Всякими сложными штуками занимаются исследователи, но им деньги не платят.
>неважно сколько там примеров
Если ты вапникошиз, которого интересуют только маняматически точные утверждения - то конечно неважно. Если ты норм чел то понятно что ситуации в десять примеров и в миллион отличаются качественно. Хотя бы тем, что во втором случае придётся сильно задрачиваться с тем чтобы столько данных накопать и их разметить.
> Если ты хочешь просто деньги зарабатывать, то всё это тебе не надо.
А нахуя вам работодатели деньги платят лол? Какие у вас уникальные скилзы? Знание фреймворков и все? Как вы конкуренцию выдерживаете если статистика с бэкпропом вам не нужны?
Потому что СЕО в бизнесах не в курсе ка к все это работает. Поэтому 50% этих дата сайентистов - тянки, там нужны пипл скиллз чтобы наебывать. Но этот пузырь через пару лет лопнет. Будут только дата инженеры нужны (но это не настолько хайпово-весело). Ну и еще теоретики-математики которые будут теории новые выдумывать (но тут нужна серьезная мат./кс база и ПхД).
Вот не скажи. Скиена пишет, что программисты просто НЕ УВАЖАЮТ данные.
Так что тянки, которые просто уважают данные и знают немного статистики постоянно нужны.
>А нахуя вам работодатели деньги платят лол?
За то же, что и программистам, за макакинг.
>Какие у вас уникальные скилзы?
Тряска чёрного ящика с умным видом.
>Знание фреймворков и все?
По сути.
>Как вы конкуренцию выдерживаете если статистика с бэкпропом вам не нужны?
Тут подсидел, там подлизал.
А если более серьёзно, то вот, например: >>1950226 →.
https://www.youtube.com/watch?v=UxGebZpYVfM
Хотя на фоне этих двух додиков кодерков не так в глаза бросается
Ну по сути ничего не изменилось. Просто придумали новое имя для аналитиков. И заставляют их теперь еще алгоритмы и питон учить.
Сорта никому не нужного ноунейм зумерья, которые сами сюда приходят пиариться.
какая борда такой и пиар
Всегда будут макаки, которые перепишут это на любой промышленный маняязык.
>>62663
Что не так? Ноунейм и есть. Я знаю, кто такой Суцкевер, да даже кто такой Килхер. А про бабушкина только здесь и вижу упоминания.
> Я знаю
Интересно как ты вообще млкой занимаешься, если даже не знаешь, что личный опыт не репрезентативен
>Ще з цікавого: вперше за декілька років зниження частки Python: можливо, використання Data Science дійшло до точки насичення.
https://dou.ua/lenta/articles/language-rating-jan-2021/
>У хохлов пузырь дата-саенса уже лопается.
>>47549 (OP)
Заглянул в ODS, и что я вижу:
>Всем привет!Снова OZONна связи. )
>Кого ищем:
>Ищем к себе в направление клиентской аналитики крутых продуктовых data-аналитиков.
>ЗП: Вилка - 150-200 для синьоров (их и ищем).
150 тысяч российских рублей (2K$) - это уже синьор!
>150 тысяч российских рублей (2K$) - это уже синьор!
Да уж, смехотворно.
Всего-то в 5-6 раз выше зп среднего профессора в сраной рашке.
Так аналитик это не дс или мл или в чем подвох?
>150 тысяч российских рублей (2K$) - это уже синьор!
А что не так? Если вне ДС, то вообще заебись. По уровню жизни эквивалент $200k/y в Штатах.
Ну вот в европку/штаты/японию едь если хочешь 3к+. Ах да, там же конкуренция в 1млн индусов сеньор уровня готовые работать за еду и визы.
Вечер в Хату, посоны. Сам я инженегр в основном бекэнда, но за 10 лет заебало. Попробовал посочинять нейронки, понравилось. Не MuseGAN пока получился, но для хеллоу ворлда сойдет.
Есть желание перекатиться полностью, не потеряв при этом текущей зарплаты сеньора-помидора. Не сильно ли я губу раскатил?
Никак. У меня в altair лимит на 5000.
Конечно, потеряешь. В этом и ссуть.
Заметь, с каким энтузиазмом тут обсуждают кодерские вопросы и обоссывают Orange. Млщикам очень хочется быть кодерами, но они не могут.
> обоссывают Orange.
Его и надо обоссывать, с тобой вместе. Трансформеров там нету, в облаке он работать не может. А для всего остального есть R.
А вы в курсе, насколько дешевле всё остальное?
Как вы выкладываете свои пет-проекты для портфолио в сеть? Заливаете куда-нибудь на хероку? Или просто бросаете валяться в гитхабе?
Нормально читал. Как ты вектор размерностью 512 умножишь на вектор размерностью 64?
Ага, от 512-мерного вектора откусить первые 64 значения, а остальные тип нахуй не нужны))) Гениально, апплодирую стоя...
Какой откусить это будет шейп (8, 64) на (64, 1). Но я вообще мимо, не читал пока о чем мы
> шейп (8, 64)
Но тогда и матрицы весов Wk, Wq и Wv должны быть 64х8, а там про их размерность ничего не сказано. Короче, это все зумерство какое-то, надо код трансформера смотреть, как там это сделано...
Блоки в Orange можно соединить лишь одним способом. Способов облажаться в питоне и R для начинающего масса.
Не позволю обоссывать
> Трансформеров там нету,
Есть PCA и t-SNE.
А если тебе не хватает, эту задачу в принципе не стоило решать.
> Куда копать в сторону программ самих изменяющих и дополняющих свой сорс код с минимальным участием человека?
Да тут ничего сложного. Можно просто подготовить свою модифицированную копию и запустить. Либо через динамические библиотеки делать и их заменять. Если язык скриптовый, то вообще как угодно можно вертеть
Только нахуя это?
> А также фишки когда прогу запускают в интернет и она по определённым запросам поисковиков "обучается" в чём-либо?
Что за прога? Обучается чему? Типо scraper поисковый?
>Что за прога? Обучается чему? Типо scraper поисковый?
Ну вот ты книжки читаешь, умнее становишься. А я такую прогу хочу сделать. Тонны байт информации в интернете, а юзать некому.
>Только нахуя это?
Ну вот ты книжки читаешь, развиваешься: нейрончики, миелинчик, дофаминчик, вся хуйня. Вот и прога будет обучаться и новые фичи сама для себя писать и их же потом применять. Круто же.
Понятно. Вкатывайся потихоньку. Узнаешь насколько инвалидная и узкозаточенная хуйня этот дип ленинг. Ты не просто не можешь нейронке любой набор данных скормить. Ты должен очень сильно постараться, чтобы нейронка обучилась на подобранном тобой наборе данных под конкретную однобокую задачу.
Если хочется сказки почитать про сильный интеллект, то Фристон и Шмидхубер пожалуйста. Но там близко ничего нет к тому, что ты написал
С чего-то начинать надо. Всё равно объективно лучшего плацдарма пока нет.
По-моему у тебя случай когда нужно либо английский либо линейную алгебру подтянуть сперва прежде чем за трансформеры хвататься.
Действуешь матрицей n x m на вектор размерности m получаешь вектор размерности n. m = 512 это эмбеддинг, n = 64 это вектора атеншена.
я вот мимокрокодил
но
я правильно понимаю, что он не знает правило перемножения матриц? в машоб треде?
Перемножение матриц.
разложения
В общем есть дата сет. В нём одно поле - текстовое, которое я хочу пустить в tf-idf, т.е. хочу следующий конвейер:
текстовое поле -> tf-idf -> слияния результата с остальным дата сетом -> грид сёрч
Как это сделать?
так это для тупых же, не?
Даже гпт2 давно тесты Тьюринга и Войта-Кампфа проходит, где-то видел код для куколаба. Претрейны Гпт3 пока жопят вылаживать да и толку с них, в куколабе даже gpt2-xl с 1.3млрд параметров еле дышит, а версия от huggingface вообще отваливается, памяти мало, гпт3 там вообще хуй запустишь, но ясно же, что у нее со всем этим намного лучше.
В 99% тесты выглядит как "я показал текст из gpt моей маме и она не отличила его от человеческого". До прохождения нормального теста тьюринга ещё очень далеко.
>химическую кастрацию делали чтобы в жопу не ебался
Ну так его в жопу ебали, Белоснежке норм было
>вопрос
Там, наверное, код-ревью понадобится.
В общем, из GAN'а был сделан Conditional GAN.
Обучение имеет такой вид (pic1, pic2).
А вот при попытке визуализировать на каждой эпохе выход генератора через
torchvision.utils.save_image(gen_batch, '{}.png'.format(epoch+1))
получается такое (pic3). И это на 10 эпохе, т.е. хоть что-то уже должно быть.
В чём может быть ошибка? В визуализации? В модели? В чём-то ещё? Как это можно поправить?
>В чём может быть ошибка? В визуализации?
Ну это ты должен был сразу посмотреть, глянув на выходы генератора. Судя по тому, что генерирует цвет из границы ргб (ff00ff) save_image не скейлит ничего или неправильно скейлит.
Тестировал код на mnist/cifar?
Ещё лучше следить за confusion_matrix, а не лоссом, потому что последний мало что значит в ганах.
>Ещё лучше следить за confusion_matrix, а не лоссом, потому что последний мало что значит в ганах.
Почему?
256x256, 1:13
Очередной прорыв111
>Конечно, ведь поющие котики это то, что нужно человечеству!
Копетоглизму нужно не то, что нужно человечеству, а то, на чём можно заработать.
> Копетоглизму нужно не то, что нужно человечеству, а то, на чём можно заработать.
Мань, а ты не видишь противоречия в своем кукарекании? Как можно заработать на том, что никому не нужно?
Автоматизация диагностической медицины например.
>Как можно заработать на том, что никому не нужно?
С помощью целенаправленного одебиливания населения и вездесущей рекламы.
> Короче прочитал о чем вы.
> 1 слово в эмбендинге это (1, 512). Матрица весов (512, 64)
>>64145
> По-моему у тебя случай когда нужно либо английский либо линейную алгебру подтянуть сперва прежде чем за трансформеры хвататься.
> Действуешь матрицей n x m на вектор размерности m получаешь вектор размерности n. m = 512 это эмбеддинг, n = 64 это вектора атеншена.
Да нет, там совсем не так. Смотрите, там прямо написано, что входной эмбеддинг Х имеет размерность 512 х длина фразы. Матрица весов Wk, Wq и Wv имеют размерности 64 х длина фразы. Мне и интересно, как из матрицы 512х3 получили три матрицы 64х3. Автор индус хуйню написал, или как это понимать?
- Так делайте сами
- Кто? Я?
> тикток уже не нужен, просто берёшь человека и он кривляется.
Ожидания: ии заменит водителей, строителей, дворников
Реальность: ии заменил зумеров в тиктоке
Думаю, что ты душнила старая, которая не шарит в том, что нравится зумерам, на уровне деда размышляешь.
> душнила старая, которая не шарит в том, что нравится зумерам,
Вас чем промывают, то вам и нравится, своего мнения-то нет. Что нравится зумерам, можно легко нагуглить.
Дядь, мне 29 годиков, но даже я не настолько оторван от реальности в полустарческом маразме под музыку Caretaker'а, когда кажется годной идея дрыгать перед борзыми и наглыми малолетками AI-марионетку и думать при этом что это "годный стартап".
>это ничем не лучше
Ох, какой же додик ты. Ну пили свой годный стартап, хули. Просто это как с научными пейрепами, если ты за пять минут придумал гениальную идею, как заработать кучи бабла, с вероятностью в 90% о ней уже подумали другие и задолго до тебя.
Очевидно, зависит от того, куда идешь...
Что такое матожидание? Что такое дисперсия? Когда лучше использовать медиану, а не среднее? Какие вероятностные меры на B([0, 1]) существуют?
Получились вопросы уровня /b. Реально такую ерунду спрашивают?
>Ну это ты должен был сразу посмотреть, глянув на выходы генератора.
Проблема оказалась в модифицированном генераторе, он на выходе выдаёт:
tensor([[[[ 1., 1., 1., ..., 1., 1., 1.],
[ 1., 1., 1., ..., 1., 1., 1.],
[ 1., 1., 1., ..., 1., 1., 1.],
...,
Из-за чего это может быть? Из-за конкатенации тензоров?
Судя по всему, это действительно из-за конкатенации тензоров разного типа
https://github.com/pytorch/pytorch/issues/35014
Теперь вопрос, что с этим делать? Тензор картинки имеет тип torch.FloatTensor, тензор метки torch.LongTensor.
Если их сравнять, вылезает:
RuntimeError: Expected tensor for argument #1 'indices' to have scalar type Long; but got torch.cuda.FloatTensor instead (while checking arguments for embedding)
Хватит форсить эту селедку. Тем более что ее топ вопросов тянет максимум на собеседования стажеров.
ИМХО, причина, по которой её тут форсят — смазливое личико.
Так вопрос был видимо от претендента на стажерскую вакансию, иначе бы знал что спрашивают.
Да не, у нас стажеров давно просят сверточную нейронку с нуля на С++ написать. Ну а что, понасмотрятся этих видосов, заучат ответы, а потом страдают. Ну и ЗП мы конечно не платим.
Концы с щёками стажёров
Наоборот. Но когда у тебя тысячи вкатунов готовы умирать за еду в надежде на светлое будущее через год (ну и 2k+ EUR) смысла нет тратиться.
Вот на неё у меня всегда стоит!
Ну и как мне теперь вкатываться? Через полгода вузик заканчиваю.
Как накидать офлайн распознавалку рукописного текста?
без регистрации и смс
Да, кто-то же должен в атари устанавливать human perfomance, для бенчмарка. Там и вопросы попроще, а ля "чем SGHMC отличается от динамики Ланжевина?".
>динамика Ланжевина
>ЛанжевИна
Охуеть, какие умные слова знают эксперты из секретного подразделения ДипМайнд!
Ладно, у меня вопрос.
Типа если у меня есть пхд по фундаментальной математике от среднего американского универа, меня возьмут в секретное подразделение ДипМайнд немакакой?
я в стартапе занимался облаками точек
сейчас хочу влететь в cv с изображениями
посоветуйте плиз какой-нибудь проект, чтобы было не стыдно выложить на гит (да и попрактиковаться, на самом то деле)
спрашиваю, потому не что не хочу объебаться с тем, что сделаю что-нибудь, а мне техлид на собесе скажет, что это любой дворник умеет
мб изъебистую сегментацию, детекцию? короче помоги двач, скажу всем спасибо за это
АЛСО
важно
какой матан спрашивают на собесах и какая часть от спрашиваемого на собесах нужна в работе? мне помимо ангема, линала и чуточку дифф геометрии нихуя не пригодилось. Но часто вижу, то то теоревер требуют, то еще что-то
буду про кубики спрашивать?)
Набираете только небелых лгбт немужчин мусульман, верно?
И как успехи?
Гугл ещё не обанкротился с такими работниками?
Кто нам будет делать поющих котиков если не негропедики?
Наоборот. Нет прыщавых асоциальных и упрямых задротов, которые думают что лучше всех и саботируют работу.
Ага, то есть вы нанимаете тупых долбоебов негропедиков, чтобы не допустить, чтобы кто-то оказался умнее вас самих?
В принципе верная стратегия для современной эпохи всеобщей дебилизации.
Причем тут негры вообще? Они и сами работать не пойдут, не царское дело. Типичная кодомакака в Гугле это индус или китаец.
Нет, sweatey, посмотри статистику. Азиаты, например, всегда и везде лучше белых в вычислительных науках. Женщины лучше в колледжах и больше подходят для научных и околонаучных работ по многим причинам. ИТ как и наука начиналось как убежище для белых задротов и сейчас они паникуют когда это превращается из закрытого клуба для нердов в что-то для всех. И выясняется что они не такие то крутые/умные как им мамка говорила. Рыночек порешал.
>Женщины лучше в колледжах и больше подходят для научных и околонаучных работ по многим причинам
Назови одну.
толсто уже
Как минимум в среднем по аккуратности/организованности. Если ты делал науку то в курсе как это важно.
Ну сейчас рыночек и решает что белые мужики не нужны. Квот нет, есть статистика что наличие хотя бы одного коллеги твоего пола или национальности бустит твой перформанс. Так и вышло в универах, раньше пиздили результаты/работы у женщин тк они были одиночки и не могли ничего противопоставить и были квоты на одну женщину в год (на ПхД) для мат.департаментов в топ универах в США например. Как это убрали так женщины (а потом и азиаты) начали постепенно аутперформить белых мужиков и захватывать универы. Кстати в топ униках США до сих пор есть квоты на азиатов, иначе все бы давно в индусах и прочих азиатах было бы. Все это легко гуглится если хочешь больше инфы.
>Азиаты, например, всегда и везде лучше белых в вычислительных науках.
Только почему-то математику белые двигали.
Американские азиаты - потомки элитных китайцев, которые могли переехать из Китая, когда там пиздец творился. Американские негры - потомки случайных негров, выживших при транспортировке. Белые - европейских нищуков и сектантов.
https://www.youtube.com/watch?v=w9XXQYGMvTk
и это ок? типа просто распознование объектов?
или тут проблема в риалтайме?
>аккуратности/организованности
Ну да, в прикладной/экспериментальной массовой херне это самое важное.
Для нормальной науки мозги нужны, а не это вот.
>раньше пиздили результаты/работы у женщин тк они были одиночки и не могли ничего противопоставить
Это тебе твои духовные наставники радфемки сказали?
> Американские азиаты - потомки элитных китайцев, которые могли переехать из Китая, когда там пиздец творился.
Да. Так же и американские индусы тоже илитка из высших каст, а не из тех кто серит посреди улицы, а потом пьет воду из Ганга верхом на недоеденном трупе.
>>69737
> Ну сейчас рыночек и решает что белые мужики не нужны.
Это решает (((повесточка))), а не рыночек. Рыночек как раз веками решал в пользу белых мужиков.
В радфем религии зависят.
>Рыночек как раз веками решал в пользу белых мужиков.
И откуда же в этом чудесном рыночке взялась повесточка?
Она появилась с того момента, когда развалилась сельская община и европейцы стали переезжать в города, чтобы работать на заводах.
>>68020
Ещё раз знатоки.
Есть тензор нормализованной картинки и есть тензор меток.
Первый имеет тип float32 и его значения, грубо говоря, в районе -1...1.
Надо ли тензор метки:
1) Так же приводить к float32?
2) Как-то шкалировать, чтобы его значения не сильно отличались от значений тензора картинки.
Жанр картинки.
Это ж Conditional GAN. Тензор картинки и тензор метки потом конкатенируется в дискриминаторе и генераторе.
соре, с ганами не работал никогда
но если конткатинируется, то выглядит так, будто 1) надо 2) завист от того, насколько сильно отличается от изображения. Если порядки совсем пиздец какие разные, то да, надо. Если нет, то можно и обойтись. Имхо, робастнее сделать шкалирование в любом случае
Спасибо, но всё равно какая-то хня.
Это правда. Сети становятся глубже, параметров - больше, прорывных идей - меньше, вот и трясут свои трансформеры и имажнеты.
Ёбаный ты сука долбоёб, речь шла про НАУКУ, вообще, блядь, НАУКУ, а не про твоё тупое R&D в области дотасаенс.
бля да заткнись ты уже
иди в /b и там спорь про то какие женщины охуеные (а если черные, то вообще тониньки старки) а мужло - тупое
а тут дай людям за машоб тереть
да напишут как на джуна
выебут на собесе как на сеньера
вон, в яндексе по-моему в описаниях всегда ультра лайтовые требования
а на деле мало кто туда попадает
>в яндексе по-моему в описаниях всегда ультра лайтовые требования
Там уже в анкете просят List three papers you like from the ICML, NeurIPS, ICLR, CVPR, ACL, KDD, ICCV, ECCV, EMNLP conferences published in 2018-2020 and explain why you like these papers and consider them important. We expect at least two or three sentences per article, but your comments can be as long as you wish.
А это только INTERN researcher.
Интересно, что жопеншмульцерошизик написал бы.
>А это только INTERN researcher.
Так в чем проблема? Просят прочитать пейперы, а не писать самому. Этим по сути занимаются вообще все машобщики.
не могу, диплом уже на горизонте.
Не про вычистку датасетов, а про светлое будущее, что всё больше задач решается компьютерами и всё в таком роде.
Я просто не знаю как это загуглить, чтобы что-то интересно найти - а не ненаучно-популярные статьи для обывателей, которые на что угодно поведутся и не отличат важную новость от несущественной.
Какой способ расстановки рессвязей лучше и почему?
>иди в /b и там спорь про то какие женщины охуеные (а если черные, то вообще тониньки старки) а мужло - тупое
А нахуя ты мне это пишешь, шиз? Пиши это той чёрной транс лесбо квир небинарной андрогинной фемке мусульманке, выёбывающейся своим дипмайндом и дайвёрсити, с которой срач начался.
Sir Роджер Пенроуз, "Тени Разума".
>Смешная щютка.
Если не хочешь изобретать хуево работающие велосипеды, то читать пейперы придется.
Я знаю.
За что люблю современный "двач", я могу любую чушь написать и мне будут всерьез отвечать и пригорать с этого, лол.
>около-религиозных или философских вдохновляющих статей
Ох уж эти мамкины ценники аметисты. Был им Боженька и Царствие Небесное - фууу веруны бох мертв))...
ой а дальше що делать-то? Швитая Нейросеточка, спаси и сохрани от лукавого...
Не трясись так
Не общего назначения, а мой голос превратить в голос определённой девушки.
Не столько сделать, сколько попрактиковаться и попробовать разное.
Пробовал классической программой выделять первые n гармоник на спектрограмме и повышать их до девчачьих значений, при этом заранее собрав какую-то статистику по диапазону возможных частот для каждой гармоники, но получилось так себе (отвратительно).
В нейронках третий день, я что-то как ребёнок радуюсь запуская примеры или пробую свои конструкции.
Не очень понятно какая архитектура должна быть у такого. Текст и голос как бы отдельные - это нужно двумя автоэнкодерами обработать оба голоса, чтобы автоэнкодер запомнил сам голос, а в сжатом месте сохранял звуки (гласные, или что он там будет сохранять), а потом произносить одно и то же и пытаться аудиозаписи по тексту и интонациям совместить и обучать третью нейронку данные из узкого месте одного автоэнкодера в другой передавать?
Или обучать один автоэнкодер, которому ещё дополнительным сигналом передаётся 0/1 в зависимости от того, чей голос, после чего менять сигнал?
Или подключить к одному энкодеру два декодера и надеяться, что на выходе второго будут те же слова и интонации, что и на первом?
Хуево заходишь.
бля вот меня бесят эти ололошы, которые подрывают чей-то пукан и такие "ааззазазазаз бомбанулоо азазазаз"
вызвать негативные эмоции легче всего. для этого вообще не нужно ничего уметь, нужно просто быть отбитым
ты пишешь очевидно вентиляторную хуйню и славно хлопаешь в ладоши, от того что у всех горит? ну збс
если тебя нельзя вот так вот развести на негатив, то ты какой-то дебич-аутист, сорян, иди нахуй
>>71656
я ебу кто это пишет? мне похуй, заканчивайте оба
Если я запилю AGI его первой задачей будет вылавливать таких идиотов как ты и перерабатывать в биотопливо.
Глобалисты тебе этого не позволят. Стоит задача уничтожения нормальных белых мужчин.
> 2021, ганы забыты? Сейчас в моде few-shot meta-learning какой-нибудь?
Это вообще разные направления машоба. Иди уже уроки делай, а...
Huggingface datasets
Для одних данных у нас есть один способ построить генеративную модель, для других - принципиально другой. Нет, они никак не скрещиваются, не обобщаются. Ну чо, охуеть, хорошо поработали учёные в говне мочёные.
Млрд.
>жопеншмульцер надрочил модель под определенный датасет
Там не столько датасет, сколько общий подход формулировки задачи few-shot learning'а. Датасет стандартный , для сравнения.
>ганы
>few-shot meta-learning
>Для одних данных у нас есть один способ построить генеративную модель, для других - принципиально другой.
>Ну чо, охуеть, хорошо поработали учёные в говне мочёные.
Ну, так на хабре сказали, там где он биттер лессон и прочитал.
А есть такое же, но уровнем повыше?
Раньше в папке content была папка drive, откуда можно получить получит доступ к файлам на гугл драйве, но щас смотрю и этой папки нет. Что за хрень?
Посмотрел две части этой хуйни. Как она стала сеньором? Она же просто фактические ошибки выдает, да и объяснения как будто в курсах от гикбрейнса.
Сегодня вечером займусь хейт-вотчингом.
p.s. у модуля нет производной, поэтому его трудно обучать, а вот L2-регуляризация выпуклая и гладкая, поэтому её можно обучать градиентным спуском
p.p.s. рассказала про train-test-split, даже не упомянула валидацию
> Как она стала сеньором?
Сам-то как думаешь?
> Она же просто фактические ошибки выдает, да и объяснения как будто в курсах от гикбрейнса.
Будто ей нужно что-то кроме знания стандартного набора баззвордов.
А есть инфа, откуда она? Судя по темам, откуда-то из кредитного скоринга и прочего банкинга. Да и в как раз каком-нибудь сбере каждый второй - сеньор.
Вот тред
https://2ch.hk/b/res/242795738.html (М)
Шапка говно, знаю, так что в кратце.
Помните в январе новости что опенхуи создали на основе гпт3 нейронку которая генерирует пик по 1 фразе. Так вот, я её нашел и доработал до уровня можно использовать.
Стоит ли или погоните ссанными тряпками? Или стоит создать отдельный тред?
Алсо сразу примеры. Стимпанковская m14a4 и гигантский красный мяч.
Что ты там именно поменял? Алсо, вот же есть https://github.com/lucidrains/DALLE-pytorch хм, интересно, не думал, что так быстро выложат что-то подобное. Но в любом случае, это не гпт3, так что думаю будет там ехать кринж через кринж и кринжем погонять...
Обновил.
Я бы её по'pussypass'ал!
Потому что эта технология еле дышит даже с использованием гпт3. А то, что у них на пайторчах реализовано, вроде вообще реформер (во всяком случае, там ссылка на пейпер про реформер). Разумеется, качество там будет уровня "говно из жопы". Вот когда гпт4 / что-то такого уровня к далле прикрутят, тогда все охуеют. Собственно, оно и с гпт3 вполне даже ничего, судя по примерам в пейпере, даже если это черрипикинг.
Интересная хуйня проскакивает, вот a epic sphere. Как минимум в простейшую геометрию и зачатки попытки в стиль она может.
> Как минимум в простейшую геометрию и зачатки попытки в стиль она может.
Где ты там геометрию и стиль увидел?
Эпичность и сфера же. Что просил то и получил.
спасибо за внимание
делаю часть с детекцией
какую сеть лучше подобрать для риал тайма? слышал про yolov4
норм?
норм
>Зачем я нужен, если любого Васяна можно в кратчайшие сроки научить трясти ящик?
Васян натрясет 70% точности, ты 90%, а какой-нибудь рнд в фаанге натрясет 99%.
Это нормально для 14й эпохи по сравнению с первой?
Или GAN творит херню склоняюсь к этому?
Йоло второй версии норм работает от 1000, это буквально пол дня. Поздние версии не пробовал, но не думаю что там по другому.
Подразумевая, что метки генерированные имеют больший коэффициент ошибок, то только если не хватает данных для предотвращения переобучения. А потом файнюнить на реальных метках
норм
>Проверял на (фешн-)мнисте свой код?
Нет, мы ж не ищем лёгких путей: сразу хуячим картинки 224x224 в модифицированную реснет-модель с самописным генератором.
Теперь надо либо долго разбираться, где я ошибся, либо искать того, кто поможет.
Но, учитывая, что итт в основном жопеншмульцера обсуждают, найти тут кого-то такого будет тяжеловато.
Проверь на мнисте, можешь даже с обычными денс-денс-денс генератором и дискриминатором.
Но ведь и 70% для антифрода в занюханном микрокредите тоже норм. Просто чуть больше неизбежной ручной работы проверяющему человеку
А кто чем занимается на работе? Интересуют практические задачи, которые решаются сейчас датасаенсом.
https://youtu.be/IrVikr2uNfE
>Detroit police: Driver was in control of Tesla when it crashed into semi truck
Ты хотя бы название прочитал.
Когда таким дебикам как ты запретят водить, тогда и аварий не будет.
Разобрался. Оказывается нужно было продать душу гуглу и только тогда он даст активировать нлпшную библиотеку
>Алгоритмы машинного обучения стремительно развиваются, а значит, спрос на специалистов по Data Science тоже постоянно растёт.
Совершенно необоснованная импликация. Типикал дотасаенс.
>Какая область или области машоба/диплернинга считаются наиболее сложными с математической точки зрения?
1. Топологический анализ данных. Там математические антоны даже гомологии вычисляют.
2. Квантовое машинное обучение. Ну это так, не то чтобы сложно, просто айтишников пугает слово «квантовый». Ну и да, математика там немного сложнее.
> Интересует в первую очередь из того, что реально работает и немало где применяется
1. Ещё пока не применяется. Наверное.
2. Уже применяется техногигантами для решения огромных задач.
Ну это так, то, что первое пришло в голову, я долго не думал.
> . Какая область или области машоба/диплернинга считаются наиболее сложными с математической точки зрения?
Никакая. Там все одинаково и со времён середины прошлого века именно в матчасти не поменялось ничего, даже самые современные трансформеры это на 95% перемножения матриц, остальное всякие нормирования и градиенты, то есть все как Жопеншмульцер в 1960 завещал.
> Квантовое машинное обучение. Ну это так, не то чтобы сложно, просто айтишников пугает слово «квантовый». Ну и да, математика там немного сложнее.
Самое смешное, что квантовая логика это в точности нечеткая логика, для которой матчасть разработана давным-давно, я на этот счёт даже пейпер приносил. Так что вкатывайтесь в нечеткую логику, любой квантовый вычислитель это литералли fuzzy inference system.
Может fuzzy logic еа классических компьютерах дать больший прирост производительности, чем точные алгоритмы?
Нет, про то, что QC это эквивалент нечетким и вероятносным системам, он верно сказал.
Нет. Нечеткая логика это не про производительность, а про то, что вся неточность не сводится к вероятности. Даст ли оно что-то по сравнению с нейроночками итд толком неясно, никто не пробовал нечёткие модели стакать сотнями слоёв, хотя общий принцип такого известен.
>квантовая логика это в точности нечеткая логика
Хуйня без задач же, не математика.
>Так что вкатывайтесь в нечеткую логику
Хуйня без задач же, за один вечер можно освоить.
>любой квантовый вычислитель это литералли fuzzy inference system
Я могу так же сказать, что любой квантовый вычислитель это литералли машина Тьюринга с прикрученным на выходе генератором случайных чисел.
>> Квантовое машинное обучение
А вообще, вот для таких вот вещей есть нормальный матаппарат, например, теория лиевых групп и функан, которые реально позволяют развивать теорию, а не просто "понять" уже разработанное, в отличие от говна по типу бесполезных квантовых, нечетких и прочих говнологик.
С помощью такой хуйни без задач ничего нового в теории разработать нельзя, потому что это совершенно интеллектуально неглубокие хреновины. Математики такую хуйню математикой в принципе не считают.
>Так что вкатывайтесь в нечеткую логику
Так что вкатывайтесь в нормальную математику.
> Я могу так же сказать, что любой квантовый вычислитель это литералли машина Тьюринга с прикрученным на выходе генератором случайных чисел.
Тупостью троллишь? Любой в принципе возможный вычислитель это машина Тьюринга, так как универсальная машина Тьюринга моделирует само понятие вычислимости.
> С помощью такой хуйни без задач ничего нового в теории разработать нельзя, потому что это совершенно интеллектуально неглубокие хреновины. Математики такую хуйню математикой в принципе не считают.
Ну разработай "интеллектуально глубокий" машоб с гамалогиями. В итоге насосешься биттерлессона.
> А вообще, вот для таких вот вещей есть нормальный матаппарат, например, теория лиевых групп и функан, которые реально позволяют развивать теорию, а не просто "понять" уже разработанное,
Добавлю, что в итоге все равно получится машина Тьюринга, как ты и написал выше. А если нет разницы, зачем в машобе матаппарат сложнее линейной алгебры?
КТО? Я?
>насосешься биттерлессона
Макакинг никак разработку теории не отменяет, это параллельные вещи.
> Макакинг никак разработку теории не отменяет, это параллельные вещи.
За все время существования этой предметной области, единственный серьезный теоретический подход к машобчику это теория статистического обучения Вапника. Но там нет никаких гамалогий, они там не нужны.
> Макакинг никак разработку теории не отменяет, это параллельные вещи.
Ты походу не очень понял, о чем там. Саттон приводит в пример случай, когда суперкомпьютер обыграл Каспарова. Без всяких сложных теорий, гамалогий итд, простым по-сути брутфорсом. То есть, можно анализировать шахматы, выстраивать сложные теории, а можно просто использовать брутфорс да накидать побольше вычислительных мощностей. И последний вариант работает лучше первого. Каспарова обьебали ещё в 1997, а каких-то умных идей, как это сделать по науке, так и не поступало.
>Без всяких сложных теорий, гамалогий итд, простым по-сути брутфорсом.
Потому что проблема шахмат это комбинаторика позиционной игры обычной. Странно ожидать что там может быть какая-то естественная теория.
> можно анализировать шахматы, выстраивать сложные теории, а можно
заниматься макакингом. В том смысле слова "можно" что одно не заменяет другое, тут разные целеполагания. То есть когда макака с битерлессоном наперевес грозиться заменить учёных макаками, это не учёные не понимают битерлессона, а макака не понимает сути научного знания.
Джвачую.
> А кто-нибудь может объяснить, нахрена люди создают новые архитектуры, если можно просто stack more layers?
Новые архитектуры менее ресурсоемкие. Ещё Лекун говорил, что все что может сверточная сеть, теоретически может и простой перцептрон, вот только он должен быть огромных размеров и жрать в разы больше.
>>79826
> Потому что проблема шахмат это комбинаторика позиционной игры обычной.
Гамалогии твои - та же комбинаторика, ещё и попроще шахмат. Diagram chasing, основной способ доказательства в гамалогиях, как пример. Дергаешь такой коммутативные диаграммы и веруешь, что не макака...
>Гамалогии твои - та же комбинаторика, ещё и попроще шахмат.
Так гамалогии это инструмент, а не самоцель. К тому же, для их подсчёта вполне классические алгоритмы работают, там машоб вообще не нужен.
Ну представь, что шахматная партия это коммутативная диаграмма. Фигуры - объекты, ходы - морфизмы. Цель - доказать, что для какой-то из фигур возможен морфизм между ней и вражеским королем, ставящий ему мат. По науке ты такой результат доказывать охуеешь. А тут накидали побольше параметров и брутфорсом доказали. Вот и битерлесон зарешал
> По науке ты такой результат доказывать охуеешь.
Нет, не ахуеешь. Учитывая простоту шахмат, с математической (научной точки зрения) решение задачи шахмат сводится к перебору всех вариантов ходов, и нахождение такой последовательности действий, которая удовлетворяла бы constraints. То есть задача прекрасно укладывается в программу-теорему на прологе.
Обоснование метода минимизации эмпирического риска, например.
>Фигуры - объекты, ходы - морфизмы. Цель - доказать, что для какой-то из фигур возможен морфизм между ней и вражеским королем, ставящий ему мат.
1) Это бессмыслица
2) Что угодно можно засунуть в теорию категорий. От этого оно не превращается в математику.
Этот шарит.
1280x720, 0:10
> ррреее, ваши гамалогии не гамалогии, ваша математика не математика
Какой же ты клован, хоспаде...
Лучше бы отложил свой макакинг чёрного ящика уже и пошёл нормальную математику учить.
Это копия, сохраненная 23 мая 2021 года.
Скачать тред: только с превью, с превью и прикрепленными файлами.
Второй вариант может долго скачиваться. Файлы будут только в живых или недавно утонувших тредах. Подробнее
Если вам полезен архив М.Двача, пожертвуйте на оплату сервера.